検索
特集/連載

「モラルのないAI利用」を内部告発者に暴露されないためには?AI技術の倫理を巡る「内部告発」【後編】

AI技術の台頭とともに「自社のAI技術の使い方は倫理的かどうか」を従業員が厳しい目で見るようになりつつある。これからの時代に求められる「倫理的なIT戦略」の在り方とは。

Share
Tweet
LINE
Hatena

 IT企業の間では、人工知能(AI)技術の倫理(モラル)に関する問題への懸念が広がり、AI技術の使用責任のリスクを重視する傾向が強まっている。勤務先の「倫理的ではないAI技術利用」を、従業員が内部告発する事態も相次ぐ。こうした状況に対処するために、CIO(最高情報責任者)は何をすればよいのか。

「モラルのないAI利用」の内部告発を避けるには

 「生産性や利益を支えるAI技術の利用時に倫理的な問題に直面し、自らの判断を問われるようになったとき、従業員は経営陣やAI技術の責任を問うために立ち上がる」。調査会社Forrester Researchのリンダ・アイビー・ロッサー氏は、こう語る。ロッサー氏は同社のバイスプレジデント兼リサーチディレクターで、顧客調査データに基づく予測レポート「Predictions 2023」を執筆した。

 ロッサー氏の見解では「従業員は変わりつつあり、問題が起きたときに、より発言するようになっている」。従業員は、企業で働いているからといって「人間性を捨ててもよい」と考えているわけではない。むしろ倫理が、企業の価値観や根幹に組み込まれていることを期待している。「企業を代表して倫理性を求める従業員の気持ちは、CIOに倫理的なIT戦略を慎重に検討するよう促す」とロッサー氏は話す。

 倫理的で責任あるIT戦略を実施するためには、CIOをはじめとする最高経営幹部が協力して、法的リスクとビジネスリスクを最小限に抑える必要があると、ロッサー氏は指摘する。「戦略立案には『倫理的で責任ある技術とは何か』という視点と、視野を広げることが必要になる」(同氏)

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る