「モラルのないAI利用」を内部告発者に暴露されないためには?:AI技術の倫理を巡る「内部告発」【後編】
AI技術の台頭とともに「自社のAI技術の使い方は倫理的かどうか」を従業員が厳しい目で見るようになりつつある。これからの時代に求められる「倫理的なIT戦略」の在り方とは。
IT企業の間では、人工知能(AI)技術の倫理(モラル)に関する問題への懸念が広がり、AI技術の使用責任のリスクを重視する傾向が強まっている。勤務先の「倫理的ではないAI技術利用」を、従業員が内部告発する事態も相次ぐ。こうした状況に対処するために、CIO(最高情報責任者)は何をすればよいのか。
「モラルのないAI利用」の内部告発を避けるには
併せて読みたいお薦め記事
連載:AI技術の倫理を巡る「内部告発」
「ChatGPT」の衝撃
- 衝撃の「ChatGPT」 その可能性と“限界”とは?
- ChatGPTが宣告 「プログラマーはコーディングさえできればよい」時代の終わり
- ChatGPTのOSS代替「Open Assistant」とは? “ただの複製”ではない理由
「生産性や利益を支えるAI技術の利用時に倫理的な問題に直面し、自らの判断を問われるようになったとき、従業員は経営陣やAI技術の責任を問うために立ち上がる」。調査会社Forrester Researchのリンダ・アイビー・ロッサー氏は、こう語る。ロッサー氏は同社のバイスプレジデント兼リサーチディレクターで、顧客調査データに基づく予測レポート「Predictions 2023」を執筆した。
ロッサー氏の見解では「従業員は変わりつつあり、問題が起きたときに、より発言するようになっている」。従業員は、企業で働いているからといって「人間性を捨ててもよい」と考えているわけではない。むしろ倫理が、企業の価値観や根幹に組み込まれていることを期待している。「企業を代表して倫理性を求める従業員の気持ちは、CIOに倫理的なIT戦略を慎重に検討するよう促す」とロッサー氏は話す。
倫理的で責任あるIT戦略を実施するためには、CIOをはじめとする最高経営幹部が協力して、法的リスクとビジネスリスクを最小限に抑える必要があると、ロッサー氏は指摘する。「戦略立案には『倫理的で責任ある技術とは何か』という視点と、視野を広げることが必要になる」(同氏)
TechTarget発 先取りITトレンド
米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.