検索
特集/連載

Google元CEOに聞く「ChatGPTなどのジェネレーティブAIを“凶器”にしない方法」「ジェネレーティブAI」の危険性【後編】

ChatGPTなどの「ジェネレーティブAI」が活用の幅を広げるとともに、危険性も高まる。ジェネレーティブAIの安全利用のために、やらなければならないこととは何か。

Share
Tweet
LINE
Hatena

関連キーワード

Google | CEO | データ分析


 人工知能(AI)技術でテキストや画像などを自動生成する「ジェネレーティブAI」(生成型AI)は、企業や一般消費者にとって身近な存在になりつつある。人工知能(AI)ベンダーOpenAIが手掛ける「ChatGPT」などのAIチャットbot(AI技術を活用したチャットbot)は、その代表例だ。これらのジェネレーティブAIを安全に使うためには、どうすればいいのか。Googleの元CEO(最高経営責任者)、エリック・シュミット氏の見解を紹介する。

ジェネレーティブAIを“凶器”にしない方法はこれだ

 「IT業界には『良い技術は皆にシェアしよう』というマインドがある」とシュミットは認めつつ、AI技術に関しては「この考え方は危険だ」と語る。「AI技術は『強力過ぎる技術』になってしまった」(同氏)

 シュミット氏によると、企業や消費者がジェネレーティブAIを使う場合は、ジェネレーティブAIをあくまでも「アドバイス役」にとどめ、最終的な意思決定は人に任せることが重要だ。ジェネレーティブAIは人に害を与える可能性がある。そのため「ジェネレーティブAIの生成物に対して責任を負う人が、必ず存在すべきだ」と同氏は述べる。

 開発者や政府がジェネレーティブAIのリスクを見極めて、場合によっては機密扱いにして公開を差し控える必要があると、シュミット氏は主張する。大学生の頃の話として同氏は、ある学生が核弾頭の起爆機構を設計した際、大学が危険だと判断して、すぐに機密扱いにしたことを例に挙げる。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る