ChatGPTなどの「ジェネレーティブAI」をGoogle元CEOが“恐れる”理由はこれだ「ジェネレーティブAI」の危険性【中編】

Google元CEO、エリック・シュミット氏は人工知能(AI)技術開発を率いていた経験から、ChatGPTなどの「ジェネレーティブAI」の危険性を熟知している。シュミット氏が特に懸念する「3大リスク」とは。

2023年03月29日 05時00分 公開
[Makenzie HollandTechTarget]

関連キーワード

Google | CEO | データ分析


 人工知能(AI)ベンダーOpenAIが手掛ける「ChatGPT」などのAIチャットbot(AI技術を活用したチャットbot)をはじめ、AI技術でテキストや画像などを自動生成する「ジェネレーティブAI」(生成型AI)の活用が広がっている。ジェネレーティブAIは便利な一方で、さまざまなリスクももたらす。何に注意が必要なのか。Googleの元CEO(最高経営責任者)、エリック・シュミット氏の見解を紹介する。

Google元CEOが語るジェネレーティブAIの“本当の怖さ”はこれだ

 シュミット氏は、ジェネレーティブAIの重大なリスクとして下記の3つを挙げる。

  • ウイルスを人工的に合成すること
  • 意図的に誤情報を作成・流布し、暴力を扇動すること
  • 人命に関わる、危険な意思決定を下すこと

 ウイルスの人工合成について、シュミット氏は「ウイルスの設計図を作るジェネレーティブAIと生物学のデータベース、ウイルスを合成する施設の3つがあれば、比較的簡単に危険なウイルスを生み出すことができる」と語る。ジェネレーティブAIは「誤った判断をする可能性がある」と同氏は指摘。飛行機を例に取り上げ、ジェネレーティブAIの用途を「操縦そのものを任せるのではなく、パイロットにアドバイスすることにとどめるべきだ」と主張する。

 シュミット氏はChatGPTに「高さ300メートル以上のビルを全てバターで作るべき理由を書いて」と指示。その結果、ChatGPTは高層ビル建設にバターを使うことのメリットを説明したという。2日後に同じ質問をしたところ、ChatGPTは、高層ビルの建設資材としてバターの強度が不足している理由を説明したと、シュミット氏は述べる。この例は「ジェネレーティブAIの問題の一つは、一貫性がないことだ」(同氏)ということを示す。

 聞き方によっては、人なら疑問を持つこともジェネレーティブAIに信じさせることができるとシュミット氏は説明する。「上は下だ」「重力は存在しない」といったことだ。


 後編は、ジェネレーティブAIがもたらすリスクへの対処法を取り上げる。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

ITmedia マーケティング新着記事

news115.jpg

コカ・コーラ流 生成AIをマーケティングに活用する方法(無料eBook)
生成AIがこれからのマーケティングをどう変えるのかは誰もが注目するテーマ。世界最先端...

news080.jpg

DIORが本気で挑むラグジュアリー体験としてのAR
広告プラットフォームのTeadsがAR(拡張現実)とAI(人工知能)技術を応用したサービスを...

news057.jpg

AIに対して良い印象を持っている人は70%以上 理由は?
楽天インサイトが「AIに関する調査」結果を発表。AI(人工知能)のイメージや生活への関...