ChatGPTなどの「ジェネレーティブAI」をGoogle元CEOが“恐れる”理由はこれだ「ジェネレーティブAI」の危険性【中編】

Google元CEO、エリック・シュミット氏は人工知能(AI)技術開発を率いていた経験から、ChatGPTなどの「ジェネレーティブAI」の危険性を熟知している。シュミット氏が特に懸念する「3大リスク」とは。

2023年03月29日 05時00分 公開
[Makenzie HollandTechTarget]

関連キーワード

Google | CEO | データ分析


 人工知能(AI)ベンダーOpenAIが手掛ける「ChatGPT」などのAIチャットbot(AI技術を活用したチャットbot)をはじめ、AI技術でテキストや画像などを自動生成する「ジェネレーティブAI」(生成型AI)の活用が広がっている。ジェネレーティブAIは便利な一方で、さまざまなリスクももたらす。何に注意が必要なのか。Googleの元CEO(最高経営責任者)、エリック・シュミット氏の見解を紹介する。

Google元CEOが語るジェネレーティブAIの“本当の怖さ”はこれだ

 シュミット氏は、ジェネレーティブAIの重大なリスクとして下記の3つを挙げる。

  • ウイルスを人工的に合成すること
  • 意図的に誤情報を作成・流布し、暴力を扇動すること
  • 人命に関わる、危険な意思決定を下すこと

 ウイルスの人工合成について、シュミット氏は「ウイルスの設計図を作るジェネレーティブAIと生物学のデータベース、ウイルスを合成する施設の3つがあれば、比較的簡単に危険なウイルスを生み出すことができる」と語る。ジェネレーティブAIは「誤った判断をする可能性がある」と同氏は指摘。飛行機を例に取り上げ、ジェネレーティブAIの用途を「操縦そのものを任せるのではなく、パイロットにアドバイスすることにとどめるべきだ」と主張する。

 シュミット氏はChatGPTに「高さ300メートル以上のビルを全てバターで作るべき理由を書いて」と指示。その結果、ChatGPTは高層ビル建設にバターを使うことのメリットを説明したという。2日後に同じ質問をしたところ、ChatGPTは、高層ビルの建設資材としてバターの強度が不足している理由を説明したと、シュミット氏は述べる。この例は「ジェネレーティブAIの問題の一つは、一貫性がないことだ」(同氏)ということを示す。

 聞き方によっては、人なら疑問を持つこともジェネレーティブAIに信じさせることができるとシュミット氏は説明する。「上は下だ」「重力は存在しない」といったことだ。


 後編は、ジェネレーティブAIがもたらすリスクへの対処法を取り上げる。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

ITmedia マーケティング新着記事

news063.jpg

約8割の人が経験する「見づらいホームページ」 最も多い理由は?
NEXERはくまwebと共同で「見づらいホームページ」に関するアンケートを実施した。

news119.jpg

スマホ時間の奪い合い「利用者増えても、利用時間は減少」 唯一の勝者は?
データマーケティング支援のGlossomは、「スマートフォンでのメディアとコマースの利用に...

news100.jpg

生成AI時代のコンテンツ制作の課題 アドビが考える解決法は?
求められる顧客体験はますます高度になる一方で、マーケターのリソースは逼迫している。...