ChatGPTなどの「ジェネレーティブAI」をGoogle元CEOが“恐れる”理由はこれだ:「ジェネレーティブAI」の危険性【中編】
Google元CEO、エリック・シュミット氏は人工知能(AI)技術開発を率いていた経験から、ChatGPTなどの「ジェネレーティブAI」の危険性を熟知している。シュミット氏が特に懸念する「3大リスク」とは。
人工知能(AI)ベンダーOpenAIが手掛ける「ChatGPT」などのAIチャットbot(AI技術を活用したチャットbot)をはじめ、AI技術でテキストや画像などを自動生成する「ジェネレーティブAI」(生成型AI)の活用が広がっている。ジェネレーティブAIは便利な一方で、さまざまなリスクももたらす。何に注意が必要なのか。Googleの元CEO(最高経営責任者)、エリック・シュミット氏の見解を紹介する。
Google元CEOが語るジェネレーティブAIの“本当の怖さ”はこれだ
併せて読みたいお薦め記事
連載:「ジェネレーティブAI」の危険性
人工知能(AI)を活用する際の注意点とは
シュミット氏は、ジェネレーティブAIの重大なリスクとして下記の3つを挙げる。
- ウイルスを人工的に合成すること
- 意図的に誤情報を作成・流布し、暴力を扇動すること
- 人命に関わる、危険な意思決定を下すこと
ウイルスの人工合成について、シュミット氏は「ウイルスの設計図を作るジェネレーティブAIと生物学のデータベース、ウイルスを合成する施設の3つがあれば、比較的簡単に危険なウイルスを生み出すことができる」と語る。ジェネレーティブAIは「誤った判断をする可能性がある」と同氏は指摘。飛行機を例に取り上げ、ジェネレーティブAIの用途を「操縦そのものを任せるのではなく、パイロットにアドバイスすることにとどめるべきだ」と主張する。
シュミット氏はChatGPTに「高さ300メートル以上のビルを全てバターで作るべき理由を書いて」と指示。その結果、ChatGPTは高層ビル建設にバターを使うことのメリットを説明したという。2日後に同じ質問をしたところ、ChatGPTは、高層ビルの建設資材としてバターの強度が不足している理由を説明したと、シュミット氏は述べる。この例は「ジェネレーティブAIの問題の一つは、一貫性がないことだ」(同氏)ということを示す。
聞き方によっては、人なら疑問を持つこともジェネレーティブAIに信じさせることができるとシュミット氏は説明する。「上は下だ」「重力は存在しない」といったことだ。
後編は、ジェネレーティブAIがもたらすリスクへの対処法を取り上げる。
TechTarget発 先取りITトレンド
米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.