Google元CEO、エリック・シュミット氏は人工知能(AI)技術開発を率いていた経験から、ChatGPTなどの「ジェネレーティブAI」の危険性を熟知している。シュミット氏が特に懸念する「3大リスク」とは。
人工知能(AI)ベンダーOpenAIが手掛ける「ChatGPT」などのAIチャットbot(AI技術を活用したチャットbot)をはじめ、AI技術でテキストや画像などを自動生成する「ジェネレーティブAI」(生成型AI)の活用が広がっている。ジェネレーティブAIは便利な一方で、さまざまなリスクももたらす。何に注意が必要なのか。Googleの元CEO(最高経営責任者)、エリック・シュミット氏の見解を紹介する。
シュミット氏は、ジェネレーティブAIの重大なリスクとして下記の3つを挙げる。
ウイルスの人工合成について、シュミット氏は「ウイルスの設計図を作るジェネレーティブAIと生物学のデータベース、ウイルスを合成する施設の3つがあれば、比較的簡単に危険なウイルスを生み出すことができる」と語る。ジェネレーティブAIは「誤った判断をする可能性がある」と同氏は指摘。飛行機を例に取り上げ、ジェネレーティブAIの用途を「操縦そのものを任せるのではなく、パイロットにアドバイスすることにとどめるべきだ」と主張する。
シュミット氏はChatGPTに「高さ300メートル以上のビルを全てバターで作るべき理由を書いて」と指示。その結果、ChatGPTは高層ビル建設にバターを使うことのメリットを説明したという。2日後に同じ質問をしたところ、ChatGPTは、高層ビルの建設資材としてバターの強度が不足している理由を説明したと、シュミット氏は述べる。この例は「ジェネレーティブAIの問題の一つは、一貫性がないことだ」(同氏)ということを示す。
聞き方によっては、人なら疑問を持つこともジェネレーティブAIに信じさせることができるとシュミット氏は説明する。「上は下だ」「重力は存在しない」といったことだ。
後編は、ジェネレーティブAIがもたらすリスクへの対処法を取り上げる。
米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。
約8割の人が経験する「見づらいホームページ」 最も多い理由は?
NEXERはくまwebと共同で「見づらいホームページ」に関するアンケートを実施した。
スマホ時間の奪い合い「利用者増えても、利用時間は減少」 唯一の勝者は?
データマーケティング支援のGlossomは、「スマートフォンでのメディアとコマースの利用に...
生成AI時代のコンテンツ制作の課題 アドビが考える解決法は?
求められる顧客体験はますます高度になる一方で、マーケターのリソースは逼迫している。...