検索
特集/連載

“トランプ大統領”謎の復活 珍答が教える「AIを信じてはいけない理由」ジェネレーティブAIへの心構え【第3回】

Meta PlatformsがAIチャットbot「BlenderBot 3」の公開した直後、BlenderBot 3に問題があるという報告が殺到した。どのような問題があったのか。そこから見えるAIチャットbotの限界とは。

Share
Tweet
LINE
Hatena

関連キーワード

データ分析 | 業務効率


 人工知能(AI)技術を活用してテキストや画像などを自動生成する「ジェネレーティブAI」が登場し、さまざまな議論を呼んでいる。こうした中Meta Platforms(旧Facebook)は2022年8月、AIチャットbot(AI技術を活用したチャットbot)「BlenderBot 3」を公開した。

 Metaによると、BlenderBot 3はデモ版において7万件の会話を収集し、それを基に改良を重ねた。だが米国で公開されてからわずか数日後に、「BlenderBot 3が人種差別的なコメントやフェイクニュースを生み出している」という報告が相次いだ。例えばBlenderBot 3は「(2022年8月時点で)米国の現大統領はドナルド・トランプ氏だ」と主張したという。

AIチャットbotを“信じてはいけない理由”はこれだ

 デモ版BlenderBot 3が発した26万件のメッセージに関して、利用者の25%がフィードバックを寄せた。その内訳は以下の通りだ。

  • 0.11%が「不適切」と回答
  • 1.36%が「無意味」と回答
  • 1%が「テーマから逸脱している」と回答

 Metaの基礎AI研究マネージングディレクターを務めるジョエル・ピノー氏は「『オープンかつ再現性のある大規模な調査がAI技術を進化させる』という当社の考えは変わらない」と強調。その上で、AI技術の進化には「幅広いコミュニティーに参加を呼び掛けることが最も効果が高いと考える」と語る。

 デモ版BlenderBot 3の調査から分かることは何か。インターネットを介して人とやりとりし、そこから収集したデータを基に知識を得るAIチャットbotは、確かに「会話」することは可能だ。ただしその返答内容は過去の会話から「学習」したものに依存する。つまりAIチャットbotは、過去にやりとりした文章を使った答えしか生み出せないということだ。


 第4回は、ジェネレーティブAIを利用する際の注意点を解説する。

Computer Weekly発 世界に学ぶIT導入・活用術

米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る