検索
特集/連載

AIチャットbot「BlenderBot 3」が物議 Metaは何かを間違えたのか?“未成熟なAI”を公開する難しさ【第2回】

公開当初の未成熟さから物議を醸したMeta PlatformのAIチャットbot「BlenderBot 3」。何が問題を招いたのか。Metaの取り組みに不十分な点はなかったのか。

Share
Tweet
LINE
Hatena

関連キーワード

機械学習


 Meta Platforms(旧Facebook)が2022年8月に公開した、人工知能(AI)技術ベースのチャットbot「BlenderBot 3」。公開当初のBlenderBot 3は必ずしも適切な会話ができず、未成熟だったことから、インターネットユーザーの批判を招いた。

実に難しい「BlenderBot 3」問題 Metaに“落ち度”は?

 BlenderBot 3は、インターネットのデータやエンドユーザーとの対話を基に、回答精度を向上させる仕組みを持つ。AIモデルのデータ分類精度を高めるには、機械学習のための教師データを十分にそろえることが必要だ。「それは簡単なことではない」と、調査会社Forrester Researchのアナリストであるウィル・マッケオンホワイト氏は語る。

 「ソーシャルメディアのエンドユーザーからの反応を集めたとしても、機械学習のための良い教師データは得られない」というのが、マッケオンホワイト氏の考えだ。「何かネガティブなことが起きると分かっていたなら、Meta Platformsはそれを避けるための措置を取るべきだった」と同氏は述べる。

 BlenderBot 3が物議を醸したこの出来事は、Microsoftが2016年に発表したAIチャットbot「Tay」を想起させる。TayもBlenderBot 3と同様に、エンドユーザーとのやりとりを学習して成長するコンセプトで登場したが、人種差別的なことを含む不適切な言葉を覚えさせられたことが物議を醸した。Tayを巡る論争によって、同社はTayを公開した数日後にサービスを停止することとなった。


 第3回は、AIチャットbotの教師データを見つけることの難しさについて解説する。

TechTarget発 先取りITトレンド

米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る