AIチャットbotの“不適切な発言”を防ぐには何をすればよいのか?:“未成熟なAI”を公開する難しさ【第4回】
Meta Platformsが公開したAIチャットbot「BlenderBot 3」は、未成熟な状態だったことから物議を醸した。AIチャットbotに不適切な言動をさせないために、開発元の企業がすべきこととは何なのか。専門家に聞いた。
人工知能(AI)技術ベースのチャットbotを機械学習によってトレーニングするためには、企業は精選された教師データの開拓に相応のコストや時間を投じなければならない。小規模な企業にとって、トレーニングをより安価に実現するための選択肢は「複数の組織とリソースを共有して教師データを確保することだ」と、AI技術に詳しいノースイースタン大学(Northeastern University)のマイク・ベネット氏は語る。ただし競合他社とのリソース共有には摩擦が生じ、権利の把握に時間がかかる可能性がある。
もう一つの選択肢は、
- 未成熟なAIチャットbotの公開を避けること
だ。AIチャットbotをはじめとする「NLG」(自然言語生成)システムの開発に取り組む人は、一般公開をする前にシステムをよく観察し、メンテナンスをして傾向を把握し、必要に応じて教師データを変更しなければならない――。調査会社Forrester Researchのアナリストであるウィル・マッケオンホワイト氏は、こう主張する。NLGは、AI技術を利用してテキスト制作を支援する技術だ。
併せて読みたいお薦め記事
連載:“未成熟なAI”を公開する難しさ
- 第1回:MetaのAIチャットbot「BlenderBot 3」が公開直後に“バッシングの嵐”に
- 第2回:AIチャットbot「BlenderBot 3」が物議 Metaは何かを間違えたのか?
- 第3回:MetaのAIチャットbotが物議 「教師データをネットで調達」はありなのか?
あらためて知りたいチャットbotのこと
- 「チャットbot」でコロナ禍の人材獲得を効率化 アパレル企業はなぜ成功した?
- 放送局は「人格を備えたチャットbot」の倫理問題をどう解消したのか
- 普通のチャットbotと「AIチャットbot」の違いとは?
マッケオンホワイト氏によれば、インターネットに公開されているデータを企業が教師データとして利用する場合、責任を持って実行するための方法が幾つかある。一つは、利用規約を設けることで、技術の悪用を防ぐことだ。バックエンドにフィルター機能を導入したり、システムが生成してはいけない禁止語句のリストを用意したりする方法もある。
NLGシステムの課題と限界
Meta Platforms(旧Facebook)のAIチャットbot「BlenderBot 3」は公開当初、トレーニングが不十分で、適切な対話ができない状態だったことから物議を醸した。BlenderBot 3などのNLGシステムを巡る混乱は「メタバース(巨大仮想空間)用に、AI技術を活用したアバター(仮想キャラクター)を作ろうとしている人のハードルを上げる」とベネット氏は指摘。「メタバース分野のビジネスを本格的に開始する前に、不道徳な影響を大きく減らすための前向きな取り組みが必要だ」と主張する。
こうした取り組みをしなくても、アバターと魅力的な対話ができる可能性はもちろんある。しかし対策をしなければ「最新バージョンのAIチャットbotが、過去1カ月の会話から学習した“不幸な発言の組み合わせ”を出力する可能性がある」とベネット氏は注意を促す。
TechTarget発 先取りITトレンド
米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.