iPhoneやMacに搭載されたAI機能「Apple Intelligence」に“批判殺到”の訳:揺らぐApple製AIの信頼性【前編】
macOSやiOSに搭載されるAppleのAI機能群「Apple Intelligence」の信頼性について批判が出ている。何が問題なのか。背景にあるLLMの根本的な弱点とは。
Appleが同社製OSに組み込む人工知能(AI)機能群として2024年10月に提供を開始した「Apple Intelligence」について、公共放送局BBCは同年12月中旬、事実と異なる情報を生成する「ハルシネーション」を起こしたとして猛抗議している。この問題から、大規模言語モデル(LLM)の「根本的な弱点」が浮かび上がっている。
Apple Intelligenceへの批判に見る“LLMの弱点”
BBCは、Apple Intelligenceが虚偽のニュース要約を配信したと報告している。問題となった要約は、「保険会社United Healthcareのブライアン・トンプソンCEOを殺害した罪に問われたルイジ・マンジョーネ被告が銃で自殺した」というもので、出典としてBBCが明記されていた。実際には被告は自殺していなかった。BBCは「あたかもBBCが虚偽を報じたかのような印象を与えた」とAppleに抗議した。
ProPublicaをはじめとする他の報道機関も、Apple Intelligenceが虚偽の要約を生成したことを報告している。こうした問題を受けて、英国ジャーナリスト組合や国境なき記者団(RSF)はApple Intelligenceの廃止を求めている。
AIモデルのハルシネーションによる影響を受けたベンダーはAppleだけでない。
2024年10月、AI搭載検索エンジン「Perplexity AI」を提供するAIベンダーPerplexityは、米国の出版社Dow Jones & CoとNew York Postに提訴された。両社は、Perplexity AIがニュース記事の誤った要約を生成したと主張している。
2024年5月には、Googleが自社の検索エンジンに搭載する「AI Overviews」(AIによる概要)機能が、ユーザーの質問に対して事実に基づかない回答を提示したとして、技術的改善に取り組むとしている。
「ハルシネーションはデバッグ(エラー修正)できるような単純な問題ではなく、根本的な問題だ」。こう指摘するのは、ワシントン大学(University of Washington)のチラグ・シャー教授(情報科学)だ。LLMの本質は情報を生成することであり、要約や合成といたタスクではハルシネーションが生じやすくなる傾向があるという。
Appleは今回の問題を受けてApple Intelligenceのニュース通知要約機能を一時停止。BBCに対し、Apple Intelligenceで生成した要約にはラベル付けをし、AIによる要約であることが明記されるようアップデートすると説明した。しかし、シャー氏は「それでは不十分だ」と指摘する。「大半の人は、ネットに出てくる情報がどう生成されているかを理解していない。簡単な解決策はなく、さらなる技術開発やリスク軽減策が進むまで、使用を控えることだ」。
次回は、Apple Intelligenceに対する批判が集まる中で、企業にどのような影響があるのかを探る。
TechTarget発 先取りITトレンド
米国Informa TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.