検索
特集/連載

AIの未来を明るくするなら「開発中断」は“必要悪”か?「AIの開発中断」要請は正しいのか【後編】

AI技術が急成長を遂げる中、非営利団体がAI技術の開発を6カ月間停止するよう求める書簡を公開した。この要請を「正しい」とは見ていない専門家は、代替案を提示している。

Share
Tweet
LINE
Hatena

関連キーワード

人工知能 | チャットbot | 機械学習


 テキストや画像などを自動生成する「生成AI」(ジェネレーティブAI)が登場して以降、人工知能(AI)技術への懸念を表明する動きが加速している。AI技術のリスク軽減を目指す非営利団体Future of Life Instituteは、AI技術の開発を一時中断するようAI研究所やAIベンダーに要請する公開書簡を発表した。

 1500人を超えるAI研究者やITリーダーがFuture of Life Instituteの書簡に署名した。その一方で、書簡の要請は「正しいとは言えない」と話す専門家がいる。そうした専門家は、「開発の一時中断」ではなく別の対処を提示している。

開発中断は正しくない? その代替案とは

 「生成AIを巡る懸念は理解できるとしても、開発の中断は正しい措置ではない」。そう主張するのは、調査会社RPA2AI Researchの創設者でアナリストを務めるカシャプ・コンペラ氏だ。生成AIの開発を中断するのではなく、コンペラ氏はLLM(大規模言語モデル)の透明性を高めることを提案する。「開発元がLLMの教師データとアーキテクチャを公開し、文書化するようになれば、LLMの危険性をより適切に評価できる」と同氏は指摘する。

 開発中断の代替案としては、第三者によるAIモデルの監査や、責任あるマーケティング活動などもある。「AIベンダーが、誇張したマーケティングではなく、責任あるマーケティングを実施することで、人々がAI技術の本質を理解し、リスク軽減策を整備できるようになる」とコンペラ氏は説明する。

 ほとんどの専門家の見解は、「AI技術の開発中断が実現する見込みはかなり薄い」というものだ。それでもFuture of Life Instituteの書簡は、研究所やAIベンダーが発表するAIモデルを、AIコミュニティーが再評価する助けになる可能性がある。

 「Future of Life Instituteの書簡は、一種の『終末論的警告』(重大で破滅的な警告)だ。この書簡が政策立案者の迅速な考えや行動につながることに一役買うとしたら、それは素晴らしいことだ」。ノースイースタン大学(Northeastern University)で、責任あるAI教育カリキュラムおよびビジネスリード担当ディレクターを務めるマイケル・ベネット氏は、そう語る。「ただし世間の反応に何も変化が起きないどころか、世間がこの書簡を大げさだと見なすようならば、それは問題だ」ともベネット氏は述べる。

TechTarget発 世界のインサイト&ベストプラクティス

米国TechTargetの豊富な記事の中から、さまざまな業種や職種に関する動向やビジネスノウハウなどを厳選してお届けします。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る