「GPT-4超えのAI開発を中断せよ」との要請が浴びた“当然の反発”:「AIの開発中断」要請は正しいのか【前編】
AI技術が急成長を遂げる中、非営利団体がAI技術の開発を6カ月間停止するよう求める書簡を公開した。これに賛同する著名人がいる一方、要請を「実現不可能」だと考える専門家の意見とは。
人工知能(AI)技術の発達が目覚ましい。AI技術でテキストや画像などを自動生成する「生成AI」(ジェネレーティブAI)ツールと、その基になる大規模言語モデル(LLM)の人気の高まりを、複数のAI専門家は懸念している。
2023年3月下旬、1500人を超えるAI研究者やITリーダーが、AI技術のリスク軽減を目指す非営利団体Future of Life Instituteの公開書簡に署名した。署名者には電気自動車(EV)メーカーTeslaのCEOイーロン・マスク氏、AI分野で著名なスチュアート・ラッセル氏、ゲイリー・マーカス氏などが名を連ねる。
この書簡は、AI技術に関する大規模な実験や研究を、少なくとも6カ月間停止するようAI研究所やAIベンダーに要請するものだ。「強力なAI技術は、有益かつリスクに対処できるという確信を得てから開発すべきだ」と書簡は主張する。同書簡が一つの基準に据えているのは、AIベンダーOpenAIのLLM「GPT-4」だ。
AI開発中断は「理想論に過ぎない」の真意
Future of Life Instituteと署名者は、GPT-4よりも強力なAIモデルの訓練を停止することを研究所やAI専門家に要求している。停止期間中には、独立系の外部専門家による、高度なAIモデルの設計と開発に関する安全プロトコルの制定に参画することも求めている。
AI技術のリスクの緩和に力を注ぐFuture of Life Instituteの目標について、実現不可能だと感じる専門家もいる。コーネル大学(Cornell University)のコーネル技術政策研究所(Cornell Tech Policy Institute)で所長を務めるサラ・クレプス氏は「これは囚人のジレンマだ」と話す。囚人のジレンマは、「自己の利益を追求する2人の当事者が最善の結果を生み出すことはない」という理論だ。「AI技術に関係する当事者の行為を、まとめて中断させる方法はない」とクレプス氏は述べる。
「核兵器のない世界」を実現するために、オバマ元米大統領は軍備縮小を呼び掛けた。「Future of Life Instituteの書簡はそれを想起させる」とクレプス氏は語る。オバマ氏は大統領の就任演説において、米国が核兵器を放棄することを誓ったが、「他の全ての国が核兵器を放棄すれば」という条件を付けた。
GPT-4よりも強力なAIモデルの訓練を全ての研究所やAIベンダーに中断させることはただでさえ難しい。それだけではなく、他者は訓練を中断していないことに研究所やAIベンダーが気付いたら、ほとんどは訓練を再開するはずだ。「Future of Life Instituteの提言は理論上では素晴らしく思えるが、全く現実的ではない」とクレプス氏は指摘する。
一方で、生成AIをはじめとするAI技術を手掛けるベンダーの幹部が、Future of Life Instituteの書簡に署名している。その一例がオープンソースAIベンダーStability AIだ。同社は画像の生成AI「Stable Diffusion」で広く知られている。「オープンな開発という当社の取り組みに沿って、関係者全員にメリットがある解決策を生み出すために新たな課題についての議論を重ねることは歓迎だ」と同社は意見を示す。
Future of Life Instituteの書簡は政府に対しても、GPT-4よりも高度なAIモデルが世に出た場合に、AI技術の開発停止期間を課す措置を求めている。
「これは大きな要請だ」。そう語るのは、ノースイースタン大学(Northeastern University)で“責任あるAI”の教育カリキュラムおよびビジネスリード担当ディレクターを務めるマイケル・ベネット氏だ。「どのような技術に関しても、予期しないことが起きるのはほぼ当たり前だ。これまでも社会に新たな技術を導入することで予期しない結果が起きている」。ベネット氏はそう述べる。
次回は、AI技術の急速な発展を懸念する専門家の意見を紹介する。
TechTarget発 世界のインサイト&ベストプラクティス
米国TechTargetの豊富な記事の中から、さまざまな業種や職種に関する動向やビジネスノウハウなどを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.