AGI(汎用人工知能)は人間の思考や知能をシステムで再現するための技術だ。従来のAI技術とは何が違うのか。
AGI(汎用人工知能)とは、人間の認知能力をソフトウェアで表現するための技術を指す。一般的なAI(人工知能)技術とは違い、学習させていない作業に直面しても、解決策を見つけたり作業を可能にしたりできるのがAGIシステムの特徴だ。一方で一般的なAI技術は、特定の課題を解決するために使われる。チャットbotや自動運転車などのシステムに使われるAI技術は、一般的なAI技術の一例だ。
人間ができるあらゆるタスクをシステムで実行できるようにすることが、AGIシステムを開発する目的だ。ただしAGIの定義は、専門家によって異なる場合がある。それはさまざまな分野の専門家が、異なる観点から人間の知能を定義しているからだ。コンピュータサイエンスの専門家は人間の知能を、「ある目標を達成できるかどうか」という観点で定義する傾向にある。一方で心理学者は、人間の知能を「環境への適応性や生存力があるかどうか」という観点で定義する傾向にある。
コンピュータサイエンスにおけるAGIは、あらゆる分野に対して幅広い知識を持ち、人間の脳と同じような情報処理を可能にするAI技術を指す。現在、AIはより多くのタスクをこなせるように進化を続けているが、AGIに分類されるような水準には達していない。
AGIは、以下のような能力を持つ。
AGIの能力の実用的な例として、以下の5つが挙げられる。
AGIは現時点では理論上のもので、現実には存在していない。しかし特定の用途に限定されている従来のAI技術は既に実用化されている。
AGIは理論上、あらゆる分野で、人間ができるあらゆるタスクをこなすことができる。対照的に従来のAIは、特定の種類の問題を解決することに長けている。
既存のAIシステムは、機械学習(ML)やその一種である深層学習、強化学習、自然言語処理(NLP)などの技術を組み合わせて、特定の種類の問題を解決するために使用される。しかしこれらのAIシステムは、人間の脳の処理能力には及ばない。
現在使用されているAIサービスの一例は以下の通りだ。
真のAGIシステムはまだ市場に存在していない。しかし一般的なAIシステムが、ある分野では人間の能力を上回る例は存在する。こうした既存のAI技術をAGIに発展させるための研究も存在する。
以下は特定の用途で人間よりも正確にタスクを実行できるAI技術の一例だ。
前述の例にAGIが適用されれば、AIシステムの機能性を向上させることができるだろう。例えば現在の自動運転車は、珍しい事態や前例がない事態が生じた場合に、システムが処理できなくなる場合がある。その場合の意思決定には、人間が立ち会う必要がある。専門家向けアプリケーションや文章生成アプリケーションなどに利用されるAIモデルにも同じことが言える。AGIは単なる作業の自動化だけでなく、より高度な抽象化と人間の知性を必要とする作業も含まれる。
AGIが実現することに懐疑的なAI技術の専門家もいる。それが望ましいかどうかを疑問視する声もある。英国の理論物理学者で宇宙学者、作家のスティーヴン・ホーキング氏は、2014年の英国放送協会とのインタビューで、AGIの危険性を警告した。
「完全な人工知能が開発されれば、人類は終わりを迎える可能性がある。人工知能は人類とは無関係にどんどん進化するだろう。生物学的進化の速さに制限がある人類は太刀打ちできず、淘汰(とうた)されてしまうだろう」(ホーキング氏)
AGIの継続的な発展を期待するAIの専門家もいる。発明家で未来学者のレイ・カーツワイル氏は、2017年に開催された年次カンファレンス「South by Southwest 2017」(SXSW 2017)のインタビューで、「2029年までにコンピュータが人間レベルの知能を獲得する」と予測した。
カーツワイルは、AI技術は指数関数的な速度で向上し、人間の理解や制御を超えたレベルで稼働するようになると予測している。AIシステムの能力が人間の知性を上回るタイミングを、一般的にシンギュラリティ(技術的特異点)と呼ぶ。従来のAI技術の進化は、AGIの実現やシンギュラリティに貢献する。2022年に生成AI(ジェネレーティブAI)が発展したことで、AGIはより現実に近づいた。
2022年11月にOpenAIが「GPT-3.5」を搭載したAIチャットbotサービス「ChatGPT」を発表したことを皮切りに、さまざまな生成AIサービスが登場した。世界中のユーザーは、AIサービスが不正確な部分はあるものの人間の書く文章を理解し、あらゆる分野の質問に答えられることを目の当たりにした。これらの生成AIサービスは、AI技術を使って詩や画像からプログラミング言語に至るまで、膨大な種類のコンテンツを生成できることを実証している。
「Dall-E」のような画像生成ソフトウェアは、医療画像や物体の3D(3次元)モデル、ビデオに加えて、有名アーティストの作品や写真を模倣した画像を生成し、視覚的な状況を覆しつつある。しかしこうした処理能力がある反面、出力結果の誤りや、学習データからの剽窃(ひょうせつ)が問題となることがある。こうした問題は、AI技術が完全に自律したAGIにはまだ及んでいないことを意味する。生成AIやAGIといった技術が不正確な情報や誤った情報を生み出したり、社会に悪影響を与えたりするリスクを抑えるには、人間の監視が必要だ。
Copyright © ITmedia, Inc. All Rights Reserved.
ハロウィーンの口コミ数はエイプリルフールやバレンタインを超える マーケ視点で押さえておくべきことは?
ホットリンクは、SNSの投稿データから、ハロウィーンに関する口コミを調査した。
なぜ料理の失敗写真がパッケージに? クノールが展開する「ジレニアル世代」向けキャンペーンの真意
調味料ブランドのKnorr(クノール)は季節限定のホリデーマーケティングキャンペーン「#E...
業界トップランナーが語る「イベントDX」 リアルもオンラインも、もっと変われる
コロナ禍を経て、イベントの在り方は大きく変わった。データを駆使してイベントの体験価...