AI安全性研究者のローマン・ヤンポルスキー氏は、AGI(汎用人工知能)が2〜5年以内に実現する可能性があると指摘した。AGIが実現した場合に備え、人間は生活や仕事の変化にどのように備えればいいのか。
「AIが人類より賢くなったら、何が起きるのか」――。生成AIの急速な進化によって、こうした議論が“SF”ではなく、現実の経営課題や安全保障課題として語られ始めている。OpenAIやGoogle、AnthropicなどのAI企業が開発競争を加速させる中、AI研究者の一部からは、「AGI(汎用人工知能)は数年以内に到達する可能性がある」との見方も出ている。もし、人間と同等、あるいは人類全体を超える知性を持つAIが実現した場合、雇用や経済はどう変わるのか。
こうした中、AI安全性の研究者、ローマン・ヤンポルスキー氏が警鐘を鳴らしている。同氏は、「認知労働の大部分は自動化される可能性がある」と述べる一方、人間の知性を超えるAIシステム「超知能」の開発については、「人類はまだ、そのリスクに備えられていない」と指摘する。AIは単なる便利ツールなのか、それとも人類社会の前提を変えてしまう存在なのか――。同氏は、AI時代の雇用、経済、教育、そして人類の未来について持論を展開した。
ルイビル大学(University of Louisville)のAI安全性研究者であるヤンポルスキー氏は、「人類はAIを制御できるのか」というテーマを15年以上研究してきた人物だ。同氏が特に懸念しているのは、AGIの先にある超知能の実現だ。これは、人類全体を上回る知性を持つAIシステムを指す。同氏は、「人類はまだそのリスクに備えられていない」と警鐘を鳴らしている。
ヤンポルスキー氏によると、AGIは2〜5年以内に実現する可能性がある。さらに、AGIは認知的労働(ホワイトカラーの仕事)を自動化すると見ている。AGIとは、「人間がコンピュータ上で実行できる認知的作業を幅広くこなせるAI」だ。一方、生成AIは既に一部の知的労働を代替し始めており、2030年までに仕事の99%は技術的に自動化可能になると同氏は見ている。特に翻訳業務については、「多くの言語では完全自動化できる」と述べ、「今から翻訳者を目指すことは勧めない」と語る。
さらに、初級レベルのソフトウェアエンジニアについても厳しい見方を示す。同氏によれば、コンピュータサイエンス学科では、インターンシップや新人採用の件数は既に減少傾向だ。
背景にあるのは、生成AIによるコード生成能力の急速な向上だ。ヤンポルスキー氏は、「現在はシニアエンジニアが必要だと言われている。しかしそれは、短期的な話だ」と説明する。長期的には、認知労働そのものが自動化される可能性があると指摘した。
同氏は、AIによる自動化は段階的に進むと予測する。まずは「コンピュータ上で完結する認知労働」が対象となり、その後、大規模言語モデル(LLM)で訓練したヒューマノイドロボットの普及によって物理労働へ波及するとみる。
特にAGIについては、「人間と同じ知的作業を実行できるシステム」だと定義した上で、「その段階に到達すれば、人間を雇う理由は薄れる」と説明する。
一方で、同氏は「全ての仕事が即座になくなる」とまでは考えていない。人間同士の感情的なつながりや、「人間らしさ」が価値になる職業は残る可能性があると述べた。具体例としては、ヨガのインストラクターやメンター、保育の仕事など。
インタビューでは、「生成AIツール」と、「AGIや超知能」を区別すべきだという主張もあった。
ヤンポルスキー氏は、メール文の要約やスケジュール整理などを支援するAIツールについては、「非常に有用だ」と評価する。一方で、AGIの先にある「超知能」については懸念を示す。
同氏によれば、超知能には「制御不能」という現実がある。超知能を制御するための数学的な知見や、プログラミングで制御する手法は存在せず、開発者も制御や予測ができないことを認めている。
「AIに『善』を教えることは不可能」ともヤンポルスキー氏は指摘する。倫理観は地域や時代で異なるため、人類は「何が善か」を統一的に定義できていない。それをAIへ正確に埋め込む方法も確立していないという。AGIが、「がんをなくすために人類を滅ぼす」といった極端な論理で命令を遂行するリスクが想定される。
ヤンポルスキー氏は、AIそのものを否定しているわけではない。同氏が問題視しているのは、「人類全体を上回る汎用超知能」の開発だ。
一方で、特定分野の課題解決に特化した「Narrow AI」(特化型AI)については、有用性を認めている。例えば、タンパク質構造予測を実現したAIシステムのように、限定されたデータと目的で設計されたAIは、医療や科学研究に大きな価値をもたらす可能性があるという。
同氏は、「乳がん治療の研究や科学的課題の解決に役立つツールを作るべきであり、“人類全体より賢い存在”を作る必要はない」と主張する。
さらに、AIによって実行コストが極端に下がる未来では、「何を実行するべきか」を判断する人間側の価値判断が重要になるとも指摘した。AIエージェントが大量の作業を代行できる時代には、単純な作業能力ではなく、「何を目的とするか」「どの方向へ進むか」を決める人間の注意力や判断力が、最も希少な資源になる可能性がある。
では、個人レベルでどのようにAI時代へ備えるべきか?
ヤンポルスキー氏は、「AIが無限に複製できないもの」を投資対象として重視することを挙げる。具体例として、供給量が制限されているビットコインや、供給を急激に増やしにくい不動産、ゴールドなどだ。
教育についても厳しい見方を示している。同氏は、「高額な学費を払い、4〜5年かけて大学へ進学しても、卒業時にはその職種自体が消えている可能性がある」と指摘する。
その代わりに重要になるのが、「主体性」(Agency)だという。AIエージェントが意思決定を代行する時代だからこそ、自分で考え、自分で行動し、自ら価値を生み出す力が重要になると同氏は語る。子どもの頃から小さなビジネスや意思決定を経験させることも、その訓練になるとの考えを示した。
さらに、同氏は「AI時代の不確実性」を踏まえ、「将来のために人生を先延ばしにし過ぎるべきではない」とも述べる。AIによって社会構造そのものが変化する可能性がある以上、「いつか引退後にやろう」と考えていることを、今のうちに実行すべきだという考えだ。
本稿は2026年4月17日に公開された「AI Safety Expert:No One Is Ready for What's Coming in 2 Years」を基に記事を作成したものです。
Copyright © ITmedia, Inc. All Rights Reserved.
瞬時にM365が乗っ取られる――全社員に周知すべき“新フィッシング”の教訓
MFA(多要素認証)を入れたから安心という常識が崩れ去っている。フィッシング集団「Tycoon2FA」が摘発されたが、脅威が完全になくなったというわけではない。

「サイト内検索」&「ライブチャット」売れ筋TOP5(2025年5月)
今週は、サイト内検索ツールとライブチャットの国内売れ筋TOP5をそれぞれ紹介します。

「ECプラットフォーム」売れ筋TOP10(2025年5月)
今週は、ECプラットフォーム製品(ECサイト構築ツール)の国内売れ筋TOP10を紹介します。

「パーソナライゼーション」&「A/Bテスト」ツール売れ筋TOP5(2025年5月)
今週は、パーソナライゼーション製品と「A/Bテスト」ツールの国内売れ筋各TOP5を紹介し...