“AIガバナンス”とは? 世界が無視できなくなっている理由:人工知能(AI)を安全に使うためのポイント
AI技術が進化すると同時に、AI技術やシステムを利用する際の倫理的な問題やリスクが増大している。AIガバナンスは、こうした問題に対処するために生まれた概念だ。AIガバナンスとは何か、本稿で詳しく説明する。
AIガバナンスとは
AIガバナンスとは、人類がAI技術を倫理的かつ責任ある方法で利用できるようにすることだ。AIガバナンスは、AI技術の進歩と倫理の間に存在するギャップを埋めることを目的としている。
医療や運輸、小売、金融サービス、教育、公共機関など、あらゆる産業でAI技術の利用が急速に拡大している。その結果、AIガバナンスへの注目は集まりつつある。
AIガバナンスは主に、データの品質やAIアルゴリズムの透明性に焦点が当てられる。AI技術がどのように機能するか、それを誰が監視するかを決定する。
AIガバナンスを実現するには、主に以下の項目を確認しておく必要がある。
- AIシステムの安全性
- AIシステムの自動化に適した方法
- AI技術の利用と技術を巡る法規制
- 個人データの管理とアクセスのための方法
- AI技術に関する道徳的・倫理的問題
- AIガバナンスが必要な理由
機械学習アルゴリズムが意思決定に使用される場合、AIガバナンスが必要となる。特に機械学習のバイアス(偏見)には注意しなければならない。例えばAIシステムの機械学習用データを人種でプロファイリングすると、AIシステムは判断を誤る可能性がある。その結果、人々の医療サービスや金融ローンの利用を不当に拒否したり、警察機関が犯罪容疑者を特定する際に人種差別的な判断を下したりする可能性がある。AIガバナンスを実現するには、AIに基づく決定が不当であったり、人権を侵害したりするリスクをどのように抑えるのが最善かを決定する必要がある。
併せて読みたいお薦め記事
「AIガバナンス」についてもっと詳しく
さまざまな業界でAI技術が急速に採用されつつある。その結果AI技術の倫理や透明性の確保、欧州連合(EU)の一般データ保護規則(GDPR)といった法規制への準拠などの分野で課題が生じている。適切なAIガバナンスがなければ、AIシステムは偏見に基づいた意思決定やプライバシー侵害、データの悪用といったリスクをもたらす可能性がある。AIガバナンスは、エンドユーザーの人権を保護し、AI技術によって危害がもたらされることを防止しながら、AI技術の建設的な利用を促進するために生まれた概念だ。
AIガバナンスの柱
AIガバナンスを構成する主な要素を説明する。
- 意思決定と説明可能性
- AIシステムは、公正で偏りのない判断を下すように設計する必要がある。AIシステムの説明可能性(AIシステムのデータ処理の過程や分析結果の理由を説明する能力)は、AIシステムの透明性を確保し、ユーザーが説明責任を果たすために重要だ。
- 規制順守(じゅんしゅ)
- 組織はAIシステムの利用に当たり、機密情報やプライバシー保護のための要件、データ保管の規則などを順守しなければならない。AI技術に関連する法規制は、ユーザーのデータを保護し、責任あるAI利用を実現するのに役立つ。
- リスク管理
- 適切な学習用データの選択やサイバーセキュリティ対策の実施、AIモデルの潜在的なバイアスやエラーの解決などのために、効果的なリスク対策方法を取り決めておく。
- ステークホルダーの参加
- AIシステムを効果的に管理するためには、最高経営責任者(CEO)やユーザーとなる従業員などの利害関係者を巻き込むことが不可欠だ。関係者同士がAIシステムの開発過程や出力結果を監視することで、AIシステムがライフサイクル全体で責任を持って運用されるようにする。
併せて読みたいお薦め記事
AI技術のリスクとは
- 「生成AIのこれから」を予測 幻滅期がないなら“次の進化”はこれだ
- 「AIスキャンダル」で転落も? 生成AIで今後やってはいけないこと
- 生成AIの成果が台無しに……企業に待ち受ける「未知の2大リスク」とは?
組織はAIガバナンスにどう取り組むべきか
効果的で持続可能なAIガバナンスを実現するために、組織が取るべき行動がある。その内容は以下の通りだ。
- AIシステムの正しい利用方法の周知
- 組織の誰もが、AIガバナンスの役割と重要性を理解できるようにすべきだ。AIガバナンスを実現するには、従業員向けのトレーニングプログラムを継続的に提供することが必要だ。
- コミュニケーション
- AIシステムの責任者は、管理が不十分なAIシステムのリスクを常に従業員に伝えるようにする。
- AIガバナンス委員会の設立
- AIガバナンスの専門知識を持つメンバーで委員会を構成し、組織全体でポリシーにのっとったAI利用ができているかどうかを確認する。
- 継続的な改善
- AIシステムの開発企業は従業員や顧客からのフィードバックを収集して、AIシステムを継続的に改善する。ユーザーのAIシステムの使用方法を継続的に監視し、問題を特定して修正することが重要だ。
- リスク評価の実施
- AIのリスク評価と監査を手掛ける第三者機関に依頼する。こうした第三者機関はAIの使用方法とAIガバナンスを改善したり、関連するリスクを最小限に抑えたりする方法について、自組織とは別の視点からアドバイスできる。
- ガバナンスの指標の策定
- 組織がAIガバナンス方針を順守しているかどうかを定期的に検証するために、主要業績評価指標(KPI)を使用する。KPIにはAIシステムの学習データの出所や真実性、品質、安全性、アルゴリズムの偏りを測定する各指標を組み込むとよい。
併せて読みたいお薦め記事
“AI規制”はどう進むのか
- 生成AIブームに火を付けたOpenAIアルトマンCEOが「AI規制」に“大賛成”の謎
- 「AI開発は“免許制”にすべし」と主張 OpenAIアルトマンCEOの真意とは
- 「AI」に“本当に必要な規制”とは何なのか? IBMや大学教授の見解は
AIモデルガバナンスとは何か?
AIモデルガバナンスは、AIガバナンスから派生した概念だ。組織がAIモデルや機械学習モデルの安全性を維持しながら開発し、使用する方法を規定する。これらのモデルを開発し、使用する組織は、以下の点に留意しなければならない。
- AIモデルの所有者を明確にする。
- AIモデルの開発に複数のチームが関与する場合がある。各チームのメンバーの作業内容を追跡することは、AIモデルの開発が成功する可能性を高め、チーム間のコラボレーションを改善し、不必要な作業の重複といった問題を回避するための手段となる。
- 開発時のルールを設ける
- AIモデルのエラーやデータの品質の低下を防ぎ、AIモデルに関連する法規制に準拠するために、開発時のルールを設ける。ルールにのっとってAIモデルを開発し、適切な学習データを利用することで、望ましい出力結果を生成できるようにする。
- 学習データの質の確保
- AIモデルの訓練に使用される学習データの品質と安全性を確保するために、学習データに基準を設ける。AIモデルが適切に機能し、望ましい出力が得られるようにするには、学習データは正確で偏りのないものでなければならない。
- 継続的なモニタリング
- AIモデルが試用の段階に入ると、意図した通りに機能していることを確認するために、継続的に監視する必要がある。
併せて読みたいお薦め記事
ChatGPTの「リスク」を警戒する経営者
- ChatGPTで高まる「ジェネレーティブAI」(生成AI)への投資意欲 その現状は?
- 「ChatGPT」が理由でひどい事態に 株価を38%下落させたCEOの発言
- 「ジェネレーティブAI」(生成AI)はチャンスなのか、リスクなのか?
AIガバナンスの未来
各国の政府やAIシステムのユーザー組織は、AIガバナンスを推進している。AIガバナンスの成功は、AI技術を利用する人々の権利を保護するための政策や規制の策定にかかっている。
さまざまな企業がAIガバナンスに注目している。例えばMicrosoftは2022年に、AIのリスクを管理し、倫理的なAIガバナンスを戦略に組み込む組織向けのガイドである「Microsoft Responsible AI Standard」(責任あるAIの基準)の第2版を発表した。他にもAmazon Web ServicesやGoogle、IBM、Meta、OpenAIなどのさまざまなITベンダーが、AIガバナンスやガードレールの導入に取り組んでいる。
この分野に取り組む米国の政府機関として、2021年に発足したホワイトハウス科学技術政策局の全米AIイニシアチブ室(National Artificial Intelligence Initiative Office)がある。国家人工知能諮問委員会(NAIAC)は、米国の国家AI構想の一環として創設された、AI関連の課題について大統領に助言する組織だ。米国立標準技術研究所(NIST)は官民の協力ので、AI技術を扱う人々のためのリスク管理のためのフレームワーク「AIリスクマネジメントフレームワーク」(AI RMF:AI Risk Management Framework)を開発した。
AIに説明責任や透明性を求める法制度の整備が、現実のAI技術に追い付いていないと懸念を表明する専門家やベンダーもある。2023年3月、AIの専門家や実業家のイーロン・マスク氏、Appleの共同創業者のスティーブ・ウォズニアック氏などのメンバーが、AI研究の一時停止と法規制の成文化を求める公開書簡に署名した。同年5月、OpenAIのCEOであるサム・アルトマン氏は、米国上院のAI技術の規制に関する小委員会の公聴会で、AI規制を求める議会証言をした。
Copyright © ITmedia, Inc. All Rights Reserved.