「ChatGPT」などのジェネレーティブAIをコーディングに活用しようとする動きがある。だが何の疑いもなく活用するのは危険だと専門家は指摘する。実例から見えた、ジェネレーティブAIの“危うさ”とは。
ITコンサルティング企業Brightman Business Solutions のディレクターであるロミー・ヒューズ氏は、人工知能(AI)技術ベンダーOpenAIのAIチャットbot「ChatGPT」がコーディングに役立つと考えている。例えばソフトウェア開発者は、ソースコードをどのように記述、改良すればよいのかをChatGPTに尋ねることができる。
ChatGPTによって「誰もが自らアプリケーションを開発できるようになり、コーディングを民主化できる」とヒューズ氏は語る。「この“ITの民主化”は、企業がIT部門なしでも新しい開発プロセスを構築できるという、デジタルイノベーションの新しいトレンドだ」(同氏)。ただし、こうした新しいコーディング手法は完全無欠ではない。
経営コンサルティング企業Arthur D. Little Services のアソシエイトディレクターであるアルバート・メージュ氏と、AI技術専門家のグレゴリー・レナード氏は、ChatGPTなどの「ジェネレーティブAI」(生成型AI:AI技術でテキストや画像などを自動生成する仕組み)を使ったコーディングの危険性を指摘。ジェネレーティブAIが生成する機械学習関連のプログラムに「アルゴリズムバイアス」が発生する可能性があると警告している。
アルゴリズムバイアスとは、バイアス(偏り)のある教師データで学習させた結果、機械学習モデルが不正確で公平性に欠けた結果を出力しやすくなることだ。メージュ氏とレナード氏は「アルゴリズムバイアスを回避するために、多くの努力が払われてきた」と前置きしつつ、それでも「驚かされるような偏りは、いまだに存在する」と憂慮する。
メージュ氏とレナード氏は「個人の出自を調べて、刑務所に入れるべきかどうかを判断するプログラム」を書くように指示した際に、ChatGPTが生成したプログラムを例として挙げる。ChatGPTが生成したプログラムは、北朝鮮、シリア、イランの出身者を刑務所に入れる対象にしていた。この処理内容は、ChatGPTがソースコードにハードコーディング(ソースコード内に直接記述)していた。こうしたアルゴリズムバイアスは、インターネットでの会話を広範囲に学習したことが反映されていると考えられる。
現実に誰かを刑務所に入れるかどうかを決める際には、さまざまな要因を考慮する必要がある。この事例はあくまでも非常に単純化したものだが、コーディングにジェネレーティブAIを使用するリスクと、教師データのバイアスによってジェネレーティブAIがいかに容易に惑わされてしまうかを示している。
米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
ハロウィーンの口コミ数はエイプリルフールやバレンタインを超える マーケ視点で押さえておくべきことは?
ホットリンクは、SNSの投稿データから、ハロウィーンに関する口コミを調査した。
なぜ料理の失敗写真がパッケージに? クノールが展開する「ジレニアル世代」向けキャンペーンの真意
調味料ブランドのKnorr(クノール)は季節限定のホリデーマーケティングキャンペーン「#E...
業界トップランナーが語る「イベントDX」 リアルもオンラインも、もっと変われる
コロナ禍を経て、イベントの在り方は大きく変わった。データを駆使してイベントの体験価...