ChatGPTを仕事に使うのが怖くなる“致命的な欠点”はこれだ:「ChatGPT」は人事の仕事を脅かすのか【中編】
OpenAIの「ChatGPT」の利用が、人事部門の間で進むのではないかとの見方がある。だが人事業務に使う上で、ChatGPTには無視できない技術的な問題があるという。それは何なのか。
人工知能(AI)技術ベンダーOpenAIのAIチャットbot(AI技術を活用したチャットbot)「ChatGPT」への期待感の背景にあるのは、ChatGPTが幅広い分野に関する質問に回答できることだ。こうした利点を業務に生かそうと、人事部門の間でChatGPT活用の機運が生まれつつある。だが専門家によれば、人事部門にとってChatGPTには明確な欠陥や、将来的に弱みになり得る点がある。ChatGPTの何が問題なのか。
ChatGPTの見落とせない“致命的な欠点”はこれだ
併せて読みたいお薦め記事
連載:「ChatGPT」は人事の仕事を脅かすのか
ChatGPT登場に揺れる各所
- ChatGPTの「まるで人」の自然さが生み出してしまった“次世代の脅威”とは?
- Google元CEOに聞く「ChatGPTなどのジェネレーティブAIを“凶器”にしない方法」
- ChatGPTなどの「ジェネレーティブAI」をGoogle元CEOが“恐れる”理由はこれだ
調査会社RedThread Researchの共同創設者兼プリンシパルアナリスト、ステイシア・ゲール氏は、人事データの分析にChatGPTを利用する場合、ChatGPTの
- データ同士の関係性の理解力
- データの重要な変化の認識力
が問題になり得るとの見解を示す。ChatGPTは時に事実を誤認する。一部の専門家は、ChatGPTの回答にバイアス(偏り)があることを発見した。これはChatGPTの利用を検討する人事部門にとっては危険な兆候だ。
Textioの共同創設者兼CEOであるキーラン・スナイダー氏は、同社公式ブログのエントリ(投稿)に「特定の職業や属性について、ChatGPTは従業員の性別を勝手に想定して回答を生成している」と書いた。同社は、求人広告や人事評価書の内容に偏りがないかどうかをチェックする支援ツールを提供するITベンダーだ。スナイダー氏が挙げた検証例によると、ChatGPTは「陽気な受付係」は女性、「強健な建設作業員」は男性と断定していた。
調査会社Nucleus Researchのアナリスト、エブリン・マクマレン氏は、ChatGPTは「あくまでも効率化のためのツールであり、人間の代わりに考えることはできない」と指摘する。マクマレン氏は、ChatGPTやそのベースとなる自然言語処理AIモデル「GPT-3.5」を人事ツールに導入するための競争が起こると指摘。その一方で、既存の一般的な人事ツールにAI技術が取って代わることはないとみる。
「ChatGPTは人事部門にとっての脅威ではない」とマクマレン氏は主張する。例えばChatGPTを職務記述書の要約に使用することは可能だ。ただし自然言語処理や機械学習を用いて、こうした単純なタスクを処理しようと取り組むベンダーは既にある。「より高度なタスクについては、やはり人間同士のやりとりが必要だ」(同氏)
次回は「人事部門の仕事はChatGPTに奪われる可能性はあるのか」という懸念を考察する。
TechTarget発 先取りITトレンド
米国TechTargetの豊富な記事の中から、最新技術解説や注目分野の製品比較、海外企業のIT製品導入事例などを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.