「ChatGPT」をソフトウェアテストに使うなら“これ”に注意すべしChatGPTでソフトウェアテストはどう変わるか【中編】

生成AIツールの「ChatGPT」をソフトウェアテストに活用する場合には、幾つかの注意点がある。それは何なのか。対処方法はあるのか。専門家の見解を基に、これらを探る。

2023年09月30日 19時30分 公開
[David CotrissTechTarget]

 OpenAIの生成AI(テキストや画像などを自動生成するAI技術)ツール「ChatGPT」は企業の間で急速に普及し、さまざまな業務への活用が進みつつある。ソフトウェア開発においては、ソフトウェアが想定通りに動作するかどうかを検証する「ソフトウェアテスト」を自動化する手段になり得る。

 ソフトウェアテストにChatGPTを活用する際、注意すべき点が幾つかある。具体的な注意点と対処法を整理しよう。

ChatGPTをソフトウェアテストに使うなら“これ”に注意

 「ChatGPTによる生成物の信頼性は、根幹となる大規模言語モデル(LLM:膨大なテキストデータでトレーニング済みの言語モデル)をトレーニングする教師データの量や質に懸かっている」。メールなどのコミュニケーションツール向けAPI開発を手掛けるNylasで、エンジニアリング部門シニアバイスプレジデントを務めるトロイ・アレン氏はこう語る。

 「経験豊富な品質保証(QA)エンジニアが入念に検証しない限り、ChatGPTの生成物をそのまま信頼するのは間違いだ」と考える専門家は少なくない。ChatGPTをソフトウェアテストに活用する場合、当面は「手作業によるダブルチェックが必要だ」とアレン氏は強調する。

 政府や業界団体が、ChatGPTなどの生成AIツールの機密情報の扱いに関する明確な法律を定めるまで、企業は引き続き注意を払うべきだ。アレン氏は、生成AIツールを利用する企業に対して、セキュリティの懸念を軽減する幾つかの方法を提唱する。具体的には以下の通りだ。

  • 生成AIツールに読み込ませる機密データが、適切に匿名化されていることを確認する
  • 生成AIツールをトレーニングする教師データに、医学や法律といった業界特有の知識に関するデータが不足していたり、誤解に基づくデータを含んでいたりすることで、生成AIツールが想定しない挙動をしないように細心の注意を払う
  • 生成物の不正確さに惑わされないために、手作業で検証する

 後編は、ソフトウェアテストにおけるChatGPTの可能性を探る。

TechTarget発 世界のインサイト&ベストプラクティス

米国TechTargetの豊富な記事の中から、さまざまな業種や職種に関する動向やビジネスノウハウなどを厳選してお届けします。

ITmedia マーケティング新着記事

news061.png

高齢男性はレジ待ちが苦手、女性は待たないためにアプリを活用――アイリッジ調査
実店舗を持つ企業が「アプリでどのようなユーザー体験を提供すべきか」を考えるヒントが...

news193.jpg

IASがブランドセーフティーの計測を拡張 誤報に関するレポートを追加
IASは、ブランドセーフティーと適合性の計測ソリューションを拡張し、誤報とともに広告が...

news047.png

【Googleが公式見解を発表】中古ドメインを絶対に使ってはいけない理由とは?
Googleが中古ドメインの不正利用を禁止を公式に発表しました。その理由や今後の対応につ...