「ChatGPT」をソフトウェアテストに使うなら“これ”に注意すべし:ChatGPTでソフトウェアテストはどう変わるか【中編】
生成AIツールの「ChatGPT」をソフトウェアテストに活用する場合には、幾つかの注意点がある。それは何なのか。対処方法はあるのか。専門家の見解を基に、これらを探る。
OpenAIの生成AI(テキストや画像などを自動生成するAI技術)ツール「ChatGPT」は企業の間で急速に普及し、さまざまな業務への活用が進みつつある。ソフトウェア開発においては、ソフトウェアが想定通りに動作するかどうかを検証する「ソフトウェアテスト」を自動化する手段になり得る。
ソフトウェアテストにChatGPTを活用する際、注意すべき点が幾つかある。具体的な注意点と対処法を整理しよう。
ChatGPTをソフトウェアテストに使うなら“これ”に注意
併せて読みたいお薦め記事
連載:ChatGPTでソフトウェアテストはどう変わるか
開発業界のAI活用
「ChatGPTによる生成物の信頼性は、根幹となる大規模言語モデル(LLM:膨大なテキストデータでトレーニング済みの言語モデル)をトレーニングする教師データの量や質に懸かっている」。メールなどのコミュニケーションツール向けAPI開発を手掛けるNylasで、エンジニアリング部門シニアバイスプレジデントを務めるトロイ・アレン氏はこう語る。
「経験豊富な品質保証(QA)エンジニアが入念に検証しない限り、ChatGPTの生成物をそのまま信頼するのは間違いだ」と考える専門家は少なくない。ChatGPTをソフトウェアテストに活用する場合、当面は「手作業によるダブルチェックが必要だ」とアレン氏は強調する。
政府や業界団体が、ChatGPTなどの生成AIツールの機密情報の扱いに関する明確な法律を定めるまで、企業は引き続き注意を払うべきだ。アレン氏は、生成AIツールを利用する企業に対して、セキュリティの懸念を軽減する幾つかの方法を提唱する。具体的には以下の通りだ。
- 生成AIツールに読み込ませる機密データが、適切に匿名化されていることを確認する
- 生成AIツールをトレーニングする教師データに、医学や法律といった業界特有の知識に関するデータが不足していたり、誤解に基づくデータを含んでいたりすることで、生成AIツールが想定しない挙動をしないように細心の注意を払う
- 生成物の不正確さに惑わされないために、手作業で検証する
後編は、ソフトウェアテストにおけるChatGPTの可能性を探る。
TechTarget発 世界のインサイト&ベストプラクティス
米国TechTargetの豊富な記事の中から、さまざまな業種や職種に関する動向やビジネスノウハウなどを厳選してお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.