AIモデルに指示を出すときに使用するのがプロンプトだ。生成AIの出力結果は、プロンプトに左右される。プロンプトの基礎知識と、プロンプト作成のポイントを説明する。
人工知能(AI)技術におけるプロンプトとは、LLM(大規模言語モデル)をはじめとしたAIモデル、人間との間で相互作用を起こす方法の一つだ。プロンプトは、AIモデルがユーザーの意図した出力を生成することを可能にする。
AIモデルのプロンプトは、質問や文章、コードスニペット、例示といった形を取る。AIモデルはプロンプトの内容に合わせて、文章や画像、ソースコードなどさまざまな出力結果を生成する。プロンプトの目的は、ユーザーがAIモデルに十分な情報を提供し、目的に合った出力結果を生成することだ。
AIモデルの用途は、テキスト生成や言語翻訳、さまざまな形式のコンテンツ作成、ユーザーの質問への情報提供に至るまで幅広い。どのような用途なのかにかかわらず、ユーザーの目的に合致する出力結果をAIモデルが生成するには、適切な内容のプロンプトが必要だ。
適切なプロンプトを作成することで、以下が期待できる。
OpenAIのチャットbot型生成AIサービス「ChatGPT」やMidjourneyの同名画像生成サービスといった生成AIツールは、ユーザーがプロンプトを利用して、AIモデルを微調整したりコンテンツを生成したりできる。生成AIの関連技術が進歩し続ける中で、生成AIから望ましい出力を得るために適切なプロンプトを開発する技術者「プロンプトエンジニア」の需要が高まっている。
プロンプトを使うことで、AIモデルがユーザーの望む出力結果を生成することが可能になる。AIモデルはプロンプトが与えられると、学習したデータを基に、プロンプトと関連のある出力結果を生成する。このプロセスは推論と呼ばれる。推論の工程では、AIモデルはプロンプトと学習データに基づいて、さまざまな単語の相関関係を考慮して出力結果を生成する。
ユーザーの望む出力結果を得るためには、プロンプトは具体的な内容でなければならない。例えば生成AIに「文章を書いてください」というプロンプトを入力しても、ユーザーが望む内容の文章が出力されない場合がある。しかし文章の種類やテーマ、文体、ターゲットとする読み手、文字数など、詳細な要件をプロンプトに盛り込むことで理想の結果に近づけることができる。プロンプトの具体性が増すことで、不適切な結果が出る可能性を抑えることもできる。
プロンプトにはさまざまな利用例がある。AIツールを活用した顧客対応もその一つだ。適切なプロンプトを使ってAIモデルを調整することで、大規模なデータベースからのデータ取得を高速化させて、顧客の問い合わせに対する適切な回答を迅速に出力するツールが構築できる。顧客対応向けのAIチャットbotはプロンプトを用いて、頻繁に尋ねられる質問に回答したり、基本的なサポートサービスを提供したりできる。
教育機関でもプロンプトは役立つ。AIモデルが組み込まれた学習教材の中には、教師が各生徒の成績や学習状況に合わせてプロンプトを使い、教材の内容を調整できるものがある。こうした作業により、それぞれの生徒にパーソナライズされた教材を提供できる。
プロンプトは、人間の言語とAIモデルの間のコミュニケーションを成立させる。プロンプトを使いAIツールにワークフローを説明して記憶させることで、AIツールに対する反復的なプロンプトの入力作業を減らし、大量のデータセットからの情報取得を迅速化できる。
生成AIと組み合わせて使用されるプロンプトは、幾つかの問題や倫理的な懸念を生じさせることがある。生成AIを開発したり運用したりするときは、出力結果にバイアス(偏見)や人類にとって有害な情報が含まれていないかどうかを継続的に監視して、生成AIが問題のある出力結果を生成しないようにする必要がある。
問題のある出力結果の一つは、間違った情報の生成だ。生成AIは、プロンプトの内容を基に自動的にコンテンツを生成する。その結果、ユーザーが意図したか意図していないかにかかわらず、虚偽の内容を生成する可能性がある。AIモデルが不正確な情報を生成し、それを真実であるかのように伝える現象を、幻覚(ハルシネーション)と呼ぶ。幻覚は生成AIツールが、プロンプトや出力結果から誤った結果や矛盾を検出することができないために生じる。
プロンプトが生成AIに有害な情報を生成させるリスクもある。こうしたプロンプトはサイバー攻撃者や悪意を持ったユーザーにしばしば悪用される。OpenAIをはじめとした大手AIベンダーは、AIモデルが人類にとって有害な情報を生成しないように、ガードレール(予防策)を設けている。しかしこうしたガードレールを突破し、生成AIに倫理的に問題のある出力結果を生成させるプロンプトが、研究者によって定期的に発見されている。
文脈が曖昧だったり、参照すべきデータを指定していなかったりする漠然としたプロンプトは、ユーザーの意図と無関係な出力結果を生成する可能性がある。プロンプトの種類や質は、AIモデルがユーザーの望む具体的な内容の出力結果を生成するかどうかに大きな影響を及ぼす。
場合によっては、適切なプロンプトを作成できないことがある。特定のトピックについて詳しくないユーザーにとって、AIモデルから望む出力を得るプロンプトを作成するのは簡単ではない。
ユーザーがAIモデルからニーズに合った結果を得られるようにするには、プロンプトを作成するときに工夫が必要だ。より良いプロンプトを作成する技術を習得することが、望む出力結果を得るために欠かせない。効果的なAIプロンプトを作成するための幾つかのヒントを紹介する。
プロンプトを書き始める前に、ユーザーはどのような出力結果を期待しているのかを明確にすることが重要だ。例えばユーザーは最初に、生成AIツールに望むことが「1000語未満のブログ記事を生成すること」なのか、「緑色の目と厚い毛皮のある猫の画像を生成すること」なのかをはっきりさせる必要がある。プロンプトの内容には、出力したいと考えている成果物の特徴や形状、色、質感、パターン、文体などに関する明確な指示を含む必要がある。プロンプトの内容が漠然としていると、望む出力結果が得られない可能性がある。
最良の結果を生成するためには、欲しい出力結果をできる限り詳細に説明したプロンプトが必要だ。例えば「風景画像を作成する」というプロンプトでは、望んだ結果を得られない可能性がある。「雪が積もった山があり、前景には穏やかな湖があり、夕日を映している」という光景の画像が欲しいのであれば、それをプロンプトに記載すべきだ。
文章を生成するときは、出力結果に盛り込んでほしいキーワードやフレーズをプロンプトに含めるとよい。プロンプトには3つから7つの単語が含まれているのが理想的だ。プロンプトをテキスト形式で入力する場合、文章はできるだけ短く、明確な内容にした方がよい。
AIモデルが混乱しないように、矛盾する用語が含まれたプロンプトや、矛盾する複数の指示が含まれたプロンプトを避けることが重要だ。例えば「抽象的」と「現実的」という単語の両方を一連のプロンプトに使用すると、生成AIが推論の過程で混乱して、望ましくない出力をする可能性がある。
クローズドクエスチョン(「はい」または「いいえ」などの限られた選択肢から回答を求める質問)形式のプロンプトは、オープンクエスチョン(回答範囲に制限のない質問)形式のプロンプトよりも、出力結果の内容が限定的になる。
例えば「コーヒーは健康に良くないのか」という質問よりも、「コーヒーの摂取が健康にもたらすメリットとデメリットは何か」という質問にした方が、AIモデルからより多くの情報を得られる傾向にある。
Copyright © ITmedia, Inc. All Rights Reserved.
お知らせ
米国TechTarget Inc.とInforma Techデジタル事業が業務提携したことが発表されました。TechTargetジャパンは従来どおり、アイティメディア(株)が運営を継続します。これからも日本企業のIT選定に役立つ情報を提供してまいります。
ウェルチのCMOが語るリブランディング 脱「ぶどうジュースの会社」なるか?
Welch’s(ウェルチ)が製品の品揃えを拡大する中で、CMOのスコット・ウトケ氏はブランド...
OpenAI、Google、etc. 第59回スーパーボウルで賛否が分かれた“微妙”CMたち
スーパーパーボウルLIXでは、有名人やユーモア、政治を前面に押し出した広告について、賛...
「単なるスポーツ広告ではない」 Nikeの27年ぶりスーパーボウルCMは何がすごかった?
Nikeが27年ぶりにスーパーボウルCMに復帰し、注目を集めた。