April 15, 2025
現在、私たちの多くはChatGPTやGeminiなどのAI言語モデル(LLM)を使用しています。パワフルではありますが、回答の質が大きく異なることにお気づきかもしれません。多くの場合、より適切で関連性の高い結果を得るための鍵は、AI 自体だけでなく、どのように指示するかにもあります。これが「促し」の根底にある考え方です。
プロンプトがあいまいだったり、構造が不十分だったりすると、役に立たない、一般的な回答、または誤った回答につながることがよくあります。効果的なプロンプトの作成方法を学ぶことで、実際に必要なアウトプットを生成するように AI を導くことができます。このガイドでは、次のようなリソースからインスピレーションを得て、基本的なプロンプトテクニックを紹介します。 Google のプロンプトエンジニアリングに関するホワイトペーパー、日常的に使用できるようにアクセシブルな方法で提供されています。
テクニックに飛び込む前に、LLM は、入力プロンプトとトレーニングされた膨大な量のデータに基づいて、最も可能性の高い次のテキスト (単語または単語の一部に似た「トークン」) を予測することで機能することを知っておくと役に立ちます。プロンプトが明確であればあるほど、AI は意図と一致するトークンの順序をより正確に予測できます。
LLMとのやりとりを改善するための基本的な方法をいくつか見てみましょう。
1。一般/ゼロショットプロンプト
それは何ですか: これは最も基本的なプロンプト形式です。LLM に希望する出力形式やスタイルの具体例を示さずに、タスクの説明を入力するか、直接質問するだけです。「ゼロショット」という用語は、プロンプトに「例がない」という意味です。
いつ使用するか: 簡単なリクエスト、一般的な知識に関する質問、簡単な要約、または正確な形式が重要ではない最初のブレインストーミングに最適です。
例:
What is the capital of India?
2。ワンショットとフューショットのプロンプト
それは何ですか: ゼロショットのプロンプトで必要な特定の結果が得られない場合は、プロンプト内で例を提供すると非常に効果的です。これは特に次のような場合に便利です。 モデルを特定の出力構造またはパターンに導きたい。
ワンショット: あなたが提供するのは以下の内容です シングル LLMが模倣する例。
数ショット: あなたが提供する 複数 (通常は 2 ~ 5) の例これにより、モデルに従うべきパターンがより明確になり、希望どおりの出力が生成される可能性が高まります。
なぜ使うのか: モデルを特定のフォーマット (リスト、Q&Aペア)、スタイル (公式、非公式)、または分類タスクに導くこと。
ワンショットの例 (特定の形式):
Extract the main keyword from the text.
Text: Artificial intelligence is transforming many industries.
Keyword: Artificial intelligence
Text: Learning effective prompting techniques can improve AI results.
Keyword:
いくつかの例 (単純分類):
Classify the following messages as 'Question' or 'Statement'.
Message: What time is the meeting tomorrow?
Type: Question
Message: The report is due by end of day.
Type: Statement
Message: Can you send me the presentation slides?
Type:
注記: 必要な例の数は、タスクの複雑さと使用するモデルによって異なります。いくつかから始めて、必要に応じてさらに追加してください。例が正確で明確で、タスクに関連していることを確認してください。
3。システム、コンテキスト、およびロールプロンプト
これらの手法は、AI の応答をより正確に形作るためのさまざまな種類のガイダンスを提供します。
システムプロンプト:
それは何ですか: LLMの回答の全体的なコンテキスト、ルール、または目的を設定します。翻訳、コーディング、特定のアウトプット要件の遵守など、「全体像」や基本的なタスクを定義します。基本的に、システムに追加の包括的な指示を与えることになります。
例:
Translate the following user query into German. Only output the translation.
User Query: Where is the nearest train station?
コンテキストプロンプト:
それは何ですか: 特定の詳細または背景情報を提供します 現在の特定のタスクに関連する。これにより、モデルはリクエストのニュアンスを理解し、それに応じてレスポンスを調整できます。
例:
Context: You have a set of data or information that needs to be analyzed to extract meaningful insights or make informed choices.
Task: We have a dataset of customer feedback regarding our new product. Analyze this data and identify the top three recurring issues and suggest potential solutions.
ロールプロンプト:
それは何ですか: LLMが採用する特定のキャラクター、ペルソナ、または職業上のアイデンティティを割り当てます。これは、回答のトーン、スタイル、ボキャブラリー、および視点に影響します。
例:
Assume the role of a neutral news reporter.
Summarize the main events of the recent tech conference based on the following press release: [Insert Press Release Text Here]
キーアイデア: これらのプロンプトはインタラクションを組み立てます。システムプロンプトはルールを設定し、コンテキストプロンプトはタスク固有の事実を示し、ロールプロンプトは話者の声と視点を定義します。
4。思考連鎖 (CoT) の促進
それは何ですか: この手法は、以下を改善することを目的としています 推論能力 のLLM、特に複数のステップを必要とする問題向け中間の推論ステップを生成するようにモデルに指示します。 前 最終的な回答を提供します。
なぜ使うのか: 段階的な思考プロセスを模倣することで、LLMが数学問題、論理パズル、計画、複雑な指示について、より正確な答えを得るのに役立ちます。また、AI の推論も透明になります。
例:
Quetion: Sarah has 5 apples. She eats 1 and gives 2 to her brother. How many apples does she have left? Let's think step-by step.
Answer: (The LLM should generate something like this)
1. Sarah starts with 5 apples.
2. She eats 1 apple, so she has 5 - 1 = 4 apples remaining.
3. She gives 2 apples to her brother, so she has 4 - 2 = 2 apples remaining.
Final Answer: Sarah has 2 apples left.
注記: 「ステップバイステップで考えましょう」や「推論を示してください」などのフレーズを追加すると、このような行動が促進されることがよくあります。
上記のテクニックは初心者向けの基礎をカバーしていますが、さらに詳しく調べていくうちに、より高度な方法に出会うかもしれません。これらには以下が含まれます。
ステップバックプロンプト: 特定の質問の前に一般原則を検討する。
セルフコンシステンシー: 複数の推論経路を生成し、最も一般的な回答を選択します。
ツリー・オブ・ソート (ToT): 多くの推論経路を同時に探る。
リアクト (理由と行為): 推論と外部ツール(検索など)を使用する機能を組み合わせたもの。
これらはLLMとやりとりするためのより洗練された方法を提供しますが、一般的に実装はより複雑です。
場合によっては、制御する設定を調整できます どうやって AI はテキストを生成し、そのスタイルと予測可能性に影響を与えます。これらはプロンプト自体には含まれていませんが、一部の AI インターフェースや API に見られるパラメーターです。
トークンの確率について: LLMは1つの単語だけを選ぶわけではありません。彼らは以下の確率を計算します すべて可能 ボキャブラリーの次の単語 (またはトークンと呼ばれる単語の一部)。温度、トップ K、トップ P などの設定が AI に与える影響は、 サンプル これらの確率から実際の次のトークンを選びます。
温度:
トークン選択のランダム度を制御します。
より低い温度 (例:0.1-0.4)AIに最も可能性の高いトークンをより頻繁に選択させることで、より焦点を絞った、決定論的な、そして多くの場合事実に基づいた応答につながります。Q&A、要約、または「正解」のあるタスクに適しています。
より高い温度 (例:0.7-1.0) ランダム性を高め、AI が可能性の低いトークンを選べるようにします。これにより、より多様で創造的になったり、予想外の結果になったりします。ブレーンストーミングやクリエイティブな文章を書くのに適しています。
トップ K:
AIの選択を、最も可能性の高い次のトークン「K」のみに制限します。
K が低い (K=1 など) と、出力が非常に予測しやすくなります (常に最も可能性の高いトークンが 1 つ選択されます)。
Kが高いほど多様性は高くなりますが、選択肢は比較的可能性の高いオプションに制限されます。
トップP (原子核サンプリング):
AIの選択を、累積確率が「P」以上の最小のトークンセットに制限します。
P = 0.1の場合、最も可能性の高いトークンの上位1つか2つだけが考慮される可能性があります。P=0.9の場合、特に同じ確率を持つトークンが多数ある場合は、はるかに広い範囲が考慮される可能性があります。
この方法では、各ステップでの確率分布に基づいてプールサイズを調整します。
出力長さ: レスポンスに含めることができるトークンの最大数を制限するだけです。テキストを簡潔にしたり、テキストが突然途切れてしまうのを防ぐのに便利です。
設定を選択する: 実験が重要です。事実の正確さや一貫性が必要な場合 (CoT など) は、より低い温度 (例えば 0.2) を試してください。独創的なアイデアが必要な場合は、より高い温度 (例:0.8) を試してください。Top-K と Top-P では、ランダム性と多様性のトレードオフをさらに細かく制御できます。
明確かつ具体的に: あいまいさを避けてください。必要なものを正確に述べてください。
例を挙げてください (例): モデルを特定の構造、パターン、またはスタイルに導くことが特に重要です。
必要なコンテキストを伝えてください: タスクに必要な背景情報が AI にあることを確認します。
ロールの定義: 特定の視点や口調が必要な場合は、AIにどうあるべきかを伝えてください。
ポジティブ・インストラクションを使う: AI に何を伝えるかに焦点を当てる に 制約を列挙するだけではなく、実行してください (制約が必要な場合もあります)。
思考の連鎖を活用: 複雑なタスクの場合は、AIにその理由を段階的に説明してもらいます。推論タスクの一貫性を保つため、温度を低く設定してください。
実験: 表現や技法が異なれば、結果も異なります。自分のニーズに最も合ったものを見つけてください。
文書: 定期的なタスクに便利なプロンプトを作成したら、保存しておきましょう。
効果的なプロンプトは、AIツールを活用する能力を大幅に高める実践的なスキルです。これらの基本的な手法を理解して適用することで、一般的な回答を得ることから、真に役立つカスタマイズされた結果を得ることへと移行できます。これらの方法で練習を始め、結果を観察し、アプローチを改良してください。