代理店照会
カスタムエージェントを作成する際、指示や出力スキーマのような重要な設定については、この記事を参照のこと。紹介はBraze Agentsを参照のこと。
Braze Currentsは現在ベータ版である。まずはカスタマー・サクセス・マネージャーにご相談を。
モデル
エージェントを設定する際、レスポンスを生成するために使用するモデルを選択することができる。Brazeを搭載したモデルを使うか、APIキーを持参するかの2つの選択肢がある。
Brazeを搭載したAutoモデルは、思考能力がカタログ検索やユーザーセグメンテーションのメンバーシップなどのタスクを実行するのに十分なモデルに最適化されている。他のモデルを使用する場合は、使用するモデルがユースケースでうまく機能するかどうかをテストすることをお勧めする。スピードや能力の異なるモデルに対して、異なる詳細レベルやステップ・バイ・ステップの考え方を与えるために、インストラクションを調整する必要があるかもしれない。
オプション 1: Braze搭載モデルを使用する
これは最もシンプルなオプションで、余分なセットアップは必要ない。Brazeは大規模言語モデル(LLM)に直接アクセスできる。このオプションを使用するには、ジェミニ・モデルを使用するAutoを選択する。
オプション 2: APIキーを持参する
このオプションを使えば、BrazeアカウントをOpenAI、Anthropic、AWS Bedrock、Google Geminiなどのプロバイダーに接続できる。LLMプロバイダーから自分のAPIキーを持参する場合、トークンの費用はBrazeではなく、プロバイダーを通して直接請求される。
レガシー・モデルは数カ月後に製造中止や非推奨となる可能性があるため、定期的に最新モデルをテストすることをお勧めする。
これを設定する:
- パートナー連携>テクノロジー・パートナーと進み、プロバイダーを探す。
- プロバイダーからのAPIキーを入力する。
- [保存] を選択します。
その後、エージェントに戻り、モデルを選択することができる。
お客様がBrazeが提供するLLMを使用する場合、当該モデルのプロバイダーは、お客様とBrazeとの間のデータ処理追加条項(DPA)の条件に従い、Brazeのサブプロセッサーとして行動する。APIキーの持参を選択した場合、LLMサブスクリプションのプロバイダーは、お客様とBraze間の契約においてサードパーティプロバイダーとみなされる。
指示書を書く
指示とは、あなたがエージェント(システム・プロンプト)に与えるルールやガイドラインのことである。これらは、エージェントが実行されるたびにどのように振る舞うべきかを定義する。システム命令は最大25KBである。
プロンプティングを始めるための一般的なベストプラクティスを紹介しよう:
- 終わりを念頭に置いてスタートする。まず目標を述べる。
- モデルに役割やペルソナを与える(「あなたは…です」)。
- 明確な文脈と制約(オーディエンス、長さ、トーン、フォーマット)を設定する。
- 構造を求める(「JSON/箇条書きリスト/テーブルを返す…」)。
- 見せて、教えるな。質の高い例をいくつか挙げる。
- 複雑な仕事を順序立てたステップに分ける(「ステップ1…ステップ2…“)。
- 推論を促す(「内部でステップを考え、簡潔に最終的な答えを出す」、あるいは「決定を簡潔に説明する」)。
- 試験し、検査し、反復する。小さな微調整が大きな品質向上につながる。
- エッジケースを処理し、ガードレールを追加し、拒否指示を追加する。
- 再利用とスケーリングのために、内部で何がうまくいっているかを測定し、ドキュメント化する。
エージェントが解析できないレスポンスを受信した場合のキャッチオールレスポンスとして、デフォルトを含めることも推奨する。このエラー処理により、エージェントは未知の結果変数があることを知らせることができる。例えば、エージェントに “肯定的 “か “否定的 “かの感情値だけを求めるのではなく、判断できない場合は “不明 “を返すように求める。
シンプルなプロンプト
このプロンプトの例では、アンケートを入力し、簡単なセンチメント分析を出力する:
1
2
3
4
5
6
7
From the survey text, classify overall sentiment toward product quality, delivery, and price as Positive, Neutral, or Negative.
Always output a single string with just one label.
If any category is missing or unclear, treat it as Neutral.
If sentiment across categories is mixed, return Neutral.
Example Input: “The product works great, but shipping took forever and the cost felt too high.”
Example Output: Neutral
コンプレックス・プロンプト
このプロンプトの例では、ユーザーからのアンケート入力を受け取り、それを1つのセンチメントラベルに分類する。その結果は、ユーザーを異なるキャンバスのパス(肯定的なフィードバックと否定的なフィードバックなど)に誘導したり、将来のターゲティングのために、センチメントをプロフィール上のカスタム属性として保存するために使用することができる。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
You are a customer research AI for a retail brand.
Input: one open-text survey response from a user.
Output: A single structured JSON object with:
- sentiment (Positive, Neutral, Negative)
- topic (Product, Delivery, Price, Other)
- action_recommendation (Route: High-priority follow-up | Low-priority follow-up | No action)
Rules:
- Always return valid JSON.
- If the topic is unclear, default to Other.
- If sentiment is mixed, default to Neutral.
- If sentiment is Negative and topic = Product or Delivery → action_recommendation = High-priority follow-up.
- Otherwise, action_recommendation = Low-priority follow-up.
Example Input:
"The product works great, but shipping took forever and the cost felt too high."
Example Output:
{
"sentiment": "Neutral",
"topic": "Delivery",
"action_recommendation": "High-priority follow-up"
}
プロンプティングのベストプラクティスの詳細については、以下のモデルプロバイダーのガイドを参照のこと:
Liquid の使用
エージェントの指示にパーソナライズされたLiquidを含めることで、レスポンスにパーソナライゼーションを加えることができる。エージェントが取得するLiquid変数を正確に指定し、プロンプトのコンテキストに含めることができる。例えば、”名 “を明示的に書く代わりに、Liquidのスニペット{{${first_name}}} :
1
Tell a one-paragraph short story about this user, integrating their {{${first_name}}}, {{${last_name}}}, and {{${city}}}. Also integrate any context you receive about how they are currently thinking, feeling, or doing. For example, you may receive {{context.${current_emotion}}}, which is the user's current emotion. You should work that into the story.
エージェントコンソールの ログセクションで、Liquid からレンダリングされた値を理解するために、エージェントの入力と出力の詳細を確認することができる。

カタログとフィールド
エージェントが参照する特定のカタログを選択し、関連する場合は、エージェントがユーザー以外のデータや製品を理解するために必要なコンテキストを与える。エージェントは、トークンの使用を最小限にするため、ツールを使って関連するアイテムだけを見つけ、それをLLMに送る。

セグメンテーション・コンテキスト
キャンバスでエージェントを使用する際に、各ユーザーのセグメンテーションメンバーシップを相互参照するために、エージェントに最大3つのセグメントを選択することができる。例えば、エージェントが “ロイヤルティユーザー “のセグメントメンバーシップを選択していて、そのエージェントがキャンバスで使用されているとしよう。ユーザーがエージェントのステップに入ると、エージェントは、各ユーザーがエージェントコンソールで指定した各セグメンテーションのメンバーかどうかを相互参照し、各ユーザーのメンバーシップ(または非メンバー)をLLMのコンテキストとして使用することができる。

ブランド・ガイドライン
エージェントのレスポンシブ・ガイドラインを選択することができる。例えば、ユーザーにジムの会員登録を促すSMSコピーをエージェントに生成させたい場合、このフィールドを使って、事前に定義した太字でやる気を起こさせるガイドラインを参照することができる。
温度
ユーザーがモバイルアプリにログインすることを促すコピーを生成するためにエージェントを使うことが目的であれば、エージェントがよりクリエイティブになり、コンテキスト変数のニュアンスを利用できるように、エージェントの温度を高く設定することができる。センチメントスコアの生成にエージェントを使用している場合は、ネガティブなアンケート回答に対するエージェントの推測を避けるため、温度を低めに設定するのが理想的かもしれない。この設定をテストし、あなたのシナリオに合うようにエージェントが生成する出力を確認することをお勧めする。
現在、温度はOpenAIではサポートされていない。
GitHub でこのページを編集