Context Engineering とは、Large Language Models (LLMs) が情報を処理する際に利用する「コンテキスト(文脈)」を管理・最適化する技術です。通常の Prompt Engineering が「プロンプト(指示文)の書き方」に焦点を当てているのに対し、Context Engineering は入力/出力全体、メモリ、AI agent の状態管理まで含めてコントロールする点が特徴です。つまり、すべては Context Engineering である と言えます。
LLMs には context window の上限があります。 例えば GPT-4 は 128k tokens、Claude は 200k tokens(約 15,000 行のコード)までです。 複雑なタスクでは重要情報が溢れてしまうことがあります。
外部ストレージに計画や履歴を保存し、必要なときに読み戻します。
例1:Project Planner Agent 外部ファイルにプロジェクト計画を保存・取得。
例2:Customer Support Agent 過去の会話履歴を SQLite に保存し、ユーザーごとの文脈を呼び出す。
不要な情報を与えすぎると、LLM の精度や効率が低下します。
RAG や embedding を使って、関連度の高い情報やツールだけを選択。
例:SmartToolSelector タスク記述に基づき、最も関連度の高いツールを自動選択。
API response や SQL 結果にはノイズが多く、そのままでは token を無駄に消費。
不要な部分をカットし、要点だけを圧縮。
例1:API Response Compression JSON response から重要フィールドのみ抽出。
複雑な処理を1つの context に押し込むと精度が低下。
処理をステージごとに分け、それぞれ独立した context で実行。
例:UI生成(スクリーンショットから)
Monitoring
Context Engineering を活用することで、AI agent の性能は大幅に向上します。
大切なのは、ユースケースに合わせた system design と、実際の metrics に基づく継続的な monitoring & optimization です。
Email này của bạn đã được đăng ký rồi.