CrewAI デバッグとよくあるエラー:初心者が最も踏みやすい 8 つの地雷

3 min read

正直な話、Agent 開発で一番時間を使うのは実装より デバッグ です。
このページは遠回りを減らすための地雷マップです。

よくある 8 問題

現象 主な原因 すぐできる対処
出力形式が毎回違う expected_output が曖昧 形式要件を追加、必要なら output_pydantic
後続 Task がデータを受け取れない context がない tasks.yaml で明示的に接続
Tool が呼ばれない Task 指示に使用条件がない 「先に Tool 使用」を必須化
コスト急増 タスクが長い、重複呼び出し タスク分割、プロンプト短縮、キャッシュ
幻覚が多い 出典制約なし source URL と引用形式を必須化
フローが停止する 分岐条件が不完全 router の戻り値と listener 対応確認
起動直後に失敗 環境変数未設定 .env と API キー確認
品質が安定しない テスト入力が固定されていない 固定入力と受け入れ基準を作成

おすすめのデバッグ順

  1. 設定確認:agents.yamltasks.yaml
  2. 入力確認:inputs が安定しているか
  3. Tool 確認:引数と返却形式
  4. 最後にモデル確認:温度、文脈長、コスト

順番を逆にしないこと。モデルのせいに見えて、実は YAML 1 行不足というケースは多いです。

便利な小技

各 Task に「出力サマリ」と「重要項目チェック」を追加します:

  • 結論があるか
  • 出典があるか
  • markdown 構造に沿っているか

これはワークフロー内のミニ単体テストとして機能します。

次へ

最終回では、ここまでの内容を本番運用指針として統合します。
👉 本番運用ベストプラクティス