エンタープライズ向けAIエージェントプラットフォーム
独自のエージェント・ツール・ナレッジベースを組み合わせ、各企業の業務に特化したAIアシスタントを構築・運用できるマルチテナント対応プラットフォーム。
課題
企業内のナレッジ活用・業務自動化を実現するために、マルチモデル対応のAIエージェントプラットフォームが必要だった。 セキュリティ・マルチテナント・スケーラビリティの要件を満たしつつ、ノーコードでエージェントを構築できる設計が求められていた。
ソリューション
クリーンアーキテクチャに基づいたバックエンド設計と、GCPを活用したセキュアなインフラを構築。 PydanticAIによるエージェント実行基盤、LlamaIndex + pgvectorによるRAGパイプライン、RestrictedPythonによるコードサンドボックスなどを統合的に実装。
成果
フロントエンド150+、バックエンド80+、インフラ50+ファイル規模のフルスタックプラットフォームを構築。
チーム
2 members, 4 months
設計・実装・インフラ構築・運用
役割
設計から実装、インフラ構築、運用まで全てを担当。
フロントエンド(Next.js)、バックエンド(FastAPI)、インフラ(Terraform/GCP)を一貫してリード。
技術スタック
主要機能
SSEによるリアルタイムAIチャット: 思考過程・ツール実行状況をライブ表示する6種類のストリーミングイベント
マルチモデル対応: OpenAI / Anthropic / Gemini を統一インターフェースで切替可能
ノーコードエージェントビルダー: システムプロンプト・ツール・モデルを自由に設定
RAGナレッジベース: ドキュメントをベクトル化し、セマンティック検索でAI回答精度を向上
RestrictedPythonによるコードサンドボックス: 安全なユーザーコード実行環境
マルチテナント: workspace_idによる全テーブルフィルタリングでテナント横断アクセスを構造的に防止
工夫点
クリーンアーキテクチャ
domain → application → infrastructure → api の依存方向を統一し、LLMプロバイダの切替がインフラ層の変更のみで完結する設計を実現。
エンタープライズセキュリティ
Backend を内部トラフィックのみに制限し、OIDC + ユーザートークンの二重認証、VPCによるDB分離、Secret Managerによるシークレット管理を実装。
コスト最適化
Cloud Runスケールトゥゼロ・環境別リソース分離により、開発環境コストを本番の2-5%に削減。Terraformで全インフラをコード管理。