Lobe Chat完全ガイド:複数AI・ナレッジベース・MCPで“自社エージェント”を構築する方法

この記事でわかること
本記事は一次情報(公式GitHubリポジトリ・公式ドキュメント)をもとに構成しています。
出典: https://github.com/lobehub/lobe-chat
- Lobe Chatとは何か
- 主な特徴・機能・技術構成
- MCPプラグイン・Artifacts・ナレッジベースの実装概要
- セルフホスト(Vercel/Docker)構成の基本
- 今後の開発動向とビジネス活用の方向性
Lobe Chatとは
Lobe Chat は、複数のAIモデルを切り替えて利用できるオープンソースのチャットアプリケーションフレームワークです。開発は LobeHub チームによって行われており、Next.js と TypeScript で構築されています。
公式READMEの説明: An open-source, extensible AI chat framework supporting OpenAI, Claude, Gemini, DeepSeek, Ollama, and more.
複数プロバイダ対応・セルフホスト可能・拡張性重視が大きな特徴で、UIはチャット形式で直感的に操作できます。
1. 複数AIプロバイダに対応(マルチLLM)
2025年10月時点の標準サポート例:OpenAI(GPT-4/4o)、Claude 4、Gemini、DeepSeek、Ollama(ローカルLLM)、Qwen など。
環境変数として各APIキーを設定するだけで利用可能(例):
OPENAI_API_KEY=sk-xxxx
ANTHROPIC_API_KEY=sk-xxxx
GEMINI_API_KEY=sk-xxxx
用途別に複数モデルの比較検証や切り替えが容易です。
2. MCP(Model Context Protocol)による拡張性
MCPはAIモデルが外部リソースへ安全にアクセスするための拡張プロトコルで、Lobe Chatはこれに対応しています。
MCPマーケットプレイスからのワンクリック導入に関する記載が公式READMEにあります。
プラグインにより機能拡張(自作含む)が可能で、データベース/外部API連携などの拡張余地があります。
注:現時点で特定SaaS(例:Google Drive/Notion)との公式統合が標準提供と断定できる明記はなく、MCPにより拡張可能な設計として理解するのが正確です。
3. Artifacts(生成成果物)の保存と再利用

AIが生成したコード・文章・画像をArtifactsとして保存・一覧化し、チャット中に作成した成果物を右サイドで管理できます。
コードや文書を再利用しやすいUIで、作業履歴を『生成物』として資産化できます。
詳細: https://lobehub.com/docs/usage/features/artifacts
出典(画像):LobeHub Changelog - Artifacts Update
ライセンス:LobeHub 公式提供画像
4. ナレッジベースとRAG対応

出典(図解):Qdrant - What is RAG in AI
ライセンス:教育目的での利用可(要出典明記) — https://qdrant.tech/articles_data/what-is-rag-in-ai/how-rag-works.jpg
- PDF/Markdown/TXTなどのドキュメントをアップロードしてRAGで参照
- アップロードした独自データに基づくQA
- ベクトル検索で文脈把握し、自社マニュアルやFAQに強いエージェントを構築
5. セルフホスト構成(Docker/Vercel対応)
Lobe Chatはセルフホストでも稼働します。公式READMEではVercelとDockerの両対応が記載されています。
Vercelでのデプロイ例(概念):
git clone https://github.com/lobehub/lobe-chat
cd lobe-chat
vercel deploy
Dockerでの実行例(概念):
docker pull lobehub/lobe-chat:latest
docker run -d -p 3000:3000 -e OPENAI_API_KEY=sk-xxxx lobehub/lobe-chat:latest
起動後は http://localhost:3000 にアクセス。Next.js製のUIが表示されます。
※環境変数仕様はリリースによって変わる可能性があります。最新のSelf-Hostingガイド: https://lobehub.com/docs/deployment/self-hosting
技術構成
カテゴリ | 使用技術 |
---|---|
フロントエンド | Next.js / React / Tailwind CSS |
バックエンド | Node.js / TypeScript |
認証 | OAuth2 / APIキー |
データベース | Supabase(β版サポート) |
デプロイ | Vercel / Docker |
AIモデル連携 | OpenAI / Claude / Gemini / DeepSeek / Ollama / Qwen |
拡張 | MCPプラグイン / RAG検索 / Artifacts保存 |
今後の開発動向(2025年10月時点)
公式のReleasesによると、v1.135.2(2025年10月6日リリース)が最新です。
- MCP Marketplaceの拡張
- Realtime APIによる音声入力・ストリーミング応答
- チーム共有/マルチユーザー対応
- ナレッジベースUIの改良
Lobe Chatのビジネス活用:ユースケース
- 社内ドキュメント検索AI
- 顧客サポート用チャットボット
- AIライティング補助・レビュー
- コードレビュー支援
- RAG × プロジェクトナレッジ活用
LEXIA的観点からの応用
- Supabase連携で『プロジェクト情報 × 会話UI』
- MCPで社内DBや外部APIに安全アクセス(自作プラグイン)
- Artifactsで制作物を再利用・検証可能に
関連動画(YouTube)

LobeChat: Free Open Source LLM Platform — https://www.youtube.com/watch?v=2bjkx3QFOQo
出典:YouTube - LobeChat: Free Open Source LLM Platform
ライセンス:YouTube標準ライセンス(埋め込み・引用可)
まとめ
オープンソースの自由度と実運用性を両立しており、“自社AIエージェント構築基盤”として検討する価値があります。
- 複数AIモデル統合(OpenAI/Claude/Gemini等)
- MCPによるプラグイン拡張性
- ナレッジベース × RAG対応
- セルフホスト・プライベート運用対応
参考リンク
他の記事も見る
同じジャンルのおすすめ
もっと見る →
Firebase Studioとは?Googleが描くAI時代の新しい開発環境を徹底解説
Firebase StudioはGoogleが提供するAI統合型クラウド開発環境(IDE)。Project IDXを継承し、Geminiによるコード生成やFirebaseとの連携を実現。この記事では、Firebase Studioの仕組み・特徴・使い方・注意点までをわかりやすく紹介します。
Firebase Studioの始め方|登録からAIプロトタイプ作成・デプロイまで完全ガイド
Firebase StudioはGoogleが提供するAI統合クラウド開発環境。ブラウザだけでアプリ開発・プレビュー・デプロイまで完結します。本記事では、ワークスペース作成、Geminiの活用、Firebase連携、Hostingへの公開手順、注意点までを公式情報に基づいて解説。

Bun完全ガイド:高速JavaScriptランタイムの特長・インストール・活用まで
GitHubトレンド上位のBunを実証的に解説。JavaScriptCore × Zigで構築された超高速ランタイム。パッケージマネージャ・バンドラ・テストランナーを一体化した次世代ツールチェーン。
新着記事

LanceDBとは?Rust製の高速ベクトルデータベースを徹底検証【Python/AI検索時代の新選択肢】
オープンソースのベクトルデータベース「LanceDB」を解説。Python・JavaScript対応、マルチモーダル検索、ハイブリッドクエリなど、公式情報と実証例をもとに特徴と活用方法を整理します。

XYFlow(React Flow 後継)入門:モダンなノード・グラフエディタをプロダクションへ
GitHub トレンド入りの XYFlow を一次情報ベースで整理。主要機能、活用シーン、導入手順、運用のコツをまとめました。

Stagehand:PlaywrightとAIが融合した次世代ブラウザ自動化フレームワークの全貌
Playwright と AI を組み合わせたハイブリッド自動化フレームワーク Stagehand の特徴、アーキテクチャ、活用シーンを整理します。