README.ja.md
<span>Langfuseは、サポートと機能リクエストのために <a href="https://github.com/orgs/langfuse/discussions"><strong>GitHub Discussions</strong></a> を利用しています。</span>
<span><b>We're hiring.</b> <a href="https://langfuse.com/careers"><strong>チームに加わる</strong></a> (製品エンジニアリングおよびテクニカルGTMのポジション)への応募をお待ちしています。</span>
<div> </div> </div> <p align="center"> <a href="https://github.com/langfuse/langfuse/blob/main/LICENSE"> </a> <a href="https://www.ycombinator.com/companies/langfuse"></a> <a href="https://hub.docker.com/u/langfuse" target="_blank"> </a> <a href="https://pypi.python.org/pypi/langfuse"></a> <a href="https://www.npmjs.com/package/langfuse"></a> <a href="https://discord.com/invite/7NXusRtqYU" target="_blank"> </a> <a href="https://twitter.com/intent/follow?screen_name=langfuse" target="_blank"> </a> <a href="https://www.linkedin.com/company/langfuse/" target="_blank"> </a> <a href="https://github.com/langfuse/langfuse/graphs/commit-activity" target="_blank"> </a> <a href="https://github.com/langfuse/langfuse/" target="_blank"> </a> <a href="https://github.com/langfuse/langfuse/discussions/" target="_blank"> </a> </p> <p align="center"> <a href="./README.md"></a> <a href="./README.cn.md"></a> <a href="./README.ja.md"></a> <a href="./README.kr.md"></a> </p>LangfuseはオープンソースのLLMエンジニアリングプラットフォームです。
チームが共同でAIアプリケーションを開発、監視、評価、およびデバッグするのを支援します。
Langfuseは数分でセルフホスト可能で、多くの実績を持つシステムです。
LLMアプリケーションの可観測性:
アプリケーションにインストゥルメンテーションを導入し、Langfuseへトレースを取り込むことで、LLM呼び出しやリトリーバル、埋め込み、エージェントアクションなどの関連ロジックを追跡できます。
複雑なログやユーザーセッションを解析・デバッグできます。
インタラクティブなデモで動作を確認してください。
プロンプト管理:
プロンプトを一元管理し、バージョン管理しながら共同で改善を行えます。
サーバーおよびクライアント側で強力なキャッシングを行うため、アプリケーションのレイテンシを増やすことなくプロンプトの改良が可能です。
評価:
評価はLLMアプリケーション開発ワークフローの要であり、Langfuseは多様なニーズに対応します。
LLMを判定者として用いる方法、ユーザーフィードバックの収集、手動によるラベリング、API/SDKを通じたカスタム評価パイプラインをサポートします。
データセット:
LLMアプリケーション評価用のテストセットやベンチマークを構築できます。
継続的な改善、事前デプロイテスト、構造化された実験、柔軟な評価、さらにLangChainやLlamaIndexなどとのシームレスな統合をサポートします。
LLMプレイグラウンド:
プロンプトやモデル設定のテスト・反復作業を支援するツールで、フィードバックループを短縮し開発を加速します。
トレースで不具合が見つかった場合、直接プレイグラウンドへ飛び、迅速に改善できます。
包括的なAPI:
LangfuseはAPIを通じて提供されるビルディングブロックを用い、カスタムLLMOpsワークフローの基盤として頻繁に利用されます。
OpenAPI仕様、Postmanコレクション、PythonやJS/TS向けの型付きSDKが利用可能です。
Langfuseチームによるマネージドデプロイメント。充実した無料プラン(ホビープラン)で、クレジットカード不要です。
<div align="center"> <a href="https://cloud.langfuse.com" target="_blank"></a>
自身のインフラ上でLangfuseを実行できます:
Local (docker compose):
Docker Composeを使用して、たった5分で自分のマシン上でLangfuseを実行できます.
# 最新のLangfuseリポジトリのコピーを取得
git clone https://github.com/langfuse/langfuse.git
cd langfuse
# Langfuseのdocker composeを起動
docker compose up
Kubernetes (Helm):
Helmを使用してKubernetesクラスター上でLangfuseを実行します。
こちらが推奨される本番環境でのデプロイ方法です。
VM:
Docker Composeを使用して、単一の仮想マシン上でLangfuseを実行します。
セルフホスティングのドキュメントを参照し、アーキテクチャや設定オプションの詳細をご確認ください。
| インテグレーション | 対応言語・環境 | 説明 |
|---|---|---|
| SDK | Python, JS/TS | SDKを利用して手動でインストゥルメンテーションを実装し、完全な柔軟性を提供します。 |
| OpenAI | Python, JS/TS | OpenAI SDKのドロップイン置換による自動インストゥルメンテーションを実現します。 |
| Langchain | Python, JS/TS | Langchainアプリケーションにコールバックハンドラーを渡すことで自動的に計測します。 |
| LlamaIndex | Python | LlamaIndexのコールバックシステムを介して自動的にインストゥルメントします。 |
| Haystack | Python | Haystackのコンテンツトレースシステムを利用した自動インストゥルメンテーションを実現します。 |
| LiteLLM | Python, JS/TS (proxy only) | GPTのドロップイン置換として任意のLLMを使用できます。Azure、OpenAI、Cohere、Anthropic、Ollama、VLLM、Sagemaker、HuggingFace、Replicate(100+ LLM)に対応。 |
| Vercel AI SDK | JS/TS | React、Next.js、Vue、Svelte、Node.jsを使用してAI搭載アプリケーションの構築を支援するTypeScriptツールキットです。 |
| API | 公開APIを直接呼び出すことが可能です。OpenAPI仕様も利用できます。 |
| 名前 | タイプ | 説明 |
|---|---|---|
| Instructor | ライブラリ | 構造化されたLLM出力(JSON、Pydantic)を取得するためのライブラリ |
| DSPy | ライブラリ | LLMプロンプトや重み付けを体系的に最適化するためのフレームワーク |
| Mirascope | ライブラリ | LLMアプリケーション構築用のPythonツールキット |
| Ollama | モデル(ローカル) | オープンソースLLMを手軽にローカルで実行するためのツール |
| Amazon Bedrock | モデル | AWS上でファウンデーションモデルやファインチューニング済みモデルを実行 |
| Google VertexAI and Gemini | モデル | Google上でファウンデーションモデルやファインチューニング済みモデルを実行 |
| AutoGen | エージェントフレームワーク | 分散型エージェント構築のためのオープンソースLLMプラットフォーム |
| Flowise | チャット/エージェント UI | JS/TSのノーコードビルダーで、カスタマイズ可能なLLMフローを構築 |
| Langflow | チャット/エージェント UI | PythonベースのUIで、react-flowを用いてLangChainの実験やプロトタイピングを容易に実現 |
| Dify | チャット/エージェント UI | ノーコードでLLMアプリ開発が可能なオープンソースプラットフォーム |
| OpenWebUI | チャット/エージェント UI | 自前ホストおよびローカルモデルに対応するLLMチャットWeb UI |
| Promptfoo | ツール | オープンソースのLLMテストプラットフォーム |
| LobeChat | チャット/エージェント UI | オープンソースのチャットボットプラットフォーム |
| Vapi | プラットフォーム | オープンソースの音声AIプラットフォーム |
| Inferable | エージェント | 分散型エージェント構築のためのオープンソースLLMプラットフォーム |
| Gradio | チャット/エージェント UI | チャットUIなどのWebインターフェース構築のためのオープンソースPythonライブラリ |
| Goose | エージェント | 分散型エージェント構築のためのオープンソースLLMプラットフォーム |
| smolagents | エージェント | オープンソースのAIエージェントフレームワーク |
| CrewAI | エージェント | エージェントの協調とツール利用を実現するマルチエージェントフレームワーク |
アプリケーションにインストゥルメンテーションを導入し、LLM呼び出しやリトリーバル、埋め込み、エージェントアクションなどの動作をLangfuseに記録しましょう。
複雑なログやユーザーセッションの解析・デバッグが可能になります。
@observe() デコレーターを利用することで、任意のPython製LLMアプリケーションのトレースが簡単に行えます。
このクイックスタートでは、LangfuseのOpenAI統合を使用して、全てのモデルパラメータを自動で取得します。
[!TIP] OpenAIを利用していない場合は、こちらのドキュメントで、他のモデルやフレームワークのログ記録方法をご確認ください。
pip install langfuse openai
LANGFUSE_SECRET_KEY="sk-lf-..."
LANGFUSE_PUBLIC_KEY="pk-lf-..."
LANGFUSE_BASE_URL="https://cloud.langfuse.com" # 🇪🇺 EUリージョン
# LANGFUSE_BASE_URL="https://us.cloud.langfuse.com" # 🇺🇸 USリージョン
from langfuse import observe
from langfuse.openai import openai # OpenAI統合
@observe()
def story():
return openai.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": "What is Langfuse?"}],
).choices[0].message.content
@observe()
def main():
return story()
main()
Langfuse上で、LLM呼び出しおよびその他のアプリケーションロジックのトレースを確認できます。
[!TIP]
Langfuseでのトレースの詳細については、こちらをご参照いただくか、インタラクティブデモでお試しください。
質問の回答をお探しの場合は:
サポートチャネル:
皆様からの貢献を歓迎します!
このリポジトリは、eeフォルダを除き、MITライセンスの下で公開されています。
詳細はLICENSEおよびオープンソースに関するドキュメントをご確認ください。
Langfuseを利用している主要なオープンソースPythonプロジェクト(スター数順): (出典)
データのセキュリティとプライバシーは非常に重要です。
詳細につきましては、セキュリティとプライバシーページをご参照ください。
デフォルトでは、Langfuseは以下の目的でセルフホストされたインスタンスの基本的な使用統計情報を中央サーバ(PostHog)へ自動的に報告します。
テレメトリーには、生の traces、prompts、observations、scores、またはデータセットの内容は含まれません。収集される正確な項目、それらの送信先、および実装上の参照先については、テレメトリードキュメントに記載しています。
Langfuse OSS では、TELEMETRY_ENABLED=false を設定することで、テレメトリーの報告をオプトアウトできます.