readme_JP.md
<div align="center"><b><a href="README.md">English</a> | <a href="readme_CN.md">简体中文</a> | <a href="readme_JP.md">日本語</a> | <a href="readme_PT_BR.md">Português (Brasil)</a> | <a href="readme_KO.md">한국어</a> <a href="readme_ES.md">Español</a> | <a href="readme_FR.md">Français</a> | <a href="readme_DE.md">Deutsch</a> | <a href="readme_RU.md">Русский</a> | <a href="readme_AR.md">العربية</a> | <a href="readme_HI.md">हिन्दी</a> | <a href="readme_TR.md">Türkçe</a></b></div> <h1 align="center" style="border-bottom: none"> <div> <a href="https://www.comet.com/site/products/opik/?from=llm&utm_source=opik&utm_medium=github&utm_content=header_img&utm_campaign=opik"><picture> <source media="(prefers-color-scheme: dark)" srcset="https://raw.githubusercontent.com/comet-ml/opik/refs/heads/main/apps/opik-documentation/documentation/static/img/logo-dark-mode.svg"> <source media="(prefers-color-scheme: light)" srcset="https://raw.githubusercontent.com/comet-ml/opik/refs/heads/main/apps/opik-documentation/documentation/static/img/opik-logo.svg">注意:このファイルはAIを使用して機械翻訳されています。翻訳の改善への貢献を歓迎します!
</picture></a>
Opik
</div>
<a href="#🧑⚖-llmをジャッジとして">🧑⚖️ LLMをジャッジとして</a> • <a href="#-アプリケーションの評価">🔍 アプリケーションの評価</a> • <a href="#-githubでスターを">⭐ GitHubでスターを</a> • <a href="#-貢献">🤝 貢献</a>
</div><a id="-opikとは"></a>
Opik(Cometによる開発)は、LLMアプリケーションのライフサイクル全体を効率化するためのオープンソースプラットフォームです。開発者がモデルやエージェンシーシステムを評価、テスト、監視、最適化できるようにします。主な提供機能は次のとおりです:
主な機能:
開発 & トレーシング:
評価 & テスト:
本番監視 & 最適化:
[!TIP] 現在Opikにない機能が必要な場合は、ぜひ新しい機能リクエストを提出してください 🚀
<a id="🛠-opikサーバーのインストール"></a>
数分でOpikサーバーを起動できます。ニーズに合ったオプションを選んでください:
セットアップ不要で即時にOpikにアクセスできます。クイックスタートやメンテナンス不要の方に最適。
独自環境にOpikをデプロイ。ローカルはDocker、スケーラブル環境はKubernetesを選択。
最も簡単にローカルOpikインスタンスを起動する方法です。新しい .opik.sh インストールスクリプトに注目:
On Linux or Mac Environment:
# Opikリポジトリをクローン
git clone https://github.com/comet-ml/opik.git
# リポジトリへ移動
cd opik
# Opikプラットフォームを起動
./opik.sh
On Windows Environment:
# Opikリポジトリをクローン
git clone https://github.com/comet-ml/opik.git
# リポジトリへ移動
cd opik
# Opikプラットフォームを起動
powershell -ExecutionPolicy ByPass -c ".\\opik.ps1"
開発用サービスプロファイル
Opikインストールスクリプトは、異なる開発シナリオ向けのサービスプロファイルをサポートしています:
# フルOpikスイート(デフォルト動作)
./opik.sh
# インフラストラクチャサービスのみ(データベース、キャッシュなど)
./opik.sh --infra
# インフラストラクチャ + バックエンドサービス
./opik.sh --backend
# 任意のプロファイルでガードレールを有効化
./opik.sh --guardrails # フルOpikスイート + ガードレール
./opik.sh --backend --guardrails # インフラストラクチャ + バックエンド + ガードレール
--help または --info オプションでトラブルシューティングが可能。Dockerfileは非rootユーザー実行を保証し、セキュリティを強化。起動後、ブラウザで localhost:5173 を開くだけです。詳細は ローカルデプロイガイド をご覧ください。
本番や大規模セルフホスト環境では、Helmチャートを使ってKubernetesクラスタにインストールできます。詳しくはバッジをクリックして Kubernetesインストールガイド (Helm) をご参照ください。
[!IMPORTANT] バージョン 1.7.0 の変更:重要な更新と破壊的変更については 変更履歴 をご確認ください。
<a id="-opikクライアントsdk"></a>
Opikは、Opikサーバーとやり取りするためのクライアントライブラリ群とREST APIを提供します。Python、TypeScript、Ruby(OpenTelemetry経由)のSDKがあり、ワークフローへのシームレスな統合が可能です。詳細は Opikクライアントリファレンス をご覧ください。
Python SDKを始めるには:
パッケージをインストール:
# pipでインストール
pip install opik
# または uv を使ってインストール
uv pip install opik
opik configure コマンドを実行して、Opikサーバーアドレス(セルフホストの場合)またはAPIキーとワークスペース(Comet.comの場合)を入力します:
opik configure
[!TIP] Pythonコード内で
opik.configure(use_local=True)を呼び出してローカルセルフホスト構成にしたり、APIキーとワークスペースを直接指定することも可能です。詳細は Python SDKドキュメント を参照してください。
これで Python SDK を使ったトレースのログ記録が可能になります。
<a id="-トレースのログ記録と統合"></a>
最も簡単なトレース記録方法は、直接統合を使うことです。Opikは以下を含む多種多様なフレームワークをサポートしています:
| 統合 | 説明 | ドキュメント |
|---|---|---|
| ADK | Google Agent Development Kit (ADK) のトレースを記録 | ドキュメント |
| AG2 | AG2 LLM 呼び出しのトレースを記録 | ドキュメント |
| aisuite | aisuite LLM 呼び出しのトレースを記録 | ドキュメント |
| Agent Spec | Agent Spec 呼び出しのトレースを記録 | ドキュメント |
| Agno | Agno エージェントオーケストレーションフレームワーク呼び出しのトレースを記録 | ドキュメント |
| Anthropic | Anthropic LLM 呼び出しのトレースを記録 | ドキュメント |
| Autogen | Autogen エージェンシーワークフローのトレースを記録 | ドキュメント |
| Bedrock | Amazon Bedrock LLM 呼び出しのトレースを記録 | ドキュメント |
| BeeAI (Python) | BeeAI Python エージェントフレームワーク呼び出しのトレースを記録 | ドキュメント |
| BeeAI (TypeScript) | BeeAI TypeScript エージェントフレームワーク呼び出しのトレースを記録 | ドキュメント |
| BytePlus | BytePlus LLM 呼び出しのトレースを記録 | ドキュメント |
| CrewAI | CrewAI 呼び出しのトレースを記録 | ドキュメント |
| Cloudflare Workers AI | Cloudflare Workers AI 呼び出しのトレースを記録 | ドキュメント |
| Cohere | Cohere LLM 呼び出しのトレースを記録 | ドキュメント |
| Cursor | Cursor 会話のトレースを記録 | ドキュメント |
| DeepSeek | DeepSeek LLM 呼び出しのトレースを記録 | ドキュメント |
| Dify | Dify エージェンシー実行のトレースを記録 | ドキュメント |
| DSPy | DSPy 実行のトレースを記録 | ドキュメント |
| Fireworks AI | Fireworks AI LLM 呼び出しのトレースを記録 | ドキュメント |
| Flowise AI | Flowise AI ビジュアルLLMアプリのトレースを記録 | ドキュメント |
| Gemini (Python) | Google Gemini LLM 呼び出しのトレースを記録 | ドキュメント |
| Gemini (TypeScript) | Google Gemini TypeScript SDK 呼び出しのトレースを記録 | ドキュメント |
| Groq | Groq LLM 呼び出しのトレースを記録 | ドキュメント |
| Guardrails | Guardrails AI 検証のトレースを記録 | ドキュメント |
| Haystack | Haystack 呼び出しのトレースを記録 | ドキュメント |
| Harbor | Harbor ベンチマーク評価トライアルのトレースを記録 | ドキュメント |
| Instructor | Instructor 経由のLLM呼び出しトレースを記録 | ドキュメント |
| LangChain (Python) | LangChain LLM 呼び出しのトレースを記録 | ドキュメント |
| LangChain (JS/TS) | LangChain JavaScript/TypeScript 呼び出しのトレースを記録 | ドキュメント |
| LangGraph | LangGraph 実行のトレースを記録 | ドキュメント |
| Langflow | Langflow ビジュアルAIビルダーのトレースを記録 | ドキュメント |
| LiteLLM | LiteLLM モデル呼び出しのトレースを記録 | ドキュメント |
| LiveKit Agents | LiveKit Agents AI エージェントフレームワーク呼び出しのトレースを記録 | ドキュメント |
| Mastra | Mastra AI ワークフローフレームワーク呼び出しのトレースを記録 | ドキュメント |
| Microsoft Agent Framework (Python) | Microsoft Agent Framework 呼び出しのトレースを記録 | ドキュメント |
| Microsoft Agent Framework (.NET) | Microsoft Agent Framework .NET 呼び出しのトレースを記録 | ドキュメント |
| Mistral AI | Mistral AI LLM 呼び出しのトレースを記録 | ドキュメント |
| n8n | n8n ワークフロー実行のトレースを記録 | ドキュメント |
| LlamaIndex | LlamaIndex LLM 呼び出しのトレースを記録 | ドキュメント |
| Ollama | Ollama LLM 呼び出しのトレースを記録 | ドキュメント |
| OpenAI (Python) | OpenAI LLM 呼び出しのトレースを記録 | ドキュメント |
| OpenAI (JS/TS) | OpenAI JavaScript/TypeScript 呼び出しのトレースを記録 | ドキュメント |
| OpenAI Agents | OpenAI Agents SDK 呼び出しのトレースを記録 | ドキュメント |
| OpenClaw | OpenClaw エージェント実行のトレースを記録 | ドキュメント |
| Novita AI | Novita AI LLM 呼び出しのトレースを記録 | ドキュメント |
| OpenRouter | OpenRouter LLM 呼び出しのトレースを記録 | ドキュメント |
| OpenTelemetry | OpenTelemetry 対応呼び出しのトレースを記録 | ドキュメント |
| OpenWebUI | OpenWebUI の会話のトレースを記録 | ドキュメント |
| Pipecat | Pipecat リアルタイム音声エージェント呼び出しのトレースを記録 | ドキュメント |
| Predibase | Predibase LLM 呼び出しのトレースを記録 | ドキュメント |
| Pydantic AI | PydanticAI エージェント呼び出しのトレースを記録 | ドキュメント |
| Ragas | Ragas 評価のトレースを記録 | ドキュメント |
| Smolagents | Smolagents エージェント呼び出しのトレースを記録 | ドキュメント |
| Semantic Kernel | Microsoft Semantic Kernel 呼び出しのトレースを記録 | ドキュメント |
| Spring AI | Spring AI フレームワーク呼び出しのトレースを記録 | ドキュメント |
| Strands Agents | Strands Agents 呼び出しのトレースを記録 | ドキュメント |
| Together AI | Together AI LLM 呼び出しのトレースを記録 | ドキュメント |
| Vercel AI SDK | Vercel AI SDK 呼び出しのトレースを記録 | ドキュメント |
| VoltAgent | VoltAgent エージェントフレームワーク呼び出しのトレースを記録 | ドキュメント |
| watsonx | IBM watsonx LLM 呼び出しのトレースを記録 | ドキュメント |
| xAI Grok | xAI Grok LLM 呼び出しのトレースを記録 | ドキュメント |
[!TIP] リストにないフレームワークを使用している場合は、Issueを開くかPRを提出してください。
フレームワークを使用しない場合は、track デコレータを使ってトレースを記録できます(詳細):
import opik
opik.configure(use_local=True) # ローカル実行
@opik.track
def my_llm_function(user_question: str) -> str:
# あなたのLLMコードをここに記述
return "こんにちは"
[!TIP] trackデコレータは統合と併用でき、ネストされた関数呼び出しのトラッキングにも対応します。
<a id="🧑⚖-llmをジャッジとして"></a>
Python Opik SDKにはLLM-as-a-judge用メトリクスが多数含まれており、LLMアプリの評価に役立ちます。詳細は メトリクスドキュメント をご覧ください。
使用例:
from opik.evaluation.metrics import Hallucination
metric = Hallucination()
score = metric.score(
input="フランスの首都は何ですか?",
output="パリ",
context=["フランスはヨーロッパの国です。"]
)
print(score)
Opikには事前定義のヒューリスティックメトリクスも多数含まれており、独自メトリクスの作成も可能です。詳細は同じく メトリクスドキュメント をご覧ください。
<a id="-アプリケーションの評価"></a>
開発中の評価には データセット と 実験 を活用できます。Opikダッシュボードは実験のチャートを強化し、大規模トレースの扱いを改善します。CI/CDへの組み込みには PyTest統合 をご利用ください。
<a id="-githubでスターを"></a>
Opikがお役に立ちましたら、ぜひスターをお願いします!コミュニティの拡大と製品改善の励みになります。
<a id="-貢献"></a>
Opikへの貢献方法は多数あります:
詳細は 貢献ガイドライン をご覧ください。