Back to Opik

Readme JP

readme_JP.md

2.0.22-6605-merge-206536.6 KB
Original Source

注意:このファイルはAIを使用して機械翻訳されています。翻訳の改善への貢献を歓迎します!

<div align="center"><b><a href="README.md">English</a> | <a href="readme_CN.md">简体中文</a> | <a href="readme_JP.md">日本語</a> | <a href="readme_PT_BR.md">Português (Brasil)</a> | <a href="readme_KO.md">한국어</a> <a href="readme_ES.md">Español</a> | <a href="readme_FR.md">Français</a> | <a href="readme_DE.md">Deutsch</a> | <a href="readme_RU.md">Русский</a> | <a href="readme_AR.md">العربية</a> | <a href="readme_HI.md">हिन्दी</a> | <a href="readme_TR.md">Türkçe</a></b></div> <h1 align="center" style="border-bottom: none"> <div> <a href="https://www.comet.com/site/products/opik/?from=llm&utm_source=opik&utm_medium=github&utm_content=header_img&utm_campaign=opik"><picture> <source media="(prefers-color-scheme: dark)" srcset="https://raw.githubusercontent.com/comet-ml/opik/refs/heads/main/apps/opik-documentation/documentation/static/img/logo-dark-mode.svg"> <source media="(prefers-color-scheme: light)" srcset="https://raw.githubusercontent.com/comet-ml/opik/refs/heads/main/apps/opik-documentation/documentation/static/img/opik-logo.svg">
    </picture></a>
    

    Opik
</div>
</h1> <h2 align="center" style="border-bottom: none">AI向けオープンソースのオブザーバビリティ、評価、最適化プラットフォーム</h2> <p align="center"> Opikは、プロトタイプから本番まで、より良く動作する生成AIアプリケーションの構築、テスト、最適化を支援します。RAGチャットボットやコードアシスタント、複雑なエージェンティックシステムに至るまで、Opikは包括的なトレース、評価、そしてプロンプトやツールの自動最適化を提供し、AI開発における試行錯誤を取り除きます。 </p> <div align="center">

<!-- [![Quick Start](https://colab.research.google.com/assets/colab-badge.svg)](https://colab.research.google.com/github/comet-ml/opik/blob/main/apps/opik-documentation/documentation/docs/cookbook/opik_quickstart.ipynb) --> </div> <p align="center"> <a href="https://www.comet.com/site/products/opik/?from=llm&utm_source=opik&utm_medium=github&utm_content=website_button&utm_campaign=opik"><b>Webサイト</b></a> • <a href="https://chat.comet.com"><b>Slack コミュニティ</b></a> • <a href="https://x.com/Cometml"><b>Twitter</b></a> • <a href="https://www.comet.com/docs/opik/changelog"><b>変更履歴</b></a> • <a href="https://www.comet.com/docs/opik/?from=llm&utm_source=opik&utm_medium=github&utm_content=docs_button&utm_campaign=opik"><b>ドキュメント</b></a> </p> <div align="center" style="margin-top: 1em; margin-bottom: 1em;"> <a href="#-opikとは">🚀 Opikとは?</a> • <a href="#🛠-opikサーバーのインストール">🛠️ Opikサーバーのインストール</a> • <a href="#-opikクライアントsdk">💻 OpikクライアントSDK</a> • <a href="#-トレースのログ記録と統合">📝 トレースのログ記録と統合</a>

<a href="#🧑‍⚖-llmをジャッジとして">🧑‍⚖️ LLMをジャッジとして</a><a href="#-アプリケーションの評価">🔍 アプリケーションの評価</a><a href="#-githubでスターを">⭐ GitHubでスターを</a><a href="#-貢献">🤝 貢献</a>

</div>

<a id="-opikとは"></a>

🚀 Opikとは?

Opik(Cometによる開発)は、LLMアプリケーションのライフサイクル全体を効率化するためのオープンソースプラットフォームです。開発者がモデルやエージェンシーシステムを評価、テスト、監視、最適化できるようにします。主な提供機能は次のとおりです:

  • 包括的なオブザーバビリティ:LLM呼び出しの詳細なトレーシング、会話ログ、エージェントアクティビティの記録。
  • 高度な評価:プロンプト評価、LLM-as-a-judge、実験管理の強力な機能。
  • 本番環境対応:スケーラブルな監視ダッシュボードとオンライン評価ルール。
  • Opik Agent Optimizer:プロンプトやエージェントを強化する専用SDKとオプティマイザー。
  • Opik Guardrails:安全で責任あるAI実践を支援する機能。

主な機能:

  • 開発 & トレーシング:

    • 開発中および本番環境での詳細コンテキスト付きLLM呼び出しとトレースの追跡(クイックスタート)。
    • 幅広いサードパーティ統合によるオブザーバビリティ:Google ADK、Autogen、Flowise AIなどの最新フレームワークをネイティブサポート(統合一覧)。
    • Python SDKUIを使ったトレースやスパンへのフィードバックスコアの注釈。
    • Prompt Playgroundでプロンプトやモデルを試行。
  • 評価 & テスト:

  • 本番監視 & 最適化:

    • 高ボリュームの本番トレース記録:Opikはスケールを重視(1日あたり4,000万以上のトレース)。
    • Opikダッシュボードでフィードバックスコア、トレース数、トークン使用量を時間推移で監視(ダッシュボード)。
    • オンライン評価ルールを使った本番問題の検出。
    • Opik Agent OptimizerOpik Guardrails で本番環境のLLMアプリを継続的に改善・保護。

[!TIP] 現在Opikにない機能が必要な場合は、ぜひ新しい機能リクエストを提出してください 🚀

<a id="🛠-opikサーバーのインストール"></a>

🛠️ Opikサーバーのインストール

数分でOpikサーバーを起動できます。ニーズに合ったオプションを選んでください:

オプション1:Comet.comクラウド(最も簡単 & 推奨)

セットアップ不要で即時にOpikにアクセスできます。クイックスタートやメンテナンス不要の方に最適。

👉 無料のCometアカウントを作成

オプション2:セルフホストによる完全管理

独自環境にOpikをデプロイ。ローカルはDocker、スケーラブル環境はKubernetesを選択。

Docker Composeでのセルフホスト(ローカル開発 & テスト向け)

最も簡単にローカルOpikインスタンスを起動する方法です。新しい .opik.sh インストールスクリプトに注目:

On Linux or Mac Environment:

bash
# Opikリポジトリをクローン
git clone https://github.com/comet-ml/opik.git

# リポジトリへ移動
cd opik

# Opikプラットフォームを起動
./opik.sh

On Windows Environment:

powershell
# Opikリポジトリをクローン
git clone https://github.com/comet-ml/opik.git

# リポジトリへ移動
cd opik

# Opikプラットフォームを起動
powershell -ExecutionPolicy ByPass -c ".\\opik.ps1"

開発用サービスプロファイル

Opikインストールスクリプトは、異なる開発シナリオ向けのサービスプロファイルをサポートしています:

bash
# フルOpikスイート(デフォルト動作)
./opik.sh

# インフラストラクチャサービスのみ(データベース、キャッシュなど)
./opik.sh --infra

# インフラストラクチャ + バックエンドサービス
./opik.sh --backend

# 任意のプロファイルでガードレールを有効化
./opik.sh --guardrails # フルOpikスイート + ガードレール
./opik.sh --backend --guardrails # インフラストラクチャ + バックエンド + ガードレール

--help または --info オプションでトラブルシューティングが可能。Dockerfileは非rootユーザー実行を保証し、セキュリティを強化。起動後、ブラウザで localhost:5173 を開くだけです。詳細は ローカルデプロイガイド をご覧ください。

Kubernetes & Helmでのセルフホスト(大規模デプロイ向け)

本番や大規模セルフホスト環境では、Helmチャートを使ってKubernetesクラスタにインストールできます。詳しくはバッジをクリックして Kubernetesインストールガイド (Helm) をご参照ください。

[!IMPORTANT] バージョン 1.7.0 の変更:重要な更新と破壊的変更については 変更履歴 をご確認ください。

<a id="-opikクライアントsdk"></a>

💻 OpikクライアントSDK

Opikは、Opikサーバーとやり取りするためのクライアントライブラリ群とREST APIを提供します。Python、TypeScript、Ruby(OpenTelemetry経由)のSDKがあり、ワークフローへのシームレスな統合が可能です。詳細は Opikクライアントリファレンス をご覧ください。

Python SDKクイックスタート

Python SDKを始めるには:

パッケージをインストール:

bash
# pipでインストール
pip install opik

# または uv を使ってインストール
uv pip install opik

opik configure コマンドを実行して、Opikサーバーアドレス(セルフホストの場合)またはAPIキーとワークスペース(Comet.comの場合)を入力します:

bash
opik configure

[!TIP] Pythonコード内で opik.configure(use_local=True) を呼び出してローカルセルフホスト構成にしたり、APIキーとワークスペースを直接指定することも可能です。詳細は Python SDKドキュメント を参照してください。

これで Python SDK を使ったトレースのログ記録が可能になります。

<a id="-トレースのログ記録と統合"></a>

📝 トレースのログ記録と統合

最も簡単なトレース記録方法は、直接統合を使うことです。Opikは以下を含む多種多様なフレームワークをサポートしています:

統合説明ドキュメント
ADKGoogle Agent Development Kit (ADK) のトレースを記録ドキュメント
AG2AG2 LLM 呼び出しのトレースを記録ドキュメント
aisuiteaisuite LLM 呼び出しのトレースを記録ドキュメント
Agent SpecAgent Spec 呼び出しのトレースを記録ドキュメント
AgnoAgno エージェントオーケストレーションフレームワーク呼び出しのトレースを記録ドキュメント
AnthropicAnthropic LLM 呼び出しのトレースを記録ドキュメント
AutogenAutogen エージェンシーワークフローのトレースを記録ドキュメント
BedrockAmazon Bedrock LLM 呼び出しのトレースを記録ドキュメント
BeeAI (Python)BeeAI Python エージェントフレームワーク呼び出しのトレースを記録ドキュメント
BeeAI (TypeScript)BeeAI TypeScript エージェントフレームワーク呼び出しのトレースを記録ドキュメント
BytePlusBytePlus LLM 呼び出しのトレースを記録ドキュメント
CrewAICrewAI 呼び出しのトレースを記録ドキュメント
Cloudflare Workers AICloudflare Workers AI 呼び出しのトレースを記録ドキュメント
CohereCohere LLM 呼び出しのトレースを記録ドキュメント
CursorCursor 会話のトレースを記録ドキュメント
DeepSeekDeepSeek LLM 呼び出しのトレースを記録ドキュメント
DifyDify エージェンシー実行のトレースを記録ドキュメント
DSPyDSPy 実行のトレースを記録ドキュメント
Fireworks AIFireworks AI LLM 呼び出しのトレースを記録ドキュメント
Flowise AIFlowise AI ビジュアルLLMアプリのトレースを記録ドキュメント
Gemini (Python)Google Gemini LLM 呼び出しのトレースを記録ドキュメント
Gemini (TypeScript)Google Gemini TypeScript SDK 呼び出しのトレースを記録ドキュメント
GroqGroq LLM 呼び出しのトレースを記録ドキュメント
GuardrailsGuardrails AI 検証のトレースを記録ドキュメント
HaystackHaystack 呼び出しのトレースを記録ドキュメント
HarborHarbor ベンチマーク評価トライアルのトレースを記録ドキュメント
InstructorInstructor 経由のLLM呼び出しトレースを記録ドキュメント
LangChain (Python)LangChain LLM 呼び出しのトレースを記録ドキュメント
LangChain (JS/TS)LangChain JavaScript/TypeScript 呼び出しのトレースを記録ドキュメント
LangGraphLangGraph 実行のトレースを記録ドキュメント
LangflowLangflow ビジュアルAIビルダーのトレースを記録ドキュメント
LiteLLMLiteLLM モデル呼び出しのトレースを記録ドキュメント
LiveKit AgentsLiveKit Agents AI エージェントフレームワーク呼び出しのトレースを記録ドキュメント
MastraMastra AI ワークフローフレームワーク呼び出しのトレースを記録ドキュメント
Microsoft Agent Framework (Python)Microsoft Agent Framework 呼び出しのトレースを記録ドキュメント
Microsoft Agent Framework (.NET)Microsoft Agent Framework .NET 呼び出しのトレースを記録ドキュメント
Mistral AIMistral AI LLM 呼び出しのトレースを記録ドキュメント
n8nn8n ワークフロー実行のトレースを記録ドキュメント
LlamaIndexLlamaIndex LLM 呼び出しのトレースを記録ドキュメント
OllamaOllama LLM 呼び出しのトレースを記録ドキュメント
OpenAI (Python)OpenAI LLM 呼び出しのトレースを記録ドキュメント
OpenAI (JS/TS)OpenAI JavaScript/TypeScript 呼び出しのトレースを記録ドキュメント
OpenAI AgentsOpenAI Agents SDK 呼び出しのトレースを記録ドキュメント
OpenClawOpenClaw エージェント実行のトレースを記録ドキュメント
Novita AINovita AI LLM 呼び出しのトレースを記録ドキュメント
OpenRouterOpenRouter LLM 呼び出しのトレースを記録ドキュメント
OpenTelemetryOpenTelemetry 対応呼び出しのトレースを記録ドキュメント
OpenWebUIOpenWebUI の会話のトレースを記録ドキュメント
PipecatPipecat リアルタイム音声エージェント呼び出しのトレースを記録ドキュメント
PredibasePredibase LLM 呼び出しのトレースを記録ドキュメント
Pydantic AIPydanticAI エージェント呼び出しのトレースを記録ドキュメント
RagasRagas 評価のトレースを記録ドキュメント
SmolagentsSmolagents エージェント呼び出しのトレースを記録ドキュメント
Semantic KernelMicrosoft Semantic Kernel 呼び出しのトレースを記録ドキュメント
Spring AISpring AI フレームワーク呼び出しのトレースを記録ドキュメント
Strands AgentsStrands Agents 呼び出しのトレースを記録ドキュメント
Together AITogether AI LLM 呼び出しのトレースを記録ドキュメント
Vercel AI SDKVercel AI SDK 呼び出しのトレースを記録ドキュメント
VoltAgentVoltAgent エージェントフレームワーク呼び出しのトレースを記録ドキュメント
watsonxIBM watsonx LLM 呼び出しのトレースを記録ドキュメント
xAI GrokxAI Grok LLM 呼び出しのトレースを記録ドキュメント

[!TIP] リストにないフレームワークを使用している場合は、Issueを開くかPRを提出してください。

フレームワークを使用しない場合は、track デコレータを使ってトレースを記録できます(詳細):

python
import opik

opik.configure(use_local=True) # ローカル実行

@opik.track
def my_llm_function(user_question: str) -> str:
    # あなたのLLMコードをここに記述
    return "こんにちは"

[!TIP] trackデコレータは統合と併用でき、ネストされた関数呼び出しのトラッキングにも対応します。

<a id="🧑‍⚖-llmをジャッジとして"></a>

🧑‍⚖️ LLMをジャッジとして

Python Opik SDKにはLLM-as-a-judge用メトリクスが多数含まれており、LLMアプリの評価に役立ちます。詳細は メトリクスドキュメント をご覧ください。

使用例:

python
from opik.evaluation.metrics import Hallucination

metric = Hallucination()
score = metric.score(
    input="フランスの首都は何ですか?",
    output="パリ",
    context=["フランスはヨーロッパの国です。"]
)
print(score)

Opikには事前定義のヒューリスティックメトリクスも多数含まれており、独自メトリクスの作成も可能です。詳細は同じく メトリクスドキュメント をご覧ください。

<a id="-アプリケーションの評価"></a>

🔍 アプリケーションの評価

開発中の評価には データセット実験 を活用できます。Opikダッシュボードは実験のチャートを強化し、大規模トレースの扱いを改善します。CI/CDへの組み込みには PyTest統合 をご利用ください。

<a id="-githubでスターを"></a>

⭐ GitHubでスターを

Opikがお役に立ちましたら、ぜひスターをお願いします!コミュニティの拡大と製品改善の励みになります。

<a id="-貢献"></a>

🤝 貢献

Opikへの貢献方法は多数あります:

詳細は 貢献ガイドライン をご覧ください。