readme_DE.md
<div align="center"><b><a href="README.md">English</a> | <a href="readme_CN.md">简体中文</a> | <a href="readme_JP.md">日本語</a> | <a href="readme_PT_BR.md">Português (Brasil)</a> | <a href="readme_KO.md">한국어</a> <a href="readme_ES.md">Español</a> | <a href="readme_FR.md">Français</a> | <a href="readme_DE.md">Deutsch</a> | <a href="readme_RU.md">Русский</a> | <a href="readme_AR.md">العربية</a> | <a href="readme_HI.md">हिन्दी</a> | <a href="readme_TR.md">Türkçe</a></b></div> <h1 align="center" style="border-bottom: none"> <div> <a href="https://www.comet.com/site/products/opik/?from=llm&utm_source=opik&utm_medium=github&utm_content=header_img&utm_campaign=opik"><picture> <source media="(prefers-color-scheme: dark)" srcset="https://raw.githubusercontent.com/comet-ml/opik/refs/heads/main/apps/opik-documentation/documentation/static/img/logo-dark-mode.svg"> <source media="(prefers-color-scheme: light)" srcset="https://raw.githubusercontent.com/comet-ml/opik/refs/heads/main/apps/opik-documentation/documentation/static/img/opik-logo.svg">Hinweis: Diese Datei wurde automatisch übersetzt. Verbesserungen der Übersetzung sind willkommen!
</picture></a>
Opik
</div> </h1> <h2 align="center" style="border-bottom: none">Open-Source-KI-Beobachtbarkeit, -Bewertung und -Optimierung</h2> <p align="center"> Opik hilft Ihnen beim Erstellen, Testen und Optimieren generativer KI-Anwendungen, die vom Prototyp bis zur Produktion besser laufen. Von RAG-Chatbots über Code-Assistenten bis hin zu komplexen Agentensystemen bietet Opik umfassende Nachverfolgung, Auswertung sowie automatische Eingabeaufforderungs- und Tool-Optimierung, um das Rätselraten bei der KI-Entwicklung zu beseitigen. </p> <div align="center"> <!-- [](https://colab.research.google.com/github/comet-ml/opik/blob/main/apps/opik-documentation/documentation/docs/cookbook/opik_quickstart.ipynb) --> </div> <p align="center"> <a href="https://www.comet.com/site/products/opik/?from=llm&utm_source=opik&utm_medium=github&utm_content=website_button&utm_campaign=opik"><b>Website</b></a> • <a href="https://chat.comet.com"><b>Slack-Community</b></a> • <a href="https://x.com/Cometml"><b>Twitter</b></a> • <a href="https://www.comet.com/docs/opik/changelog"><b>Änderungsprotokoll</b></a> • <a href="https://www.comet.com/docs/opik/?from=llm&utm_source=opik&utm_medium=github&utm_content=docs_button&utm_campaign=opik"><b>Dokumentation</b></a> </p> <div align="center" style="margin-top: 1em; margin-bottom: 1em;"> <a href="#-what-is-opik">🚀 Was ist Opik?</a> • <a href="#%EF%B8%8F-opik-server-installation">🛠️ Opik Server-Installation</a> • <a href="#-opik-client-sdk">💻 Opik Client SDK</a> • <a href="#-logging-traces-with-integrations">📝 Protokollierungsspuren</a><a href="#-llm-as-a-judge-metrics">🧑⚖️ LLM als Richter</a> • <a href="#-evaluating-your-llm-application">🔍 Bewertung Ihrer Bewerbung</a> • <a href="#-star-us-on-github">⭐ Star Us</a> • <a href="#-contributing">🤝 Mitwirken</a>
</div><a id="-what-is-opik"></a>
Opik (erstellt von Comet) ist eine Open-Source-Plattform, die den gesamten Lebenszyklus von LLM-Anwendungen optimieren soll. Es ermöglicht Entwicklern, ihre Modelle und Agentensysteme zu bewerten, zu testen, zu überwachen und zu optimieren. Zu den wichtigsten Angeboten gehören:
Zu den wichtigsten Fähigkeiten gehören:
Entwicklung & Rückverfolgung:
Verfolgen Sie alle LLM-Aufrufe und Traces mit detailliertem Kontext während der Entwicklung und in der Produktion (Quickstart).
Umfangreiche Integrationen von Drittanbietern für einfache Beobachtbarkeit: Nahtlose Integration in eine wachsende Liste von Frameworks, wobei viele der größten und beliebtesten nativ unterstützt werden (einschließlich neuer Ergänzungen wie Google ADK, Autogen und Flowise AI). (Integrationen)
Kommentieren Sie Traces und Spans mit Feedback-Scores über das Python SDK oder das UI.
Experimentieren Sie mit Eingabeaufforderungen und Modellen im Prompt Playground.
Bewertung und Tests:
Automatisieren Sie Ihre LLM-Anwendungsbewertung mit Datasets und Experimente.
Nutzen Sie leistungsstarke LLM-als-Richter-Metriken für komplexe Aufgaben wie Halluzinationserkennung, Moderation und RAG-Bewertung (Antwort Relevanz, Kontext Präzision).
Integrieren Sie Auswertungen in Ihre CI/CD-Pipeline mit unserer PyTest-Integration.
Produktionsüberwachung und -optimierung:
Protokollieren Sie große Mengen an Produktionsspuren: Opik ist für den Maßstab ausgelegt (über 40 Mio. Spuren/Tag).
Überwachen Sie Feedback-Scores, Trace-Zählungen und Token-Nutzung im Laufe der Zeit im Opik Dashboard.
Nutzen Sie Online-Bewertungsregeln mit LLM-as-a-Judge-Metriken, um Produktionsprobleme zu identifizieren.
Nutzen Sie Opik Agent Optimizer und Opik Guardrails, um Ihre LLM-Anwendungen in der Produktion kontinuierlich zu verbessern und zu sichern.
[!TIP] Wenn Sie nach Funktionen suchen, die Opik heute nicht bietet, stellen Sie bitte eine neue Funktionsanfrage 🚀
<a id="%EF%B8%8F-opik-server-installation"></a>
Bringen Sie Ihren Opik-Server in wenigen Minuten zum Laufen. Wählen Sie die Option, die Ihren Anforderungen am besten entspricht:
Greifen Sie sofort und ohne Einrichtung auf Opik zu. Ideal für schnelle Starts und problemlose Wartung.
👉 Erstellen Sie Ihr kostenloses Comet-Konto
Stellen Sie Opik in Ihrer eigenen Umgebung bereit. Wählen Sie zwischen Docker für lokale Setups oder Kubernetes für Skalierbarkeit.
Dies ist der einfachste Weg, eine lokale Opik-Instanz zum Laufen zu bringen. Beachten Sie das neue Installationsskript „./opik.sh“:
In einer Linux- oder Mac-Umgebung:
# Clone the Opik repository
git clone https://github.com/comet-ml/opik.git
# Navigate to the repository
cd opik
# Start the Opik platform
./opik.sh
In einer Windows-Umgebung:
# Clone the Opik repository
git clone https://github.com/comet-ml/opik.git
# Navigate to the repository
cd opik
# Start the Opik platform
powershell -ExecutionPolicy ByPass -c ".\\opik.ps1"
Serviceprofile für die Entwicklung
Die Opik-Installationsskripte unterstützen jetzt Dienstprofile für verschiedene Entwicklungsszenarien:
# Start full Opik suite (default behavior)
./opik.sh
# Start only infrastructure services (databases, caches etc.)
./opik.sh --infra
# Start infrastructure + backend services
./opik.sh --backend
# Enable guardrails with any profile
./opik.sh --guardrails # Guardrails with full Opik suite
./opik.sh --backend --guardrails # Guardrails with infrastructure + backend
Verwenden Sie die Optionen „--help“ oder „--info“, um Probleme zu beheben. Dockerfiles stellen jetzt sicher, dass Container als Nicht-Root-Benutzer ausgeführt werden, um die Sicherheit zu erhöhen. Sobald alles betriebsbereit ist, können Sie jetzt localhost:5173 in Ihrem Browser aufrufen! Ausführliche Anweisungen finden Sie im Local Deployment Guide.
Für Produktions- oder größere selbstgehostete Bereitstellungen kann Opik mithilfe unseres Helm-Charts auf einem Kubernetes-Cluster installiert werden. Klicken Sie auf das Abzeichen, um das vollständige Kubernetes-Installationshandbuch mit Helm anzuzeigen.
[!IMPORTANT] Änderungen in Version 1.7.0: Bitte überprüfen Sie das Änderungsprotokoll auf wichtige Updates und wichtige Änderungen.
<a id="-opik-client-sdk"></a>
Opik bietet eine Reihe von Client-Bibliotheken und eine REST-API für die Interaktion mit dem Opik-Server. Dazu gehören SDKs für Python, TypeScript und Ruby (über OpenTelemetry), die eine nahtlose Integration in Ihre Arbeitsabläufe ermöglichen. Ausführliche API- und SDK-Referenzen finden Sie in der Opik Client-Referenzdokumentation.
So beginnen Sie mit dem Python SDK:
Installieren Sie das Paket:
# install using pip
pip install opik
# or install with uv
uv pip install opik
Konfigurieren Sie das Python-SDK, indem Sie den Befehl „opik configure“ ausführen, der Sie zur Eingabe Ihrer Opik-Serveradresse (für selbst gehostete Instanzen) oder Ihres API-Schlüssels und Arbeitsbereichs (für Comet.com) auffordert:
opik configure
[!TIP] Sie können auch „opik.configure(use_local=True)“ aus Ihrem Python-Code aufrufen, um das SDK für die Ausführung auf einer lokalen selbstgehosteten Installation zu konfigurieren oder API-Schlüssel und Arbeitsbereichsdetails direkt für Comet.com bereitzustellen. Weitere Konfigurationsoptionen finden Sie in der Python SDK-Dokumentation.
Sie können jetzt mit der Protokollierung von Ablaufverfolgungen mit dem Python SDK beginnen.
<a id="-logging-traces-with-integrations"></a>
Der einfachste Weg, Traces zu protokollieren, ist die Verwendung einer unserer direkten Integrationen. Opik unterstützt eine breite Palette von Frameworks, einschließlich neuerer Ergänzungen wie Google ADK, Autogen, AG2 und Flowise AI:
| Integration | Beschreibung | Dokumentation |
|---|---|---|
| ADK | Protokollspuren für Google Agent Development Kit (ADK) | Dokumentation |
| AG2 | Protokollspuren für AG2-LLM-Aufrufe | Dokumentation |
| AIsuite | Protokollspuren für aisuite LLM-Aufrufe | Dokumentation |
| Agno | Protokollierungsspuren für Agno Agent Orchestration Framework-Aufrufe | Dokumentation |
| Anthropisch | Protokollspuren für Anthropic LLM-Aufrufe | Dokumentation |
| Autogen | Protokollspuren für Autogen-Agent-Workflows | Dokumentation |
| Grundgestein | Protokollspuren für Amazon Bedrock LLM-Aufrufe | Dokumentation |
| BeeAI (Python) | Protokollierungsspuren für BeeAI-Python-Agent-Framework-Aufrufe | Dokumentation |
| BeeAI (TypeScript) | Protokollspuren für BeeAI TypeScript-Agent-Framework-Aufrufe | Dokumentation |
| BytePlus | Protokollspuren für BytePlus LLM-Aufrufe | Dokumentation |
| Cloudflare Workers AI | Protokollspuren für Cloudflare Workers AI-Aufrufe | Dokumentation |
| Kohärent | Protokollspuren für Cohere LLM-Aufrufe | Dokumentation |
| CrewAI | Protokollspuren für CrewAI-Aufrufe | Dokumentation |
| Cursor | Protokollspuren für Cursor-Konversationen | Dokumentation |
| DeepSeek | Protokollspuren für DeepSeek LLM-Aufrufe | Dokumentation |
| Verändern | Protokollierungsspuren für Dify-Agent-Ausführungen | Dokumentation |
| DSPY | Protokollspuren für DSPy-Läufe | Dokumentation |
| Feuerwerk KI | Protokollspuren für Fireworks AI LLM-Aufrufe | Dokumentation |
| Flowise KI | Protokollspuren für Flowise AI Visual LLM Builder | Dokumentation |
| Zwillinge (Python) | Protokollspuren für Google Gemini LLM-Aufrufe | Dokumentation |
| Gemini (TypeScript) | Protokollierungsspuren für Google Gemini TypeScript SDK-Aufrufe | Dokumentation |
| Groq | Protokollspuren für Groq LLM-Aufrufe | Dokumentation |
| Leitplanken | Protokollspuren für Guardrails AI-Validierungen | Dokumentation |
| Heuhaufen | Protokollspuren für Haystack-Aufrufe | Dokumentation |
| Hafen | Protokollspuren für Harbor-Benchmark-Bewertungsversuche | Dokumentation |
| Instructor | Log traces for LLM calls made with Instructor | Documentation |
| LangChain (Python) | Protokollspuren für LangChain LLM-Aufrufe | Dokumentation |
| LangChain (JS/TS) | Protokollspuren für LangChain JavaScript/TypeScript-Aufrufe | Dokumentation |
| LangGraph | Protokollspuren für LangGraph-Ausführungen | Dokumentation |
| Langflow | Protokollspuren für Langflow Visual AI Builder | Dokumentation |
| LiteLLM | Protokollierungsspuren für LiteLLM-Modellaufrufe | Dokumentation |
| LiveKit-Agenten | Protokollierungsspuren für LiveKit Agents AI-Agent-Framework-Aufrufe | Dokumentation |
| LamaIndex | Protokollspuren für LlamaIndex LLM-Aufrufe | Dokumentation |
| Mastra | Protokollierungsspuren für Aufrufe des Mastra AI-Workflow-Frameworks | Dokumentation |
| Microsoft Agent Framework (Python) | Protokollverfolgungen für Microsoft Agent Framework-Aufrufe | Dokumentation |
| Microsoft Agent Framework (.NET) | Protokollierungsspuren für Microsoft Agent Framework .NET-Aufrufe | Dokumentation |
| Mistral KI | Protokollspuren für Mistral AI LLM-Aufrufe | Dokumentation |
| n8n | Protokollierungsspuren für N8N-Workflow-Ausführungen | Dokumentation |
| Novita AI | Protokollspuren für Novita AI LLM-Aufrufe | Dokumentation |
| Ollama | Protokollspuren für Ollama LLM-Aufrufe | Dokumentation |
| OpenAI (Python) | Protokollspuren für OpenAI LLM-Aufrufe | Dokumentation |
| OpenAI (JS/TS) | Protokollspuren für OpenAI JavaScript/TypeScript-Aufrufe | Dokumentation |
| OpenAI-Agenten | Protokollierungsspuren für OpenAI Agents SDK-Aufrufe | Dokumentation |
| OpenClaw | Protokollspuren für OpenClaw-Agentenläufe | Dokumentation |
| OpenRouter | Protokollspuren für OpenRouter LLM-Aufrufe | Dokumentation |
| OpenTelemetry | Protokollspuren für von OpenTelemetry unterstützte Aufrufe | Dokumentation |
| OpenWebUI | Protokollspuren für OpenWebUI-Konversationen | Dokumentation |
| Pipecat | Protokollierungsspuren für Pipecat-Echtzeit-Voice-Agent-Anrufe | Dokumentation |
| Prädibase | Protokollspuren für Predibase LLM-Aufrufe | Dokumentation |
| Pydantische KI | Protokollierungsspuren für PydanticAI-Agentenaufrufe | Dokumentation |
| Ragas | Protokollspuren für Ragas-Auswertungen | Dokumentation |
| Semantischer Kernel | Protokollspuren für Microsoft Semantic Kernel-Aufrufe | Dokumentation |
| Smolagenzien | Protokollspuren für Smolagents-Agenten | Dokumentation |
| Frühlings-KI | Protokollierungsspuren für Spring AI-Framework-Aufrufe | Dokumentation |
| Strands-Agenten | Protokollspuren für Strands-Agentenanrufe | Dokumentation |
| Zusammen KI | Protokollierungsspuren für Together AI LLM-Aufrufe | Dokumentation |
| Vercel AI SDK | Protokollierungsspuren für Vercel AI SDK-Aufrufe | Dokumentation |
| VoltAgent | Protokollierungsspuren für VoltAgent-Agenten-Framework-Aufrufe | Dokumentation |
| WatsonX | Protokollspuren für IBM Watsonx LLM-Aufrufe | Dokumentation |
| xAI Grok | Protokollspuren für xAI Grok LLM-Aufrufe | Dokumentation |
[!TIP] Wenn das von Ihnen verwendete Framework oben nicht aufgeführt ist, können Sie gerne ein Problem eröffnen oder eine PR mit der Integration einreichen.
Wenn Sie keines der oben genannten Frameworks verwenden, können Sie auch den „track“-Funktionsdekorator verwenden, um Traces zu protokollieren:
import opik
opik.configure(use_local=True) # Run locally
@opik.track
def my_llm_function(user_question: str) -> str:
# Your LLM code here
return "Hello"
[!TIP] Der Track Decorator kann in Verbindung mit jeder unserer Integrationen verwendet werden und kann auch zum Verfolgen verschachtelter Funktionsaufrufe verwendet werden.
<a id="-llm-as-a-judge-metrics"></a>
Das Python Opik SDK enthält eine Reihe von LLM-Bewertungsmetriken, die Ihnen bei der Bewertung Ihrer LLM-Anwendung helfen. Erfahren Sie mehr darüber in der Metrikdokumentation.
Um sie zu verwenden, importieren Sie einfach die entsprechende Metrik und verwenden Sie die Funktion „Score“:
from opik.evaluation.metrics import Hallucination
metric = Hallucination()
score = metric.score(
input="What is the capital of France?",
output="Paris",
context=["France is a country in Europe."]
)
print(score)
Opik umfasst außerdem eine Reihe vorgefertigter heuristischer Metriken sowie die Möglichkeit, eigene zu erstellen. Erfahren Sie mehr darüber in der Metrikdokumentation.
<a id="-evaluating-your-llm-application"></a>
Mit Opik können Sie Ihre LLM-Anwendung während der Entwicklung über Datasets bewerten Experimente. Das Opik-Dashboard bietet erweiterte Diagramme für Experimente und eine bessere Handhabung großer Spuren. Sie können Auswertungen auch als Teil Ihrer CI/CD-Pipeline mit unserer PyTest-Integration ausführen.
<a id="-star-us-on-github"></a>
Wenn Sie Opik nützlich finden, geben Sie uns bitte einen Stern! Ihre Unterstützung hilft uns, unsere Community zu vergrößern und das Produkt weiter zu verbessern.
<a id="-contributing"></a>
Es gibt viele Möglichkeiten, zu Opik beizutragen:
Um mehr darüber zu erfahren, wie Sie zu Opik beitragen können, lesen Sie bitte unsere Beitragsrichtlinien.