Back to Opik

Readme DE

readme_DE.md

2.0.24-526231.1 KB
Original Source

Hinweis: Diese Datei wurde automatisch übersetzt. Verbesserungen der Übersetzung sind willkommen!

<div align="center"><b><a href="README.md">English</a> | <a href="readme_CN.md">简体中文</a> | <a href="readme_JP.md">日本語</a> | <a href="readme_PT_BR.md">Português (Brasil)</a> | <a href="readme_KO.md">한국어</a> <a href="readme_ES.md">Español</a> | <a href="readme_FR.md">Français</a> | <a href="readme_DE.md">Deutsch</a> | <a href="readme_RU.md">Русский</a> | <a href="readme_AR.md">العربية</a> | <a href="readme_HI.md">हिन्दी</a> | <a href="readme_TR.md">Türkçe</a></b></div> <h1 align="center" style="border-bottom: none"> <div> <a href="https://www.comet.com/site/products/opik/?from=llm&utm_source=opik&utm_medium=github&utm_content=header_img&utm_campaign=opik"><picture> <source media="(prefers-color-scheme: dark)" srcset="https://raw.githubusercontent.com/comet-ml/opik/refs/heads/main/apps/opik-documentation/documentation/static/img/logo-dark-mode.svg"> <source media="(prefers-color-scheme: light)" srcset="https://raw.githubusercontent.com/comet-ml/opik/refs/heads/main/apps/opik-documentation/documentation/static/img/opik-logo.svg">

</picture></a>

Opik

</div> </h1> <h2 align="center" style="border-bottom: none">Open-Source-KI-Beobachtbarkeit, -Bewertung und -Optimierung</h2> <p align="center"> Opik hilft Ihnen beim Erstellen, Testen und Optimieren generativer KI-Anwendungen, die vom Prototyp bis zur Produktion besser laufen. Von RAG-Chatbots über Code-Assistenten bis hin zu komplexen Agentensystemen bietet Opik umfassende Nachverfolgung, Auswertung sowie automatische Eingabeaufforderungs- und Tool-Optimierung, um das Rätselraten bei der KI-Entwicklung zu beseitigen. </p> <div align="center">

<!-- [![Schnellstart](https://colab.research.google.com/assets/colab-badge.svg)](https://colab.research.google.com/github/comet-ml/opik/blob/main/apps/opik-documentation/documentation/docs/cookbook/opik_quickstart.ipynb) --> </div> <p align="center"> <a href="https://www.comet.com/site/products/opik/?from=llm&utm_source=opik&utm_medium=github&utm_content=website_button&utm_campaign=opik"><b>Website</b></a> • <a href="https://chat.comet.com"><b>Slack-Community</b></a> • <a href="https://x.com/Cometml"><b>Twitter</b></a> • <a href="https://www.comet.com/docs/opik/changelog"><b>Änderungsprotokoll</b></a> • <a href="https://www.comet.com/docs/opik/?from=llm&utm_source=opik&utm_medium=github&utm_content=docs_button&utm_campaign=opik"><b>Dokumentation</b></a> </p> <div align="center" style="margin-top: 1em; margin-bottom: 1em;"> <a href="#-what-is-opik">🚀 Was ist Opik?</a> • <a href="#%EF%B8%8F-opik-server-installation">🛠️ Opik Server-Installation</a> • <a href="#-opik-client-sdk">💻 Opik Client SDK</a> • <a href="#-logging-traces-with-integrations">📝 Protokollierungsspuren</a>

<a href="#-llm-as-a-judge-metrics">🧑‍⚖️ LLM als Richter</a><a href="#-evaluating-your-llm-application">🔍 Bewertung Ihrer Bewerbung</a><a href="#-star-us-on-github">⭐ Star Us</a><a href="#-contributing">🤝 Mitwirken</a>

</div>

<a id="-what-is-opik"></a>

🚀 Was ist Opik?

Opik (erstellt von Comet) ist eine Open-Source-Plattform, die den gesamten Lebenszyklus von LLM-Anwendungen optimieren soll. Es ermöglicht Entwicklern, ihre Modelle und Agentensysteme zu bewerten, zu testen, zu überwachen und zu optimieren. Zu den wichtigsten Angeboten gehören:

  • Umfassende Beobachtbarkeit: Umfassende Nachverfolgung von LLM-Anrufen, Gesprächsprotokollierung und Agentenaktivität.
  • Erweiterte Bewertung: Robuste sofortige Bewertung, LLM-as-a-Judge und Experimentmanagement.
  • Produktionsbereit: Skalierbare Überwachungs-Dashboards und Online-Auswertungsregeln für die Produktion.
  • Opik Agent Optimizer: Spezielles SDK und eine Reihe von Optimierern zur Verbesserung von Eingabeaufforderungen und Agenten.
  • Opik Guardrails: Funktionen, die Sie bei der Implementierung sicherer und verantwortungsvoller KI-Praktiken unterstützen.

Zu den wichtigsten Fähigkeiten gehören:

  • Entwicklung & Rückverfolgung:

  • Verfolgen Sie alle LLM-Aufrufe und Traces mit detailliertem Kontext während der Entwicklung und in der Produktion (Quickstart).

  • Umfangreiche Integrationen von Drittanbietern für einfache Beobachtbarkeit: Nahtlose Integration in eine wachsende Liste von Frameworks, wobei viele der größten und beliebtesten nativ unterstützt werden (einschließlich neuer Ergänzungen wie Google ADK, Autogen und Flowise AI). (Integrationen)

  • Kommentieren Sie Traces und Spans mit Feedback-Scores über das Python SDK oder das UI.

  • Experimentieren Sie mit Eingabeaufforderungen und Modellen im Prompt Playground.

  • Bewertung und Tests:

  • Automatisieren Sie Ihre LLM-Anwendungsbewertung mit Datasets und Experimente.

  • Nutzen Sie leistungsstarke LLM-als-Richter-Metriken für komplexe Aufgaben wie Halluzinationserkennung, Moderation und RAG-Bewertung (Antwort Relevanz, Kontext Präzision).

  • Integrieren Sie Auswertungen in Ihre CI/CD-Pipeline mit unserer PyTest-Integration.

  • Produktionsüberwachung und -optimierung:

  • Protokollieren Sie große Mengen an Produktionsspuren: Opik ist für den Maßstab ausgelegt (über 40 Mio. Spuren/Tag).

  • Überwachen Sie Feedback-Scores, Trace-Zählungen und Token-Nutzung im Laufe der Zeit im Opik Dashboard.

  • Nutzen Sie Online-Bewertungsregeln mit LLM-as-a-Judge-Metriken, um Produktionsprobleme zu identifizieren.

  • Nutzen Sie Opik Agent Optimizer und Opik Guardrails, um Ihre LLM-Anwendungen in der Produktion kontinuierlich zu verbessern und zu sichern.

[!TIP] Wenn Sie nach Funktionen suchen, die Opik heute nicht bietet, stellen Sie bitte eine neue Funktionsanfrage 🚀

<a id="%EF%B8%8F-opik-server-installation"></a>

🛠️ Opik Server-Installation

Bringen Sie Ihren Opik-Server in wenigen Minuten zum Laufen. Wählen Sie die Option, die Ihren Anforderungen am besten entspricht:

Option 1: Comet.com Cloud (am einfachsten und empfohlen)

Greifen Sie sofort und ohne Einrichtung auf Opik zu. Ideal für schnelle Starts und problemlose Wartung.

👉 Erstellen Sie Ihr kostenloses Comet-Konto

Option 2: Opik selbst hosten für volle Kontrolle

Stellen Sie Opik in Ihrer eigenen Umgebung bereit. Wählen Sie zwischen Docker für lokale Setups oder Kubernetes für Skalierbarkeit.

Selbsthosting mit Docker Compose (für lokale Entwicklung und Tests)

Dies ist der einfachste Weg, eine lokale Opik-Instanz zum Laufen zu bringen. Beachten Sie das neue Installationsskript „./opik.sh“:

In einer Linux- oder Mac-Umgebung:

bash
# Clone the Opik repository
git clone https://github.com/comet-ml/opik.git

# Navigate to the repository
cd opik

# Start the Opik platform
./opik.sh

In einer Windows-Umgebung:

powershell
# Clone the Opik repository
git clone https://github.com/comet-ml/opik.git

# Navigate to the repository
cd opik

# Start the Opik platform
powershell -ExecutionPolicy ByPass -c ".\\opik.ps1"

Serviceprofile für die Entwicklung

Die Opik-Installationsskripte unterstützen jetzt Dienstprofile für verschiedene Entwicklungsszenarien:

bash
# Start full Opik suite (default behavior)
./opik.sh

# Start only infrastructure services (databases, caches etc.)
./opik.sh --infra

# Start infrastructure + backend services
./opik.sh --backend

# Enable guardrails with any profile
./opik.sh --guardrails # Guardrails with full Opik suite
./opik.sh --backend --guardrails # Guardrails with infrastructure + backend

Verwenden Sie die Optionen „--help“ oder „--info“, um Probleme zu beheben. Dockerfiles stellen jetzt sicher, dass Container als Nicht-Root-Benutzer ausgeführt werden, um die Sicherheit zu erhöhen. Sobald alles betriebsbereit ist, können Sie jetzt localhost:5173 in Ihrem Browser aufrufen! Ausführliche Anweisungen finden Sie im Local Deployment Guide.

Selbsthosting mit Kubernetes & Helm (für skalierbare Bereitstellungen)

Für Produktions- oder größere selbstgehostete Bereitstellungen kann Opik mithilfe unseres Helm-Charts auf einem Kubernetes-Cluster installiert werden. Klicken Sie auf das Abzeichen, um das vollständige Kubernetes-Installationshandbuch mit Helm anzuzeigen.

[!IMPORTANT] Änderungen in Version 1.7.0: Bitte überprüfen Sie das Änderungsprotokoll auf wichtige Updates und wichtige Änderungen.

<a id="-opik-client-sdk"></a>

💻 Opik Client SDK

Opik bietet eine Reihe von Client-Bibliotheken und eine REST-API für die Interaktion mit dem Opik-Server. Dazu gehören SDKs für Python, TypeScript und Ruby (über OpenTelemetry), die eine nahtlose Integration in Ihre Arbeitsabläufe ermöglichen. Ausführliche API- und SDK-Referenzen finden Sie in der Opik Client-Referenzdokumentation.

Python SDK-Schnellstart

So beginnen Sie mit dem Python SDK:

Installieren Sie das Paket:

bash
# install using pip
pip install opik

# or install with uv
uv pip install opik

Konfigurieren Sie das Python-SDK, indem Sie den Befehl „opik configure“ ausführen, der Sie zur Eingabe Ihrer Opik-Serveradresse (für selbst gehostete Instanzen) oder Ihres API-Schlüssels und Arbeitsbereichs (für Comet.com) auffordert:

bash
opik configure

[!TIP] Sie können auch „opik.configure(use_local=True)“ aus Ihrem Python-Code aufrufen, um das SDK für die Ausführung auf einer lokalen selbstgehosteten Installation zu konfigurieren oder API-Schlüssel und Arbeitsbereichsdetails direkt für Comet.com bereitzustellen. Weitere Konfigurationsoptionen finden Sie in der Python SDK-Dokumentation.

Sie können jetzt mit der Protokollierung von Ablaufverfolgungen mit dem Python SDK beginnen.

<a id="-logging-traces-with-integrations"></a>

📝 Protokollierung von Traces mit Integrationen

Der einfachste Weg, Traces zu protokollieren, ist die Verwendung einer unserer direkten Integrationen. Opik unterstützt eine breite Palette von Frameworks, einschließlich neuerer Ergänzungen wie Google ADK, Autogen, AG2 und Flowise AI:

IntegrationBeschreibungDokumentation
ADKProtokollspuren für Google Agent Development Kit (ADK)Dokumentation
AG2Protokollspuren für AG2-LLM-AufrufeDokumentation
AIsuiteProtokollspuren für aisuite LLM-AufrufeDokumentation
AgnoProtokollierungsspuren für Agno Agent Orchestration Framework-AufrufeDokumentation
AnthropischProtokollspuren für Anthropic LLM-AufrufeDokumentation
AutogenProtokollspuren für Autogen-Agent-WorkflowsDokumentation
GrundgesteinProtokollspuren für Amazon Bedrock LLM-AufrufeDokumentation
BeeAI (Python)Protokollierungsspuren für BeeAI-Python-Agent-Framework-AufrufeDokumentation
BeeAI (TypeScript)Protokollspuren für BeeAI TypeScript-Agent-Framework-AufrufeDokumentation
BytePlusProtokollspuren für BytePlus LLM-AufrufeDokumentation
Cloudflare Workers AIProtokollspuren für Cloudflare Workers AI-AufrufeDokumentation
KohärentProtokollspuren für Cohere LLM-AufrufeDokumentation
CrewAIProtokollspuren für CrewAI-AufrufeDokumentation
CursorProtokollspuren für Cursor-KonversationenDokumentation
DeepSeekProtokollspuren für DeepSeek LLM-AufrufeDokumentation
VerändernProtokollierungsspuren für Dify-Agent-AusführungenDokumentation
DSPYProtokollspuren für DSPy-LäufeDokumentation
Feuerwerk KIProtokollspuren für Fireworks AI LLM-AufrufeDokumentation
Flowise KIProtokollspuren für Flowise AI Visual LLM BuilderDokumentation
Zwillinge (Python)Protokollspuren für Google Gemini LLM-AufrufeDokumentation
Gemini (TypeScript)Protokollierungsspuren für Google Gemini TypeScript SDK-AufrufeDokumentation
GroqProtokollspuren für Groq LLM-AufrufeDokumentation
LeitplankenProtokollspuren für Guardrails AI-ValidierungenDokumentation
HeuhaufenProtokollspuren für Haystack-AufrufeDokumentation
HafenProtokollspuren für Harbor-Benchmark-BewertungsversucheDokumentation
InstructorLog traces for LLM calls made with InstructorDocumentation
LangChain (Python)Protokollspuren für LangChain LLM-AufrufeDokumentation
LangChain (JS/TS)Protokollspuren für LangChain JavaScript/TypeScript-AufrufeDokumentation
LangGraphProtokollspuren für LangGraph-AusführungenDokumentation
LangflowProtokollspuren für Langflow Visual AI BuilderDokumentation
LiteLLMProtokollierungsspuren für LiteLLM-ModellaufrufeDokumentation
LiveKit-AgentenProtokollierungsspuren für LiveKit Agents AI-Agent-Framework-AufrufeDokumentation
LamaIndexProtokollspuren für LlamaIndex LLM-AufrufeDokumentation
MastraProtokollierungsspuren für Aufrufe des Mastra AI-Workflow-FrameworksDokumentation
Microsoft Agent Framework (Python)Protokollverfolgungen für Microsoft Agent Framework-AufrufeDokumentation
Microsoft Agent Framework (.NET)Protokollierungsspuren für Microsoft Agent Framework .NET-AufrufeDokumentation
Mistral KIProtokollspuren für Mistral AI LLM-AufrufeDokumentation
n8nProtokollierungsspuren für N8N-Workflow-AusführungenDokumentation
Novita AIProtokollspuren für Novita AI LLM-AufrufeDokumentation
OllamaProtokollspuren für Ollama LLM-AufrufeDokumentation
OpenAI (Python)Protokollspuren für OpenAI LLM-AufrufeDokumentation
OpenAI (JS/TS)Protokollspuren für OpenAI JavaScript/TypeScript-AufrufeDokumentation
OpenAI-AgentenProtokollierungsspuren für OpenAI Agents SDK-AufrufeDokumentation
OpenClawProtokollspuren für OpenClaw-AgentenläufeDokumentation
OpenRouterProtokollspuren für OpenRouter LLM-AufrufeDokumentation
OpenTelemetryProtokollspuren für von OpenTelemetry unterstützte AufrufeDokumentation
OpenWebUIProtokollspuren für OpenWebUI-KonversationenDokumentation
PipecatProtokollierungsspuren für Pipecat-Echtzeit-Voice-Agent-AnrufeDokumentation
PrädibaseProtokollspuren für Predibase LLM-AufrufeDokumentation
Pydantische KIProtokollierungsspuren für PydanticAI-AgentenaufrufeDokumentation
RagasProtokollspuren für Ragas-AuswertungenDokumentation
Semantischer KernelProtokollspuren für Microsoft Semantic Kernel-AufrufeDokumentation
SmolagenzienProtokollspuren für Smolagents-AgentenDokumentation
Frühlings-KIProtokollierungsspuren für Spring AI-Framework-AufrufeDokumentation
Strands-AgentenProtokollspuren für Strands-AgentenanrufeDokumentation
Zusammen KIProtokollierungsspuren für Together AI LLM-AufrufeDokumentation
Vercel AI SDKProtokollierungsspuren für Vercel AI SDK-AufrufeDokumentation
VoltAgentProtokollierungsspuren für VoltAgent-Agenten-Framework-AufrufeDokumentation
WatsonXProtokollspuren für IBM Watsonx LLM-AufrufeDokumentation
xAI GrokProtokollspuren für xAI Grok LLM-AufrufeDokumentation

[!TIP] Wenn das von Ihnen verwendete Framework oben nicht aufgeführt ist, können Sie gerne ein Problem eröffnen oder eine PR mit der Integration einreichen.

Wenn Sie keines der oben genannten Frameworks verwenden, können Sie auch den „track“-Funktionsdekorator verwenden, um Traces zu protokollieren:

python
import opik

opik.configure(use_local=True) # Run locally

@opik.track
def my_llm_function(user_question: str) -> str:
    # Your LLM code here

    return "Hello"

[!TIP] Der Track Decorator kann in Verbindung mit jeder unserer Integrationen verwendet werden und kann auch zum Verfolgen verschachtelter Funktionsaufrufe verwendet werden.

<a id="-llm-as-a-judge-metrics"></a>

🧑‍⚖️ LLM als Richtermetriken

Das Python Opik SDK enthält eine Reihe von LLM-Bewertungsmetriken, die Ihnen bei der Bewertung Ihrer LLM-Anwendung helfen. Erfahren Sie mehr darüber in der Metrikdokumentation.

Um sie zu verwenden, importieren Sie einfach die entsprechende Metrik und verwenden Sie die Funktion „Score“:

python
from opik.evaluation.metrics import Hallucination

metric = Hallucination()
score = metric.score(
    input="What is the capital of France?",
    output="Paris",
    context=["France is a country in Europe."]
)
print(score)

Opik umfasst außerdem eine Reihe vorgefertigter heuristischer Metriken sowie die Möglichkeit, eigene zu erstellen. Erfahren Sie mehr darüber in der Metrikdokumentation.

<a id="-evaluating-your-llm-application"></a>

🔍 Bewertung Ihrer LLM-Bewerbungen

Mit Opik können Sie Ihre LLM-Anwendung während der Entwicklung über Datasets bewerten Experimente. Das Opik-Dashboard bietet erweiterte Diagramme für Experimente und eine bessere Handhabung großer Spuren. Sie können Auswertungen auch als Teil Ihrer CI/CD-Pipeline mit unserer PyTest-Integration ausführen.

<a id="-star-us-on-github"></a>

⭐ Star uns auf GitHub

Wenn Sie Opik nützlich finden, geben Sie uns bitte einen Stern! Ihre Unterstützung hilft uns, unsere Community zu vergrößern und das Produkt weiter zu verbessern.

<a id="-contributing"></a>

🤝 Mitwirken

Es gibt viele Möglichkeiten, zu Opik beizutragen:

Um mehr darüber zu erfahren, wie Sie zu Opik beitragen können, lesen Sie bitte unsere Beitragsrichtlinien.