Back to Opik

Readme FR

readme_FR.md

2.0.24-526231.9 KB
Original Source

Remarque : Ce fichier a été traduit automatiquement. Les améliorations de la traduction sont bienvenues !

<div align="center"><b><a href="README.md">English</a> | <a href="readme_CN.md">简体中文</a> | <a href="readme_JP.md">日本語</a> | <a href="readme_PT_BR.md">Português (Brasil)</a> | <a href="readme_KO.md">한국어</a> <a href="readme_ES.md">Español</a> | <a href="readme_FR.md">Français</a> | <a href="readme_DE.md">Deutsch</a> | <a href="readme_RU.md">Русский</a> | <a href="readme_AR.md">العربية</a> | <a href="readme_HI.md">हिन्दी</a> | <a href="readme_TR.md">Türkçe</a></b></div> <h1 align="center" style="border-bottom: none"> <div> <a href="https://www.comet.com/site/products/opik/?from=llm&utm_source=opik&utm_medium=github&utm_content=header_img&utm_campaign=opik"><picture> <source media="(prefers-color-scheme: dark)" srcset="https://raw.githubusercontent.com/comet-ml/opik/refs/heads/main/apps/opik-documentation/documentation/static/img/logo-dark-mode.svg"> <source media="(prefers-color-scheme: light)" srcset="https://raw.githubusercontent.com/comet-ml/opik/refs/heads/main/apps/opik-documentation/documentation/static/img/opik-logo.svg">

</image></a>

Opik

</div> </h1> <h2 align="center" style="border-bottom: none">Observabilité, évaluation et optimisation de l'IA open source</h2> <p align="center"> Opik vous aide à créer, tester et optimiser des applications d'IA générative qui fonctionnent mieux, du prototype à la production. Des chatbots RAG aux assistants de code en passant par les systèmes agentiques complexes, Opik fournit un traçage complet, une évaluation ainsi qu'une optimisation automatique des invites et des outils pour éliminer les incertitudes liées au développement de l'IA. </p> <div align="center">

<!-- [![Démarrage rapide](https://colab.research.google.com/assets/colab-badge.svg)](https://colab.research.google.com/github/comet-ml/opik/blob/main/apps/opik-documentation/documentation/docs/cookbook/opik_quickstart.ipynb) --> </div> <p align="center"> <a href="https://www.comet.com/site/products/opik/?from=llm&utm_source=opik&utm_medium=github&utm_content=website_button&utm_campaign=opik"><b>Site Web</b></a> • <a href="https://chat.comet.com"><b>Communauté Slack</b></a> • <a href="https://x.com/Cometml"><b>Twitter</b></a> • <a href="https://www.comet.com/docs/opik/changelog"><b>Journal des modifications</b></a> • <a href="https://www.comet.com/docs/opik/?from=llm&utm_source=opik&utm_medium=github&utm_content=docs_button&utm_campaign=opik"><b>Documentation</b></a> </p> <div align="center" style="margin-top: 1em; margin-bottom: 1em;"> <a href="#-what-is-opik">🚀 Qu'est-ce qu'Opik ?</a> • <a href="#%EF%B8%8F-opik-server-installation">🛠️ Installation du serveur Opik</a> • <a href="#-opik-client-sdk">💻 SDK client Opik</a> • <a href="#-logging-traces-with-integrations">📝 Journalisation des traces</a>

<a href="#-llm-as-a-judge-metrics">🧑‍⚖️ LLM en tant que juge</a><a href="#-evaluating-your-llm-application">🔍 Évaluation de votre candidature</a><a href="#-star-us-on-github">⭐ Star Us</a><a href="#-contributing">🤝 Contribuer</a>

</div>

<a id="-what-is-opik"></a>

🚀 Qu'est-ce qu'Opik ?

Opik (construit par Comet) est une plate-forme open source conçue pour rationaliser l'ensemble du cycle de vie des applications LLM. Il permet aux développeurs d'évaluer, de tester, de surveiller et d'optimiser leurs modèles et systèmes agents. Les offres clés incluent :

  • Observabilité complète : traçage approfondi des appels LLM, journalisation des conversations et activité des agents.
  • Évaluation avancée : évaluation rapide et robuste, LLM en tant que juge et gestion des expériences.
  • Production-Ready : tableaux de bord de surveillance évolutifs et règles d'évaluation en ligne pour la production.
  • Opik Agent Optimizer : SDK dédié et ensemble d'optimiseurs pour améliorer les invites et les agents.
  • Opik Guardrails : fonctionnalités pour vous aider à mettre en œuvre des pratiques d'IA sûres et responsables.

Les fonctionnalités clés incluent :

  • Développement et traçage :

  • Suivez tous les appels et traces LLM avec un contexte détaillé pendant le développement et en production (Quickstart).

  • Intégrations tierces étendues pour une observabilité facile : intégration transparente à une liste croissante de frameworks, prenant en charge nativement bon nombre des frameworks les plus importants et les plus populaires (y compris les ajouts récents tels que Google ADK, Autogen et Flowise AI). (Intégrations)

  • Annotez les traces et les étendues avec les scores de feedback via le SDK Python ou le UI.

  • Expérimentez avec des invites et des modèles dans Prompt Playground.

  • Évaluation et tests :

  • Automatisez l'évaluation de votre candidature LLM avec Datasets et Expériences.

  • Tirez parti de puissantes métriques LLM-as-a-judge pour des tâches complexes telles que la détection d'hallucinations, modération et évaluation RAG (Réponse Pertinence, Contexte Précision).

  • Intégrez des évaluations dans votre pipeline CI/CD avec notre intégration PyTest.

  • Suivi et optimisation de la production :

  • Enregistrez des volumes élevés de traces de production : Opik est conçu pour une échelle (plus de 40 millions de traces/jour).

  • Surveillez les scores de commentaires, le nombre de traces et l'utilisation des jetons au fil du temps dans le Opik Dashboard.

  • Utiliser les règles d'évaluation en ligne avec les métriques LLM-as-a-Judge pour identifier les problèmes de production.

  • Tirez parti de Opik Agent Optimizer et Opik Guardrails pour améliorer et sécuriser continuellement vos applications LLM en production.

[!TIP] Si vous recherchez des fonctionnalités qu'Opik n'a pas aujourd'hui, veuillez créer une nouvelle Demande de fonctionnalité 🚀

<a id="%EF%B8%8F-opik-server-installation"></a>

🛠️ Installation du serveur Opik

Faites fonctionner votre serveur Opik en quelques minutes. Choisissez l'option qui correspond le mieux à vos besoins :

Option 1 : Comet.com Cloud (le plus simple et recommandé)

Accédez à Opik instantanément sans aucune configuration. Idéal pour des démarrages rapides et un entretien sans tracas.

👉 Créez votre compte Comet gratuit

Option 2 : Opik auto-hébergé pour un contrôle total

Déployez Opik dans votre propre environnement. Choisissez entre Docker pour les configurations locales ou Kubernetes pour l'évolutivité.

Auto-hébergement avec Docker Compose (pour le développement et les tests locaux)

C'est le moyen le plus simple de faire fonctionner une instance Opik locale. Notez le nouveau script d'installation ./opik.sh :

Sous environnement Linux ou Mac :

bash
# Clone the Opik repository
git clone https://github.com/comet-ml/opik.git

# Navigate to the repository
cd opik

# Start the Opik platform
./opik.sh

Sur l'environnement Windows :

powershell
# Clone the Opik repository
git clone https://github.com/comet-ml/opik.git

# Navigate to the repository
cd opik

# Start the Opik platform
powershell -ExecutionPolicy ByPass -c ".\\opik.ps1"

Profils de services pour le développement

Les scripts d'installation Opik prennent désormais en charge les profils de service pour différents scénarios de développement :

bash
# Start full Opik suite (default behavior)
./opik.sh

# Start only infrastructure services (databases, caches etc.)
./opik.sh --infra

# Start infrastructure + backend services
./opik.sh --backend

# Enable guardrails with any profile
./opik.sh --guardrails # Guardrails with full Opik suite
./opik.sh --backend --guardrails # Guardrails with infrastructure + backend

Utilisez les options --help ou --info pour résoudre les problèmes. Les Dockerfiles garantissent désormais que les conteneurs s'exécutent en tant qu'utilisateurs non root pour une sécurité renforcée. Une fois que tout est opérationnel, vous pouvez maintenant visiter localhost:5173 sur votre navigateur ! Pour des instructions détaillées, consultez le Guide de déploiement local.

Auto-hébergement avec Kubernetes et Helm (pour des déploiements évolutifs)

Pour la production ou les déploiements auto-hébergés à plus grande échelle, Opik peut être installé sur un cluster Kubernetes à l'aide de notre charte Helm. Cliquez sur le badge pour accéder au Guide d'installation de Kubernetes à l'aide de Helm complet.

[!IMPORTANT] Modifications de la version 1.7.0 : veuillez consulter le changelog pour les mises à jour importantes et les modifications importantes.

<a id="-opik-client-sdk"></a>

💻 SDK client Opik

Opik fournit une suite de bibliothèques clientes et une API REST pour interagir avec le serveur Opik. Cela inclut des SDK pour Python, TypeScript et Ruby (via OpenTelemetry), permettant une intégration transparente dans vos flux de travail. Pour des références détaillées sur l'API et le SDK, consultez la Documentation de référence du client Opik.

Démarrage rapide du SDK Python

Pour démarrer avec le SDK Python :

Installez le paquet :

bash
# install using pip
pip install opik

# or install with uv
uv pip install opik

Configurez le SDK python en exécutant la commande « opik configure », qui vous demandera l'adresse de votre serveur Opik (pour les instances auto-hébergées) ou votre clé API et votre espace de travail (pour Comet.com) :

bash
opik configure

[!TIP] Vous pouvez également appeler « opik.configure(use_local=True) » à partir de votre code Python pour configurer le SDK afin qu'il s'exécute sur une installation locale auto-hébergée, ou fournir la clé API et les détails de l'espace de travail directement pour Comet.com. Reportez-vous à la documentation du SDK Python pour plus d'options de configuration.

Vous êtes maintenant prêt à commencer à enregistrer des traces à l'aide du SDK Python.

<a id="-logging-traces-with-integrations"></a>

📝 Journalisation des traces avec intégrations

Le moyen le plus simple d’enregistrer des traces est d’utiliser l’une de nos intégrations directes. Opik prend en charge un large éventail de frameworks, y compris des ajouts récents tels que Google ADK, Autogen, AG2 et Flowise AI :

IntégrationDescriptifDocuments
ADKTraces de journaux pour le kit de développement d'agent Google (ADK)Documentation
AG2Consigner les traces des appels AG2 LLMDocumentation
Suite IATraces de journaux pour les appels aisuite LLMDocumentation
AgnoTraces de journaux pour les appels du framework d'orchestration d'agent AgnoDocumentation
AnthropiqueConsigner les traces des appels Anthropic LLMDocumentation
AutogèneTraces de journaux pour les flux de travail agents AutogenDocumentation
Substrat rocheuxConsigner les traces des appels Amazon Bedrock LLMDocumentation
BeeAI (Python)Consigner les traces des appels du framework d'agent BeeAI PythonDocumentation
BeeAI (TypeScript)Consigner les traces des appels du framework d'agent BeeAI TypeScriptDocumentation
OctetPlusTraces de journaux pour les appels BytePlus LLMDocumentation
IA des travailleurs CloudflareConsigner les traces des appels Cloudflare Workers AIDocumentation
CohérerJournaliser les traces des appels Cohere LLMDocumentation
CrewAIConsigner les traces des appels CrewAIDocumentation
CurseurConsigner les traces des conversations avec le curseurDocumentation
Recherche profondeConsigner les traces des appels DeepSeek LLMDocumentation
DifierConsigner les traces des exécutions de l'agent DifyDocumentation
DSPYTraces de journaux pour les exécutions DSPyDocumentation
IA de feux d'artificeConsigner les traces des appels Fireworks AI LLMDocumentation
Flowise IATraces de journaux pour le générateur visuel LLM Flowise AIDocumentation
Gémeaux (Python)Consigner les traces des appels Google Gemini LLMDocumentation
Gémeaux (TypeScript)Consigner les traces des appels du SDK Google Gemini TypeScriptDocumentation
GroqConsigner les traces des appels Groq LLMDocumentation
Garde-corpsTraces de journaux pour les validations Guardrails AIDocumentation
Botte de foinConsigner les traces des appels HaystackDocumentation
PortTraces de journaux pour les essais d'évaluation de référence HarbourDocumentation
InstructeurConsigner les traces des appels LLM effectués avec InstructorDocumentation
LangChain (Python)Consigner les traces des appels LangChain LLMDocumentation
LangChain (JS/TS)Consigner les traces des appels LangChain JavaScript/TypeScriptDocumentation
LangGraphTraces de journaux pour les exécutions de LangGraphDocumentation
Flux de langageTraces de journaux pour le générateur d'IA visuel LangflowDocumentation
LiteLLMTraces de journal pour les appels de modèle LiteLLMDocumentation
Agents LiveKitConsigner les traces des appels du cadre d'agent IA des agents LiveKitDocumentation
LamaIndexTraces de journal pour les appels LlamaIndex LLMDocumentation
MastraConsigner les traces des appels du framework de workflow Mastra AIDocumentation
Cadre d'agent Microsoft (Python)Consigner les traces des appels Microsoft Agent FrameworkDocumentation
Cadre d'agent Microsoft (.NET)Consigner les traces des appels Microsoft Agent Framework .NETDocumentation
Mistral IAJournaliser les traces des appels Mistral AI LLMDocumentation
n8nConsigner les traces pour les exécutions de flux de travail n8nDocumentation
Novita IAConsigner les traces des appels Novita AI LLMDocumentation
OllamaConsigner les traces des appels Ollama LLMDocumentation
OpenAI (Python)Consigner les traces des appels OpenAI LLMDocumentation
OpenAI (JS/TS)Consigner les traces pour les appels OpenAI JavaScript/TypeScriptDocumentation
Agents OpenAITraces de journaux pour les appels du SDK OpenAI AgentsDocumentation
OpenClawConsigner les traces des exécutions d'agents OpenClawDocumentation
OuvrirRouterConsigner les traces des appels OpenRouter LLMDocumentation
OpenTélémétrieConsigner les traces des appels pris en charge par OpenTelemetryDocumentation
OpenWebUIConsigner les traces des conversations OpenWebUIDocumentation
PipecatConsigner les traces des appels de l'agent vocal en temps réel PipecatDocumentation
PrédibaseConsigner les traces des appels Predibase LLMDocumentation
IA pydantiqueConsigner les traces des appels d'agent PydanticAIDocumentation
RagasTraces de journaux pour les évaluations RagasDocumentation
Noyau sémantiqueConsigner les traces des appels du noyau sémantique MicrosoftDocumentation
SmolagentsTraces de journaux pour les agents SmolagentsDocumentation
IA du printempsConsigner les traces des appels du framework Spring AIDocumentation
Agents de brinsConsigner les traces des appels des agents StrandsDocumentation
Ensemble IAConsigner les traces des appels Together AI LLMDocumentation
SDK IA VercelTraces de journaux pour les appels du SDK Vercel AIDocumentation
VoltAgentTraces de journaux pour les appels du framework d'agent VoltAgentDocumentation
WatsonXTraces de journaux pour les appels IBM Watsonx LLMDocumentation
xAI GrokConsigner les traces des appels xAI Grok LLMDocumentation

[!TIP] Si le framework que vous utilisez n'est pas répertorié ci-dessus, n'hésitez pas à ouvrir un problème ou soumettre un PR avec l'intégration.

Si vous n'utilisez aucun des frameworks ci-dessus, vous pouvez également utiliser le décorateur de fonction « track » pour enregistrer les traces :

python
import opik

opik.configure(use_local=True) # Run locally

@opik.track
def my_llm_function(user_question: str) -> str:
    # Your LLM code here

    return "Hello"

[!TIP] Le décorateur de piste peut être utilisé avec n'importe laquelle de nos intégrations et peut également être utilisé pour suivre les appels de fonctions imbriqués.

<a id="-llm-as-a-judge-metrics"></a>

🧑‍⚖️ LLM en tant que juge métriques

Le SDK Python Opik comprend un certain nombre de LLM comme mesures de jugement pour vous aider à évaluer votre application LLM. Apprenez-en plus dans la documentation sur les métriques.

Pour les utiliser, importez simplement la métrique appropriée et utilisez la fonction score :

python
from opik.evaluation.metrics import Hallucination

metric = Hallucination()
score = metric.score(
    input="What is the capital of France?",
    output="Paris",
    context=["France is a country in Europe."]
)
print(score)

Opik comprend également un certain nombre de métriques heuristiques prédéfinies ainsi que la possibilité de créer les vôtres. Apprenez-en plus dans la documentation sur les métriques.

<a id="-evaluating-your-llm-application"></a>

🔍 Évaluation de vos candidatures LLM

Opik vous permet d'évaluer votre application LLM pendant le développement via des Datasets et Expériences. Le tableau de bord Opik propose des graphiques améliorés pour les expériences et une meilleure gestion des traces volumineuses. Vous pouvez également exécuter des évaluations dans le cadre de votre pipeline CI/CD à l'aide de notre intégration PyTest.

<a id="-star-us-on-github"></a>

⭐ Star Us on GitHub

Si vous trouvez Opik utile, pensez à nous attribuer une étoile ! Votre soutien nous aide à développer notre communauté et à continuer d'améliorer le produit.

<a id="-contributing"></a>

🤝 Contribuer

Il existe de nombreuses façons de contribuer à Opik :

Pour en savoir plus sur la façon de contribuer à Opik, veuillez consulter nos directives de contribution.