Back to Opik

Readme ES

readme_ES.md

2.0.22-6605-merge-206532.2 KB
Original Source

Nota: Este archivo fue traducido automáticamente. ¡Las mejoras de traducción son bienvenidas!

<div align="center"><b><a href="README.md">English</a> | <a href="readme_CN.md">简体中文</a> | <a href="readme_JP.md">日本語</a> | <a href="readme_PT_BR.md">Português (Brasil)</a> | <a href="readme_KO.md">한국어</a> <a href="readme_ES.md">Español</a> | <a href="readme_FR.md">Français</a> | <a href="readme_DE.md">Deutsch</a> | <a href="readme_RU.md">Русский</a> | <a href="readme_AR.md">العربية</a> | <a href="readme_HI.md">हिन्दी</a> | <a href="readme_TR.md">Türkçe</a></b></div> <h1 align="center" style="border-bottom: none"> <div> <a href="https://www.comet.com/site/products/opik/?from=llm&utm_source=opik&utm_medium=github&utm_content=header_img&utm_campaign=opik"><picture> <source media="(prefers-color-scheme: dark)" srcset="https://raw.githubusercontent.com/comet-ml/opik/refs/heads/main/apps/opik-documentation/documentation/static/img/logo-dark-mode.svg"> <source media="(prefers-color-scheme: light)" srcset="https://raw.githubusercontent.com/comet-ml/opik/refs/heads/main/apps/opik-documentation/documentation/static/img/opik-logo.svg">
    </picture></a>
    

    Opik
</div>
</h1> <h2 align="center" style="border-bottom: none">Observabilidad, evaluación y optimización de la IA de código abierto</h2> <p align="center"> Opik le ayuda a crear, probar y optimizar aplicaciones de IA generativa que funcionen mejor, desde el prototipo hasta la producción. Desde chatbots RAG hasta asistentes de código y sistemas de agentes complejos, Opik proporciona seguimiento, evaluación y optimización automática de indicaciones y herramientas integrales para eliminar las conjeturas en el desarrollo de la IA. </p> <div align="center">

<!-- [![Quick Start](https://colab.research.google.com/assets/colab-badge.svg)](https://colab.research.google.com/github/comet-ml/opik/blob/main/apps/opik-documentation/documentation/docs/cookbook/opik_quickstart.ipynb) --> </div> <p align="center"> <a href="https://www.comet.com/site/products/opik/?from=llm&utm_source=opik&utm_medium=github&utm_content=website_button&utm_campaign=opik"><b>Sitio web</b></a> • <a href="https://chat.comet.com"><b>Comunidad Slack</b></a> • <a href="https://x.com/Cometml"><b>Twitter</b></a> • <a href="https://www.comet.com/docs/opik/changelog"><b>Registro de cambios</b></a> • <a href="https://www.comet.com/docs/opik/?from=llm&utm_source=opik&utm_medium=github&utm_content=docs_button&utm_campaign=opik"><b>Documentación</b></a> </p> <div align="center" style="margin-top: 1em; margin-bottom: 1em;"> <a href="#-what-is-opik">🚀 ¿Qué es Opik?</a> • <a href="#%EF%B8%8F-opik-server-installation">🛠️ Instalación del servidor Opik</a> • <a href="#-opik-client-sdk">💻 SDK del cliente Opik</a> • <a href="#-logging-traces-with-integrations">📝 Registro de seguimientos</a>

<a href="#-llm-as-a-judge-metrics">🧑‍⚖️ LLM como juez</a><a href="#-evaluating-your-llm-application">🔍 Evaluando su solicitud</a><a href="#-star-us-on-github">⭐ Destacarnos</a><a href="#-contributing">🤝 Contribuyendo</a>

</div>

<a id="-what-is-opik"></a>

🚀 ¿Qué es Opik?

Opik (creado por Comet) es una plataforma de código abierto diseñada para optimizar todo el ciclo de vida de las aplicaciones LLM. Permite a los desarrolladores evaluar, probar, monitorear y optimizar sus modelos y sistemas agentes. Las ofertas clave incluyen:

  • Observabilidad integral: seguimiento profundo de las llamadas de LLM, registro de conversaciones y actividad de los agentes.
  • Evaluación avanzada: evaluación rápida y sólida, LLM como juez y gestión de experimentos.
  • Listo para producción: paneles de control escalables y reglas de evaluación en línea para producción.
  • Opik Agent Optimizer: SDK dedicado y conjunto de optimizadores para mejorar las indicaciones y los agentes.
  • Opik Guardrails: funciones que le ayudarán a implementar prácticas de IA seguras y responsables.

Las capacidades clave incluyen:

  • Desarrollo y seguimiento:

    • Realice un seguimiento de todas las llamadas y seguimientos de LLM con un contexto detallado durante el desarrollo y la producción (Quickstart).
    • Amplias integraciones con terceros para una fácil observabilidad: integre perfectamente con una lista cada vez mayor de marcos, admitiendo muchos de los más grandes y populares de forma nativa (incluidas incorporaciones recientes como Google ADK, Autogen y Flowise AI). (Integraciones)
    • Anote trazas y tramos con puntuaciones de retroalimentación a través del Python SDK o el UI.
    • Experimente con indicaciones y modelos en Prompt Playground.
  • Evaluación y pruebas:

  • Monitoreo y optimización de la producción:

    • Registrar grandes volúmenes de trazas de producción: Opik está diseñado para escalar (más de 40 millones de trazas/día).
    • Supervise las puntuaciones de los comentarios, los recuentos de seguimiento y el uso de tokens a lo largo del tiempo en el Panel de Opik.
  • Utilice Reglas de evaluación en línea con métricas de LLM-as-a-Judge para identificar problemas de producción.

    • Aproveche Opik Agent Optimizer y Opik Guardrails para mejorar y proteger continuamente sus aplicaciones LLM en producción.

[!CONSEJO] Si está buscando funciones que Opik no tiene hoy, presente una nueva solicitud de función 🚀

<a id="%EF%B8%8F-opik-server-installation"></a>

🛠️ Instalación del servidor Opik

Haga funcionar su servidor Opik en minutos. Elige la opción que mejor se adapta a tus necesidades:

Opción 1: Comet.com Cloud (más fácil y recomendada)

Acceda a Opik al instante sin ninguna configuración. Ideal para inicios rápidos y mantenimiento sin complicaciones.

👉 Cree su cuenta Comet gratuita

Opción 2: Opik autohospedado para control total

Implemente Opik en su propio entorno. Elija entre Docker para configuraciones locales o Kubernetes para escalabilidad.

Autohospedaje con Docker Compose (para pruebas y desarrollo local)

Esta es la forma más sencilla de ejecutar una instancia local de Opik. Tenga en cuenta el nuevo script de instalación ./opik.sh:

En entorno Linux o Mac:

bash
# Clonar el repositorio de Opik
git clone https://github.com/comet-ml/opik.git

# Navegar al repositorio
cd opik

# Inicie la plataforma Opik
./opik.sh

En el entorno Windows:

powershell
# Clonar el repositorio de Opik
git clone https://github.com/comet-ml/opik.git

# Navegar al repositorio
cd opik

# Inicie la plataforma Opik
powershell -ExecutionPolicy ByPass -c ".\\opik.ps1"

Perfiles de servicio para desarrollo

Los scripts de instalación de Opik ahora admiten perfiles de servicio para diferentes escenarios de desarrollo:

bash
# Iniciar la suite Opik completa (comportamiento predeterminado)
./opik.sh

# Iniciar solo servicios de infraestructura (bases de datos, cachés, etc.)
./opik.sh --infra

# Iniciar infraestructura + servicios backend
./opik.sh --backend

# Habilitar barandillas con cualquier perfil
./opik.sh --guardrails # Guardrails con la suite Opik completa
./opik.sh --backend --guardrails # Guardrails con infraestructura + backend

Utilice las opciones --help o --info para solucionar problemas. Dockerfiles ahora garantiza que los contenedores se ejecuten como usuarios no root para mejorar la seguridad. Una vez que todo esté en funcionamiento, podrá visitar localhost:5173 en su navegador. Para obtener instrucciones detalladas, consulte la Guía de implementación local.

Autohospedaje con Kubernetes y Helm (para implementaciones escalables)

Para implementaciones autohospedadas de producción o de mayor escala, Opik se puede instalar en un clúster de Kubernetes utilizando nuestro diagrama Helm. Haga clic en la insignia para obtener la Guía de instalación de Kubernetes usando Helm.

[!IMPORTANTE] Cambios de la versión 1.7.0: consulte el registro de cambios para obtener actualizaciones importantes y cambios importantes.

<a id="-opik-client-sdk"></a>

💻 SDK del cliente Opik

Opik proporciona un conjunto de bibliotecas cliente y una API REST para interactuar con el servidor Opik. Esto incluye SDK para Python, TypeScript y Ruby (a través de OpenTelemetry), lo que permite una integración perfecta en sus flujos de trabajo. Para obtener referencias detalladas de API y SDK, consulte la Documentación de referencia del cliente de Opik.

Inicio rápido del SDK de Python

Para comenzar con el SDK de Python:

Instale el paquete:

bash
# instalar usando pip
pip install opik

# o instalar con uv
uv pip install opik

Configure el SDK de Python ejecutando el comando opik configure, que le solicitará la dirección de su servidor Opik (para instancias autohospedadas) o su clave API y espacio de trabajo (para Comet.com):

bash
opik configure

[!CONSEJO] También puede llamar a opik.configure(use_local=True) desde su código Python para configurar el SDK para que se ejecute en una instalación local autohospedada, o proporcionar la clave API y los detalles del espacio de trabajo directamente para Comet.com. Consulte la documentación del SDK de Python para obtener más opciones de configuración.

Ahora está listo para comenzar a registrar seguimientos utilizando el SDK de Python.

<a id="-logging-traces-with-integrations"></a>

📝 Registro de seguimientos con integraciones

La forma más sencilla de registrar seguimientos es utilizar una de nuestras integraciones directas. Opik admite una amplia gama de marcos, incluidas incorporaciones recientes como Google ADK, Autogen, AG2 y Flowise AI:

IntegraciónDescripciónDocumentación
ADKSeguimientos de registros para el kit de desarrollo de agentes de Google (ADK)Documentación
AG2Seguimientos de registros para llamadas AG2 LLMDocumentación
Suite de IASeguimientos de registros para llamadas de aisuite LLMDocumentación
AgnoSeguimientos de registros para llamadas al marco de orquestación del agente AgnoDocumentación
AntrópicoSeguimientos de registros para llamadas de Anthropic LLMDocumentación
AutogenSeguimientos de registros para flujos de trabajo agentes de AutogenDocumentación
lecho de rocaSeguimientos de registros para llamadas de Amazon Bedrock LLMDocumentación
AbejaAI (Python)Seguimientos de registros para llamadas al marco del agente BeeAI PythonDocumentación
AbejaAI (Mecanografiado)Seguimientos de registros para llamadas al marco del agente BeeAI TypeScriptDocumentación
BytePlusSeguimientos de registros para llamadas de BytePlus LLMDocumentación
IA de los trabajadores de CloudflareSeguimientos de registros para llamadas de IA de trabajadores de CloudflareDocumentación
CoherirSeguimientos de registros para llamadas de Cohere LLMDocumentación
TripulaciónAIRegistro de seguimientos para llamadas de CrewAIDocumentación
CursoresSeguimientos de registros para conversaciones del cursorDocumentación
Búsqueda profundaSeguimientos de registros para llamadas de DeepSeek LLMDocumentación
DificarSeguimientos de registros para ejecuciones del agente DifyDocumentación
DSPYSeguimientos de registros para ejecuciones de DSPyDocumentación
Fuegos artificiales AISeguimientos de registros para llamadas LLM de Fireworks AIDocumentación
Fluir IASeguimientos de registros para el constructor visual LLM de Flowise AIDocumentación
Géminis (Python)Registro de seguimientos para llamadas de Google Gemini LLMDocumentación
Géminis (Mecanografiado)Seguimientos de registros para llamadas del SDK de TypeScript de Google GeminiDocumentación
GroqSeguimientos de registros para llamadas de Groq LLMDocumentación
BarandillasSeguimientos de registros para validaciones de Guardrails AIDocumentación
PajarSeguimientos de registros para llamadas de HaystackDocumentación
PuertoSeguimientos de registros para las pruebas de evaluación comparativa del puertoDocumentación
InstructorSeguimientos de registros para llamadas LLM realizadas con InstructorDocumentación
LangChain (Python)Seguimientos de registros para llamadas de LangChain LLMDocumentación
LangChain (JS/TS)Seguimientos de registros para llamadas LangChain JavaScript/TypeScriptDocumentación
LangGraphSeguimientos de registros para ejecuciones de LangGraphDocumentación
flujo de lenguaSeguimientos de registros para el constructor visual de IA de LangflowDocumentación
LiteLLMSeguimientos de registros para llamadas al modelo LiteLLMDocumentación
Agentes LiveKitSeguimientos de registros para llamadas al marco del agente LiveKit Agents AIDocumentación
LlamaIndiceSeguimientos de registros para llamadas de LlamaIndex LLMDocumentación
MastraSeguimientos de registros para llamadas al marco de trabajo de flujo de trabajo de Mastra AIDocumentación
Marco del agente de Microsoft (Python)Seguimientos de registros para llamadas de Microsoft Agent FrameworkDocumentación
Marco del agente de Microsoft (.NET)Seguimientos de registros para llamadas de Microsoft Agent Framework .NETDocumentación
Mistral IASeguimientos de registros para llamadas de Mistral AI LLMDocumentación
n8nSeguimientos de registros para ejecuciones de flujos de trabajo n8nDocumentación
Novita AISeguimientos de registros para llamadas de Novita AI LLMDocumentación
OllamáSeguimientos de registros para llamadas de Ollama LLMDocumentación
OpenAI (Python)Seguimientos de registros para llamadas de OpenAI LLMDocumentación
OpenAI (JS/TS)Seguimientos de registros para llamadas OpenAI JavaScript/TypeScriptDocumentación
Agentes de OpenAISeguimientos de registros para llamadas del SDK de agentes OpenAIDocumentación
OpenClawSeguimientos de registros para ejecuciones de agentes de OpenClawDocumentación
Enrutador abiertoSeguimientos de registros para llamadas de OpenRouter LLMDocumentación
OpenTelemetríaSeguimientos de registros para llamadas admitidas por OpenTelemetryDocumentación
Interfaz de usuario web abiertaSeguimientos de registros para conversaciones OpenWebUIDocumentación
PipecatRegistro de seguimientos para llamadas de agentes de voz en tiempo real de PipecatDocumentación
PredibaseSeguimientos de registros para llamadas de Predibase LLMDocumentación
IA pidánticaSeguimientos de registros para llamadas de agentes de PydanticAIDocumentación
RagasSeguimientos de registros para evaluaciones de RagasDocumentación
Núcleo semánticoSeguimientos de registros para llamadas al kernel semántico de MicrosoftDocumentación
SmolagentesSeguimientos de registros para agentes de SmolagentsDocumentación
IA de primaveraSeguimientos de registros para llamadas al marco Spring AIDocumentación
Agentes de hebrasRegistro de seguimiento de llamadas de agentes de StrandsDocumentación
Juntos IASeguimientos de registros para llamadas de Together AI LLMDocumentación
SDK de IA de VercelSeguimientos de registros para llamadas de Vercel AI SDKDocumentación
Agente VoltSeguimientos de registros para llamadas al marco del agente VoltAgentDocumentación
WatsonXSeguimientos de registros para llamadas de IBM watsonx LLMDocumentación
xAI GrokSeguimientos de registros para llamadas de xAI Grok LLMDocumentación

[!CONSEJO] Si el marco que está utilizando no figura en la lista anterior, no dude en abrir un problema o enviar un PR con la integración.

Si no está utilizando ninguno de los marcos anteriores, también puede utilizar el decorador de la función track para registrar seguimientos:

python
import opik

opik.configure(use_local=True) # Ejecutar localmente

@opik.track
def my_llm_function(user_question: str) -> str:
    # Tu código LLM aquí

    devolver "Hola"

[!CONSEJO] El decorador de pistas se puede utilizar junto con cualquiera de nuestras integraciones y también se puede utilizar para realizar un seguimiento de llamadas a funciones anidadas.

<a id="-llm-as-a-judge-metrics"></a>

🧑‍⚖️ Métricas de LLM como juez

El SDK de Python Opik incluye una serie de LLM como métricas de evaluación para ayudarle a evaluar su solicitud de LLM. Obtenga más información al respecto en la documentación de métricas.

Para usarlos, simplemente importe la métrica relevante y use la función score:

python
from opik.evaluation.metrics import Hallucination

metric = Hallucination()
score = metric.score(
    input="¿Cuál es la capital de Francia?",
    output="París",
    context=["Francia es un país de Europa."]
)
imprimir (partitura)

Opik también incluye una serie de métricas heurísticas prediseñadas, así como la capacidad de crear las suyas propias. Obtenga más información al respecto en la documentación de métricas.

<a id="-evaluating-your-llm-application"></a>

🔍 Evaluación de sus solicitudes de LLM

Opik le permite evaluar su solicitud de LLM durante el desarrollo a través de Conjuntos de datos y Experimentos. El panel de Opik ofrece gráficos mejorados para experimentos y un mejor manejo de trazas grandes. También puede ejecutar evaluaciones como parte de su canal de CI/CD utilizando nuestra integración de PyTest.

<a id="-star-us-on-github"></a>

⭐ Destacarnos en GitHub

Si encuentra útil Opik, ¡considere darnos una estrella! Su apoyo nos ayuda a hacer crecer nuestra comunidad y continuar mejorando el producto.

<a id="-contributing"></a>

🤝 Contribuyendo

Hay muchas maneras de contribuir a Opik:

Para obtener más información sobre cómo contribuir a Opik, consulte nuestras directrices de contribución.