Back to Opik

Readme PT BR

readme_PT_BR.md

2.0.22-6605-merge-206534.5 KB
Original Source

Aviso: este arquivo foi traduzido automaticamente usando IA. Contribuições para melhorar a tradução são bem-vindas!

<div align="center"><b><a href="README.md">English</a> | <a href="readme_CN.md">简体中文</a> | <a href="readme_JP.md">日本語</a> | <a href="readme_PT_BR.md">Português (Brasil)</a> | <a href="readme_KO.md">한국어</a> <a href="readme_ES.md">Español</a> | <a href="readme_FR.md">Français</a> | <a href="readme_DE.md">Deutsch</a> | <a href="readme_RU.md">Русский</a> | <a href="readme_AR.md">العربية</a> | <a href="readme_HI.md">हिन्दी</a> | <a href="readme_TR.md">Türkçe</a></b></div> <h1 align="center" style="border-bottom: none"> <div> <a href="https://www.comet.com/site/products/opik/?from=llm&utm_source=opik&utm_medium=github&utm_content=header_img&utm_campaign=opik"><picture> <source media="(prefers-color-scheme: dark)" srcset="https://raw.githubusercontent.com/comet-ml/opik/refs/heads/main/apps/opik-documentation/documentation/static/img/logo-dark-mode.svg"> <source media="(prefers-color-scheme: light)" srcset="https://raw.githubusercontent.com/comet-ml/opik/refs/heads/main/apps/opik-documentation/documentation/static/img/opik-logo.svg">
    </picture></a>
    

    Opik
</div>
</h1> <h2 align="center" style="border-bottom: none">Plataforma de observabilidade, avaliação e otimização de IA de código aberto</h2> <p align="center"> O Opik ajuda você a construir, testar e otimizar aplicações de IA generativa que funcionam melhor, do protótipo à produção. De chatbots RAG a assistentes de código e pipelines agentes complexos, o Opik fornece rastreamento abrangente, avaliação e otimização automática de prompts e ferramentas para eliminar as suposições no desenvolvimento de IA. </p> <div align="center">

<!-- [![Quick Start](https://colab.research.google.com/assets/colab-badge.svg)](https://colab.research.google.com/github/comet-ml/opik/blob/main/apps/opik-documentation/documentation/docs/cookbook/opik_quickstart.ipynb) --> </div> <p align="center"> <a href="https://www.comet.com/site/products/opik/?from=llm&utm_source=opik&utm_medium=github&utm_content=website_button&utm_campaign=opik"><b>Website</b></a> • <a href="https://chat.comet.com"><b>Comunidade Slack</b></a> • <a href="https://x.com/Cometml"><b>Twitter</b></a> • <a href="https://www.comet.com/docs/opik/changelog"><b>Changelog</b></a> • <a href="https://www.comet.com/docs/opik/?from=llm&utm_source=opik&utm_medium=github&utm_content=docs_button&utm_campaign=opik"><b>Documentação</b></a> </p> <div align="center" style="margin-top: 1em; margin-bottom: 1em;"> <a href="#-o-que-%C3%A9-o-opik">🚀 O que é o Opik?</a> • <a href="#%EF%B8%8F-instala%C3%A7%C3%A3o-do-servidor-opik">🛠️ Instalação do Servidor Opik</a> • <a href="#-sdk-cliente-opik">💻 SDK Cliente Opik</a> • <a href="#-registro-de-traces-com-integra%C3%A7%C3%B5es">📝 Registro de Traces</a>

<a href="#-m%C3%A9tricas-llm-como-juiz">🧑‍⚖️ LLM como Juiz</a><a href="#-avaliando-sua-aplica%C3%A7%C3%A3o-llm">🔍 Avaliando sua Aplicação</a><a href="#-d%C3%AA-nos-uma-estrela-no-github">⭐ Dê-nos uma estrela</a><a href="#-contribuir">🤝 Contribuir</a>

</div>

<a id="-o-que-%C3%A9-o-opik"></a>

🚀 O que é o Opik?

Opik (desenvolvido pela Comet) é uma plataforma open-source projetada para simplificar todo o ciclo de vida de aplicações LLM. Ela capacita desenvolvedores a avaliar, testar, monitorar e otimizar seus modelos e sistemas agentes. As principais ofertas incluem:

  • Observabilidade abrangente: rastreamento detalhado de chamadas LLM, registro de conversas e atividade de agentes.
  • Avaliação avançada: avaliação robusta de prompts, LLM-como-juiz e gerenciamento de experimentos.
  • Pronto para produção: painéis de monitoramento escaláveis e regras de avaliação online para produção.
  • Opik Agent Optimizer: SDK dedicado e conjunto de otimizadores para melhorar prompts e agentes.
  • Opik Guardrails: recursos para ajudar a implementar práticas de IA seguras e responsáveis.

Principais capacidades incluem:

  • Desenvolvimento & Rastreamento:

    • Rastreie todas as chamadas LLM e traces com contexto detalhado durante o desenvolvimento e em produção (Quickstart).
    • Integrações extensas de terceiros para observabilidade: integre facilmente com uma lista crescente de frameworks, suportando muitos dos maiores e mais populares nativamente (incluindo adições recentes como Google ADK, Autogen e Flowise AI). (Integrations)
    • Anote traces e spans com pontuações de feedback via o Python SDK ou a UI.
    • Experimente prompts e modelos no Prompt Playground.
  • Avaliação & Testes:

  • Monitoramento de Produção & Otimização:

    • Faça log de grandes volumes de traces de produção: o Opik é projetado para escala (40M+ traces/dia).
    • Monitore pontuações de feedback, contagem de traces e uso de tokens ao longo do tempo no Painel Opik.
    • Utilize Regras de Avaliação Online com métricas de LLM-como-juiz para identificar problemas em produção.
    • Utilize o Opik Agent Optimizer e o Opik Guardrails para melhorar continuamente e proteger suas aplicações LLM em produção.

[!TIP] Se você está procurando recursos que o Opik ainda não oferece, por favor abra uma nova solicitação de recurso 🚀

<a id="%EF%B8%8F-instala%C3%A7%C3%A3o-do-servidor-opik"></a>

🛠️ Instalação do Servidor Opik

Coloque seu servidor Opik em funcionamento em minutos. Escolha a opção que melhor atende às suas necessidades:

Opção 1: Comet.com Cloud (Mais fácil e recomendado)

Acesse o Opik instantaneamente sem qualquer configuração. Ideal para começar rápido e sem manutenção.

👉 Crie sua conta gratuita na Comet

Opção 2: Hospede o Opik para ter Controle Total

Implemente o Opik em seu próprio ambiente. Escolha entre Docker para setups locais ou Kubernetes para escalabilidade.

Self-Hosting com Docker Compose (para Desenvolvimento Local e Testes)

Esta é a forma mais simples de obter uma instância local do Opik em execução. Observe o novo script de instalação ./opik.sh:

No ambiente Linux ou Mac:

bash
# Clone o repositório Opik
git clone https://github.com/comet-ml/opik.git

# Navegue até o repositório
cd opik

# Inicie a plataforma Opik
./opik.sh

No ambiente Windows:

powershell
# Clone o repositório Opik
git clone https://github.com/comet-ml/opik.git

# Navegue até o repositório
cd opik

# Inicie a plataforma Opik
powershell -ExecutionPolicy ByPass -c ".\\opik.ps1"

Perfis de serviço para desenvolvimento

O script de instalação do Opik agora suporta perfis de serviço para diferentes cenários de desenvolvimento:

bash
# Iniciar suíte completa do Opik (comportamento padrão)
./opik.sh

# Iniciar apenas serviços de infraestrutura (bancos de dados, caches etc.)
./opik.sh --infra

# Iniciar infraestrutura + serviços backend
./opik.sh --backend

# Habilitar guardrails com qualquer perfil
./opik.sh --guardrails # Guardrails com a suíte completa do Opik
./opik.sh --backend --guardrails # Guardrails com infraestrutura + backend

Use as opções --help ou --info para solucionar problemas. Os Dockerfiles agora garantem que os containers sejam executados como usuários não-root para maior segurança. Quando tudo estiver em execução, acesse localhost:5173 no seu navegador! Para instruções detalhadas, veja o Guia de Implantação Local.

Self-Hosting com Kubernetes & Helm (para Implantações Escaláveis)

Para implantações de produção ou em maior escala, o Opik pode ser instalado em um cluster Kubernetes usando nosso chart Helm. Clique no badge para o Guia de Instalação Kubernetes via Helm.

[!IMPORTANT] Versão 1.7.0 — Alterações: Verifique o changelog para atualizações importantes e mudanças que quebram compatibilidade.

<a id="-sdk-cliente-opik"></a>

💻 SDK Cliente Opik

O Opik fornece um conjunto de bibliotecas cliente e uma API REST para interagir com o servidor Opik. Isso inclui SDKs para Python, TypeScript e Ruby (via OpenTelemetry), permitindo integração fluida em seus fluxos de trabalho. Para referências de API e SDK, consulte a Documentação de Referência do Cliente Opik.

Início Rápido com o SDK Python

Para começar com o SDK Python:

Instale o pacote:

bash
# instalar usando pip
pip install opik

# ou instalar com uv
uv pip install opik

Configure o SDK Python executando o comando opik configure, que solicitará o endereço do servidor Opik (para instâncias self-hosted) ou sua chave de API e workspace (para Comet.com):

bash
opik configure

[!TIP] Você também pode chamar opik.configure(use_local=True) do seu código Python para configurar o SDK para execução local self-hosted, ou fornecer a chave de API e workspace diretamente para Comet.com. Consulte a documentação do SDK Python para mais opções de configuração.

Agora você está pronto para começar a registrar traces usando o SDK Python.

<a id="-registro-de-traces-com-integra%C3%A7%C3%B5es"></a>

📝 Registro de Traces com Integrações

A maneira mais fácil de registrar traces é usar uma de nossas integrações diretas. O Opik suporta uma ampla gama de frameworks, incluindo adições recentes como Google ADK, Autogen, AG2 e Flowise AI:

IntegraçãoDescriçãoDocumentação
ADKRegistra traces para Google Agent Development Kit (ADK)Documentação
AG2Registra traces para chamadas LLM do AG2Documentação
Agent SpecRegistra traces para chamadas do Agent SpecDocumentação
AIsuiteRegistra traces para chamadas LLM do AIsuiteDocumentação
AgnoRegistra traces para chamadas do framework de orquestração AgnoDocumentação
AnthropicRegistra traces para chamadas LLM da AnthropicDocumentação
AutogenRegistra traces para fluxos de trabalho agentic do AutogenDocumentação
BedrockRegistra traces para chamadas LLM do Amazon BedrockDocumentação
BeeAI (Python)Registra traces para chamadas do framework de agentes BeeAI (Python)Documentação
BeeAI (TypeScript)Registra traces para chamadas do framework de agentes BeeAI (TS)Documentação
BytePlusRegistra traces para chamadas LLM do BytePlusDocumentação
Cloudflare Workers AIRegistra traces para chamadas do Cloudflare Workers AIDocumentação
CohereRegistra traces para chamadas LLM da CohereDocumentação
CrewAIRegistra traces para chamadas do CrewAIDocumentação
CursorRegistra traces para conversas do CursorDocumentação
DeepSeekRegistra traces para chamadas LLM do DeepSeekDocumentação
DifyRegistra traces para execuções de agentes do DifyDocumentação
DSPYRegistra traces para execuções do DSPyDocumentação
Fireworks AIRegistra traces para chamadas LLM do Fireworks AIDocumentação
Flowise AIRegistra traces para o construtor visual Flowise AIDocumentação
Gemini (Python)Registra traces para chamadas LLM do Google GeminiDocumentação
Gemini (TypeScript)Registra traces para chamadas do SDK TypeScript do Google GeminiDocumentação
GroqRegistra traces para chamadas LLM do GroqDocumentação
GuardrailsRegistra traces para validações do Guardrails AIDocumentação
HaystackRegistra traces para chamadas do HaystackDocumentação
HarborRegistra traces para avaliações de benchmark do HarborDocumentação
InstructorRegistra traces para chamadas LLM feitas com InstructorDocumentação
LangChain (Python)Registra traces para chamadas LLM do LangChainDocumentação
LangChain (JS/TS)Registra traces para chamadas do LangChain em JavaScript/TypeScriptDocumentação
LangGraphRegistra traces para execuções do LangGraphDocumentação
LangflowRegistra traces para o construtor visual LangflowDocumentação
LiteLLMRegistra traces para chamadas de modelos via LiteLLMDocumentação
LiveKit AgentsRegistra traces para chamadas do framework de agentes LiveKitDocumentação
LlamaIndexRegistra traces para chamadas LLM do LlamaIndexDocumentação
MastraRegistra traces para chamadas do framework de workflows MastraDocumentação
Microsoft Agent Framework (Python)Registra traces para chamadas do Microsoft Agent FrameworkDocumentação
Microsoft Agent Framework (.NET)Registra traces para chamadas .NET do Microsoft Agent FrameworkDocumentação
Mistral AIRegistra traces para chamadas LLM do Mistral AIDocumentação
n8nRegistra traces para execuções de workflows n8nDocumentação
Novita AIRegistra traces para chamadas LLM do Novita AIDocumentação
OllamaRegistra traces para chamadas LLM do OllamaDocumentação
OpenAI (Python)Registra traces para chamadas LLM da OpenAIDocumentação
OpenAI (JS/TS)Registra traces para chamadas da OpenAI em JavaScript/TypeScriptDocumentação
OpenAI AgentsRegistra traces para chamadas do SDK OpenAI AgentsDocumentação
OpenClawRegistra traces para execuções de agentes OpenClawDocumentação
OpenRouterRegistra traces para chamadas LLM do OpenRouterDocumentação
OpenTelemetryRegistra traces para chamadas compatíveis com OpenTelemetryDocumentação
OpenWebUIRegistra traces para conversas no OpenWebUIDocumentação
PipecatRegistra traces para chamadas de agentes de voz em tempo real do PipecatDocumentação
PredibaseRegistra traces para chamadas LLM do PredibaseDocumentação
Pydantic AIRegistra traces para chamadas de agentes PydanticAIDocumentação
RagasRegistra traces para avaliações RagasDocumentação
Semantic KernelRegistra traces para chamadas do Microsoft Semantic KernelDocumentação
SmolagentsRegistra traces para agentes SmolagentsDocumentação
Spring AIRegistra traces para chamadas do framework Spring AIDocumentação
Strands AgentsRegistra traces para chamadas de agentes StrandsDocumentação
Together AIRegistra traces para chamadas LLM do Together AIDocumentação
Vercel AI SDKRegistra traces para chamadas via Vercel AI SDKDocumentação
VoltAgentRegistra traces para chamadas do framework de agentes VoltAgentDocumentação
WatsonXRegistra traces para chamadas LLM do IBM watsonxDocumentação
xAI GrokRegistra traces para chamadas LLM do xAI GrokDocumentação

[!TIP] Se o framework que você está usando não estiver na lista, sinta-se à vontade para abrir uma issue ou enviar um PR com a integração.

Se você não estiver usando nenhum dos frameworks acima, também pode usar o decorador track para registrar traces:

python
import opik

opik.configure(use_local=True) # Executar localmente

@opik.track
def my_llm_function(user_question: str) -> str:
    # Seu código LLM aqui

    return "Hello"

[!TIP] O decorador track pode ser usado em conjunto com qualquer uma de nossas integrações e também pode ser usado para rastrear chamadas de função aninhadas.

<a id="-m%C3%A9tricas-llm-como-juiz"></a>

🧑‍⚖️ Métricas LLM como Juiz

O SDK Python do Opik inclui diversas métricas LLM-como-juiz para ajudá-lo a avaliar sua aplicação LLM. Saiba mais na documentação de métricas.

Para usá-las, importe a métrica relevante e use a função score:

python
from opik.evaluation.metrics import Hallucination

metric = Hallucination()
score = metric.score(
    input="Qual é a capital da França?",
    output="Paris",
    context=["A França é um país na Europa."]
)
print(score)

O Opik também inclui diversas métricas heurísticas pré-construídas, além da possibilidade de criar suas próprias. Saiba mais na documentação de métricas.

<a id="-avaliando-sua-aplica%C3%A7%C3%A3o-llm"></a>

🔍 Avaliando sua Aplicação LLM

O Opik permite avaliar sua aplicação LLM durante o desenvolvimento por meio de Datasets e Experimentos. O Painel Opik oferece gráficos aprimorados para experimentos e melhor manuseio de traces grandes. Você também pode executar avaliações como parte do seu pipeline CI/CD usando nossa integração PyTest.

<a id="-d%C3%AA-nos-uma-estrela-no-github"></a>

⭐ Dê-nos uma estrela no GitHub

Se você achar o Opik útil, considere nos dar uma estrela! Seu apoio nos ajuda a crescer nossa comunidade e continuar melhorando o produto.

<a id="-contribuir"></a>

🤝 Contribuir

Há muitas maneiras de contribuir com o Opik:

Para saber mais sobre como contribuir com o Opik, veja nossas diretrizes de contribuição.