Back to Langfuse

README.Kr

README.kr.md

3.172.134.6 KB
Original Source

<div align="center"> <div> <h3> <a href="https://langfuse.com/kr"> <strong>🇰🇷 🤝 🪢</strong> </a> · <a href="https://cloud.langfuse.com"> <strong>Langfuse Cloud</strong> </a> · <a href="https://langfuse.com/docs/deployment/self-host"> <strong>셀프 호스트</strong> </a> · <a href="https://langfuse.com/demo"> <strong>데모</strong> </a> </h3> </div> <div> <a href="https://langfuse.com/docs"><strong>문서</strong></a> · <a href="https://langfuse.com/issues"><strong>버그 신고</strong></a> · <a href="https://langfuse.com/ideas"><strong>기능 요청</strong></a> · <a href="https://langfuse.com/changelog"><strong>변경 내역</strong></a> · <a href="https://langfuse.com/roadmap"><strong>로드맵</strong></a> · </div>

<span>Langfuse는 지원 및 기능 요청을 위해 <a href="https://github.com/orgs/langfuse/discussions"><strong>GitHub Discussions</strong></a>를 사용합니다.</span>

<span><b>채용 중입니다.</b> <a href="https://langfuse.com/careers"><strong>함께 하세요</strong></a> – 제품 엔지니어링 및 기술 go-to-market 역할의 인재를 찾고 있습니다.</span>

<div> </div> </div> <p align="center"> <a href="https://github.com/langfuse/langfuse/blob/main/LICENSE"> </a> <a href="https://www.ycombinator.com/companies/langfuse"></a> <a href="https://hub.docker.com/u/langfuse" target="_blank"> </a> <a href="https://pypi.python.org/pypi/langfuse"></a> <a href="https://www.npmjs.com/package/langfuse"></a> <a href="https://discord.com/invite/7NXusRtqYU" target="_blank"> </a> <a href="https://twitter.com/intent/follow?screen_name=langfuse" target="_blank"> </a> <a href="https://www.linkedin.com/company/langfuse/" target="_blank"> </a> <a href="https://github.com/langfuse/langfuse/graphs/commit-activity" target="_blank"> </a> <a href="https://github.com/langfuse/langfuse/" target="_blank"> </a> <a href="https://github.com/langfuse/langfuse/discussions/" target="_blank"> </a> </p> <p align="center"> <a href="./README.md"></a> <a href="./README.cn.md"></a> <a href="./README.ja.md"></a> <a href="./README.kr.md"></a> </p>

Langfuse는 오픈 소스 LLM 엔지니어링 플랫폼입니다.
팀이 협업하여 AI 애플리케이션을 개발, 모니터링, 평가디버그할 수 있도록 도와줍니다.
Langfuse는 몇 분 안에 셀프 호스팅할 수 있으며, 검증된(battle-tested) 솔루션입니다.

✨ 주요 기능

  • LLM 애플리케이션 관측
    앱에 계측(instrumentation)을 추가하여 Langfuse로 trace 데이터를 수집함으로써, 검색, 임베딩, 또는 에이전트 동작과 같은 LLM 호출 및 기타 관련 로직을 추적할 수 있습니다. 복잡한 로그와 사용자 세션을 확인 및 디버깅 해보세요. 인터랙티브 데모를 통해 실제 작동 예를 확인할 수 있습니다.

  • 프롬프트 관리
    프롬프트를 중앙에서 관리하고 버전 관리하며 협업으로 수정할 수 있도록 도와줍니다. 서버와 클라이언트 측의 강력한 캐싱 덕분에 애플리케이션에 지연(latency)을 추가하지 않고도 프롬프트를 반복 개선할 수 있습니다.

  • 평가
    LLM 애플리케이션 개발 워크플로우에서 핵심적인 역할을 하며, Langfuse는 여러분의 필요에 맞게 유연하게 대응합니다. LLM을 심사자로 활용하는 기능, 사용자 피드백 수집, 수동 라벨링 및 API/SDK를 통한 맞춤 평가 파이프라인을 지원합니다.

  • 데이터셋
    LLM 애플리케이션 평가를 위한 테스트 세트와 벤치마크를 제공하여, 지속적인 개선, 배포 전 테스트, 구조화된 실험, 유연한 평가 및 LangChain과 LlamaIndex와 같은 프레임워크와의 원활한 통합을 지원합니다.

  • LLM 플레이그라운드
    프롬프트와 모델 구성에 대해 테스트 및 반복 개선할 수 있는 도구로, 피드백 루프를 단축하여 개발 속도를 높여줍니다. trace에서 이상한 결과가 발생하면 플레이그라운드로 바로 이동해 개선할 수 있습니다.

  • 종합 API
    Langfuse는 API를 통해 제공되는 구성 요소들을 활용하여 맞춤형 LLMOps 워크플로우를 강화하는 데 자주 사용됩니다. OpenAPI 명세, Postman 컬렉션, Python 및 JS/TS용 타입드 SDK가 제공됩니다.

📦 Langfuse 배포

Langfuse Cloud

Langfuse 팀이 관리하는 배포 방식으로, 후한 무료 플랜(취미 플랜)을 제공하며 신용카드가 필요하지 않습니다.

<div align="center"> <a href="https://cloud.langfuse.com" target="_blank">
</a>
</div>

Langfuse 셀프 호스트

자체 인프라에서 Langfuse를 실행하세요:

  • 로컬 (docker compose): Docker Compose를 사용하여 본인의 컴퓨터에서 5분 안에 Langfuse를 실행할 수 있습니다.

    bash
    # 최신 Langfuse 저장소 클론
    git clone https://github.com/langfuse/langfuse.git
    cd langfuse
    
    # langfuse docker compose 실행
    docker compose up
    
  • Kubernetes (Helm): Helm을 사용해 Kubernetes 클러스터에서 Langfuse를 실행합니다. 이는 권장되는 프로덕션 배포 방식입니다.

  • VM: Docker Compose를 사용해 단일 가상 머신에서 Langfuse를 실행합니다.

  • Terraform 템플릿: AWS, Azure, GCP

자세한 내용은 자체 호스팅 문서를 참조하세요.

🔌 통합 기능

주요 통합:

통합지원설명
SDKPython, JS/TSSDK를 사용하여 완전한 유연성을 갖춘 수동 계측(manual instrumentation)을 수행합니다.
OpenAIPython, JS/TSOpenAI SDK의 드롭인 대체(drop-in replacement)를 통해 자동 계측(automated instrumentation)을 수행합니다.
LangchainPython, JS/TSLangchain 애플리케이션에 callback 핸들러를 전달하여 자동 계측합니다.
LlamaIndexPythonLlamaIndex 콜백 시스템을 통한 자동 계측을 지원합니다.
HaystackPythonHaystack 콘텐츠 추적 시스템을 통한 자동 계측을 지원합니다.
LiteLLMPython, JS/TS (proxy only)GPT의 드롭인 대체품으로 어떤 LLM도 사용할 수 있습니다. Azure, OpenAI, Cohere, Anthropic, Ollama, VLLM, Sagemaker, HuggingFace, Replicate 등 100개 이상의 LLM 지원.
Vercel AI SDKJS/TSReact, Next.js, Vue, Svelte, Node.js와 함께 AI 기반 애플리케이션 구축을 돕는 TypeScript 툴킷입니다.
API공개 API를 직접 호출합니다. OpenAPI 명세가 제공됩니다.

Langfuse와 통합된 패키지:

이름유형설명
Instructor라이브러리구조화된 LLM 출력을(JSON, Pydantic) 얻기 위한 라이브러리입니다.
DSPy라이브러리언어 모델 프롬프트와 가중치를 체계적으로 최적화하는 프레임워크입니다.
Mirascope라이브러리LLM 애플리케이션 구축을 위한 Python 툴킷입니다.
Ollama모델 (로컬)자신의 컴퓨터에서 오픈 소스 LLM을 손쉽게 실행할 수 있습니다.
Amazon Bedrock모델AWS에서 기본 및 파인튜닝된 모델을 실행합니다.
Google VertexAI and Gemini모델Google에서 기본 및 파인튜닝된 모델을 실행합니다.
AutoGen에이전트 프레임워크분산 에이전트 구축을 위한 오픈 소스 LLM 플랫폼입니다.
Flowise채팅/에이전트 UI맞춤형 LLM 플로우를 위한 JS/TS 코드 없는(no-code) 빌더입니다.
Langflow채팅/에이전트 UIreact-flow를 활용하여 실험 및 프로토타이핑을 손쉽게 할 수 있도록 디자인된 LangChain용 Python 기반 UI입니다.
Dify채팅/에이전트 UI코드 없는 빌더와 함께 제공되는 오픈 소스 LLM 애플리케이션 개발 플랫폼입니다.
OpenWebUI채팅/에이전트 UI셀프 호스팅 및 로컬 모델 등 다양한 LLM 실행기를 지원하는 셀프 호스팅 LLM 채팅 웹 UI입니다.
Promptfoo도구오픈 소스 LLM 테스트 플랫폼입니다.
LobeChat채팅/에이전트 UI오픈 소스 챗봇 플랫폼입니다.
Vapi플랫폼오픈 소스 음성 AI 플랫폼입니다.
Inferable에이전트분산 에이전트 구축을 위한 오픈 소스 LLM 플랫폼입니다.
Gradio채팅/에이전트 UI채팅 UI와 같은 웹 인터페이스 구축을 위한 오픈 소스 Python 라이브러리입니다.
Goose에이전트분산 에이전트 구축을 위한 오픈 소스 LLM 플랫폼입니다.
smolagents에이전트오픈 소스 AI 에이전트 프레임워크입니다.
CrewAI에이전트에이전트 간 협업 및 도구 사용을 위한 다중 에이전트 프레임워크입니다.

🚀 빠른 시작

앱에 계측을 추가하고 Langfuse에 trace 데이터를 수집하여, LLM 호출 및 검색, 임베딩, 에이전트 동작과 같은 애플리케이션 로직을 추적해보세요. 복잡한 로그와 사용자 세션을 확인하여 디버깅할 수 있습니다.

1️⃣ 새 프로젝트 생성

  1. Langfuse 계정 생성 또는 셀프 호스트
  2. 새 프로젝트를 생성합니다.
  3. 프로젝트 설정에서 새로운 API 자격 증명을 생성합니다.

2️⃣ 첫 번째 LLM 호출 기록하기

@observe() 데코레이터를 사용하면 Python LLM 애플리케이션의 추적이 매우 간편해집니다. 이 빠른 시작 예제에서는 Langfuse OpenAI 통합을 사용하여 모든 모델 파라미터를 자동으로 캡처합니다.

[!TIP] OpenAI를 사용하지 않으시다면, 다른 모델 및 프레임워크의 로그 기록 방법은 문서를 참조하세요.

bash
pip install langfuse openai
bash
LANGFUSE_SECRET_KEY="sk-lf-..."
LANGFUSE_PUBLIC_KEY="pk-lf-..."
LANGFUSE_BASE_URL="https://cloud.langfuse.com" # 🇪🇺 EU region
# LANGFUSE_BASE_URL="https://us.cloud.langfuse.com" # 🇺🇸 US region
python:main.py
from langfuse import observe
from langfuse.openai import openai # OpenAI integration

@observe()
def story():
    return openai.chat.completions.create(
        model="gpt-4o",
        messages=[{"role": "user", "content": "What is Langfuse?"}],
    ).choices[0].message.content

@observe()
def main():
    return story()

main()

3️⃣ Langfuse에서 trace 확인하기

Langfuse에서 LLM 호출 및 애플리케이션의 기타 로직에 대한 trace를 확인할 수 있습니다.

Langfuse의 공개 예제 trace

[!TIP]

Langfuse의 trace에 대해 더 알아보거나 인터랙티브 데모에서 직접 체험해보세요.

⭐️ 별을 눌러주세요

💭 지원

질문에 대한 답변을 찾는 방법:

  • 우리의 문서는 답을 찾기 위한 최적의 장소입니다. 문서가 매우 포괄적이며, 유지보수에 많은 노력을 기울이고 있습니다. GitHub를 통해 문서 수정 제안도 가능합니다.
  • Langfuse FAQ에서는 가장 흔한 질문에 대해 답변하고 있습니다.
  • 질문에 즉각적인 답변이 필요하다면 Ask AI를 사용해보세요.

지원 채널:

  • GitHub Discussions의 공개 Q&A 에 질문을 남겨주세요. 가능한 한 많은 세부 사항(예: 코드 스니펫, 스크린샷, 배경 정보)을 포함해 질문해 주시기 바랍니다.
  • 기능 요청을 남겨주세요.
  • 버그 신고는 GitHub Issues를 통해 해주세요.
  • 긴급한 문의는 앱 내 채팅 위젯을 통해 연락 바랍니다.

🤝 기여하기

여러분의 기여를 환영합니다!

  • GitHub Discussions의 아이디어에 투표해보세요.
  • GitHub Issues에서 이슈를 제기하고 댓글을 남겨주세요.
  • PR을 제출하세요 – 개발 환경 설정 방법 등 자세한 내용은 CONTRIBUTING.md를 참조하세요.

🥇 라이선스

이 저장소는 ee 폴더를 제외하고 MIT 라이선스가 적용됩니다. 자세한 내용은 LICENSE문서를 확인하세요.

⭐️ 별(Star) 히스토리

<a href="https://star-history.com/#langfuse/langfuse&Date"> <picture> <source media="(prefers-color-scheme: dark)" srcset="https://api.star-history.com/svg?repos=langfuse/langfuse&type=Date&theme=dark" /> <source media="(prefers-color-scheme: light)" srcset="https://api.star-history.com/svg?repos=langfuse/langfuse&type=Date" /> </picture> </a>

❤️ Langfuse를 사용하는 오픈 소스 프로젝트

별(star) 수를 기준으로 순위가 매겨진 Langfuse를 사용하는 상위 오픈 소스 Python 프로젝트들 (출처):

저장소
  langgenius / dify54865
  open-webui / open-webui51531
  lobehub / lobe-chat49003
  langflow-ai / langflow39093
  run-llama / llama_index37368
  danny-avila / LibreChat33142
  chatchat-space / Langchain-Chatchat32486
  FlowiseAI / Flowise32448
  mindsdb / mindsdb26931
  twentyhq / twenty24195
  PostHog / posthog22618
  BerriAI / litellm15151
  mediar-ai / screenpipe11037
  formbricks / formbricks9386
  anthropics / courses8385
  GreyDGL / PentestGPT7374
  superagent-ai / superagent5391
  promptfoo / promptfoo4976
  onlook-dev / onlook4141
  Canner / WrenAI2526
  pingcap / autoflow2061
  MLSysOps / MLE-agent1161
  open-webui / pipelines1100
  alishobeiri / thread1074
  topoteretes / cognee971
  bRAGAI / bRAG-langchain823
  opslane / opslane677
  dynamiq-ai / dynamiq639
  theopenconversationkit / tock514
  andysingal / llm-course394
  phospho-app / phospho384
  sentient-engineering / agent-q370
  sql-agi / DB-GPT324
  PostHog / posthog-foss305
  vespperhq / vespper304
  block / goose295
  aorwall / moatless-tools291
  dmayboroda / minima221
  RobotecAI / rai172
  i-am-alice / 3rd-devs148
  8090-inc / xrx-sample-apps138
  babelcloud / LLM-RGB135
  souzatharsis / tamingLLMs129
  deepset-ai / haystack-core-integrations126

🔒 보안 & 개인정보 보호

우리는 데이터 보안과 개인정보 보호를 매우 중요하게 생각합니다. 자세한 내용은 Security and Privacy 페이지를 참조하세요.

텔레메트리

기본적으로 Langfuse는 자체 호스팅 인스턴스의 기본 사용 통계를 중앙 서버(PostHog)로 자동 보고합니다.

이를 통해:

  1. Langfuse가 어떻게 사용되는지 이해하고, 가장 관련성 높은 기능을 개선할 수 있습니다.
  2. 내부 및 외부(예: 자금 조달) 보고를 위한 전체 사용량을 추적할 수 있습니다.

텔레메트리에는 원시 traces, prompts, observations, scores 또는 데이터셋 내용이 포함되지 않습니다. 수집되는 정확한 필드, 전송 대상, 그리고 구현 참조는 텔레메트리 문서에 문서화되어 있습니다.

Langfuse OSS에서는 환경 변수 TELEMETRY_ENABLED=false를 설정하여 옵트아웃할 수 있습니다.