docs/README.Korean.md
참고
이 README는 GPT 번역으로 생성되었습니다 (이 프로젝트의 플러그인에 의해 구현됨) . 100% 신뢰할 수 없으므로 번역 결과를 주의 깊게 검토하십시오.
2023.11.7: 종속성을 설치할 때,
requirements.txt에 지정된 버전을 선택하십시오. 설치 명령어:pip install -r requirements.txt.
이 프로젝트가 마음에 드신다면, Star를 부탁드립니다. 편리한 단축키나 플러그인을 발견하셨다면 Pull Request를 환영합니다!
GPT를 사용하여 이 프로젝트를 임의의 언어로 번역하려면 multi_language.py를 읽고 실행하십시오 (실험적).
참고
강조 표시된 플러그인 (버튼)만 파일을 읽을 수 있습니다. 일부 플러그인은 플러그인 영역의 드롭다운 메뉴에 있습니다. 또한 새로운 플러그인에 대한 모든 PR을 환영하며, 이를 가장 우선적으로 처리합니다.
이 프로젝트의 각 파일의 기능은 자체 분석 보고서
self_analysis.md에서 자세히 설명되어 있습니다. 버전이 반복됨에 따라, 관련 기능 플러그인을 언제든지 클릭하여 GPT를 호출하여 프로젝트의 자체 분석 보고서를 다시 생성할 수 있습니다. 자주 묻는 질문은위키를 참조하십시오. 일반적인 설치 방법 | 원클릭 설치 스크립트 | 설정 설명서
<div align="center">
- 이 프로젝트는 ChatGLM 등 대형 언어 모델 (ChatGLM 등) 실행을 지원하고 권장합니다. 여러 개의 API 키를 동시에 사용할 수 있으며, 구성 파일에
API_KEY="openai-key1,openai-key2,azure-key3,api2d-key4"와 같이 입력할 수 있습니다.API_KEY를 일시적으로 변경해야 하는 경우, 입력 영역에 임시API_KEY를 입력한 다음 Enter 키를 누르면 적용됩니다.
| 기능 (⭐= 최근 추가 기능) | 설명 |
|---|---|
| ⭐새 모델 추가! | Baidu Qianfan와 Wenxin Yiyan, Tongyi Qianwen, Shanghai AI-Lab Shusheng, Xunfei Star, LLaMa2, Zhipu API, DALLE3 |
| 문체 개선, 번역, 코드 설명 | 일괄적인 문체 개선, 번역, 논문 문법 오류 탐색, 코드 설명 |
| 사용자 정의 단축키 | 사용자 정의 단축키 지원 |
| 모듈화 설계 | 사용자 정의 가능한 강력한 플러그인 지원, 플러그인 지원 핫 업데이트 |
| 프로그램 분석 | [플러그인] 한 번에 Python/C/C++/Java/Lua/... 프로젝트 트리를 분석하거나 자체 분석 |
| 논문 읽기, 논문 번역 | [플러그인] LaTeX/PDF 논문 전문을 읽고 요약 생성 |
| LaTeX 전체 번역, 개선 | [플러그인] LaTeX 논문 번역 또는 개선 |
| 일괄 주석 생성 | [플러그인] 함수 주석 일괄 생성 |
| Markdown 한 / 영 번역 | 위의 5개 언어로 작성된 README를 살펴보셨나요? |
| 채팅 분석 보고서 생성 | [플러그인] 실행 후 요약 보고서 자동 생성 |
| PDF 논문 전체 번역 기능 | [플러그인] PDF 논문 제목 및 요약 추출 + 전체 번역 (멀티 스레드) |
| Arxiv 도우미 | [플러그인] arxiv 논문 url 입력시 요약 번역 + PDF 다운로드 |
| LaTeX 논문 일괄 교정 | [플러그인] Grammarly를 모사하여 LaTeX 논문에 대한 문법 및 맞춤법 오류 교정 + 대조 PDF 출력 |
| Google 학술 통합 도우미 | 임의의 Google 학술 검색 페이지 URL을 지정하여 gpt가 related works를 작성하게 해주세요. |
| 인터넷 정보 집계 + GPT | [플러그인] 인터넷에서 정보를 가져와서 질문에 대답하도록 GPT를 자동화하세요. 정보가 절대로 오래되지 않도록 해줍니다. |
| ⭐Arxiv 논문 세심한 번역 (Docker) | [플러그인] arxiv 논문을 고품질 번역으로 번역하는 최고의 도구 |
| ⭐실시간 음성 대화 입력 | [플러그인] 비동기적으로 오디오를 모니터링하여 문장을 자동으로 분절하고 대답 시기를 자동으로 찾습니다. |
| 수식/이미지/표 표시 | tex 형식 및 렌더링 형식의 수식을 동시에 표시하며, 수식 및 코드 하이라이트 지원 |
| ⭐AutoGen multi-agent 플러그인 | [플러그인] Microsoft AutoGen을 활용하여 여러 개의 에이전트가 지능적으로 발생하는 가능성을 탐색하세요! |
| 다크 모드 주제 지원 | 브라우저의 URL 뒤에 /?__theme=dark를 추가하여 다크 모드로 전환하세요. |
| 다양한 LLM 모델 지원 | GPT3.5, GPT4, Tsinghua ChatGLM2, Fudan MOSS을 함께 사용하는 느낌은 좋을 것입니다, 그렇지 않습니까? |
| ⭐ChatGLM2 fine-tuned 모델 | ChatGLM2 fine-tuned 모델 로드를 지원하며, ChatGLM2 fine-tuned 보조 플러그인 제공 |
| 더 많은 LLM 모델 연결, huggingface 배포 지원 | Newbing 인터페이스(신 밍), Tsinghua Jittorllms 도입, LLaMA와 Pangu-alpha를 지원합니다. |
| ⭐void-terminal 패키지 | GUI에서 독립, Python에서 이 프로젝트의 모든 함수 플러그인을 직접 호출 (개발 중) |
| ⭐Void 터미널 플러그인 | [플러그인] 자연어로 이 프로젝트의 다른 플러그인을 직접 영속합니다. |
| 기타 새로운 기능 소개 (이미지 생성 등) …… | 본 문서 맨 끝 참조 …… |
config.py의 LAYOUT 옵션 수정으로 "왼쪽-오른쪽 레이아웃"과 "위-아래 레이아웃"을 전환할 수 있음)git clone --depth=1 https://github.com/binary-husky/gpt_academic.git
cd gpt_academic
In config.py, configure the API KEY and other settings, click here to view special network environment configuration methods. Wiki page。
" The program will first check if there is a confidential configuration file named config_private.py and use its configuration to override the configuration with the same name in config.py. If you can understand this reading logic, we strongly recommend that you create a new configuration file named config_private.py next to config.py and move (copy) the configuration from config.py to config_private.py (only copy the modified configuration items). "
" You can configure the project through environment variables. The format of the environment variables can be found in the docker-compose.yml file or our Wiki page. The priority of the configuration reading is: environment variables > config_private.py > config.py. "
# (Option I: if familiar with python, python>=3.9) Note: Use the official pip source or Aliyun pip source. Temporary switching source method: python -m pip install -r requirements.txt -i https://mirrors.aliyun.com/pypi/simple/
python -m pip install -r requirements.txt
# (Option II: using Anaconda) The steps are similar (https://www.bilibili.com/video/BV1rc411W7Dr):
conda create -n gptac_venv python=3.11 # Create an Anaconda environment
conda activate gptac_venv # Activate the Anaconda environment
python -m pip install -r requirements.txt # This step is the same as the pip installation step
[Optional Step] If you need support for Tsinghua ChatGLM2/Fudan MOSS as the backend, you need to install additional dependencies (Prerequisites: Familiar with Python + Have used Pytorch + Sufficient computer configuration):
# [Optional Step I] Support for Tsinghua ChatGLM2. Note for Tsinghua ChatGLM: If you encounter the error "Call ChatGLM fail cannot load ChatGLM parameters", refer to the following: 1: The default installation above is torch+cpu version. To use cuda, uninstall torch and reinstall torch+cuda; 2: If you cannot load the model due to insufficient computer configuration, you can modify the model precision in request_llm/bridge_chatglm.py, change AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True) to AutoTokenizer.from_pretrained("THUDM/chatglm-6b-int4", trust_remote_code=True)
python -m pip install -r request_llms/requirements_chatglm.txt
# [Optional Step II] Support for Fudan MOSS
python -m pip install -r request_llms/requirements_moss.txt
git clone --depth=1 https://github.com/OpenLMLab/MOSS.git request_llms/moss # When executing this line of code, make sure you are in the project root path
# [Optional Step III] Support for RWKV Runner
Refer to the wiki: https://github.com/binary-husky/gpt_academic/wiki/%E9%80%82%E9%85%8DRWKV-Runner
# [Optional Step IV] Make sure that the AVAIL_LLM_MODELS in the config.py configuration file includes the expected models. The currently supported models are as follows (the jittorllms series only supports the docker solution):
AVAIL_LLM_MODELS = ["gpt-3.5-turbo", "api2d-gpt-3.5-turbo", "gpt-4", "api2d-gpt-4", "chatglm", "moss"] # + ["jittorllms_rwkv", "jittorllms_pangualpha", "jittorllms_llama"]
python main.py
# Modify docker-compose.yml, keep scheme 0 and delete the others. Then run:
docker-compose up
# Modify docker-compose.yml, keep scheme 1 and delete the others. Then run:
docker-compose up
P.S. If you need the Latex plugin feature, please refer to the Wiki. Additionally, you can also use scheme 4 or scheme 0 directly to get the Latex feature.
# Modify docker-compose.yml, keep scheme 2 and delete the others. Then run:
docker-compose up
One-click run script for Windows. Windows users who are completely unfamiliar with the Python environment can download the one-click run script without local models from the Release section. The script contribution comes from oobabooga.
Use third-party APIs, Azure, etc., Random Quotes, Spark, etc., see the Wiki page.
Pitfall guide for remote deployment on cloud servers. Please visit the cloud server remote deployment wiki
Some new deployment platforms or methods
http://localhost/subpath). Please refer to FastAPI running instructions임의의 텍스트 편집기로 core_functional.py 파일을 열고 다음과 같은 항목을 추가한 다음 프로그램을 다시 시작하십시오. (이미 버튼이 있는 경우에는 접두사와 접미사를 실시간으로 수정할 수 있으므로 프로그램을 다시 시작할 필요가 없습니다.)
예시:
"초급영문 번역": {
# 접두사, 입력 내용 앞에 추가됩니다. 예를 들어 요구 사항을 설명하는 데 사용됩니다. 예를 들어 번역, 코드 설명, 교정 등
"Prefix": "다음 내용을 한국어로 번역하고 전문 용어에 대한 설명을 적용한 마크다운 표를 사용하세요:\n\n",
# 접미사, 입력 내용 뒤에 추가됩니다. 예를 들어 접두사와 함께 입력 내용을 따옴표로 감쌀 수 있습니다.
"Suffix": "",
},
원하는 작업을 수행하기 위해 능력있는 함수 플러그인을 작성하세요. 이 프로젝트의 플러그인 작성 및 디버깅은 난이도가 낮으며, 일정한 Python 기본 지식만 있으면 우리가 제공하는 템플릿을 본따서 고유한 플러그인 기능을 구현할 수 있습니다. 자세한 내용은 함수 플러그인 가이드를 참조하세요.
config.py를 수정해야 합니다.)GPT Academic 개발자 QQ 그룹: 610599535
requirement.txt를 사용하여 Gradio를 설치하십시오.THEME 옵션 (config.py)을 수정하여 테마를 변경할 수 있습니다.
Chuanhu-Small-and-Beautiful URLmaster 브랜치: 메인 브랜치, 안정 버전frontier 브랜치: 개발 브랜치, 테스트 버전코드에서는 다른 우수한 프로젝트의 디자인을 많이 참고했습니다. 순서는 문제 없이 나열됩니다:
# 清华ChatGLM2-6B:
https://github.com/THUDM/ChatGLM2-6B
# 清华JittorLLMs:
https://github.com/Jittor/JittorLLMs
# ChatPaper:
https://github.com/kaixindelele/ChatPaper
# Edge-GPT:
https://github.com/acheong08/EdgeGPT
# ChuanhuChatGPT:
https://github.com/GaiZhenbiao/ChuanhuChatGPT
# Oobabooga 원 클릭 설치 프로그램:
https://github.com/oobabooga/one-click-installers
# 더보기:
https://github.com/gradio-app/gradio
https://github.com/fghrsh/live2d_demo