docs/README.Italian.md
Nota
Questo README è stato tradotto da GPT (implementato da un plugin di questo progetto) e non è al 100% affidabile, per favore valuta attentamente i risultati della traduzione.
2023.11.7: Quando installi le dipendenze, seleziona le versioni specificate nel file
requirements.txt. Comando di installazione:pip install -r requirements.txt.
Se ti piace questo progetto, per favore dagli una stella; se hai idee o plugin utili, fai una pull request!
Se ti piace questo progetto, dagli una stella.
Per tradurre questo progetto in qualsiasi lingua con GPT, leggi ed esegui multi_language.py (sperimentale).
<div align="center">Nota
Fai attenzione che solo i plugin (pulsanti) evidenziati supportano la lettura dei file, alcuni plugin si trovano nel menu a tendina nell'area dei plugin. Inoltre, accogliamo e gestiamo con massima priorità qualsiasi nuovo plugin attraverso pull request.
Le funzioni di ogni file in questo progetto sono descritte in dettaglio nel rapporto di traduzione automatica del progetto
self_analysis.md. Con l'iterazione della versione, puoi anche fare clic sui plugin delle funzioni rilevanti in qualsiasi momento per richiamare GPT e rigenerare il rapporto di auto-analisi del progetto. Domande frequentiwiki| Metodo di installazione standard | Script di installazione one-click | Configurazione。Questo progetto è compatibile e incoraggia l'uso di modelli di linguaggio di grandi dimensioni nazionali, come ChatGLM. Supporto per la coesistenza di più chiavi API, puoi compilare nel file di configurazione come
API_KEY="openai-key1,openai-key2,azure-key3,api2d-key4". Quando è necessario sostituire temporaneamenteAPI_KEY, inserisci temporaneamenteAPI_KEYnell'area di input e premi Invio per confermare.
| Funzionalità (⭐ = Nuove funzionalità recenti) | Descrizione |
|---|---|
| ⭐Integrazione di nuovi modelli! | Baidu Qianfan e Wenxin Intelligence, Tongyi Qianwen, Shanghai AI-Lab bookbrain, Xunfei Xinghuo, LLaMa2, Zhipu API, DALLE3 |
| Revisione, traduzione, spiegazione del codice | Revisione, traduzione, ricerca errori grammaticali nei documenti e spiegazione del codice con un clic |
| Tasti di scelta rapida personalizzati | Supporta tasti di scelta rapida personalizzati |
| Design modulare | Supporto per plugin personalizzati potenti, i plugin supportano l'aggiornamento in tempo reale |
| Analisi del codice | [Plugin] Un clic per analizzare alberi di progetti Python/C/C++/Java/Lua/... o autoanalisi |
| Lettura di documenti, traduzione di documenti | [Plugin] Un clic per interpretare documenti completi in latex/pdf e generare un riassunto |
| Traduzione completa di testi in Latex, revisione completa di testi in Latex | [Plugin] Un clic per tradurre o correggere documenti in latex |
| Generazione automatica di commenti in batch | [Plugin] Un clic per generare commenti di funzione in batch |
| Traduzione cinese-inglese in Markdown | [Plugin] Hai visto sopra i README in 5 lingue diverse (Inglese)? |
| Generazione di rapporti di analisi chat | [Plugin] Genera automaticamente un rapporto di sintesi dopo l'esecuzione |
| Funzionalità di traduzione di testo completo in PDF | [Plugin] Estrai il titolo e il riassunto dei documenti PDF e traduci tutto il testo (multithreading) |
| Aiutante per Arxiv | [Plugin] Inserisci l'URL dell'articolo Arxiv per tradurre riassunto e scaricare PDF in un clic |
| Controllo completo dei documenti in Latex | [Plugin] Rileva errori grammaticali e ortografici nei documenti in Latex simile a Grammarly + Scarica un PDF per il confronto |
| Assistente per Google Scholar | [Plugin] Dato qualsiasi URL della pagina di ricerca di Google Scholar, fai scrivere da GPT gli articoli correlati per te |
| Concentrazione delle informazioni di Internet + GPT | [Plugin] Recupera informazioni da Internet utilizzando GPT per rispondere alle domande e rendi le informazioni sempre aggiornate |
| ⭐Traduzione accurata di articoli Arxiv (Docker) | [Plugin] Traduci articoli Arxiv ad alta qualità con un clic, lo strumento di traduzione degli articoli migliore al mondo al momento |
| ⭐Inserimento della conversazione vocale in tempo reale | [Plugin] Ascolta l'audio in modo asincrono, taglia automaticamente le frasi e trova automaticamente il momento giusto per rispondere |
| Visualizzazione di formule, immagini, tabelle | Mostra contemporaneamente formule in formato tex e renderizzato, supporta formule e evidenziazione del codice |
| ⭐Plugin multi-agente AutoGen | [Plugin] Esplora le possibilità dell'emergenza intelligence multi-agente con l'aiuto di Microsoft AutoGen! |
| Attiva il tema scuro qui | Aggiungi /?__theme=dark alla fine dell'URL del browser per passare al tema scuro |
| Supporto di più modelli LLM | Essere servito contemporaneamente da GPT3.5, GPT4, ChatGLM2 di Tsinghua, MOSS di Fudan |
| ⭐Modello di fine-tuning ChatGLM2 | Supporto per l'importazione del modello di fine-tuning di ChatGLM2, fornendo plug-in di assistenza per il fine tuning di ChatGLM2 |
| Più supporto per modelli LLM, supporto del deploy di Huggingface | Aggiungi interfaccia Newbing (Bing Translator), introduce il supporto di JittorLLMs di Tsinghua, supporto per LLaMA e Panguα |
| ⭐Pacchetto pip void-terminal | Fornisce funzionalità di tutti i plugin di questo progetto direttamente in Python senza GUI (in sviluppo) |
| ⭐Plugin terminale virtuale | [Plugin] Richiama altri plugin di questo progetto utilizzando linguaggio naturale |
| Altre nuove funzionalità (come la generazione di immagini) ... | Vedi alla fine di questo documento ... |
config.py per passare tra "layout sinistra / destra" e "layout sopra / sotto")functional.py, puoi aggiungere liberamente funzionalità personalizzate, liberando la clipboardgit clone --depth=1 https://github.com/binary-husky/gpt_academic.git
cd gpt_academic
Nel file config.py, configura l'API KEY e altre impostazioni, clicca qui per vedere come configurare l'API in ambienti di rete speciali . Pagina Wiki.
「 Il programma controllerà prima se esiste un file di configurazione privata chiamato config_private.py e utilizzerà le configurazioni in esso contenute per sovrascrivere le configurazioni con lo stesso nome in config.py. Se comprendi questa logica di lettura, ti consigliamo vivamente di creare un nuovo file di configurazione chiamato config_private.py accanto a config.py e spostare (copiare) le configurazioni da config.py a config_private.py (basta copiare le voci di configurazione che hai modificato). 」
「 Supporta la configurazione del progetto tramite variabili d'ambiente, il formato di scrittura delle variabili d'ambiente è descritto nel file docker-compose.yml o nella nostra pagina Wiki priorità di lettura della configurazione: variabili d'ambiente > config_private.py > config.py. 」
# (Scelta I: Se familiarizzato con python, python>=3.9) Nota: Usa il repository delle fonti ufficiale di pip o Ali pip per temporaneamente cambiare la fonte: python -m pip install -r requirements.txt -i https://mirrors.aliyun.com/pypi/simple/
python -m pip install -r requirements.txt
# (Scelta II: Usa Anaconda) Anche in questo caso, i passaggi sono simili (https://www.bilibili.com/video/BV1rc411W7Dr):
conda create -n gptac_venv python=3.11 # Crea l'ambiente anaconda
conda activate gptac_venv # Attiva l'ambiente anaconda
python -m pip install -r requirements.txt # Questo passaggio è identico alla procedura di installazione con pip
[Optional] Se desideri utilizzare ChatGLM2 di Tsinghua/Fudan MOSS come backend, è necessario installare ulteriori dipendenze (Requisiti: conoscenza di Python + esperienza con Pytorch + hardware potente):
# [Optional Step I] Supporto per ChatGLM2 di Tsinghua. Note di ChatGLM di Tsinghua: Se si verifica l'errore "Call ChatGLM fail non può caricare i parametri di ChatGLM", fare riferimento a quanto segue: 1: L'installazione predefinita è la versione torch+cpu, per usare cuda è necessario disinstallare torch ed installare nuovamente la versione con torch+cuda; 2: Se il modello non può essere caricato a causa di una configurazione insufficiente, è possibile modificare la precisione del modello in request_llm/bridge_chatglm.py, sostituendo AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True) con AutoTokenizer.from_pretrained("THUDM/chatglm-6b-int4", trust_remote_code=True)
python -m pip install -r request_llms/requirements_chatglm.txt
# [Optional Step II] Supporto per Fudan MOSS
python -m pip install -r request_llms/requirements_moss.txt
git clone --depth=1 https://github.com/OpenLMLab/MOSS.git request_llms/moss # Attenzione: eseguire questo comando nella directory principale del progetto
# [Optional Step III] Supporto per RWKV Runner
Consulta il Wiki: https://github.com/binary-husky/gpt_academic/wiki/%E9%80%82%E9%85%8DRWKV-Runner
# [Optional Step IV] Assicurati che il file di configurazione config.py includa i modelli desiderati. Di seguito sono elencati i modelli attualmente supportati (gli llm di jittorllms supportano solo la soluzione Docker):
AVAIL_LLM_MODELS = ["gpt-3.5-turbo", "api2d-gpt-3.5-turbo", "gpt-4", "api2d-gpt-4", "chatglm", "moss", "jittorllms_rwkv", "jittorllms_pangualpha", "jittorllms_llama"]
python main.py
# Modifica il file docker-compose.yml: mantieni solo la configurazione 0 e rimuovi le altre configurazioni. Avvia il seguente comando:
docker-compose up
# Modifica il file docker-compose.yml: mantieni solo la configurazione 1 e rimuovi le altre configurazioni. Avvia il seguente comando:
docker-compose up
P.S. Se hai bisogno del plugin LaTeX, consulta la pagina Wiki. In alternativa, puoi utilizzare le configurazioni 4 o 0 direttamente per ottenere questa funzionalità.
# Modifica il file docker-compose.yml: mantieni solo la configurazione 2 e rimuovi le altre configurazioni. Avvia il seguente comando:
docker-compose up
Script di esecuzione con un clic per Windows. Se non conosci affatto l'ambiente python in Windows, puoi scaricare uno script di esecuzione con un clic dalla sezione Release per installare la versione che non richiede modelli locali. Lo script è stato fornito da oobabooga.
Utilizzo di API di terze parti, Azure, Wenxin Yiyu (Poem), Xinghuo, ecc. vedi pagina Wiki
Guida all'installazione del server cloud remoto. Visita la pagina Wiki sull'installazione del server cloud remoto.
Altre nuove piattaforme o metodi di distribuzione:
http://localhost/subpath). Vedi istruzioni FastAPI per maggiori dettagli.Apri core_functional.py con qualsiasi editor di testo e aggiungi le seguenti voci, quindi riavvia il programma. (Se il pulsante esiste già, sia il prefisso che il suffisso possono essere modificati a caldo senza la necessità di riavviare il programma.)
Ad esempio,
"Traduzione avanzata Cinese-Inglese": {
# Prefisso, sarà aggiunto prima del tuo input. Ad esempio, utilizzato per descrivere la tua richiesta, come traduzione, spiegazione del codice, rifinitura, ecc.
"Prefisso": "Si prega di tradurre il seguente testo in cinese e fornire spiegazione per i termini tecnici utilizzati, utilizzando una tabella in markdown uno per uno:\n\n",
# Suffisso, sarà aggiunto dopo il tuo input. Ad esempio, in combinazione con il prefisso, puoi circondare il tuo input con virgolette.
"Suffisso": "",
},
Scrivi potentissimi plugin di funzioni per eseguire qualsiasi compito che desideri, sia che tu lo pensi o meno. La scrittura di plugin per questo progetto è facile e richiede solo conoscenze di base di Python. Puoi seguire il Guida ai Plugin di Funzione per maggiori dettagli.
Salva la conversazione corrente nell'area del plugin per salvare la conversazione corrente come un file html leggibile e ripristinabile.
Inoltre, nella stessa area del plugin (menu a tendina) chiamare Carica la cronologia della conversazione per ripristinare una conversazione precedente.
Suggerimento: fare clic su Carica la cronologia della conversazione senza specificare un file per visualizzare la tua cronologia di archiviazione HTML.config.py)GPT Academic Developer QQ Group: 610599535
requirement.txtIl tema può essere modificato modificando l'opzione THEME (config.py)
Chuanhu-Small-and-Beautiful Websitemaster branch: branch principale, versione stabilefrontier branch: branch di sviluppo, versione di testNel codice sono state utilizzate diverse idee dagli altri progetti, senza un ordine specifico:
# ChatGLM2-6B di Tsinghua:
https://github.com/THUDM/ChatGLM2-6B
# JittorLLMs di Tsinghua:
https://github.com/Jittor/JittorLLMs
# ChatPaper:
https://github.com/kaixindelele/ChatPaper
# Edge-GPT:
https://github.com/acheong08/EdgeGPT
# ChuanhuChatGPT:
https://github.com/GaiZhenbiao/ChuanhuChatGPT
# Installazione con un solo clic di Oobabooga:
https://github.com/oobabooga/one-click-installers
# Altre risorse:
https://github.com/gradio-app/gradio
https://github.com/fghrsh/live2d_demo