docs/README.French.md
Remarque
Ce README a été traduit par GPT (implémenté par le plugin de ce projet) et n'est pas fiable à 100 %. Veuillez examiner attentivement les résultats de la traduction.
7 novembre 2023 : Lors de l'installation des dépendances, veuillez choisir les versions spécifiées dans le fichier
requirements.txt. Commande d'installation :pip install -r requirements.txt.
Si vous aimez ce projet, merci de lui donner une étoile ; si vous avez inventé des raccourcis ou des plugins utiles, n'hésitez pas à envoyer des demandes d'extraction !
Si vous aimez ce projet, veuillez lui donner une étoile.
Pour traduire ce projet dans une langue arbitraire avec GPT, lisez et exécutez multi_language.py (expérimental).
<div align="center">Remarque
Veuillez noter que seuls les plugins (boutons) marqués en surbrillance prennent en charge la lecture de fichiers, et certains plugins se trouvent dans le menu déroulant de la zone des plugins. De plus, nous accueillons avec la plus haute priorité les nouvelles demandes d'extraction de plugins.
Les fonctionnalités de chaque fichier de ce projet sont spécifiées en détail dans le rapport d'auto-analyse
self_analysis.md. Vous pouvez également cliquer à tout moment sur les plugins de fonctions correspondants pour appeler GPT et générer un rapport d'auto-analyse du projet. Questions fréquemment posées wiki. Méthode d'installation standard | Script d'installation en un clic | Instructions de configuration..Ce projet est compatible avec et recommande l'expérimentation de grands modèles de langage chinois tels que ChatGLM, etc. Prend en charge plusieurs clés API, vous pouvez les remplir dans le fichier de configuration comme
API_KEY="openai-key1,openai-key2,azure-key3,api2d-key4". Pour changer temporairement la clé API, entrez la clé API temporaire dans la zone de saisie, puis appuyez sur Entrée pour soumettre et activer celle-ci.
| Fonctionnalités (⭐ = fonctionnalité récemment ajoutée) | Description |
|---|---|
| ⭐Modèles acquis! | Baidu Qianfan et Wenxin Yiyuan, Tongyi Qianwen, Shanghai AI-Lab Shusheng, Xunfei Xinghuo, LLaMa2, Zhifu API, DALLE3 |
| Amélioration, traduction, explication du code | Correction, traduction, recherche d'erreurs de syntaxe dans les articles, explication du code |
| Raccourcis personnalisés | Prise en charge de raccourcis personnalisés |
| Conception modulaire | Prise en charge de plugins puissants personnalisables, prise en charge de la mise à jour à chaud des plugins |
| Analyse de programme | [Plugin] Analyse en profondeur d'un arbre de projets Python/C/C++/Java/Lua/... d'un simple clic ou auto-analyse |
| Lecture d'articles, traduction d'articles | [Plugin] Lecture automatique des articles LaTeX/PDF et génération du résumé |
| Traduction complète de LaTeX ou amélioration de leur qualité | [Plugin] Traduction ou amélioration rapide des articles LaTeX |
| Génération de commentaires en masse | [Plugin] Génération facile de commentaires de fonctions |
| Traduction chinois-anglais du Markdown | [Plugin] Avez-vous vu le README dans les cinq langues ci-dessus ? |
| Génération de rapports d'analyse du chat | [Plugin] Génération automatique d'un rapport récapitulatif après l'exécution du chat |
| Fonction de traduction complète des articles PDF | [Plugin] Extraction du titre et du résumé d'un article PDF, ainsi que traduction intégrale (multithreading) |
| Assistant Arxiv | [Plugin] Saisissez l'URL d'un article Arxiv pour traduire automatiquement le résumé et télécharger le PDF |
| Correction automatique d'articles LaTeX | [Plugin] Correction de la grammaire, de l'orthographe et comparaison avec le PDF correspondant, à la manière de Grammarly |
| Assistant Google Scholar | [Plugin] Donner l'URL d'une page de recherche Google Scholar pour obtenir de l'aide sur l'écriture des références |
| Agrégation d'informations sur Internet + GPT | [Plugin] Obtenez les informations de l'Internet pour répondre aux questions à l'aide de GPT, afin que les informations ne soient jamais obsolètes |
| ⭐Traduction détaillée des articles Arxiv (Docker) | [Plugin] Traduction de haute qualité d'articles Arxiv en un clic, le meilleur outil de traduction d'articles à ce jour |
| ⭐Saisie orale en temps réel | [Plugin] Écoute asynchrone de l'audio, découpage automatique et recherche automatique du meilleur moment pour répondre |
| Affichage des formules, images, tableaux | Affichage simultané de la forme TeX et rendue des formules, prise en charge de la mise en évidence des formules et du code |
| ⭐Plugin AutoGen multi-agents | [Plugin] Explorez les émergences intelligentes à plusieurs agents avec Microsoft AutoGen ! |
| Activation du thème sombre | Ajouter /?__theme=dark à l'URL du navigateur pour basculer vers le thème sombre |
| Prise en charge de plusieurs modèles LLM | Expérimentez avec GPT 3.5, GPT4, ChatGLM2 de Tsinghua, MOSS de Fudan simultanément ! |
| ⭐Modèle ChatGLM2 fine-tuned | Chargez et utilisez un modèle fine-tuned de ChatGLM2, disponible avec un plugin d'assistance |
| Prise en charge de plus de modèles LLM, déploiement sur Huggingface | Ajout de l'interface de connaissance-API, support de LLaMA et PanGuα |
| ⭐Paquet pip void-terminal | Accédez à toutes les fonctions et plugins de ce projet directement depuis Python (en cours de développement) |
| ⭐Plugin terminal du vide | [Plugin] Utilisez un langage naturel pour interagir avec les autres plugins du projet |
| Affichage de nouvelles fonctionnalités (génération d'images, etc.) …… | Voir à la fin de ce document …… |
config.py pour basculer entre la disposition "gauche-droite" et "haut-bas")functional.py, vous pouvez donc ajouter de nouvelles fonctionnalités personnalisées et libérer le presse-papiers.git clone --depth=1 https://github.com/binary-husky/gpt_academic.git
cd gpt_academic
In config.py, configure the API KEY and other settings. Click here to see methods for special network environment configurations. Wiki page.
「 The program will first check if there is a confidential configuration file named config_private.py, and use the configurations in that file to override the corresponding configurations in config.py. If you understand this logic, we strongly recommend creating a new configuration file named config_private.py right next to config.py, and move (copy) the configurations from config.py to config_private.py (only copy the configurations that you have modified). 」
「 You can also configure the project using environment variables. The format of the environment variables can be found in the docker-compose.yml file or on our Wiki page. The priority of configuration reading is: environment variables > config_private.py > config.py. 」
# (Option I: If you are familiar with Python, python>=3.9) Note: Use the official pip source or the Ali pip source. Temporary change of source method: python -m pip install -r requirements.txt -i https://mirrors.aliyun.com/pypi/simple/
python -m pip install -r requirements.txt
# (Option II: Use Anaconda) The steps are similar (https://www.bilibili.com/video/BV1rc411W7Dr):
conda create -n gptac_venv python=3.11 # Create an anaconda environment
conda activate gptac_venv # Activate the anaconda environment
python -m pip install -r requirements.txt # This step is the same as the pip installation step
[Optional Steps] If you need to support Tsinghua ChatGLM2/Fudan MOSS as backends, you need to install additional dependencies (Prerequisites: Familiar with Python + Have used PyTorch + Sufficient computer configuration):
# [Optional Step I] Support Tsinghua ChatGLM2. Comment on this note: If you encounter the error "Call ChatGLM generated an error and cannot load the parameters of ChatGLM", refer to the following: 1: The default installation is the torch+cpu version. To use cuda, you need to uninstall torch and reinstall torch+cuda; 2: If the model cannot be loaded due to insufficient computer configuration, you can modify the model precision in request_llm/bridge_chatglm.py. Change AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True) to AutoTokenizer.from_pretrained("THUDM/chatglm-6b-int4", trust_remote_code=True).
python -m pip install -r request_llms/requirements_chatglm.txt
# [Optional Step II] Support Fudan MOSS
python -m pip install -r request_llms/requirements_moss.txt
git clone --depth=1 https://github.com/OpenLMLab/MOSS.git request_llms/moss # Note: You need to be at the root directory of the project when executing this line of code
# [Optional Step III] Support RWKV Runner
Refer to the wiki: https://github.com/binary-husky/gpt_academic/wiki/%E9%80%82%E9%85%8DRWKV-Runner
# [Optional Step IV] Make sure that the AVAIL_LLM_MODELS in the config.py configuration file contains the expected models. The currently supported models are as follows (jittorllms series currently only support the docker solution):
AVAIL_LLM_MODELS = ["gpt-3.5-turbo", "api2d-gpt-3.5-turbo", "gpt-4", "api2d-gpt-4", "chatglm", "moss"] # + ["jittorllms_rwkv", "jittorllms_pangualpha", "jittorllms_llama"]
python main.py
# Modify the docker-compose.yml file, keep scheme 0 and delete the other schemes. Then run:
docker-compose up
# Modify the docker-compose.yml file, keep scheme 1 and delete the other schemes. Then run:
docker-compose up
NOTE: If you need Latex plugin functionality, please refer to the Wiki. Additionally, you can also use scheme 4 or scheme 0 directly to obtain Latex functionality.
# Modify the docker-compose.yml file, keep scheme 2 and delete the other schemes. Then run:
docker-compose up
One-click run script for Windows. Windows users who are completely unfamiliar with the Python environment can download the one-click run script without local models from the Release section. The script was contributed by oobabooga.
Use third-party APIs, Azure, Wenxin Yiyu, Xinghuo, etc., see the Wiki page.
Pitfall guide for deploying on cloud servers. Please visit the cloud server remote deployment wiki.
Some new deployment platforms or methods
http://localhost/subpath). Please see FastAPI running instructionsOuvrez core_functional.py avec n'importe quel éditeur de texte, ajoutez les entrées suivantes, puis redémarrez le programme. (Si le bouton existe déjà, le préfixe et le suffixe peuvent être modifiés à chaud sans redémarrer le programme).
Par exemple:
"Traduction avancée de l'anglais vers le français": {
# Préfixe, ajouté avant votre saisie. Par exemple, utilisez-le pour décrire votre demande, telle que la traduction, l'explication du code, l'amélioration, etc.
"Prefix": "Veuillez traduire le contenu suivant en français, puis expliquer chaque terme propre à la langue anglaise utilisé dans le texte à l'aide d'un tableau markdown : \n\n",
# Suffixe, ajouté après votre saisie. Par exemple, en utilisant le préfixe, vous pouvez entourer votre contenu par des guillemets.
"Suffix": "",
},
Écrivez de puissants plugins de fonction pour accomplir toutes les tâches que vous souhaitez ou ne pouvez pas imaginer. Le développement et le débogage de ces plugins dans ce projet sont très faciles. Tant que vous avez des connaissances de base en python, vous pouvez implémenter vos propres fonctionnalités grâce à notre modèle fourni. Veuillez consulter le Guide des plugins de fonction pour plus de détails.
Enregistrer la conversation en cours dans la zone des plugins fonctionnels pour enregistrer la conversation en cours sous la forme d'un fichier HTML lisible et récupérable. En outre, appelez Charger les archives de conversation dans la zone des plugins fonctionnels (menu déroulant) pour restaurer les conversations précédentes.
Astuce: Si aucun fichier n'est spécifié, cliquez directement sur Charger les archives de conversation pour afficher le cache des archives HTML.config.py)Groupe QQ des développeurs de GPT Academic: 610599535
requirement.txt pour installer Gradio.Vous pouvez modifier le thème en modifiant l'option THEME (config.py).
Chuanhu-Small-and-Beautiful Lienmaster : Branche principale, version stablefrontier : Branche de développement, version de testDe nombreux designs de codes de projets exceptionnels ont été référencés dans le développement de ce projet, sans ordre spécifique :
# ChatGLM2-6B de l'Université Tsinghua:
https://github.com/THUDM/ChatGLM2-6B
# JittorLLMs de l'Université Tsinghua:
https://github.com/Jittor/JittorLLMs
# ChatPaper :
https://github.com/kaixindelele/ChatPaper
# Edge-GPT :
https://github.com/acheong08/EdgeGPT
# ChuanhuChatGPT :
https://github.com/GaiZhenbiao/ChuanhuChatGPT
# Oobabooga installeur en un clic :
https://github.com/oobabooga/one-click-installers
# Plus:
https://github.com/gradio-app/gradio
https://github.com/fghrsh/live2d_demo