README_IT-IT.md
Deutsch | English | Español | Français | Italian | 日本語 | 한국어 | Русский | Tiếng Việt | 简体中文
</div>I Bot IA basati su Large Language Models (LLMs) sono sorprendenti. Tuttavia, il loro comportamento può essere casuale e diversi bot eccellono in diverse attività. Se desideri la migliore esperienza, non provarli uno per uno. ChatALL (nome cinese: 齐叨) può inviare prompt a diversi IA Bot contemporaneamente, aiutandoti a scoprire i migliori risultati. Tutto ciò che devi fare è scaricare, installare e chiedere .
Gli utenti tipici di ChatALL sono:
| IA Bots | Accesso Web | API | Note |
|---|---|---|---|
| 360 AI Brain | Sì | No | |
| Baidu ERNIE | No | Sì | |
| Character.AI | Sì | No | |
| ChatGLM2 6B & 130B | Sì | No | Nessun accesso richiesto |
| ChatGPT | Sì | Sì | Navigazione Web, include servizi Azure OpenAI |
| Claude | Sì | Sì | |
| Code Llama | Sì | No | |
| Cohere Aya 23 | No | Sì | |
| Modelli Cohere Command R | No | Sì | |
| Copilot | Sì | No | |
| Dedao Learning Assistant | Prossimamente | No | |
| Falcon 180B | Sì | No | |
| Gemini | Sì | Sì | |
| Gemma 2B & 7B | Sì | No | |
| Gradio | Sì | No | Per modelli Hugging Face/spazio auto-deploy |
| Groq Cloud | No | Sì | |
| HuggingChat | Sì | No | |
| iFLYTEK SPARK | Sì | Prossimamente | |
| Kimi | Sì | No | |
| Llama 2 13B & 70B | Sì | No | |
| MOSS | Sì | No | |
| Perplexity | Sì | No | |
| Phind | Sì | No | |
| Pi | Sì | No | |
| Poe | Sì | Prossimamente | |
| SkyWork | Sì | Prossimamente | |
| Tongyi Qianwen | Sì | Prossimamente | |
| Vicuna 13B & 33B | Sì | No | Nessun accesso richiesto |
| WizardLM 70B | Sì | No | |
| xAI Grok | No | Sì | |
| YouChat | Sì | No | |
| You | Sì | No | |
| Zephyr | Sì | No |
Altri sono in arrivo. Vota i tuoi bot preferiti in questi problemi.
I bot AI basati sul Web (contrassegnati con "Web Access") sono intrinsecamente meno affidabili e spesso incontrano problemi di stabilità, poiché i fornitori di servizi aggiornano regolarmente le loro interfacce web e misure di sicurezza. Queste connessioni basate sul web si basano sul reverse engineering e sono difficili da mantenere, spesso smettendo di funzionare inaspettatamente. Per un'esperienza più affidabile, raccomandiamo vivamente di utilizzare bot che offrono accesso API quando possibile.
Funzionalità pianificate:
Siete benvenuti a contribuire a queste funzionalità.
Tutta la cronologia delle chat, le impostazioni e i dati di accesso vengono salvati localmente sul tuo computer.
ChatALL raccoglie dati anonimi sull'utilizzo per aiutarci a migliorare il prodotto. Inclusi:
ChatALL è un client, non un proxy. Pertanto, devi:
Scarica da https://github.com/ai-shifu/ChatALL/releases
Basta scaricare il file *-win.exe e procedere con l'installazione.
Per Mac con processori Apple Silicon (M1, M2), scarica il file *-mac-arm64.dmg.
Per gli altri Mac, scarica il file *-mac-x64.dmg.
Se stai usando Homebrew, puoi installarlo anche con:
brew install --cask chatall
Distribuzioni basate su Debian: Scarica il file .deb, fai doppio clic su di esso e installa il software. Distribuzioni basate su Arch: Puoi clonare ChatALL da AUR qui. Puoi installarlo manualmente o utilizzando un helper AUR come yay o paru. Altre distribuzioni: Scarica il file .AppImage, rendilo eseguibile e goditi l'esperienza del clic. Puoi anche utilizzare AppimageLauncher.
Se incontri problemi durante l'utilizzo di ChatALL, puoi provare i seguenti metodi per risolverli:
Nuova Chat e invia nuovamente il prompt.Se nessuno dei metodi sopra elencati funziona, puoi provare a reimpostare ChatALL. Nota che ciò cancellerà tutte le tue impostazioni e la cronologia dei messaggi.
Puoi reimpostare ChatALL eliminando le seguenti directory:
C:\Users\<user>\AppData\Roaming\chatall\/home/<user>/.config/chatall//Users/<user>/Library/Application Support/chatall/Se il problema persiste, per favore segnala il problema.
Guida potrebbe esserti utile.
npm install
npm run electron:serve
Compila per la tua piattaforma corrente:
npm run electron:build
Compila per tutte le piattaforme:
npm run electron:build -- -wml --x64 --arm64
Se ti piace questo progetto, per favore considera: