README_ES-ES.md
Deutsch | English | Español | Français | Italiano | 日本語 | 한국어 | Русский | Tiếng Việt | 简体中文
</div>Los bots de IA basados en modelos de lenguaje grande (LLM) son increíbles. Sin embargo, su comportamiento puede ser aleatorio y diferentes bots sobresalen en diferentes tareas. Si quieres la mejor experiencia, no los pruebes uno por uno. ChatALL (nombre chino: 齐叨) puede enviar mensajes a varios bots de IA al mismo tiempo, ayudarlo a descubrir los mejores resultados. Todo lo que necesita hacer es descargar, instalar y preguntar.
Los usuarios típicos de ChatALL son:
| IA Bots | Acceso Web | API | Notas |
|---|---|---|---|
| 360 AI Brain | Sí | No | |
| Baidu ERNIE | No | Sí | |
| Character.AI | Sí | No | |
| ChatGLM2 6B & 130B | Sí | No | No requiere inicio de sesión |
| ChatGPT | Sí | Sí | Navegación Web, incluye servicio Azure OpenAI |
| Claude | Sí | Sí | |
| Code Llama | Sí | No | |
| Cohere Aya 23 | No | Sí | |
| Modelos Cohere Command R | No | Sí | |
| Copilot | Sí | No | |
| Dedao Learning Assistant | Próximamente | No | |
| Falcon 180B | Sí | No | |
| Gemini | Sí | Sí | |
| Gemma 2B & 7B | Sí | No | |
| Gradio | Sí | No | Para modelos Hugging Face/spacio auto-deploy |
| Groq Cloud | No | Sí | |
| HuggingChat | Sí | No | |
| iFLYTEK SPARK | Sí | Próximamente | |
| Kimi | Sí | No | |
| Llama 2 13B & 70B | Sí | No | |
| MOSS | Sí | No | |
| Perplexity | Sí | No | |
| Phind | Sí | No | |
| Pi | Sí | No | |
| Poe | Sí | Próximamente | |
| SkyWork | Sí | Próximamente | |
| Tongyi Qianwen | Sí | Próximamente | |
| Vicuna 13B & 33B | Sí | No | No requiere inicio de sesión |
| WizardLM 70B | Sí | No | |
| xAI Grok | No | Sí | |
| YouChat | Sí | No | |
| You | Sí | No | |
| Zephyr | Sí | No |
Más está por venir. Vota a tus bots favoritos en estos temas.
Los bots de IA basados en Web (marcados como "Acceso Web") son inherentemente menos fiables y frecuentemente enfrentan problemas de estabilidad. Esto se debe a que los proveedores de servicios actualizan regularmente sus interfaces web y medidas de seguridad, lo que requiere un mantenimiento constante mediante ingeniería inversa. Este tipo de conexión es difícil de mantener y puede dejar de funcionar inesperadamente. Para una experiencia más confiable, recomendamos encarecidamente utilizar bots que ofrezcan acceso API cuando sea posible.
Características planificadas:
Le invitamos a contribuir a estas características.
Todo el historial de chat, la configuración y los datos de inicio de sesión se guardan localmente en su computadora.
ChatALL recopila datos de uso anónimos para ayudarnos a mejorar el producto. Incluyendo:
ChatALL es un cliente, no un proxy. Por lo tanto, usted debe:
Descargar desde https://github.com/ai-shifu/ChatALL/releases
Simplemente descargue el archivo *-win.exe y continúe con la configuración.
Para Apple Silicon Mac (CPU M1, M2), descargue el archivo *-mac-arm64.dmg.
Para otros Mac, descargue el archivo *-mac-x64.dmg.
Si está utilizando Homebrew, también puede instalarlo con:
brew install --cask chatall
Distribuciones basadas en Debian: descargue el archivo .deb, haga doble clic en él e instale el software. Distribuciones basadas en Arch: puede clonar ChatALL desde el AUR aquí. Puede instalarlo manualmente o utilizando un ayudante de AUR como yay o paru. Otras distribuciones: descargue el archivo .AppImage, hágalo ejecutable y disfrute de la experiencia de hacer clic y ejecutar. También puede usar AppimageLauncher.
Si encuentra algún problema al usar ChatALL, puede probar los siguientes métodos para resolverlo:
Nuevo Chat y envíe la solicitud nuevamente.Si ninguno de los métodos anteriores funciona, puede intentar restablecer ChatALL. Tenga en cuenta que esto eliminará toda su configuración e historial de mensajes.
Puede restablecer ChatALL eliminando los siguientes directorios:
C:\Users\<user>\AppData\Roaming\chatall\/home/<user>/.config/chatall//Users/<user>/Library/Application Support/chatall/Si el problema persiste, envíe un problema.
La guía puede ayudarle.
npm install
npm run electron:serve
Cree para su plataforma actual:
npm run electron:build
Compilar para todas las plataformas:
npm run electron:build -- -wml --x64 --arm64
Si te gusta este proyecto, por favor considera: