README_ES.md
English | 中文 | 繁體中文 | Français | 日本語 | Português (Brasil) | Español | Türkçe
Un asistente de IA con capacidad de voz que es una alternativa 100% local a Manus AI, navega autónomamente por la web, escribe código y planifica tareas manteniendo todos los datos en tu dispositivo. Diseñado para modelos de razonamiento local, funciona completamente en tu hardware, garantizando privacidad total y cero dependencia de la nube.
🔒 Totalmente Local & Privado - Todo funciona en tu máquina, sin nube, sin compartir datos. Tus archivos, conversaciones y búsquedas permanecen privados.
🌐 Navegación Web Inteligente - AgenticSeek puede navegar por Internet de forma autónoma: buscar, leer, extraer información, completar formularios web, todo sin manos.
💻 Asistente de Programación Autónomo - ¿Necesitas código? Puede escribir, depurar y ejecutar programas en Python, C, Go, Java y más, sin supervisión.
🧠 Selección Inteligente de Agentes - Tú pides, él elige automáticamente el mejor agente para la tarea. Como tener un equipo de expertos siempre disponible.
📋 Planifica y Ejecuta Tareas Complejas - Desde planificación de viajes hasta proyectos complejos, puede dividir grandes tareas en pasos y completarlos utilizando múltiples agentes de IA.
🎙️ Compatibilidad con Voz - Voz limpia, rápida y futurista con reconocimiento de voz, permitiéndote conversar como si fuera tu IA personal de una película de ciencia ficción. (En desarrollo)
¿Puedes buscar el proyecto agenticSeek, aprender qué habilidades se necesitan, luego abrir CV_candidates.zip y decirme cuáles coinciden mejor con el proyecto?
https://github.com/user-attachments/assets/b8ca60e9-7b3b-4533-840e-08f9ac426316
Descargo de responsabilidad: Esta demostración y todos los archivos que aparecen (ej: CV_candidates.zip) son completamente ficticios. No somos una corporación, buscamos colaboradores de código abierto, no candidatos.
🛠⚠️️ Trabajo Activo en Progreso
🙏 Este proyecto comenzó como un proyecto paralelo y no tiene hoja de ruta ni financiación. Creció mucho más allá de lo esperado al aparecer en GitHub Trending. Las contribuciones, comentarios y paciencia son profundamente apreciados.
Antes de comenzar, asegúrate de tener instalado:
sudo apt-get install docker-compose-plugin).git clone https://github.com/Fosowl/agenticSeek.git
cd agenticSeek
mv .env.example .env
SEARXNG_BASE_URL="http://searxng:8080" # Si ejecutas en modo CLI en el host, usa http://127.0.0.1:8080
REDIS_BASE_URL="redis://redis:6379/0"
WORK_DIR="/Users/mlg/Documents/workspace_for_ai"
OLLAMA_PORT="11434"
LM_STUDIO_PORT="1234"
CUSTOM_ADDITIONAL_LLM_PORT="11435"
OPENAI_API_KEY='optional'
DEEPSEEK_API_KEY='optional'
OPENROUTER_API_KEY='optional'
TOGETHER_API_KEY='optional'
GOOGLE_API_KEY='optional'
ANTHROPIC_API_KEY='optional'
Actualiza el archivo .env según sea necesario:
Las claves API son completamente opcionales para quienes optan por ejecutar LLM localmente, que es el objetivo principal de este proyecto. Déjalas en blanco si tienes hardware suficiente.
Asegúrate de que Docker esté instalado y ejecutándose en tu sistema. Puedes iniciar Docker con los siguientes comandos:
Linux/macOS:
Abre una terminal y ejecuta:
sudo systemctl start docker
O inicia Docker Desktop desde el menú de aplicaciones, si está instalado.
Windows:
Inicia Docker Desktop desde el menú Inicio.
Puedes verificar si Docker se está ejecutando ejecutando:
docker info
Si ves información sobre tu instalación de Docker, está funcionando correctamente.
Consulta la Lista de proveedores locales a continuación para obtener un resumen.
Siguiente paso: Ejecutar AgenticSeek localmente
Si tienes problemas, consulta la sección Solución de problemas.
Si tu hardware no puede ejecutar LLM localmente, consulta Configuración para ejecutar con una API.
Para explicaciones detalladas de config.ini, consulta la sección Configuración.
Requisitos de hardware:
Para ejecutar LLM localmente, necesitarás hardware suficiente. Como mínimo, se requiere una GPU capaz de ejecutar Magistral, Qwen o Deepseek 14B. Consulta el FAQ para recomendaciones detalladas de modelo/rendimiento.
Configura tu proveedor local
Inicia tu proveedor local, por ejemplo con ollama:
ollama serve
Consulta la lista de proveedores locales admitidos a continuación.
Actualizar config.ini
Cambia el archivo config.ini para establecer provider_name en un proveedor admitido y provider_model en un LLM admitido por tu proveedor. Recomendamos modelos de razonamiento como Magistral o Deepseek.
Consulta el FAQ al final del README para el hardware necesario.
[MAIN]
is_local = True # Ya sea que ejecutes localmente o con un proveedor remoto.
provider_name = ollama # o lm-studio, openai, etc.
provider_model = deepseek-r1:14b # elige un modelo compatible con tu hardware
provider_server_address = 127.0.0.1:11434
agent_name = Jarvis # el nombre de tu IA
recover_last_session = True # recuperar sesión anterior
save_session = True # recordar sesión actual
speak = False # texto a voz
listen = False # voz a texto, solo para CLI, experimental
jarvis_personality = False # usar personalidad más "Jarvis" (experimental)
languages = en zh # Lista de idiomas, TTS usará el primero de la lista por defecto
[BROWSER]
headless_browser = True # mantener sin cambios a menos que uses CLI en el host.
stealth_mode = True # Usa selenium indetectable para reducir la detección del navegador
Advertencia:
El formato del archivo config.ini no admite comentarios.
No copies y pegues la configuración de ejemplo directamente, ya que los comentarios causarán errores. En su lugar, modifica manualmente el archivo config.ini con tu configuración deseada, sin comentarios.
NO establezcas provider_name como openai si estás usando LM-studio para ejecutar LLM. Úsalo como lm-studio.
Algunos proveedores (ej: lm-studio) requieren http:// antes de la IP. Ejemplo: http://127.0.0.1:1234
Lista de proveedores locales
| Proveedor | ¿Local? | Descripción |
|---|---|---|
| ollama | Sí | Ejecuta LLM localmente fácilmente usando ollama |
| lm-studio | Sí | Ejecuta LLM localmente con LM studio (establecer provider_name = lm-studio) |
| openai | Sí | Usa API compatible con openai (ej: servidor llama.cpp) |
Siguiente paso: Iniciar servicios y ejecutar AgenticSeek
Si tienes problemas, consulta la sección Solución de problemas.
Si tu hardware no puede ejecutar LLM localmente, consulta Configuración para ejecutar con una API.
Para explicaciones detalladas de config.ini, consulta la sección Configuración.
Esta configuración utiliza proveedores de LLM externos basados en la nube. Necesitarás obtener claves API del servicio elegido.
1. Elige un proveedor de API y obtén una clave API:
Consulta la Lista de proveedores de API a continuación. Visita sus sitios web para registrarte y obtener claves API.
2. Establece tu clave API como variable de entorno:
Linux/macOS:
Abre una terminal y usa el comando export. Es mejor agregarlo al archivo de configuración de tu shell (ej: ~/.bashrc, ~/.zshrc) para que sea persistente.
export PROVIDER_API_KEY="your_api_key_here"
# Reemplaza PROVIDER_API_KEY con el nombre de variable específico, ej: OPENAI_API_KEY, GOOGLE_API_KEY
Ejemplo de TogetherAI:
export TOGETHER_API_KEY="xxxxxxxxxxxxxxxxxxxxxx"
Windows:
set PROVIDER_API_KEY=your_api_key_here
$env:PROVIDER_API_KEY="your_api_key_here"
OPENAI_API_KEY) y tu clave como valor.(Para más detalles, consulta el FAQ: ¿Cómo configuro una clave API?).
3. Actualiza config.ini:
[MAIN]
is_local = False
provider_name = openai # o google, deepseek, togetherAI, huggingface
provider_model = gpt-3.5-turbo # o gemini-1.5-flash, deepseek-chat, mistralai/Mixtral-8x7B-Instruct-v0.1, etc.
provider_server_address = # Cuando is_local = False, generalmente se ignora o puede dejarse en blanco para la mayoría de las API
# ... otras configuraciones ...
Advertencia: Asegúrate de que no haya espacios al final de los valores en config.
Lista de proveedores de API
| Proveedor | provider_name | ¿Local? | Descripción | Enlace de clave API (ejemplo) |
|---|---|---|---|---|
| OpenAI | openai | No | Usa modelos ChatGPT a través de la API de OpenAI. | platform.openai.com/signup |
| Google Gemini | google | No | Usa modelos Google Gemini a través de Google AI Studio. | aistudio.google.com/keys |
| Deepseek | deepseek | No | Usa modelos Deepseek a través de su API. | platform.deepseek.com |
| Hugging Face | huggingface | No | Usa modelos del Hugging Face Inference API. | huggingface.co/settings/tokens |
| TogetherAI | togetherAI | No | Usa varios modelos de código abierto a través de la API de TogetherAI. | api.together.ai/settings/api-keys |
Nota:
gpt-4o u otros modelos OpenAI para navegación web compleja y planificación de tareas, ya que la optimización actual de prompts está dirigida a modelos como Deepseek.is_local = False, provider_server_address en config.ini generalmente no se usa, ya que los endpoints de API suelen estar codificados en las bibliotecas del proveedor correspondiente.Siguiente paso: Iniciar servicios y ejecutar AgenticSeek
Si tienes problemas, consulta la sección Problemas conocidos
Para explicaciones detalladas del archivo de configuración, consulta la sección Configuración.
Por defecto, AgenticSeek se ejecuta completamente en Docker.
Opción 1: Ejecutar en Docker con interfaz web:
Inicia los servicios necesarios. Esto iniciará todos los servicios del docker-compose.yml, incluyendo:
- searxng
- redis (requerido para searxng)
- frontend
- backend (si usas full para la interfaz web)
./start_services.sh full # MacOS
start start_services.cmd full # Windows
Advertencia: Este paso descargará y cargará todas las imágenes de Docker, lo que puede tardar hasta 30 minutos. Después de iniciar los servicios, espera hasta que el servicio backend esté completamente ejecutándose (deberías ver backend: "GET /health HTTP/1.1" 200 OK en el registro) antes de enviar cualquier mensaje. En la primera ejecución, el servicio backend puede tardar 5 minutos en iniciarse.
Ve a http://localhost:3000/ y deberías ver la interfaz web.
Solución de problemas de inicio de servicios: Si estos scripts fallan, asegúrate de que Docker Engine esté ejecutándose y que Docker Compose (V2, docker compose) esté correctamente instalado. Revisa los mensajes de error en la salida de la terminal. Consulta FAQ: ¡Ayuda! Obtengo errores al ejecutar AgenticSeek o sus scripts.
Opción 2: Modo CLI:
Para ejecutar con la interfaz CLI, debes instalar los paquetes en el host:
./install.sh
./install.bat # windows
Luego debes cambiar SEARXNG_BASE_URL en config.ini a:
SEARXNG_BASE_URL="http://localhost:8080"
Inicia los servicios necesarios. Esto iniciará algunos servicios del docker-compose.yml, incluyendo: - searxng - redis (requerido para searxng) - frontend
./start_services.sh # MacOS
start start_services.cmd # Windows
Ejecuta: uv run: uv run python -m ensurepip para asegurarte de que uv tenga pip habilitado.
Usa CLI: uv run cli.py
Asegúrate de que los servicios estén ejecutándose con ./start_services.sh full y luego ve a localhost:3000 para la interfaz web.
También puedes usar voz a texto configurando listen = True. Solo para modo CLI.
Para salir, simplemente di/escribe goodbye.
Algunos ejemplos de uso:
¡Haz un juego de la serpiente en python!
Busca en la web los mejores cafés en Rennes, Francia, y guarda una lista de tres con sus direcciones en rennes_cafes.txt.
Escribe un programa Go para calcular el factorial de un número, guárdalo como factorial.go en tu workspace
Busca en la carpeta summer_pictures todos los archivos JPG, renómbralos con la fecha de hoy y guarda la lista de archivos renombrados en photos_list.txt
Busca en línea películas de ciencia ficción populares de 2024 y elige tres para ver esta noche. Guarda la lista en movie_night.txt.
Busca en la web los últimos artículos de noticias de IA de 2025, selecciona tres y escribe un script Python para extraer títulos y resúmenes. Guarda el script como news_scraper.py y los resúmenes en ai_news.txt en /home/projects
Viernes, busca en la web una API gratuita de precios de acciones, regístrate con [email protected] y escribe un script Python para obtener los precios diarios de Tesla usando la API, guardando los resultados en stock_prices.csv
Ten en cuenta que el llenado de formularios sigue siendo experimental y puede fallar.
Después de ingresar tu consulta, AgenticSeek asignará el mejor agente para la tarea.
Como este es un prototipo inicial, el sistema de enrutamiento de agentes puede no asignar siempre el agente correcto a tu consulta.
Por lo tanto, sé muy explícito sobre lo que quieres y cómo la IA podría proceder, por ejemplo, si quieres que realice una búsqueda web, no digas:
¿Conoces algunos buenos países para viajar solo?
En su lugar, di:
Realiza una búsqueda web y descubre cuáles son los mejores países para viajar solo
Si tienes una computadora potente o un servidor al que puedes acceder, pero quieres usarlo desde tu laptop, puedes optar por ejecutar el LLM en un servidor remoto usando nuestro servidor llm personalizado.
En tu "servidor" que ejecutará el modelo de IA, obtén la dirección IP
ip a | grep "inet " | grep -v 127.0.0.1 | awk '{print $2}' | cut -d/ -f1 # IP local
curl https://ipinfo.io/ip # IP pública
Nota: Para Windows o macOS, usa ipconfig o ifconfig para encontrar la dirección IP.
Clona el repositorio y entra en la carpeta server/.
git clone --depth 1 https://github.com/Fosowl/agenticSeek.git
cd agenticSeek/llm_server/
Instala los requisitos específicos del servidor:
pip3 install -r requirements.txt
Ejecuta el script del servidor.
python3 app.py --provider ollama --port 3333
Puedes elegir entre usar ollama y llamacpp como servicio LLM.
Ahora en tu computadora personal:
Cambia el archivo config.ini para establecer provider_name como server y provider_model como deepseek-r1:xxb.
Establece provider_server_address a la dirección IP de la máquina que ejecutará el modelo.
[MAIN]
is_local = False
provider_name = server
provider_model = deepseek-r1:70b
provider_server_address = http://x.x.x.x:3333
Siguiente paso: Iniciar servicios y ejecutar AgenticSeek
Advertencia: La voz a texto solo funciona en modo CLI en este momento.
Ten en cuenta que la voz a texto solo funciona en inglés en este momento.
La funcionalidad de voz a texto está deshabilitada por defecto. Para habilitarla, establece listen en True en el archivo config.ini:
listen = True
Cuando está habilitado, la función de voz a texto escucha una palabra clave de activación, que es el nombre del agente, antes de procesar tu entrada. Puedes personalizar el nombre del agente actualizando el valor agent_name en config.ini:
agent_name = Friday
Para un mejor reconocimiento, recomendamos usar un nombre común en inglés como "John" o "Emma" como nombre de agente.
Una vez que veas que comienza a aparecer la transcripción, di el nombre del agente en voz alta para activarlo (ej: "Friday").
Di tu consulta claramente.
Termina tu solicitud con una frase de confirmación para indicar al sistema que proceda. Ejemplos de frases de confirmación incluyen:
"do it", "go ahead", "execute", "run", "start", "thanks", "would ya", "please", "okay?", "proceed", "continue", "go on", "do that", "go it", "do you understand?"
Ejemplo de configuración:
[MAIN]
is_local = True
provider_name = ollama
provider_model = deepseek-r1:32b
provider_server_address = http://127.0.0.1:11434 # Ejemplo de Ollama; LM-Studio usa http://127.0.0.1:1234
agent_name = Friday
recover_last_session = False
save_session = False
speak = False
listen = False
jarvis_personality = False
languages = en zh # Lista de idiomas para TTS y enrutamiento potencial.
[BROWSER]
headless_browser = False
stealth_mode = False
Explicación de la configuración de config.ini:
[MAIN]:
is_local: True si usas proveedores de LLM locales (Ollama, LM-Studio, servidor local compatible con OpenAI) o la opción de servidor autoalojado. False si usas API basadas en la nube (OpenAI, Google, etc.).provider_name: Especifica el proveedor de LLM.
ollama, lm-studio, openai (para servidor local compatible con OpenAI), server (para configuración de servidor autoalojado).openai, google, deepseek, huggingface, togetherAI.provider_model: Nombre o ID específico del modelo del proveedor seleccionado (ej: deepseekcoder:6.7b para Ollama, gpt-3.5-turbo para API de OpenAI, mistralai/Mixtral-8x7B-Instruct-v0.1 para TogetherAI).provider_server_address: La dirección de tu proveedor de LLM.
http://127.0.0.1:11434 para Ollama, http://127.0.0.1:1234 para LM-Studio.server: La dirección de tu servidor LLM autoalojado (ej: http://your_server_ip:3333).is_local = False): Esto generalmente se ignora o puede dejarse en blanco, ya que los endpoints de API suelen ser manejados por las bibliotecas del cliente.agent_name: El nombre del asistente de IA (ej: Friday). Si está habilitado, se utiliza como palabra de activación para voz a texto.recover_last_session: True para intentar recuperar el estado de la sesión anterior, False para comenzar de nuevo.save_session: True para guardar el estado de la sesión actual para una posible recuperación, False en caso contrario.speak: True para habilitar la salida de voz de texto a voz, False para deshabilitar.listen: True para habilitar la entrada de voz de voz a texto (solo modo CLI), False para deshabilitar.work_dir: Crítico: El directorio donde AgenticSeek leerá/escribirá archivos. Asegúrate de que esta ruta sea válida y accesible en tu sistema.jarvis_personality: True para usar prompts del sistema más al estilo "Jarvis" (experimental), False para usar prompts estándar.languages: Lista de idiomas separados por comas (ej: en, zh, fr). Se utiliza para la selección de voz TTS (predeterminado el primero) y puede ayudar al enrutador LLM. Para evitar ineficiencias del enrutador, evita usar demasiados idiomas o idiomas muy similares.[BROWSER]:
headless_browser: True para ejecutar el navegador automatizado sin una ventana visible (recomendado para interfaz web o uso no interactivo). False para mostrar la ventana del navegador (útil para modo CLI o depuración).stealth_mode: True para habilitar medidas que dificultan la detección de la automatización del navegador. Puede requerir la instalación manual de extensiones del navegador como anticaptcha.Esta sección resume los tipos de proveedores de LLM admitidos. Configúralos en config.ini.
Proveedores locales (ejecutándose en tu propio hardware):
| Nombre del proveedor en config.ini | is_local | Descripción | Sección de configuración |
|---|---|---|---|
ollama | True | Proporciona LLM localmente fácilmente usando Ollama. | Configuración para ejecutar LLM localmente en tu máquina |
lm-studio | True | Proporciona LLM localmente con LM-Studio. | Configuración para ejecutar LLM localmente en tu máquina |
openai (para servidor local) | True | Conéctate a un servidor local que exponga una API compatible con OpenAI (ej: llama.cpp). | Configuración para ejecutar LLM localmente en tu máquina |
server | False | Conéctate al servidor LLM autoalojado de AgenticSeek que se ejecuta en otra máquina. | Configuración para ejecutar LLM en tu propio servidor |
Proveedores de API (basados en la nube):
| Nombre del proveedor en config.ini | is_local | Descripción | Sección de configuración |
|---|---|---|---|
openai | False | Usa la API oficial de OpenAI (ej: GPT-3.5, GPT-4). | Configuración para ejecutar con una API |
google | False | Usa modelos Google Gemini a través de API. | Configuración para ejecutar con una API |
deepseek | False | Usa la API oficial de Deepseek. | Configuración para ejecutar con una API |
huggingface | False | Usa Hugging Face Inference API. | Configuración para ejecutar con una API |
togetherAI | False | Usa varios modelos abiertos a través de la API de TogetherAI. | Configuración para ejecutar con una API |
Si encuentras problemas, esta sección proporciona orientación.
Ejemplo de error: SessionNotCreatedException: Message: session not created: This version of ChromeDriver only supports Chrome version XXX
La incompatibilidad de versión de ChromeDriver ocurre cuando:
undetected_chromedriver puede descargar su propia versión de ChromeDriver, evitando los binarios montadosAbre Google Chrome → Configuración > Acerca de Chrome para encontrar tu versión (ej: "Versión 134.0.6998.88")
Para Chrome 115 y versiones más recientes: Usa Chrome for Testing API
Para versiones antiguas de Chrome: Usa Descargas heredadas de ChromeDriver
Método A: Directorio raíz del proyecto (recomendado para Docker)
# Coloca el binario de chromedriver descargado en el directorio raíz del proyecto
cp path/to/downloaded/chromedriver ./chromedriver
chmod +x ./chromedriver # Hazlo ejecutable en Linux/macOS
Método B: PATH del sistema
# Linux/macOS
sudo mv chromedriver /usr/local/bin/
sudo chmod +x /usr/local/bin/chromedriver
# Windows: Coloca chromedriver.exe en una carpeta en PATH
# Prueba la versión de ChromeDriver
./chromedriver --version
# O si está en PATH:
chromedriver --version
⚠️ Importante para usuarios de Docker:
undetected_chromedriver)./chromedriver"Using ChromeDriver from project root: ./chromedriver"¿Sigues teniendo incompatibilidad de versión?
ls -la ./chromedriver./chromedriver --version¿Problemas con el contenedor Docker?
docker logs backend"Using ChromeDriver from project root"Versiones de Chrome for Testing
| Versión de Chrome | Versión de ChromeDriver | Estado |
|---|---|---|
| 134.0.6998.x | 134.0.6998.165 | ✅ Disponible |
| 133.0.6943.x | 133.0.6943.141 | ✅ Disponible |
| 132.0.6834.x | 132.0.6834.159 | ✅ Disponible |
Para la compatibilidad más reciente, consulta el Panel de Chrome for Testing
Exception: Failed to initialize browser: Message: session not created: This version of ChromeDriver only supports Chrome version 113 Current browser version is 134.0.6998.89 with binary path
Esto sucede si tu navegador y la versión de chromedriver no coinciden.
Necesitas navegar para descargar la versión más reciente:
https://developer.chrome.com/docs/chromedriver/downloads
Si usas Chrome versión 115 o superior, ve a:
https://googlechromelabs.github.io/chrome-for-testing/
y descarga la versión de chromedriver que coincida con tu sistema operativo.
Si esta sección está incompleta, abre un issue.
Exception: Provider lm-studio failed: HTTP request failed: No connection adapters were found for '127.0.0.1:1234/v1/chat/completions'` (nota: el puerto puede variar)
http:// en provider_server_address para lm-studio (u otro servidor local compatible con OpenAI similar) en config.ini, o apunta al puerto incorrecto.http://. LM-Studio normalmente usa http://127.0.0.1:1234 por defecto.config.ini correcto: provider_server_address = http://127.0.0.1:1234 (o tu puerto real del servidor LM-Studio).raise ValueError("SearxNG base URL must be provided either as an argument or via the SEARXNG_BASE_URL environment variable.")
ValueError: SearxNG base URL must be provided either as an argument or via the SEARXNG_BASE_URL environment variable.`
Esto puede ocurrir si ejecutas el modo CLI con la URL base de searxng incorrecta.
SEARXNG_BASE_URL debe diferir según si ejecutas en Docker o en el host:
Ejecutando en el host: SEARXNG_BASE_URL="http://localhost:8080"
Ejecutando completamente en Docker (interfaz web): SEARXNG_BASE_URL="http://searxng:8080"
P: ¿Qué hardware necesito?
| Tamaño del modelo | GPU | Comentarios |
|---|---|---|
| 7B | 8GB VRAM | ⚠️ No recomendado. Rendimiento pobre, alucinaciones frecuentes, los agentes de planificación pueden fallar. |
| 14B | 12 GB VRAM (ej: RTX 3060) | ✅ Utilizable para tareas simples. Puede tener dificultades con la navegación web y la planificación de tareas. |
| 32B | 24+ GB VRAM (ej: RTX 4090) | 🚀 Éxito en la mayoría de las tareas, aún puede tener dificultades con la planificación de tareas |
| 70B+ | 48+ GB VRAM | 💪 Excelente. Recomendado para casos de uso avanzados. |
P: ¿Qué hago si encuentro errores?
Asegúrate de que lo local esté ejecutándose (ollama serve), que tu config.ini coincida con tu proveedor y que las dependencias estén instaladas. Si nada funciona, no dudes en abrir un issue.
P: ¿Realmente puede ejecutarse 100% localmente?
Sí, con proveedores Ollama, lm-studio o server, todos los modelos de voz a texto, LLM y texto a voz se ejecutan localmente. Las opciones no locales (OpenAI u otras API) son opcionales.
P: ¿Por qué debería usar AgenticSeek cuando tengo Manus?
A diferencia de Manus, AgenticSeek prioriza la independencia de los sistemas externos, dándote más control, privacidad y evitando costos de API.
P: ¿Quién está detrás de este proyecto?
Este proyecto fue creado por mí, con dos amigos como mantenedores y contribuyentes de la comunidad de código abierto en GitHub. Solo somos individuos apasionados, no una startup, ni estamos afiliados a ninguna organización.
Cualquier cuenta de AgenticSeek en X además de mi cuenta personal (https://x.com/Martin993886460) es impostora.
¡Buscamos desarrolladores para mejorar AgenticSeek! Revisa los issues abiertos o discusiones.
¿Quieres mejorar las capacidades de AgenticSeek con funciones como búsqueda de vuelos, planificación de viajes o obtención de las mejores ofertas de compras? Considera usar SerpApi para crear herramientas personalizadas que desbloqueen más funcionalidades al estilo Jarvis. Con SerpApi, puedes acelerar tu agente para tareas profesionales mientras mantienes el control total.
<a href="https://serpapi.com/"></a>
¡Consulta Contributing.md para aprender cómo integrar herramientas personalizadas!
Fosowl | Hora de París
antoineVIVIES | Hora de Taipei
tcsenpai y plitc por ayudar con la dockerización del backend