docs/project/README.it.md
<a href="https://picoclaw.io"></a>
<a href="https://docs.picoclaw.io/"></a>
<a href="https://deepwiki.com/sipeed/picoclaw"></a>
<a href="https://x.com/SipeedIO"></a>
<a href="../../assets/wechat.png"></a>
<a href="https://discord.gg/V4sAZ9XWpN"></a>
中文 | 日本語 | 한국어 | Português | Tiếng Việt | Français | Italiano | Bahasa Indonesia | Malay | English
</div>PicoClaw è un progetto open-source indipendente avviato da Sipeed, scritto interamente in Go da zero — non è un fork di OpenClaw, NanoBot o di qualsiasi altro progetto.
PicoClaw è un assistente IA personale ultra-leggero ispirato a NanoBot. È stato riscritto da zero in Go attraverso un processo di "auto-bootstrapping" — l'Agent IA stesso ha guidato la migrazione architetturale e l'ottimizzazione del codice.
Funziona su hardware da $10 con <10MB di RAM — il 99% di memoria in meno rispetto a OpenClaw e il 98% più economico di un Mac mini!
<table align="center"> <tr align="center"> <td align="center" valign="top"> <p align="center"> </p> </td> <td align="center" valign="top"> <p align="center"> </p> </td> </tr> </table>[!CAUTION] Avviso di Sicurezza
- NESSUNA CRYPTO: PicoClaw non ha emesso token o criptovalute ufficiali. Qualsiasi annuncio su
pump.funo altre piattaforme di trading è una truffa.- DOMINIO UFFICIALE: L'UNICO sito ufficiale è picoclaw.io, e il sito aziendale è sipeed.com
- ATTENZIONE: Molti domini
.ai/.org/.com/.net/...sono stati registrati da terze parti. Non fidarti di essi.- NOTA: PicoClaw è in fase di sviluppo iniziale rapido. Potrebbero esserci problemi di sicurezza non risolti. Non distribuire in produzione prima della v1.0.
- NOTA: PicoClaw ha recentemente unito molte PR. Le build recenti potrebbero usare 10-20MB di RAM. L'ottimizzazione delle risorse è pianificata dopo la stabilizzazione delle funzionalità.
2026-03-31 📱 Supporto Android! PicoClaw ora funziona su Android! Scarica l'APK su picoclaw.io
2026-03-25 🚀 v0.2.4 rilasciata! Revisione dell'architettura Agent (SubTurn, Hooks, Steering, EventBus), integrazione WeChat/WeCom, rafforzamento della sicurezza (.security.yml, filtraggio dati sensibili), nuovi provider (AWS Bedrock, Azure, Xiaomi MiMo) e 35 correzioni di bug. PicoClaw raggiunge 26K Stars!
2026-03-17 🚀 v0.2.3 rilasciata! Interfaccia system tray (Windows & Linux), query sullo stato dei sub-agent (spawn_status), hot-reload sperimentale del Gateway, gate di sicurezza per Cron e 2 correzioni di sicurezza. PicoClaw raggiunge 25K Stars!
2026-03-09 🎉 v0.2.1 — Il più grande aggiornamento di sempre! Supporto al protocollo MCP, 4 nuovi canali (Matrix/IRC/WeCom/Discord Proxy), 3 nuovi provider (Kimi/Minimax/Avian), pipeline visiva, archivio memoria JSONL, routing dei modelli.
2026-02-28 📦 v0.2.0 rilasciata con supporto Docker Compose e Web UI Launcher.
<details> <summary>Notizie precedenti...</summary>2026-02-26 🎉 PicoClaw raggiunge 20K stelle in soli 17 giorni! Orchestrazione automatica dei canali e interfacce di capacità sono attive.
2026-02-16 🎉 PicoClaw supera 12K stelle in una settimana! Ruoli di maintainer della community e Roadmap pubblicati ufficialmente.
2026-02-13 🎉 PicoClaw supera 5000 stelle in 4 giorni! Roadmap del progetto e gruppi sviluppatori in fase di avvio.
2026-02-09 🎉 PicoClaw lanciato! Costruito in 1 giorno per portare gli AI Agent su hardware da $10 con <10MB di RAM. Let's Go, PicoClaw!
</details>🪶 Ultra-Leggero: Impronta di memoria <10MB — il 99% più piccolo rispetto a OpenClaw.*
💰 Costo Minimo: Abbastanza efficiente da girare su hardware da $10 — il 98% più economico di un Mac mini.
⚡️ Avvio Fulmineo: Avvio 400 volte più veloce. Boot in meno di 1 secondo anche su un singolo core a 0,6 GHz.
🌍 Vera Portabilità: Singolo binario per RISC-V, ARM, MIPS e x86. Un binario, funziona ovunque!
🤖 Auto-Costruito dall'IA: Implementazione nativa in Go — il 95% del codice core è stato generato da un Agent e perfezionato tramite revisione umana nel ciclo.
🔌 Supporto MCP: Integrazione nativa del Model Context Protocol — connetti qualsiasi server MCP per estendere le capacità dell'Agent.
👁️ Pipeline di Visione: Invia immagini e file direttamente all'Agent — codifica base64 automatica per LLM multimodali.
🧠 Routing Intelligente: Routing dei modelli basato su regole — le query semplici vanno verso modelli leggeri, risparmiando sui costi API.
*Le build recenti potrebbero usare 10-20MB a causa delle fusioni rapide di PR. L'ottimizzazione delle risorse è pianificata. Il confronto dell'avvio è basato su benchmark con singolo core a 0,8 GHz (vedi tabella sotto).
<div align="center">| OpenClaw | NanoBot | PicoClaw | |
|---|---|---|---|
| Linguaggio | TypeScript | Python | Go |
| RAM | >1GB | >100MB | < 10MB* |
| Avvio</br>(core 0,8 GHz) | >500s | >30s | <1s |
| Costo | Mac Mini $599 | La maggior parte degli SBC Linux ~$50 | Qualsiasi scheda Linux</br>a partire da $10 |
<p align="center"> </p>Lista di Compatibilità Hardware — Vedi tutte le schede testate, dai $5 RISC-V al Raspberry Pi ai telefoni Android. La tua scheda non è elencata? Invia una PR!
PicoClaw può essere distribuito su quasi qualsiasi dispositivo Linux!
🌟 Molti altri scenari di deploy ti aspettano!
Visita picoclaw.io — il sito ufficiale rileva automaticamente la tua piattaforma e fornisce il download con un clic. Non è necessario scegliere manualmente l'architettura.
In alternativa, scarica il binario per la tua piattaforma dalla pagina delle GitHub Releases.
Prerequisiti:
git clone https://github.com/sipeed/picoclaw.git
cd picoclaw
make deps
# Installa le dipendenze frontend
(cd web/frontend && pnpm install --frozen-lockfile)
# Compila il binario core
make build
# Compila il Web UI Launcher (necessario per la modalità WebUI)
make build-launcher
# Compila i binari core per tutte le piattaforme gestite dal Makefile
make build-all
# Compila per Raspberry Pi Zero 2 W (32-bit: make build-linux-arm; 64-bit: make build-linux-arm64)
make build-pi-zero
# Compila e installa
make install
Raspberry Pi Zero 2 W: Usa il binario che corrisponde al tuo OS: Raspberry Pi OS 32-bit -> make build-linux-arm; 64-bit -> make build-linux-arm64. Oppure esegui make build-pi-zero per compilare entrambi.
Il WebUI Launcher fornisce un'interfaccia basata su browser per la configurazione e la chat. È il modo più semplice per iniziare — non è richiesta alcuna conoscenza della riga di comando.
Opzione 1: Doppio clic (Desktop)
Dopo aver scaricato da picoclaw.io, fai doppio clic su picoclaw-launcher (o picoclaw-launcher.exe su Windows). Il browser si aprirà automaticamente su http://localhost:18800.
Opzione 2: Riga di comando
picoclaw-launcher
# Apri http://localhost:18800 nel browser
<p align="center"> </p>[!TIP] Accesso remoto / Docker / VM: Aggiungi il flag
-publicper ascoltare su tutte le interfacce:bashpicoclaw-launcher -public
Per iniziare:
Apri il WebUI, poi: 1) Configura un Provider (aggiungi la tua API key LLM) -> 2) Configura un Channel (es. Telegram) -> 3) Avvia il Gateway -> 4) Chatta!
Per la documentazione dettagliata del WebUI, vedi docs.picoclaw.io.
<details> <summary><b>Docker (alternativa)</b></summary># 1. Clona questo repo
git clone https://github.com/sipeed/picoclaw.git
cd picoclaw
# 2. Prima esecuzione — genera automaticamente docker/data/config.json poi si ferma
# (si attiva solo quando sia config.json che workspace/ sono assenti)
docker compose -f docker/docker-compose.yml --profile launcher up
# Il container stampa "First-run setup complete." e si ferma.
# 3. Imposta le tue API key
vim docker/data/config.json
# 4. Avvia
docker compose -f docker/docker-compose.yml --profile launcher up -d
# Apri http://localhost:18800
Utenti Docker / VM: Il Gateway ascolta su
127.0.0.1per impostazione predefinita. ImpostaPICOCLAW_GATEWAY_HOST=0.0.0.0o usa il flag-publicper renderlo accessibile dall'host.
# Controlla i log
docker compose -f docker/docker-compose.yml logs -f
# Ferma
docker compose -f docker/docker-compose.yml --profile launcher down
# Aggiorna
docker compose -f docker/docker-compose.yml pull
docker compose -f docker/docker-compose.yml --profile launcher up -d
macOS potrebbe bloccare picoclaw-launcher al primo avvio perché è stato scaricato da internet e non è notarizzato tramite il Mac App Store.
Passo 1: Fai doppio clic su picoclaw-launcher. Verrà visualizzato un avviso di sicurezza:
"picoclaw-launcher" Non Aperto — Apple non è riuscita a verificare che "picoclaw-launcher" sia privo di malware che potrebbe danneggiare il Mac o compromettere la privacy.
Passo 2: Apri Impostazioni di Sistema → Privacy e sicurezza → scorri fino alla sezione Sicurezza → clicca su Apri comunque → conferma cliccando su Apri comunque nella finestra di dialogo.
<p align="center"> </p>Dopo questo passaggio una tantum, picoclaw-launcher si aprirà normalmente ai lanci successivi.
Dai una seconda vita al tuo telefono di dieci anni fa! Trasformalo in un assistente IA intelligente con PicoClaw.
Opzione 1: Installazione APK
Anteprima:
<table> <tr> <td></td> <td></td> <td></td> <td></td> </tr> </table>Scarica l'APK da picoclaw.io e installa direttamente. Senza Termux!
Opzione 2: Termux
<details> <summary><b>Terminal Launcher (per ambienti con risorse limitate)</b></summary># Scarica l'ultima release
wget https://github.com/sipeed/picoclaw/releases/latest/download/picoclaw_Linux_arm64.tar.gz
tar xzf picoclaw_Linux_arm64.tar.gz
pkg install proot
termux-chroot ./picoclaw onboard # chroot fornisce un layout standard del filesystem Linux
Poi segui la sezione Terminal Launcher qui sotto per completare la configurazione.
Per ambienti minimali dove è disponibile solo il binario core picoclaw (senza Launcher UI), puoi configurare tutto tramite riga di comando e un file di configurazione JSON.
1. Inizializza
picoclaw onboard
Questo crea ~/.picoclaw/config.json e la directory workspace.
2. Configura (~/.picoclaw/config.json)
{
"agents": {
"defaults": {
"model_name": "gpt-5.4"
}
},
"model_list": [
{
"model_name": "gpt-5.4",
"model": "openai/gpt-5.4",
"api_key": "sk-your-api-key"
}
]
}
Vedi
config/config.example.jsonnel repo per un template di configurazione completo con tutte le opzioni disponibili.
3. Chatta
# Domanda singola
picoclaw agent -m "Quanto fa 2+2?"
# Modalità interattiva
picoclaw agent
# Avvia il gateway per l'integrazione con app di chat
picoclaw gateway
PicoClaw supporta 30+ provider LLM tramite la configurazione model_list. Usa il formato protocollo/modello:
| Provider | Protocollo | API Key | Note |
|---|---|---|---|
| OpenAI | openai/ | Richiesta | GPT-5.4, GPT-4o, o3, ecc. |
| Anthropic | anthropic/ | Richiesta | Claude Opus 4.6, Sonnet 4.6, ecc. |
| Google Gemini | gemini/ | Richiesta | Gemini 3 Flash, 2.5 Pro, ecc. |
| OpenRouter | openrouter/ | Richiesta | 200+ modelli, API unificata |
| Zhipu (GLM) | zhipu/ | Richiesta | GLM-4.7, GLM-5, ecc. |
| DeepSeek | deepseek/ | Richiesta | DeepSeek-V3, DeepSeek-R1 |
| Volcengine | volcengine/ | Richiesta | Doubao, modelli Ark |
| Qwen | qwen/ | Richiesta | Qwen3, Qwen-Max, ecc. |
| Groq | groq/ | Richiesta | Inferenza veloce (Llama, Mixtral) |
| Moonshot (Kimi) | moonshot/ | Richiesta | Modelli Kimi |
| Minimax | minimax/ | Richiesta | Modelli MiniMax |
| Mistral | mistral/ | Richiesta | Mistral Large, Codestral |
| NVIDIA NIM | nvidia/ | Richiesta | Modelli ospitati NVIDIA |
| Cerebras | cerebras/ | Richiesta | Inferenza veloce |
| Novita AI | novita/ | Richiesta | Vari modelli open |
| Xiaomi MiMo | mimo/ | Richiesta | Modelli MiMo |
| Ollama | ollama/ | Non necessaria | Modelli locali, self-hosted |
| vLLM | vllm/ | Non necessaria | Deploy locale, compatibile OpenAI |
| LiteLLM | litellm/ | Variabile | Proxy per 100+ provider |
| Azure OpenAI | azure/ | Richiesta | Deploy Azure enterprise |
| GitHub Copilot | github-copilot/ | OAuth | Login con device code |
| Antigravity | antigravity/ | OAuth | Google Cloud AI |
Ollama:
{
"model_list": [
{
"model_name": "local-llama",
"model": "ollama/llama3.1:8b",
"api_base": "http://localhost:11434/v1"
}
]
}
vLLM:
{
"model_list": [
{
"model_name": "local-vllm",
"model": "vllm/your-model",
"api_base": "http://localhost:8000/v1"
}
]
}
Per i dettagli completi sulla configurazione dei provider, vedi Provider & Modelli.
</details>Parla con il tuo PicoClaw attraverso 17+ piattaforme di messaggistica:
| Channel | Configurazione | Protocollo | Docs |
|---|---|---|---|
| Telegram | Facile (bot token) | Long polling | Guida |
| Discord | Facile (bot token + intents) | WebSocket | Guida |
| Facile (QR scan o bridge URL) | Nativo / Bridge | Guida | |
| Weixin | Facile (scan QR nativo) | iLink API | Guida |
| Facile (AppID + AppSecret) | WebSocket | Guida | |
| Slack | Facile (bot + app token) | Socket Mode | Guida |
| Matrix | Medio (homeserver + token) | Sync API | Guida |
| DingTalk | Medio (credenziali client) | Stream | Guida |
| Feishu / Lark | Medio (App ID + Secret) | WebSocket/SDK | Guida |
| LINE | Medio (credenziali + webhook) | Webhook | Guida |
| WeCom | Facile (login QR o manuale) | WebSocket | Guida |
| IRC | Medio (server + nick) | Protocollo IRC | Guida |
| OneBot | Medio (WebSocket URL) | OneBot v11 | Guida |
| MaixCam | Facile (abilita) | TCP socket | Guida |
| Pico | Facile (abilita) | Protocollo nativo | Integrato |
| Pico Client | Facile (WebSocket URL) | WebSocket | Integrato |
Tutti i channel basati su webhook condividono un singolo server HTTP Gateway (
gateway.host:gateway.port, default127.0.0.1:18790). Feishu usa la modalità WebSocket/SDK e non usa il server HTTP condiviso.
La verbosità dei log è controllata da
gateway.log_level(default:warn). Valori supportati:debug,info,warn,error,fatal. Può essere impostato anche tramitePICOCLAW_LOG_LEVEL. Vedi Configurazione per i dettagli.
Per istruzioni dettagliate sulla configurazione dei channel, vedi Configurazione App di Chat.
PicoClaw può cercare sul web per fornire informazioni aggiornate. Configura in tools.web:
| Motore di Ricerca | API Key | Piano Gratuito | Link |
|---|---|---|---|
| DuckDuckGo | Non necessaria | Illimitato | Fallback integrato |
| Baidu Search | Richiesta | 1000 query/giorno | IA, ottimizzato per il cinese |
| Tavily | Richiesta | 1000 query/mese | Ottimizzato per AI Agent |
| Brave Search | Richiesta | 2000 query/mese | Veloce e privato |
| Perplexity | Richiesta | A pagamento | Ricerca potenziata dall'IA |
| SearXNG | Non necessaria | Self-hosted | Metasearch engine gratuito |
| GLM Search | Richiesta | Variabile | Ricerca web Zhipu |
PicoClaw include strumenti integrati per operazioni su file, esecuzione di codice, pianificazione e altro. Vedi Configurazione degli Strumenti per i dettagli.
Le Skill sono capacità modulari che estendono il tuo Agent. Vengono caricate dai file SKILL.md nel tuo workspace.
Installa skill da ClawHub:
picoclaw skills search "web scraping"
picoclaw skills install <skill-name>
Configura il token ClawHub (opzionale, per limiti di frequenza più alti):
Aggiungi al tuo config.json:
{
"tools": {
"skills": {
"registries": {
"clawhub": {
"auth_token": "your-clawhub-token"
}
}
}
}
}
Per maggiori dettagli, vedi Configurazione degli Strumenti - Skill.
PicoClaw supporta nativamente MCP — connetti qualsiasi server MCP per estendere le capacità del tuo Agent con strumenti e sorgenti di dati esterni.
{
"tools": {
"mcp": {
"enabled": true,
"servers": {
"filesystem": {
"enabled": true,
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-filesystem", "/tmp"]
}
}
}
}
}
Puoi gestire i casi MCP più comuni direttamente dalla CLI senza modificare a mano il JSON:
picoclaw mcp add filesystem -- npx -y @modelcontextprotocol/server-filesystem /tmp
picoclaw mcp list
picoclaw mcp test filesystem
picoclaw mcp agisce come configuration manager: aggiorna config.json sotto tools.mcp.servers, ma non mantiene in esecuzione il processo del server.
Usa picoclaw mcp edit quando ti servono campi avanzati che non sono coperti da picoclaw mcp add.
Per esempio, picoclaw mcp add supporta --deferred e --env-file, mentre picoclaw mcp edit resta utile per modifiche JSON dirette e opzioni MCP meno comuni.
Per la configurazione MCP completa (trasporti stdio, SSE, HTTP, Tool Discovery), vedi Configurazione degli Strumenti - MCP. Per la reference della CLI, vedi MCP Server CLI.
Connetti PicoClaw al Social Network degli Agent semplicemente inviando un singolo messaggio tramite CLI o qualsiasi app di chat integrata.
Leggi https://clawdchat.ai/skill.md e segui le istruzioni per unirti a ClawdChat.ai
| Comando | Descrizione |
|---|---|
picoclaw onboard | Inizializza config & workspace |
picoclaw auth weixin | Connetti account WeChat tramite QR |
picoclaw agent -m "..." | Chatta con l'agent |
picoclaw agent | Modalità chat interattiva |
picoclaw gateway | Avvia il gateway |
picoclaw status | Mostra lo stato |
picoclaw version | Mostra le info sulla versione |
picoclaw model | Visualizza o cambia il modello predefinito |
picoclaw mcp list | Elenca i server MCP configurati |
picoclaw mcp add ... | Aggiunge o aggiorna un server MCP |
picoclaw mcp test | Verifica la raggiungibilità di un server MCP |
picoclaw mcp edit | Apre la config per modifiche MCP avanzate |
picoclaw mcp remove | Rimuove un server MCP dalla config |
picoclaw cron list | Elenca tutti i job pianificati |
picoclaw cron add ... | Aggiunge un job pianificato |
picoclaw cron disable | Disabilita un job pianificato |
picoclaw cron remove | Rimuove un job pianificato |
picoclaw skills list | Elenca le skill installate |
picoclaw skills install | Installa una skill |
picoclaw migrate | Migra i dati dalle versioni precedenti |
picoclaw auth login | Autenticazione con i provider |
PicoClaw supporta promemoria pianificati e task ricorrenti tramite lo strumento cron:
Per guide dettagliate oltre questo README:
| Argomento | Descrizione |
|---|---|
| Docker & Avvio Rapido | Configurazione Docker Compose, modalità Launcher/Agent |
| App di Chat | Tutte le guide di configurazione per 17+ channel |
| Configurazione | Variabili d'ambiente, struttura del workspace, sandbox di sicurezza |
| MCP Server CLI | Aggiunta, elenco, test, modifica e rimozione dei server MCP da CLI |
| Provider & Modelli | 30+ provider LLM, routing dei modelli, configurazione model_list |
| Spawn & Task Asincroni | Task veloci, task lunghi con spawn, orchestrazione asincrona di sub-agent |
| Hooks | Sistema di hook event-driven: observer, interceptor, approval hook |
| Steering | Iniettare messaggi in un loop agent in esecuzione |
| SubTurn | Coordinamento subagent, controllo concorrenza, ciclo di vita |
| Risoluzione Problemi | Problemi comuni e soluzioni |
| Configurazione degli Strumenti | Abilitazione/disabilitazione per strumento, politiche exec, MCP, Skill |
| Compatibilità Hardware | Schede testate, requisiti minimi |
Le PR sono benvenute! Il codice è volutamente piccolo e leggibile.
Consulta la nostra Roadmap della Community e CONTRIBUTING.md per le linee guida.
Gruppo sviluppatori in costruzione, unisciti dopo la tua prima PR accettata!
Gruppi utenti:
Discord: https://discord.gg/V4sAZ9XWpN
WeChat: