113.000 stelle su GitHub in cinque giorni. Non un refuso: centotredici mila. OpenClaw e’ esploso a gennaio 2026 come il progetto open source piu’ virale nella storia recente dell’intelligenza artificiale. E il motivo e’ semplice: trasforma il tuo computer in un assistente AI personale che fa cose, non si limita a parlare.
Mentre ChatGPT e Claude rispondono alle domande, OpenClaw esegue azioni: naviga il web, modifica file, scrive codice, invia messaggi su WhatsApp e Telegram, automatizza workflow. Tutto in locale, sul tuo hardware, senza mandare un singolo byte ai server di nessuno. In questa guida ti mostro come installarlo da zero, configurarlo con un modello AI locale e farlo funzionare in meno di 30 minuti.
Cos’e’ OpenClaw e perche’ dovresti usarlo
OpenClaw e’ un framework di agenti AI autonomi open source. Tradotto in italiano: e’ un programma che collega un modello di intelligenza artificiale a strumenti reali — browser, terminale, file system, app di messaggistica — e gli permette di usarli in autonomia per completare compiti complessi.
Non e’ un chatbot. E’ un assistente operativo. Gli dici “cerca i voli piu’ economici per Londra la prossima settimana e mandami un riepilogo su Telegram” e lui lo fa. Apre il browser, cerca, confronta, e ti manda il messaggio.
La differenza fondamentale tra OpenClaw e un chatbot: il chatbot ti dice come fare qualcosa. OpenClaw la fa al posto tuo.
Perche’ in locale?
Puoi usare OpenClaw con API cloud (OpenAI, Anthropic, Google), ma la vera potenza si sblocca quando lo fai girare completamente in locale con Ollama. Zero costi di API, zero dati che escono dal tuo PC, zero limiti di utilizzo. L’unico requisito e’ avere un computer abbastanza potente.
Requisiti: cosa ti serve prima di iniziare
Prima di toccare il terminale, verifica di avere tutto.
Hardware minimo
- RAM: 16 GB (per modelli 8B parametri). Con 8 GB puoi usare modelli piu’ piccoli ma l’esperienza sara’ limitata
- GPU consigliata: qualsiasi NVIDIA con almeno 6 GB di VRAM accelera drasticamente l’inferenza. Senza GPU funziona comunque su CPU, ma piu’ lentamente
- Spazio disco: almeno 10 GB liberi per Ollama + modello
Software necessario
- Node.js 22+ — OpenClaw gira su Node.js. Se non ce l’hai, scaricalo da nodejs.org
- npm — viene installato automaticamente con Node.js
- Ollama — il motore che fa girare i modelli AI in locale. Lo installiamo insieme
- Git — utile ma non indispensabile
Verifica la versione di Node.js aprendo il terminale:
node -v
Deve mostrare v22 o superiore. Se hai una versione precedente, aggiorna da nodejs.org.
Passo 1: Installa Ollama
Ollama e’ il programma che scarica e fa girare i modelli AI sul tuo computer. E’ gratuito, open source e funziona su Windows, Mac e Linux.
Windows
Scarica l’installer da ollama.com/download e segui il wizard. Dopo l’installazione, apri il terminale e verifica:
ollama --version
Mac
brew install ollama
Linux
curl -fsSL https://ollama.com/install.sh | sh
Scarica il modello AI
Ora devi scegliere quale “cervello” dare al tuo assistente. Ecco i migliori per OpenClaw:
| Modello | RAM necessaria | Qualita’ | Velocita’ |
|---|---|---|---|
| Llama 3.3 8B | 16 GB | Ottima | Veloce |
| Qwen 2.5 7B | 8 GB | Buona | Molto veloce |
| Gemma 4 12B | 16 GB | Eccellente | Media |
| Llama 4 Scout 17B | 24 GB VRAM | Top | Media |
Per iniziare consiglio Llama 3.3 8B — il miglior compromesso. Scaricalo con:
ollama pull llama3.3
Il download e’ di circa 4.7 GB. Con 8 GB di RAM, usa invece:
ollama pull qwen2.5:7b
Consiglio: usa un modello con almeno 64K token di contesto. OpenClaw lavora con conversazioni lunghe e tool multipli, quindi ha bisogno di spazio per “pensare”. Llama 3.3 8B supporta 128K token: perfetto.
Verifica che funzioni
Avvia Ollama:
ollama serve
In un altro terminale, testa il modello:
ollama run llama3.3 "Dimmi ciao in italiano"
Se risponde, sei pronto per il passo successivo.
Passo 2: Installa OpenClaw
Apri un nuovo terminale (lascia Ollama in esecuzione nell’altro) e installa OpenClaw globalmente con npm:
npm install -g openclaw@latest
L’installazione richiede circa un minuto. Se ricevi un errore di permessi su Mac/Linux, usa:
sudo npm install -g openclaw@latest
Problema comune: “openclaw: command not found”
Se dopo l’installazione il comando non viene riconosciuto, il PATH di npm non e’ configurato. Risolvi cosi’:
Windows — chiudi e riapri il terminale.
Mac/Linux — aggiungi il path globale di npm al tuo profilo:
echo 'export PATH="$(npm config get prefix)/bin:$PATH"' >> ~/.bashrc
source ~/.bashrc
Passo 3: Configurazione iniziale
Lancia il wizard di configurazione:
openclaw onboard --install-daemon
Il wizard ti guidera’ attraverso questi passaggi:
- Scelta del provider LLM — seleziona “Ollama (locale)”
- URL del server Ollama — lascia il default:
http://localhost:11434 - Modello — scegli il modello che hai scaricato (es.
llama3.3) - Canali di comunicazione — puoi collegare Telegram, WhatsApp, Discord, Slack o usare solo la dashboard web
- Installazione daemon — il flag
--install-daemonregistra OpenClaw come servizio di sistema, cosi’ si riavvia automaticamente se crasha o se riavvii il PC
Configurazione manuale (per chi vuole piu’ controllo)
Se preferisci configurare a mano, il file di configurazione si trova in:
# Windows
%USERPROFILE%\.openclaw\config.yaml
# Mac/Linux
~/.openclaw/config.yaml
Un esempio di configurazione minima:
llm:
provider: ollama
model: llama3.3
base_url: http://localhost:11434
context_length: 65536
gateway:
port: 3700
dashboard: true
skills:
- web-search
- web-fetch
- file-manager
- code-runner
Passo 4: Primo avvio e test
Avvia OpenClaw:
openclaw start
Apri il browser su http://localhost:3700 — vedrai la dashboard di OpenClaw. Da qui puoi:
- Chattare con il tuo agente AI
- Vedere i task in esecuzione
- Monitorare l’uso delle risorse
- Configurare skill e plugin
Prova a scrivergli qualcosa di concreto:
Cerca le ultime notizie su NVIDIA RTX 5070 Ti e fammi un riassunto
Se tutto funziona, vedrai OpenClaw aprire il browser in background, cercare le notizie, leggerle e restituirti un riassunto strutturato. Il tutto senza uscire dalla dashboard.
Passo 5: Collegare Telegram (opzionale ma potente)
La vera magia di OpenClaw e’ poterlo usare da qualsiasi dispositivo tramite Telegram. Ecco come:
- Apri Telegram e cerca @BotFather
- Scrivi
/newbote segui le istruzioni per creare un bot - Copia il token che ti viene dato
- Nel file
config.yamlaggiungi:channels: telegram: token: "IL_TUO_TOKEN_BOT" allowed_users: - IL_TUO_USER_ID - Riavvia OpenClaw:
openclaw restart
Ora puoi mandare messaggi al tuo bot Telegram e OpenClaw eseguira’ le azioni dal tuo PC. Sei al bar, mandi un messaggio “scarica l’ultimo report vendite e mandamelo qui” e lui lo fa. Dal tuo computer, in locale.
Skill e MCP: espandere le capacita’
OpenClaw supporta il protocollo MCP (Model Context Protocol) di Anthropic, che permette di aggiungere strumenti esterni come plugin. Alcuni gia’ inclusi:
- web-search — cerca su Google e legge i risultati
- web-fetch — scarica e analizza pagine web
- file-manager — crea, legge, modifica file sul tuo PC
- code-runner — esegue codice Python, JavaScript, Bash
Per installare skill aggiuntive dalla community:
openclaw skill install @community/gmail-reader
openclaw skill install @community/calendar-sync
openclaw skill install @community/screenshot
Creare una skill personalizzata
Puoi creare le tue skill. Un esempio semplice che controlla il meteo:
openclaw skill create meteo-locale
Questo crea una cartella con un template. Modifica il file principale per definire cosa fa la skill, quali parametri accetta e come restituisce i risultati. OpenClaw documentera’ automaticamente la skill e la rendera’ disponibile all’agente.
Quale modello scegliere: la guida pratica
Dopo aver testato diversi modelli con OpenClaw, ecco i miei consigli in base all’hardware:
Hai 8 GB di RAM (no GPU dedicata)
Usa Qwen 2.5 7B. E’ il piu’ efficiente: risposte veloci, buona comprensione dell’italiano, consuma poca memoria. Non eccelle nel coding complesso ma per task quotidiani e’ piu’ che sufficiente.
ollama pull qwen2.5:7b
Hai 16 GB di RAM
Vai con Llama 3.3 8B. Il miglior equilibrio tra qualita’ e velocita’. Ottimo in italiano, eccellente nel coding, gestisce bene le conversazioni lunghe con 128K di contesto.
ollama pull llama3.3
Hai 16+ GB di RAM e una GPU con 8+ GB VRAM
Prova Gemma 4 12B. E’ il modello open source piu’ recente di Google, nativamente multimodale — capisce anche le immagini. La qualita’ del ragionamento e’ vicina ai modelli cloud.
ollama pull gemma4:12b
Hai 24+ GB di VRAM (RTX 3090/4090/5070 Ti+)
Il top assoluto e’ Llama 4 Scout 17B. Multimodale, multilingue, qualita’ che rivaleggia con GPT-4o. E’ il modello che uso io quotidianamente.
ollama pull llama4-scout
Pro tip: se hai una GPU NVIDIA, assicurati che Ollama la stia usando. Controlla con
ollama psdurante l’inferenza — deve mostrare “gpu” nella colonna del processore. Se mostra “cpu”, reinstalla i driver CUDA.
Comandi essenziali da ricordare
Un cheat sheet dei comandi che userai piu’ spesso:
# Installa/Aggiorna OpenClaw
npm install -g openclaw@latest
# Avvia
openclaw start
# Ferma
openclaw stop
# Riavvia
openclaw restart
# Stato
openclaw status
# Vedi i log
openclaw logs
# Aggiorna il modello Ollama
ollama pull llama3.3
# Lista modelli installati
ollama list
# Installa una skill
openclaw skill install @community/nome-skill
# Crea una skill personalizzata
openclaw skill create nome-skill
Un assistente AI che e’ davvero tuo
La bellezza di OpenClaw in locale non e’ solo la privacy o il risparmio sulle API. E’ la liberta’. Nessun limite di utilizzo. Nessun “hai raggiunto il limite giornaliero”. Nessuna azienda che decide cosa puoi o non puoi chiedere al tuo assistente.
Con un modello da 8 miliardi di parametri che gira sulla tua GPU, hai un assistente disponibile 24 ore su 24 che puo’ cercare informazioni, scrivere codice, gestire file, mandare messaggi — tutto dal tuo hardware, con i tuoi dati che restano tuoi.
Ci siamo abituati a pensare che l’intelligenza artificiale viva nel cloud. OpenClaw dimostra che il futuro e’ anche — e forse soprattutto — locale.
Installalo, giocaci, rompi le cose, e scopri cosa puo’ fare per te. Il terminale e’ aperto. Inizia con npm install -g openclaw@latest e vai.

