OpenClaw in locale: guida completa al tuo assistente AI personale

OpenClaw in locale: guida completa al tuo assistente AI personale

113.000 stelle su GitHub in cinque giorni. Non un refuso: centotredici mila. OpenClaw e’ esploso a gennaio 2026 come il progetto open source piu’ virale nella storia recente dell’intelligenza artificiale. E il motivo e’ semplice: trasforma il tuo computer in un assistente AI personale che fa cose, non si limita a parlare.

Mentre ChatGPT e Claude rispondono alle domande, OpenClaw esegue azioni: naviga il web, modifica file, scrive codice, invia messaggi su WhatsApp e Telegram, automatizza workflow. Tutto in locale, sul tuo hardware, senza mandare un singolo byte ai server di nessuno. In questa guida ti mostro come installarlo da zero, configurarlo con un modello AI locale e farlo funzionare in meno di 30 minuti.

Cos’e’ OpenClaw e perche’ dovresti usarlo

OpenClaw e’ un framework di agenti AI autonomi open source. Tradotto in italiano: e’ un programma che collega un modello di intelligenza artificiale a strumenti reali — browser, terminale, file system, app di messaggistica — e gli permette di usarli in autonomia per completare compiti complessi.

Non e’ un chatbot. E’ un assistente operativo. Gli dici “cerca i voli piu’ economici per Londra la prossima settimana e mandami un riepilogo su Telegram” e lui lo fa. Apre il browser, cerca, confronta, e ti manda il messaggio.

La differenza fondamentale tra OpenClaw e un chatbot: il chatbot ti dice come fare qualcosa. OpenClaw la fa al posto tuo.

Perche’ in locale?

Puoi usare OpenClaw con API cloud (OpenAI, Anthropic, Google), ma la vera potenza si sblocca quando lo fai girare completamente in locale con Ollama. Zero costi di API, zero dati che escono dal tuo PC, zero limiti di utilizzo. L’unico requisito e’ avere un computer abbastanza potente.

Requisiti: cosa ti serve prima di iniziare

Prima di toccare il terminale, verifica di avere tutto.

Hardware minimo

  • RAM: 16 GB (per modelli 8B parametri). Con 8 GB puoi usare modelli piu’ piccoli ma l’esperienza sara’ limitata
  • GPU consigliata: qualsiasi NVIDIA con almeno 6 GB di VRAM accelera drasticamente l’inferenza. Senza GPU funziona comunque su CPU, ma piu’ lentamente
  • Spazio disco: almeno 10 GB liberi per Ollama + modello

Software necessario

  • Node.js 22+ — OpenClaw gira su Node.js. Se non ce l’hai, scaricalo da nodejs.org
  • npm — viene installato automaticamente con Node.js
  • Ollama — il motore che fa girare i modelli AI in locale. Lo installiamo insieme
  • Git — utile ma non indispensabile

Verifica la versione di Node.js aprendo il terminale:

node -v

Deve mostrare v22 o superiore. Se hai una versione precedente, aggiorna da nodejs.org.

Passo 1: Installa Ollama

Ollama e’ il programma che scarica e fa girare i modelli AI sul tuo computer. E’ gratuito, open source e funziona su Windows, Mac e Linux.

Windows

Scarica l’installer da ollama.com/download e segui il wizard. Dopo l’installazione, apri il terminale e verifica:

ollama --version

Mac

brew install ollama

Linux

curl -fsSL https://ollama.com/install.sh | sh

Scarica il modello AI

Ora devi scegliere quale “cervello” dare al tuo assistente. Ecco i migliori per OpenClaw:

Modello RAM necessaria Qualita’ Velocita’
Llama 3.3 8B 16 GB Ottima Veloce
Qwen 2.5 7B 8 GB Buona Molto veloce
Gemma 4 12B 16 GB Eccellente Media
Llama 4 Scout 17B 24 GB VRAM Top Media

Per iniziare consiglio Llama 3.3 8B — il miglior compromesso. Scaricalo con:

ollama pull llama3.3

Il download e’ di circa 4.7 GB. Con 8 GB di RAM, usa invece:

ollama pull qwen2.5:7b

Consiglio: usa un modello con almeno 64K token di contesto. OpenClaw lavora con conversazioni lunghe e tool multipli, quindi ha bisogno di spazio per “pensare”. Llama 3.3 8B supporta 128K token: perfetto.

Verifica che funzioni

Avvia Ollama:

ollama serve

In un altro terminale, testa il modello:

ollama run llama3.3 "Dimmi ciao in italiano"

Se risponde, sei pronto per il passo successivo.

Passo 2: Installa OpenClaw

Apri un nuovo terminale (lascia Ollama in esecuzione nell’altro) e installa OpenClaw globalmente con npm:

npm install -g openclaw@latest

L’installazione richiede circa un minuto. Se ricevi un errore di permessi su Mac/Linux, usa:

sudo npm install -g openclaw@latest

Problema comune: “openclaw: command not found”

Se dopo l’installazione il comando non viene riconosciuto, il PATH di npm non e’ configurato. Risolvi cosi’:

Windows — chiudi e riapri il terminale.

Mac/Linux — aggiungi il path globale di npm al tuo profilo:

echo 'export PATH="$(npm config get prefix)/bin:$PATH"' >> ~/.bashrc
source ~/.bashrc

Passo 3: Configurazione iniziale

Lancia il wizard di configurazione:

openclaw onboard --install-daemon

Il wizard ti guidera’ attraverso questi passaggi:

  1. Scelta del provider LLM — seleziona “Ollama (locale)”
  2. URL del server Ollama — lascia il default: http://localhost:11434
  3. Modello — scegli il modello che hai scaricato (es. llama3.3)
  4. Canali di comunicazione — puoi collegare Telegram, WhatsApp, Discord, Slack o usare solo la dashboard web
  5. Installazione daemon — il flag --install-daemon registra OpenClaw come servizio di sistema, cosi’ si riavvia automaticamente se crasha o se riavvii il PC

Configurazione manuale (per chi vuole piu’ controllo)

Se preferisci configurare a mano, il file di configurazione si trova in:

# Windows
%USERPROFILE%\.openclaw\config.yaml

# Mac/Linux
~/.openclaw/config.yaml

Un esempio di configurazione minima:

llm:
  provider: ollama
  model: llama3.3
  base_url: http://localhost:11434
  context_length: 65536

gateway:
  port: 3700
  dashboard: true

skills:
  - web-search
  - web-fetch
  - file-manager
  - code-runner

Passo 4: Primo avvio e test

Avvia OpenClaw:

openclaw start

Apri il browser su http://localhost:3700 — vedrai la dashboard di OpenClaw. Da qui puoi:

  • Chattare con il tuo agente AI
  • Vedere i task in esecuzione
  • Monitorare l’uso delle risorse
  • Configurare skill e plugin

Prova a scrivergli qualcosa di concreto:

Cerca le ultime notizie su NVIDIA RTX 5070 Ti e fammi un riassunto

Se tutto funziona, vedrai OpenClaw aprire il browser in background, cercare le notizie, leggerle e restituirti un riassunto strutturato. Il tutto senza uscire dalla dashboard.

Passo 5: Collegare Telegram (opzionale ma potente)

La vera magia di OpenClaw e’ poterlo usare da qualsiasi dispositivo tramite Telegram. Ecco come:

  1. Apri Telegram e cerca @BotFather
  2. Scrivi /newbot e segui le istruzioni per creare un bot
  3. Copia il token che ti viene dato
  4. Nel file config.yaml aggiungi:
    channels:
      telegram:
        token: "IL_TUO_TOKEN_BOT"
        allowed_users:
          - IL_TUO_USER_ID
  5. Riavvia OpenClaw: openclaw restart

Ora puoi mandare messaggi al tuo bot Telegram e OpenClaw eseguira’ le azioni dal tuo PC. Sei al bar, mandi un messaggio “scarica l’ultimo report vendite e mandamelo qui” e lui lo fa. Dal tuo computer, in locale.

Skill e MCP: espandere le capacita’

OpenClaw supporta il protocollo MCP (Model Context Protocol) di Anthropic, che permette di aggiungere strumenti esterni come plugin. Alcuni gia’ inclusi:

  • web-search — cerca su Google e legge i risultati
  • web-fetch — scarica e analizza pagine web
  • file-manager — crea, legge, modifica file sul tuo PC
  • code-runner — esegue codice Python, JavaScript, Bash

Per installare skill aggiuntive dalla community:

openclaw skill install @community/gmail-reader
openclaw skill install @community/calendar-sync
openclaw skill install @community/screenshot

Creare una skill personalizzata

Puoi creare le tue skill. Un esempio semplice che controlla il meteo:

openclaw skill create meteo-locale

Questo crea una cartella con un template. Modifica il file principale per definire cosa fa la skill, quali parametri accetta e come restituisce i risultati. OpenClaw documentera’ automaticamente la skill e la rendera’ disponibile all’agente.

Quale modello scegliere: la guida pratica

Dopo aver testato diversi modelli con OpenClaw, ecco i miei consigli in base all’hardware:

Hai 8 GB di RAM (no GPU dedicata)

Usa Qwen 2.5 7B. E’ il piu’ efficiente: risposte veloci, buona comprensione dell’italiano, consuma poca memoria. Non eccelle nel coding complesso ma per task quotidiani e’ piu’ che sufficiente.

ollama pull qwen2.5:7b

Hai 16 GB di RAM

Vai con Llama 3.3 8B. Il miglior equilibrio tra qualita’ e velocita’. Ottimo in italiano, eccellente nel coding, gestisce bene le conversazioni lunghe con 128K di contesto.

ollama pull llama3.3

Hai 16+ GB di RAM e una GPU con 8+ GB VRAM

Prova Gemma 4 12B. E’ il modello open source piu’ recente di Google, nativamente multimodale — capisce anche le immagini. La qualita’ del ragionamento e’ vicina ai modelli cloud.

ollama pull gemma4:12b

Hai 24+ GB di VRAM (RTX 3090/4090/5070 Ti+)

Il top assoluto e’ Llama 4 Scout 17B. Multimodale, multilingue, qualita’ che rivaleggia con GPT-4o. E’ il modello che uso io quotidianamente.

ollama pull llama4-scout

Pro tip: se hai una GPU NVIDIA, assicurati che Ollama la stia usando. Controlla con ollama ps durante l’inferenza — deve mostrare “gpu” nella colonna del processore. Se mostra “cpu”, reinstalla i driver CUDA.

Comandi essenziali da ricordare

Un cheat sheet dei comandi che userai piu’ spesso:

# Installa/Aggiorna OpenClaw
npm install -g openclaw@latest

# Avvia
openclaw start

# Ferma
openclaw stop

# Riavvia
openclaw restart

# Stato
openclaw status

# Vedi i log
openclaw logs

# Aggiorna il modello Ollama
ollama pull llama3.3

# Lista modelli installati
ollama list

# Installa una skill
openclaw skill install @community/nome-skill

# Crea una skill personalizzata
openclaw skill create nome-skill

Un assistente AI che e’ davvero tuo

La bellezza di OpenClaw in locale non e’ solo la privacy o il risparmio sulle API. E’ la liberta’. Nessun limite di utilizzo. Nessun “hai raggiunto il limite giornaliero”. Nessuna azienda che decide cosa puoi o non puoi chiedere al tuo assistente.

Con un modello da 8 miliardi di parametri che gira sulla tua GPU, hai un assistente disponibile 24 ore su 24 che puo’ cercare informazioni, scrivere codice, gestire file, mandare messaggi — tutto dal tuo hardware, con i tuoi dati che restano tuoi.

Ci siamo abituati a pensare che l’intelligenza artificiale viva nel cloud. OpenClaw dimostra che il futuro e’ anche — e forse soprattutto — locale.

Installalo, giocaci, rompi le cose, e scopri cosa puo’ fare per te. Il terminale e’ aperto. Inizia con npm install -g openclaw@latest e vai.

Comments

No comments yet. Why don’t you start the discussion?

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *