Dimenticate tutto quello che sapevate sull’intelligenza artificiale. In meno di quattro mesi, il 2026 ha riscritto le regole del gioco con una raffica di lanci che nemmeno i piu’ ottimisti avrebbero previsto. E il bello — o il terrificante, a seconda dei punti di vista — e’ che siamo solo all’inizio.
Mentre scriviamo, tre modelli frontier si contendono il trono del secondo trimestre: GPT-5.5 di OpenAI, DeepSeek V4 dalla Cina e Grok 5 di xAI. Ma la vera notizia non e’ chi vincera’ questa corsa. E’ che il concetto stesso di “modello migliore” sta perdendo di significato.
La mossa a sorpresa di Meta: Llama 4 cambia tutto
Meta ha calato il suo asso ad aprile con il rilascio simultaneo di tre varianti di Llama 4, e il messaggio e’ chiaro: l’open source non e’ piu’ il fratello minore dei modelli proprietari.
Llama 4 Scout, con i suoi 17 miliardi di parametri attivi, gira su una singola GPU consumer da 24GB. Leggetelo di nuovo: un modello di livello professionale che funziona sulla scheda video che avete nel PC. Llama 4 Maverick, con 128 esperti e architettura mixture-of-experts, supera GPT-4o e Gemini 2.0 Flash nei benchmark multimodali. E poi c’e’ Behemoth, il mostro da 288 miliardi di parametri attivi che in preview ha gia’ battuto GPT-4.5 e Claude Sonnet 3.7 nei test STEM.
Il dato che fa riflettere: Llama 4 supporta una finestra di contesto da 10 milioni di token. Il piu’ ampio mai visto in un modello eseguibile in locale. Per dare un’idea, e’ come poter analizzare un’intera libreria di codice sorgente in una sola conversazione.
Il 29 aprile, alla LlamaCon, Meta svelerai ulteriori dettagli sulla sua visione. E ci sono gia’ voci su una possibile apertura open source di Muse Spark, il loro primo grande modello proprietario.
GPT-5.5 e’ alle porte: cosa sappiamo davvero
Sam Altman non e’ mai stato bravo a mantenere i segreti. E quando a fine marzo ha confermato che il pretraining di GPT-5.5 (nome in codice “Spud”) era completato, i prediction markets sono impazziti: 90% di probabilita’ di lancio entro giugno 2026.
Intanto, GPT-5.4 — rilasciato a marzo — ha gia’ alzato l’asticella con una finestra di contesto da un milione di token e il 33% in meno di errori fattuali rispetto al predecessore. Ma il salto vero sara’ con la versione 5.5: ragionamento piu’ profondo, workflow agentici potenziati e, soprattutto, una capacita’ di comprensione contestuale che promette di eliminare la necessita’ di prompt engineering elaborati. L’AI capira’ cosa vuoi fare senza che tu debba spiegarglielo nei dettagli.
Se mantiene le promesse, potrebbe essere il primo modello che rende obsoleto il mestiere di “prompt engineer”.
La Cina non sta a guardare: DeepSeek e il sorpasso silenzioso
Se vi siete persi DeepSeek, e’ il momento di recuperare. Il laboratorio cinese ha prima scioccato il mondo con R1 a gennaio — un modello di ragionamento open source che nessuno si aspettava a quei livelli — e poi ha rincarato la dose con DeepSeek-V3.2.
I numeri parlano da soli: la variante “Speciale” di V3.2 supera GPT-5 e raggiunge il livello di Gemini 3.0 Pro sui benchmark AIME e HMMT 2025. Con licenza open source. Con un budget di sviluppo che, secondo le stime, e’ una frazione di quello di OpenAI.
Il paradosso del 2026: i modelli cinesi open source competono con — e spesso battono — modelli occidentali che costano miliardi in piu’ da sviluppare. La domanda non e’ se questo cambiera’ l’industria, ma quanto velocemente.
E non c’e’ solo DeepSeek. Qwen 3.5 di Alibaba continua a chiudere il gap, mentre GLM-5 di ZhipuAI ha raggiunto il 77.8% su SWE-bench Verified — il benchmark di coding piu’ rispettato — con licenza MIT. Gratuito, per chiunque.
Mistral gioca la carta europea
Mentre America e Cina si contendono i titoli, la francese Mistral sta costruendo qualcosa di diverso. Mistral Small 4, rilasciato a marzo, e’ un capolavoro di efficienza: 119 miliardi di parametri totali ma solo 6.5 miliardi attivi per token, grazie a un’architettura con 128 esperti. Finestra di contesto da 256K token. Licenza Apache 2.0.
Ma la vera sorpresa e’ stata Voxtral TTS: un modello text-to-speech da 4 miliardi di parametri che supporta 9 lingue — italiano incluso — a un costo di 0.016 dollari per mille caratteri. Per chi costruisce assistenti vocali o applicazioni multilingue, e’ un punto di svolta.
Con Mistral Large 3 (675 miliardi di parametri totali, 41 miliardi attivi), l’azienda parigina dimostra che non serve essere nella Silicon Valley per giocare nella serie A dell’intelligenza artificiale.
Claude 4.6 e la strategia della profondita’
Anthropic ha scelto una strada diversa da tutti gli altri. Invece di rincorrere il numero di versione — niente Claude 5, per ora — ha rilasciato Claude Opus 4.6 a febbraio e Sonnet 4.6 pochi giorni dopo, puntando tutto sulla qualita’ del ragionamento.
La killer feature e’ l’extended thinking: il modello puo’ “pensare” piu’ a lungo prima di rispondere, producendo risposte piu’ accurate su problemi complessi. Con un contesto da un milione di token e prestazioni migliorate su debugging e revisione di codebase estese, Claude si posiziona come lo strumento preferito dagli sviluppatori professionisti.
E’ una scommessa: mentre gli altri inseguono i benchmark, Anthropic investe sulla profondita’ del ragionamento. Chi avra’ ragione lo scopriremo nei prossimi mesi.
Il trend che nessuno puo’ ignorare: agenti e multimodalita’
Se il 2025 e’ stato l’anno dei chatbot, il 2026 e’ l’anno degli agenti. La differenza e’ sostanziale: un chatbot risponde alle domande, un agente esegue compiti.
I modelli di punta del 2026 sono nativamente multimodali: leggono testo, analizzano immagini, ascoltano audio, guardano video. Tutto in un’unica architettura. Un agente puo’ guardare un video di una linea di produzione, ascoltare un rumore anomalo, leggere il manuale tecnico e diagnosticare il problema. Senza intervento umano.
Dai super-agenti ai team specializzati
Il modello del “super-agente” che fa tutto sta gia’ tramontando. La tendenza emergente sono i sistemi multi-agente: sciami di agenti specializzati che collaborano. Un agente cerca le informazioni, un altro le analizza, un terzo scrive il report, un quarto lo verifica. Come un team di professionisti, ma alla velocita’ della luce.
Secondo Gartner, il 40% delle applicazioni enterprise avra’ agenti AI integrati entro fine 2026. Un anno fa erano meno del 5%. Il mercato passera’ da 7.8 miliardi a oltre 52 miliardi di dollari entro il 2030.
L’AI nel salotto di casa
Apple ha annunciato che la prossima Siri sara’ powered by Gemini. Google integra l’intelligenza artificiale nelle TV. Auto Browse in Chrome completa autonomamente compiti online. L’AI non e’ piu’ confinata in un terminale: sta entrando in ogni dispositivo che tocchiamo.
Il verdetto: dove stiamo andando
Il quadro che emerge ad aprile 2026 e’ tanto chiaro quanto destabilizzante. L’open source ha raggiunto la parita’ con i modelli proprietari per la maggior parte dei casi d’uso pratici. Il vantaggio di pagare per un’API cloud si sta evaporando.
La vera competizione non e’ piu’ su chi ha il modello piu’ grande, ma su chi lo rende piu’ utile, accessibile e integrato nella vita quotidiana. Meta lo fa con l’open source. Google lo fa con l’ecosistema. OpenAI lo fa con la comprensione contestuale. Anthropic lo fa con la profondita’ del ragionamento.
E intanto, dalla Cina, arrivano modelli che fanno le stesse cose con un decimo del budget. Se questa non e’ una rivoluzione, non sappiamo cosa lo sia.
Una cosa e’ certa: chi lavora nel tech e non sta seguendo questa evoluzione, rischia di svegliarsi in un mondo che non riconosce piu’. E quel giorno potrebbe arrivare prima del previsto.

