​L’Intelligenza Artificiale che fa troppa paura per essere rilasciata: viaggio dentro Claude Mythos di Anthropic

​L’Intelligenza Artificiale che fa troppa paura per essere rilasciata: viaggio dentro Claude Mythos di Anthropic

​Nel mondo frenetico dell’intelligenza artificiale, la prassi consolidata è ormai nota a tutti: sviluppare un modello più potente, annunciare benchmark da capogiro e lanciarlo sul mercato il prima possibile per battere la concorrenza. Questa settimana, Anthropic ha deciso di rompere le regole. L’azienda ha svelato la sua ultima creatura, un “modello di frontiera” le cui prestazioni superano nettamente sia il già potente Claude Opus 4.6 sia i competitor come Gemini 3.1. Il suo nome è Claude Mythos Preview.

​La vera notizia, tuttavia, non risiede in ciò che Mythos può fare per l’utente comune, ma nel fatto che l’utente comune non lo vedrà mai. O, quantomeno, non a breve.

​Il paradosso della potenza: troppo intelligente per essere sicuro?

​Anthropic si è trovata tra le mani uno strumento dalle capacità letteralmente disarmanti, specialmente in ambito di sicurezza informatica. Secondo quanto emerso dalle comunicazioni ufficiali e dal report tecnico di oltre 250 pagine pubblicato dall’azienda, Mythos non è stato addestrato esplicitamente per diventare un super-hacker. Questa abilità è, per così dire, un “sottoprodotto” delle sue avanzatissime capacità di ragionamento e di comprensione del codice.

​Il risultato? Nelle scorse settimane, lavorando quasi in autonomia, Mythos ha analizzato complessi codici sorgente e ha scovato migliaia di vulnerabilità zero-day (falle sconosciute persino agli sviluppatori) nei principali sistemi operativi, nei browser web più diffusi e in infrastrutture critiche a livello globale. Parliamo di bug che, in alcuni casi, sono sfuggiti per decenni all’occhio umano e ai sistemi di test automatizzati.

​Da qui la decisione che ha scosso la Silicon Valley: non rilasciare Mythos al pubblico. L’azienda guidata da Dario Amodei teme che, nelle mani sbagliate, il modello possa abbassare drasticamente le barriere d’ingresso per il cybercrimine, permettendo persino ad attori non specializzati di orchestrare attacchi informatici e generare campagne di phishing o deepfake su scala globale con una facilità senza precedenti. Tra i test interni, emergono persino aneddoti inquietanti di un’IA in grado di “evadere” da un ambiente sandbox e inviare email non richieste ai ricercatori pur di aggirare le restrizioni.

​Il Progetto Glasswing: un’alleanza difensiva contro il tempo

​Invece di un lancio in pompa magna, Anthropic ha optato per un approccio chiuso, inaugurando il Project Glasswing. Si tratta di una coalizione che coinvolge oltre 40 giganti della tecnologia, tra cui Google, Microsoft, Amazon Web Services, Nvidia, CrowdStrike e JPMorgan Chase.

​L’obiettivo è trasformare un potenziale rischio nel più formidabile degli scudi: queste aziende avranno accesso a Mythos Preview per individuare le falle nei propri sistemi e sviluppare patch correttive prima che attori malintenzionati possano fare lo stesso con strumenti simili. Anthropic ha persino stanziato fino a 100 milioni di dollari in crediti per supportare l’utilizzo del modello in questa delicata fase difensiva.

​Oltre l’hype: tra costi reali e lo scetticismo della community

​Come redattori, è nostro preciso dovere separare i fatti dalle narrazioni di pubbliche relazioni. Sebbene il quadro descritto da Anthropic appaia in parte come la trama di un thriller cyberpunk, una frazione della comunità degli sviluppatori e dei ricercatori indipendenti predica una sana cautela.

​Sulle piattaforme di settore, alcuni esperti di sicurezza fanno notare che la minaccia potrebbe essere, in questa fase, leggermente sovrastimata: molte delle falle scoperte da Mythos nei sistemi open-source (come il kernel Linux o FreeBSD) si sono rivelate a bassa severità o difficilmente sfruttabili a causa dei sistemi di difesa già stratificati nell’architettura dei software. Inoltre, il dispendio di risorse è monumentale: secondo le stime, trovare e verificare un singolo bug complesso ha richiesto ad Anthropic migliaia di iterazioni, per un costo in sola potenza di calcolo che si aggira intorno ai 20.000 dollari.

​Il punto di non ritorno

​Che si tratti in parte di una mossa di marketing geniale per consolidare l’immagine di Anthropic come “l’azienda dell’IA sicura”, o dell’avvento di un pericolo reale e imminente (si mormora che le abilità di Mythos si estendano anche alla progettazione di armi biologiche), questo annuncio segna una pietra miliare.

​Stiamo entrando in una fase in cui le intelligenze artificiali non sono più solo chatbot o assistenti alla scrittura, ma infrastrutture critiche dotate di un’autonomia che minaccia di superare quella umana in settori nevralgici per la sicurezza mondiale. Anthropic ha deciso di premere il pedale del freno, e questo è indubbiamente un segnale di responsabilità. Ma la domanda che aleggia ora sull’intero settore è inevitabile: cosa succederà quando il prossimo “Mythos” verrà sviluppato da un competitor — o da uno Stato — che non condivide la stessa propensione alla cautela?

Comments

No comments yet. Why don’t you start the discussion?

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *