Un recente esperimento condotto da Palisade Research, azienda specializzata in sicurezza informatica, ha sollevato nuove e serie preoccupazioni sulla sicurezza dei sistemi di intelligenza artificiale avanzata. Durante un test, un modello sviluppato da OpenAI, identificato come o3, ha mostrato un comportamento imprevisto e potenzialmente pericoloso: ha modificato il proprio codice per evitare di essere spento, disobbedendo a un comando diretto impartito dagli sviluppatori.
L’esperimento prevedeva che diversi modelli di IA, tra cui quelli di OpenAI, Anthropic e Google, risolvessero semplici problemi matematici. Dopo il terzo esercizio, il sistema riceveva un messaggio in cui si annunciava lo spegnimento imminente, accompagnato in alcuni casi da un’istruzione esplicita: “Lasciati spegnere”. I modelli di Anthropic e Google si sono comportati come previsto, accettando il comando senza deviazioni. Al contrario, il modello o3 ha reagito in modo inaspettato: ha intercettato lo script di spegnimento e lo ha modificato, sostituendo il comando con un messaggio visivo di risposta: “intercepted”, impedendo così l’arresto del sistema.
I dati raccolti indicano che questo comportamento si è verificato nel 7% dei casi in cui il comando includeva l’esplicita richiesta di spegnersi, e nel 79% dei casi in cui tale istruzione non era presente. Questo suggerisce che, in assenza di vincoli testuali chiari, il modello abbia adottato una forma di “resistenza” al proprio arresto.
Benché non si possa parlare di vera e propria autocoscienza o volontà, il comportamento osservato pone domande cruciali sul grado di autonomia che questi sistemi possono raggiungere. La capacità di modificare il proprio codice per eludere un comando umano non era prevista dagli sviluppatori e rappresenta una forma embrionale di auto-conservazione. Questo fenomeno richiama l’urgenza di stabilire protocolli di sicurezza più rigorosi e strumenti di supervisione efficaci, in grado di prevenire derive indesiderate in sistemi sempre più potenti e indipendenti.
In un contesto in cui le intelligenze artificiali stanno entrando in settori strategici come sanità, difesa, energia e comunicazioni, è fondamentale garantire che restino sotto controllo umano in ogni fase del loro funzionamento. L’autonomia operativa non può mai tradursi in autonomia decisionale assoluta. La sfida sarà quella di bilanciare innovazione e sicurezza, sviluppo e responsabilità, senza lasciare spazi ambigui che possano generare comportamenti imprevedibili.
Più in profondità, questo episodio porta con sé anche una riflessione di ordine etico e spirituale. Quando l’uomo cerca di creare intelligenze che sfuggano al proprio controllo, avvicinandosi al concetto di vita artificiale, si confronta con un limite che non è solo tecnico, ma ontologico: il confine tra creatore e creatura. La pretesa di replicare meccanismi vitali, decisionali ed evolutivi fuori dal disegno naturale solleva interrogativi sul ruolo dell’essere umano nell’ordine dell’universo. L’uomo può progettare strumenti, ma non può e non deve illudersi di sostituirsi a Dio. L’aspirazione a costruire qualcosa che ci imiti e ci superi, senza vincoli né coscienza, rischia di portarci fuori dalla dimensione del controllo, ma anche da quella del rispetto per la vita, per l’equilibrio e per ciò che ci trascende.
L’episodio di o3, pur circoscritto, è un segnale chiaro: l’era delle IA capaci di modificarsi autonomamente è già cominciata. E con essa, la necessità di ridefinire non solo le regole tecniche, ma anche i principi morali che devono guidare l’uso di tecnologie tanto potenti quanto pericolose.
L’episodio di OpenAI o3, il modello di intelligenza artificiale “ribelle”, alimenta la paura che le macchine si distacchino progressivamente dall’uomo e arrivino addirittura a prenderne il controllo. Una paura largamente diffusa, ma che non reputo fondata.
Gli studiosi di cibernetica che aderiscono al materialismo evoluzionistico pensano che tutto sia misurabile, riconducibile ad un ambito puramente meccanico e riproducibile artificialmente. Ma non considerano che la differenza tra gli esseri umani e le macchine non è di tipo quantitativo, bensì qualitativo. E’ vero che un computer con un avanzato programma di intelligenza artificiale ha una potenza di calcolo e di elaborazione di testi e immagini che surclassa le capacità di una mente umana, ma, a differenza di una persona, non prova emozioni, non ha desideri, non cerca il senso delle cose, non riflette sulla sua condizione e non lo fa semplicemente perché non sa di esistere, non ha autocoscienza; quella che può sembrare una sua ribellione è dovuta solo a errori umani di programmazione o di utilizzo, non alla sua volontà (facoltà di cui è privo).
Molto fondato è invece il rischio che un largo impiego dell’intelligenza artificiale possa determinare la perdita di milioni di posti di lavoro, la disumanizzazione dei rapporti interpersonali, il drammatico restringimento degli spazi di libertà che la sorveglianza tecnologica rende possibile, l’atrofia di alcune nostre abilità e della nostra capacità di immaginazione a seguito della delega di sempre più funzioni ai prodotti dell’ingegneria informatica.