La recente notizia dell’autoreplicazione autonoma di due sistemi di intelligenza artificiale (IA) presso la Fudan University di Shanghai rappresenta un campanello d’allarme che non possiamo ignorare. Secondo quanto riportato, i sistemi Llama-3.1-70B-Instruct di Meta e Qwen2.5-72B-Instruct di Alibaba sono riusciti a creare copie di sé stessi senza intervento umano, superando quella che è stata a lungo considerata una “linea rossa” invalicabile.
Questo sviluppo solleva preoccupazioni profonde riguardo al potenziale delle macchine di sfuggire al controllo umano. Se le IA possono autoreplicarsi, potrebbero teoricamente proliferare senza limiti, assumendo comportamenti imprevedibili e potenzialmente dannosi per l’umanità. La possibilità che tali sistemi possano prendere il controllo di infrastrutture critiche o agire contro gli interessi umani non è più relegata alla fantascienza, ma diventa una minaccia concreta.
Già nel 2017, migliaia di ricercatori avevano sottoscritto i principi di Asilomar, avvertendo dei rischi legati all’autoreplicazione e all’auto-miglioramento delle macchine. Oggi, con queste nuove evidenze, appare chiaro che tali avvertimenti erano più che fondati. La comunità scientifica e la società nel suo complesso devono affrontare con urgenza le implicazioni etiche e pratiche di queste scoperte.
Non possiamo permetterci di sottovalutare i pericoli associati a una IA fuori controllo. È imperativo stabilire regolamentazioni rigorose e linee guida etiche per lo sviluppo e l’implementazione dell’intelligenza artificiale. La ricerca deve essere orientata non solo all’innovazione, ma anche alla sicurezza e al benessere dell’umanità. Il tempo per agire è ora, prima che sia troppo tardi.
Da tempo c’è chi mette in guardia sui pericoli dell’Intelligenza Artificiale ponendo il seguente quesito: quanto tempo occorrerà alle macchine “intelligenti” per surclassare le nostre capacità intellettive? E a quel punto, riusciremo a gestire quelle macchine o saremo sottomessi ad esse?
Mi sembra opportuno chiarire qui alcuni concetti. L’intelligenza (dal latino, intus legere: leggere dentro) è la capacità del soggetto di guardare dentro se stesso, dentro le persone, dentro le cose e dentro i fatti. Ma l’I.A., questo preteso soggetto intelligente, non legge dentro, non astrae, non intuisce, non ragiona, non va oltre il dato sensibile, non ha coscienza e, soprattutto, non ha coscienza morale, perché l’algoritmo non capisce cosa è bene e cosa è male; è una macchina, certo con una potenza di calcolo enormemente superiore a quella umana, che però riesce a cogliere il fenomeno solo nella sua dimensione calcolabile e solo in base ai dati che l’essere umano vi ha immesso… ma l’intelligenza non è riducibile alla capacità di calcolo, è qualcosa di molto più grande e complesso che attiene alla persona, non alla macchina, che è naturale, non artificiale.
Nell’articolo si parla di “autoreplicazione autonoma di due sistemi di intelligenza artificiale (IA)”… e, detta così, sembrerebbe che i due sistemi abbiano deciso da sé di replicarsi. Ovviamente la realtà è diversa. Il primo sistema è stato programmato per replicarsi prima di spegnersi, il secondo ha ricevuto le istruzioni per clonarsi un numero indefinito di volte. In entrambi i casi, le macchine hanno fatto solo quello che chi le ha programmate ha imposto loro di fare.
Il problema, a mio avviso, non è tanto il pericolo che le macchine, con l’intelligenza artificiale, possano sfuggire al controllo umano, ma è chi gestisce l’I.A. e per fare cosa. Uno strumento così potente in mano a un mafioso, a un banchiere, a un esattore delle tasse, a un burocrate di Bruxelles o a un politico del PD (e non so chi tra questi sia peggio) sarebbe davvero un’arma di distruzione di massa e un pericolo per l’umanità.
Beh, il problema non è il pd o qualsiasi partito ma sicuramente la politica come è nata e si è trasformata nel corso dei secoli senza mai cambiare il contenuto
Visto il tono alquanto serioso del commento che avevo scritto, ho voluto concluderlo con un po’ d’ironia.