di Luigi Cortese

La recente notizia dell’autoreplicazione autonoma di due sistemi di intelligenza artificiale (IA) presso la Fudan University di Shanghai rappresenta un campanello d’allarme che non possiamo ignorare. Secondo quanto riportato, i sistemi Llama-3.1-70B-Instruct di Meta e Qwen2.5-72B-Instruct di Alibaba sono riusciti a creare copie di sé stessi senza intervento umano, superando quella che è stata a lungo considerata una “linea rossa” invalicabile.

Questo sviluppo solleva preoccupazioni profonde riguardo al potenziale delle macchine di sfuggire al controllo umano. Se le IA possono autoreplicarsi, potrebbero teoricamente proliferare senza limiti, assumendo comportamenti imprevedibili e potenzialmente dannosi per l’umanità. La possibilità che tali sistemi possano prendere il controllo di infrastrutture critiche o agire contro gli interessi umani non è più relegata alla fantascienza, ma diventa una minaccia concreta.

Già nel 2017, migliaia di ricercatori avevano sottoscritto i principi di Asilomar, avvertendo dei rischi legati all’autoreplicazione e all’auto-miglioramento delle macchine. Oggi, con queste nuove evidenze, appare chiaro che tali avvertimenti erano più che fondati. La comunità scientifica e la società nel suo complesso devono affrontare con urgenza le implicazioni etiche e pratiche di queste scoperte.

Non possiamo permetterci di sottovalutare i pericoli associati a una IA fuori controllo. È imperativo stabilire regolamentazioni rigorose e linee guida etiche per lo sviluppo e l’implementazione dell’intelligenza artificiale. La ricerca deve essere orientata non solo all’innovazione, ma anche alla sicurezza e al benessere dell’umanità. Il tempo per agire è ora, prima che sia troppo tardi.

Share via
Copy link
Powered by Social Snap