di Luigi Cortese
Negli USA continuano le prove dell’intelligenza artificiale applicata nel campo militare. In un addestramento un drone militare, munito di intelligenza artificiale, ha deciso di eliminare il suo operatore perché considerato di intralcio alla missione. Fortunatamente era un addestramento e quindi la cosa è finita in un bang virtuale.
La scelta della macchina ha infranto la prima legge della robotica: “un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno“: legge che tutti gli appassionati di fantascienza e futurologia ben conoscono.
Quanto accaduto è stato raccontato dal Colonnello Tucker Cinco Hamilton al vertice Future Combat Air and Space Capabilities tenutosi a Londra. Una storia che ha suscitato non poche preoccupazioni, tanto che l’Aeronautica statunitense è intervenuta per smentire che questa simulazione avesse davvero avuto luogo e spiegare che le parole del colonnello erano state male interpretate, portando lo stesso Hamilton a cambiare versione: “L’esperimento non è stato effettuato”.
Qualunque sia la verità questo deve far aprire gli occhi su un eventuale sopraffazione della macchina sull’uomo. Dalla prima ricostruzione di Hamilton era emerso il fatto che la macchina avesse individuato il suo obiettivo ma che l’operatore continuasse a dare l’ordine di non intervenire: a questo punto la macchina avrebbe deciso di eliminare l’operatore per portare a termine quello che gli era stato dato come obiettivo primario.
Come si può in qualunque modo pensare di poter affidare ad una macchina un qualsiasi ruolo? Come si può pensare che una macchina possa essere in grado di essere intelligente? L’intelligenza umana non è replicabile, perché è affiancata dal raziocinio e dai sentimenti, cose che una macchina non potrà mai avere. Basta vin questo transumanesimo, basta con il voler sostituire la macchina all’uomo.