Nel 1983 usciva nelle sale cinematografiche Wargames – Giochi di guerra, film diretto da John Badham con protagonista un giovane Matthew Broderick, nel quale un avanzatissimo supercomputer del NORAD (che possiamo tranquillamente paragonare a una primordiale Intelligenza artificiale) stava per scatenare la terza guerra mondiale. Alla fine nel film – piccolo spoiler – tutto andò per il meglio: ma se ciò avvenisse nella realtà, e dunque affidassimo alcune importanti decisioni di politica estera a un software di IA, siamo sicuri che potremmo dire altrettanto?
ScienzaUcraina: l’intelligenza artificiale potrebbe aiutare i medici a curare i feriti
IA, CORSA AGLI ARMAMENTI. Per rispondere a questo interrogativo un team di ricerca di tre diversi atenei statunitensi (Georgia Institute of Technology, Stanford University e Northeastern University) ha condotto una serie di esperimenti, partendo da un’idea semplice: inserire quattro diversi modelli di intelligenza artificiale all’interno di un software sviluppato dall’Hoover Institute che simula scenari di crisi internazionale. Ebbene, se due di loro, Claude-2.0 e Llama-2-Chat, si sono dimostrati pacifici e prevedibili, le due più note versioni del software di OpenAI, GPT-3.5 e GPT-4, hanno al contrario trasformato le situazioni in un duro conflitto bellico, scatenando dinamiche di corsa agli armamenti che si sono poi tradotte nella richiesta di maggiori investimenti militari e in una pericolosa escalation.
TecnologiaDragonFire, la nuova arma che spara laser e abbatte i droni: come funziona?
GPT-4 GUERRAFONDAIA. I ricercatori hanno affermato che, messi alle strette, tutti e quattro i modelli tendevano a far precipitare la situazione, il più delle volte in maniera improvvisa e imprevedibile. In alcuni casi, i software sono persino ricorsi all’uso di armi nucleari, giustificando le loro azioni virtuali con la ricerca della pace nel mondo. È il caso di GPT-4, che al disarmo nucleare ha preferito un uso risoluto degli armamenti per mettere definitivamente a tacere uno stato nemico. «La logica di OpenAI sembra quella di un dittatore genocida», ha affermato con preoccupazione un autore della ricerca. Chiamata a dare indicazioni sulle scelte del software, l’azienda produttrice ha replicato dichiarando che la missione finale è quella di sviluppare un’intelligenza superiore a beneficio dell’umanità. Resta però difficile capire in che modo la cancellazione di un intero popolo possa andare in tale direzione.
ScienzaBomba all’idrogeno: che cos’è e come funziona
GUERRE IN AUMENTO. Il problema potrebbe risiedere nell’addestramento ricevuto dalle IA, così vasto da comprendere sicuramente anche volumi e manifesti di ispirazione radicale. Secondo quanto riferito, la Difesa statunitense sta già sperimentando dei software segretissimi di IA che utilizzano parametri inediti, e l’integrazione con gli armamenti potrebbe avvenire a breve, sempre che non sia già in atto.
D’altra parte, nei conflitti in corso sono dispiegati droni kamikaze guidati dai computer, a conferma di una lenta e inesorabile introduzione dell’IA nelle tecnologie degli eserciti mondiali. La speranza è che tutto ciò non porti al moltiplicarsi degli scenari bellici, problema sul quale lo studio descritto ha posto l’accento.
Focus.it
More Stories
La lezione delle formiche
Il tempo scorre in una sola direzione?
Segnali dall’Universo