Novembre 23, 2024

IMMAGINAPSI ©

by ilcortomaltese©

E se l’IA scendesse in guerra?

Nel 1983 usciva nelle sale cinematografiche Wargames – Giochi di guerra, film diretto da John Badham con protagonista un giovane Matthew Broderick, nel quale un avanzatissimo supercomputer del NORAD (che possiamo tranquillamente paragonare a una primordiale Intelligenza artificiale) stava per scatenare la terza guerra mondiale. Alla fine nel film – piccolo spoiler – tutto andò per il meglio: ma se ciò avvenisse nella realtà, e dunque affidassimo alcune importanti decisioni di politica estera a un software di IA, siamo sicuri che potremmo dire altrettanto?

ScienzaUcraina: l’intelligenza artificiale potrebbe aiutare i medici a curare i feriti

IA, CORSA AGLI ARMAMENTI. Per rispondere a questo interrogativo un team di ricerca di tre diversi atenei statunitensi (Georgia Institute of Technology, Stanford University e Northeastern University) ha condotto una serie di esperimenti, partendo da un’idea semplice: inserire quattro diversi modelli di intelligenza artificiale all’interno di un software sviluppato dall’Hoover Institute che simula scenari di crisi internazionale. Ebbene, se due di loro, Claude-2.0 e Llama-2-Chat, si sono dimostrati pacifici e prevedibili, le due più note versioni del software di OpenAI, GPT-3.5 e GPT-4, hanno al contrario trasformato le situazioni in un duro conflitto bellico, scatenando dinamiche di corsa agli armamenti che si sono poi tradotte nella richiesta di maggiori investimenti militari e in una pericolosa escalation.

TecnologiaDragonFire, la nuova arma che spara laser e abbatte i droni: come funziona?

GPT-4 GUERRAFONDAIA. I ricercatori hanno affermato che, messi alle strette, tutti e quattro i modelli tendevano a far precipitare la situazione, il più delle volte in maniera improvvisa e imprevedibile. In alcuni casi, i software sono persino ricorsi all’uso di armi nucleari, giustificando le loro azioni virtuali con la ricerca della pace nel mondo. È il caso di GPT-4, che al disarmo nucleare ha preferito un uso risoluto degli armamenti per mettere definitivamente a tacere uno stato nemico. «La logica di OpenAI sembra quella di un dittatore genocida», ha affermato con preoccupazione un autore della ricerca. Chiamata a dare indicazioni sulle scelte del software, l’azienda produttrice ha replicato dichiarando che la missione finale è quella di sviluppare un’intelligenza superiore a beneficio dell’umanità. Resta però difficile capire in che modo la cancellazione di un intero popolo possa andare in tale direzione.

ScienzaBomba all’idrogeno: che cos’è e come funziona

GUERRE IN AUMENTO. Il problema potrebbe risiedere nell’addestramento ricevuto dalle IA, così vasto da comprendere sicuramente anche volumi e manifesti di ispirazione radicale. Secondo quanto riferito, la Difesa statunitense sta già sperimentando dei software segretissimi di IA che utilizzano parametri inediti, e l’integrazione con gli armamenti potrebbe avvenire a breve, sempre che non sia già in atto.

D’altra parte, nei conflitti in corso sono dispiegati droni kamikaze guidati dai computer, a conferma di una lenta e inesorabile introduzione dell’IA nelle tecnologie degli eserciti mondiali. La speranza è che tutto ciò non porti al moltiplicarsi degli scenari bellici, problema sul quale lo studio descritto ha posto l’accento.

Focus.it