🕑 Tempo di lettura: 2 minuti

 

È notizia recente che nella sfida uomo-macchina, contesa che si rinnova occasionalmente da anni, un Intelligenza Artificiale abbia sconfitto, per cinque round a zero, un pilota militare in carne ed ossa in un combattimento simulato. I rimandi a Top Gun sono abbastanza immediati, ma questa volta l’eroe, affibbiando questo ruolo al membro incognito dell’esercito americano, perde.

Diverse testate giornalistiche e blog vari hanno descritto e analizzato l’evento: se un computer – la cui base è composta da algoritmi di deep reinforcement learning, una sintesi tra deep learning e reinforcement learning – riesce a battere l’uomo in uno scenario così impegnativo, il clamore è ragionevole.

Va detto che lo scontro non è stato proprio alla pari, in quanto il software aveva a disposizione tutte le informazioni possibili per compiere la missione, fattore che, sul campo di battaglia reale, non si attua mai. In fondo, avere una grande quantità di dati a disposizione, preparati e puliti, è il solito problema delle IA, soprattutto quelle che si basano sul deep learning. Inoltre, l’iperspecializzazione connessa al funzionamento della macchina impedisce la creazione di competenze trasversali. La formazione appresa non può essere riconvertita se si cambiano gli obiettivi, anche se di poco (le famose cross competencies, il riutilizzare la conoscenza acquisita in altri contesti). Di conseguenza, ogni sviluppo ulteriore non può che proseguire sullo stesso filone.

Tuttavia, il risultato dell’ AlphaDogFIght sicuramente rappresenta un traguardo notevole per l’informatica, non a caso ottenuto in ambito militare, da sempre foriero di tecnologie all’avanguardia.

In generale, l’IA rappresenta una branca importante della ricerca e sviluppo, al cui proposito, tempo fa, Deloitte diede un po’ di numeri: 8 miliardi impiegati nel solo 2018.

Il Dipartimento della difesa americana, da solo, ne ha stanziati 2,5 per il 2021 e la tendenza si prevede in aumento. Per motivare gli ingenti investimenti nei settori R&D dell’esercito, i sostenitori annoverano proprio la possibilità di veder sviluppare tecnologie che incidentalmente avranno impatti commerciali, come è successo per i droni.

Inoltre, come evidenziano gli autori americani del report di ricerca Artificial Intelligence and National Security – aggiornato di recente ad agosto 2020 -, emerge la necessità di puntare su queste tecnologie anche in base ai progressi ottenuti dagli avversari geopolitici, Cina e Russia, rispetto ai quali non ci si può concedere di rimanere indietro.

Il tutto tenendo conto dei rischi indiretti, in primis il rischio di compromissione e di hackeraggio dei software. La cybersecurity, in questo senso e in generale, giocherebbe un ruolo fondamentale.

Questi problemi, se non adeguatamente affrontati, darebbero adito a critiche più aspre di quelle che già attualmente esistono, non solo da parte degli addetti ai lavori. Ci si dovrebbe chiedere, infatti, se la responsabilità di affidare a un robot degli obiettivi delicati, come l’eliminazione di un particolare nemico, non sia troppo grande per gli sviluppi attuali. È facile capire che sbagliare bersaglio, colpendo un cittadino inerme piuttosto che il target designato, è un’eventualità che non ci si può permettere di far accadere.

Il dibattito è e deve essere acceso, non solo tra i detrattori di queste tecnologie. D’altra parte, nell’attesa di un mondo senza guerre come lo voleva Einstein, sostituire gli attori umani con robot permetterebbe di non mietere ulteriori vittime, senza sacrificare delle vite.

In ogni caso, è chiaro che non si possa prescindere dall’investire risorse nell’Intelligenza Artificiale: tra speranze e incertezze, queste tecnologie sono destinate a cambiare radicalmente le nostre vite. Non affrontare i rischi connessi ai futuri sviluppi equivale a rimanere malauguratamente indietro, perché l’innovazione non aspetta nessuno.

Siete d’accordo?