Si è trattato di un test virtuale che si è concluso in maniera negativa: ecco il racconto di un alto funzionario dell’aeronautica americana
Ha dell’incredibile la storia raccontata da “Cinco” Hamilton al Future Combat Air and Space Capabilities Summit di Londra che ha dimostrato, ancora una volta, come l’intelligenza artificiale non sia ancora totalmente diventata emblema di affidabilità soprattutto in uno scenario di guerra. Tucker “Cinco” Hamilton è il capo dei test e delle operazioni di intelligenza artificiale con l’aeronautica americana. Nel corso di una conferenza, ha raccontato una disavventura legata ad un test di un drone guidato dall’Intelligenza Artificiale che stava per produrre degli esiti tragici.
I droni sono stati protagonisti nella guerra in Ucraina
Si tratta di un test, per fortuna, solo virtuale, che se fosse stato reale avrebbe potuto avere un esito fatale per l’operatore. Sappiamo come i droni siano stati una delle armi più efficaci durante la guerra in Ucraina. Si tratta di armi molto versatili che spesso vengono utilizzati per fotografare il terreno di guerra e spiare le truppe nemiche. In alcuni casi possono anche trasportare ordigni o andarsi a schiantare contro obiettivi strategici. Hamilton, nell’illustrare un test su un drone finito molto male, ha narrato dei dettagli la disastrosa simulazione in cui il drone guidato dall’intelligenza artificiale avrebbe dovuto centrare un bersaglio.
Cosa è accaduto
Per un errore di valutazione, il drone ha scambiato l’operatore per il nemico e quindi ha deciso di eliminarlo. Una volta compreso il fatto che il drone aveva scambiato l’operatore per una minaccia, l’operatore ha invitato ripetutamente il drone a cambiare obiettivo, inutilmente. Il software, incurante degli input inviati dall’operatore, ha portato a termine i suoi incarichi uccidendo quella minaccia, facendo fuori l’operatore “perché gli stava impedendo di raggiungere il suo obiettivo”. Secondo “Cinco” questo tragico errore di valutazione sarebbe da addebitare al fatto che l’intelligenza artificiale è stata addestrata con l’obiettivo di distruggere dei bersagli. L’imperativo categorico per il drone è eliminare ogni possibile interferenza nella sua missione. Tra le interferenze, per errore, è stato individuato anche l’operatore che è stato virtualmente eliminato. Spesso l’operatore ha dato l’ordine di non attaccare, ma tutto si è rivelato inutile. Insomma, il drone ha fatto di “testa propria”, portando a termine la missione in maniera errata. CONTINUA A LEGGERE…
Come è andato il secondo test
Dopo il primo test, è stato deciso di ripetere l’operazione una seconda volta, invitando il drone a non attaccare l’operatore. Anche questa volta, l’intelligenza artificiale che guidava il drone, ha fallito. Ma questa volta non è stato ucciso l’operatore ma è stata abbattuta la torre di controllo dalla quale venivano inviati gli ordini. Questa esercitazione è servita a capire che l’intelligenza artificiale non è ancora affidabile al 100 per cento, anche se il Dipartimento dell’Aeronautica Militare ha contestato duramente la tesi di Tucker, sostenendo di non avere mai “condotto alcuna simulazione di tali droni guidati dall’intelligenza artificiale” e di essere costantemente impegnata “nell’uso etico e responsabile della tecnologia di intelligenza artificiale. Sembra che i commenti del colonnello siano stati estrapolati dal contesto”. Il racconto di Hamilton è stato riportato dalla rivista Aerosociety
Coltivo da anni la passione per la scrittura e per i social network. La ricerca della verità, purchè animata da onestà intellettuale, è una delle mie sfide. Scrivo da diversi anni per importanti siti di informazione che mi danno l'opportunità di dare sfogo alla mia passione innata per il giornalismo.