Ecco come l’intelligenza artificiale viene disorientata dai nuovi hacker

Ecco come l’intelligenza artificiale viene disorientata dai nuovi hacker

Avere sotto gli occhi l’immagine di una penna ed essere convinti che sia un fucile, oppure interpretare come una tazzina di caffè espresso una palla da tennis stampata in 3D: a vedere un’oggetto per un altro è l’intelligenza artificiale, che può essere disorientata molto più facilmente di quello che si pensa, diventando cosi facile preda di una nuova generazione di hacker.

A lanciare l’allarme, secondo la rivista Science sul suo sito, è la conferenza internazionale sull’apprendimento automatico, Icml (International Conference on Machine Learning).

E’ emerso, che è sufficiente modificare leggermente un’immagine, un oggetto o un suono per aggiare il più sofisticato dei sistemi di intelligenza artificiale, fino a disorientarlo. I rischi per la sicurezza sono semplici da immaginare, tenendo conto che ai sistemi di apprendimento automatico vengono sempre più spesso affidati compiti delicati, che prevedono un’interazione diretta con l’uomo, come guidare un’auto autonoma.

Gli attacchi sono senza dubbio una minaccia, ma costituscono anche un campanello d’allarme prezioso per i ricercatori poichè possono rivelare e studiare nuovi meccanismi d’azione delle reti neurali.
Gli attacchi possono essere considerati “una lente d’ingrandimento attraverso la quale capire che cosa sappiamo dell’apprendimento automatico”, ha concluso Dawn Song, dell’Università della California a Berkeley.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *