Fregare l’intelligenza artificiale con un pixel

In questo post (che consiglio di rileggere) parlando dei problemi di sicurezza dell’intelligenza artificiale illustravo alcune vulnerabilità basate su esempi avversi, come ad esempio immagini che ad un umano sembrano identiche ma che una macchina non è in grado di riconoscere.

Nicola mi ha segnalato questo articolo (grazie!):

One pixel attack for fooling deep neural networks:

…we propose a novel method for generating one-pixel adversarial perturbations based on differential evolution. It requires less adversarial information and can fool more types of networks. The results show that 70.97% of the natural images can be perturbed to at least one target class by modifying just one pixel with 97.47% confidence on average.

si, avete letto bene…

If you like this post, please consider sharing it.

1 thought on “Fregare l’intelligenza artificiale con un pixel”

  1. Purtroppo davanti a problemi np-complessi, che si parli di soluzione o si parli di creazione del problema, si mostrano i limiti in tutta la loro pesantezza. Sia con approcci deterministici, sia con approcci sfumati. In questo caso e’ un pixel, in altri e’ un singolo grafema (‘una virgola’), che sballa completamente il sistema in oggetto. Quel 97% di ‘confidence’ e’ ricorrente; indipendentemente dall’applicazione le macchine son li’ tra il 90 e il 98. Ma quel 2% di margine d’errore e’ intollerabile; un vaccino che produce la malattia nel 2% dei vaccinati e’ un fallimento colossale; diventa accettabile solo quando e’ 2 su qualche milione.
    E Zuccaberg e’ andato al senato americano per dire che si, le loro IA semantiche hanno qualche problemino, ma hanno gia’ ottenuto progressi enormi rispetto a pochi anni fa, saranno presto abbastanza esatte da eliminare gli effetti collaterali, e comunque hanno gia’ assunto migliaia di operatori umani in piu’ per evitare che gli attuali algoritmi grezzi manipolino in autonomia le comunicazioni altrui. Di smettere di manipolare non gli passa neanche per l’anticamera del cervello. Di dire la verita’ (ie: IA Generale, non e’ possibile), nemmeno.

    In questo caso poi, e’ semplice errore statistico; in elettronica lo chiameremmo rumore di fondo; o radiazione di fondo in ecologia. Io lo introduco in tutti i messaggi, pubblici e privati, che scrivo. Compreso questo. Oramai non ci faccio neanche piu’ caso… e’ diventato un automatismo. Non conviene essere troppo esatti; perche’ implica un implicito trasferimento di informazioni (credenze, intenzioni, progetti) sulla propria persona. Se e quando la privacy sara’ ripristinata, allora torneremo a parlare di precisione nella comunicazione.

Leave a Comment

Your email address will not be published. Required fields are marked *