In questo post (che consiglio di rileggere) parlando dei problemi di sicurezza dell’intelligenza artificiale illustravo alcune vulnerabilità basate su esempi avversi, come ad esempio immagini che ad un umano sembrano identiche ma che una macchina non è in grado di riconoscere.

Nicola mi ha segnalato questo articolo (grazie!):

One pixel attack for fooling deep neural networks:

…we propose a novel method for generating one-pixel adversarial perturbations based on differential evolution. It requires less adversarial information and can fool more types of networks. The results show that 70.97% of the natural images can be perturbed to at least one target class by modifying just one pixel with 97.47% confidence on average.

si, avete letto bene…