Los investigadores del laboratorio OpenAI, especializado en machine learning e inteligencia artificual, han descubierto que su sistema de visión por ordenador de última generación podría tener un enorme error. Y es que con unas herramientas que todos tenemos y sabemos usar: un bolígrafo y un papel podría engañarse fácilmente al sistema.
Como se muestra en una imagen publicada por The Verge, basta con escribir el nombre de un objeto y pegarlo en otro para engañar al software y que identifique erróneamente lo que ve. “Nos referimos a estos ataques como ataques tipográficos”, han explicado los investigadores de OpenAI en su blog. Como se puede ver en la imagen siguiente, compartida por OpenAI, el programa puede identificar una manzana verde como un iPod solo porque alguien escribió en un papel la palabra iPod sobre esta fruta.
La posibilidad de engañar a los coches autónomos de Tesla
Tanto es así que los investigadores han demostrado, por ejemplo, que se podría engañar al software de los coches autónomos de Tesla para que cambien de carril sin previo aviso simplemente colocando ciertas pegatinas en la carretera.
Este tipo de ataques son una seria amenaza para una gran variedad de aplicaciones de Inteligencia Artificial en muchos ámbitos como en el médico o en el militar. Como publican los investigadores en su blog, “las imágenes contradictorias (o imágenes ambiguas o difíciles de identificar) representan un peligro real para los sistemas que dependen de la visión artificial”.
Segíun el blog oficial de OpenAI “estos ataques son similares a las “imágenes contradictorias” que pueden engañar a los sistemas comerciales de visión artificial, pero el caso descubierto muestra que pueden ser mucho más simples de producir” que lo que se sabía. Esto es escribiendo una palabra en un papel y poniéndolo sobre un objeto.