La carrera por proteger la I.A. de los Hackers (Parte 3)

¿Cómo detenemos los ataques a la IA?
Entonces, ¿qué hacer con estos desafíos desconcertantes? La ayuda podría provenir del proyecto GARD multimillonario de DARPA, que tiene tres objetivos clave. El primero es desarrollar los algoritmos que protegerán el aprendizaje automático de vulnerabilidades e interrupciones en este momento. El segundo es desarrollar teorías sobre cómo garantizar que los algoritmos de IA sigan siendo defendidos contra los ataques a medida que la tecnología se vuelve más avanzada y más disponible.
Y tercero, GARD tiene como objetivo desarrollar herramientas que puedan proteger contra los ataques de los sistemas de IA y evaluar si la IA está bien defendida, y luego compartir estas herramientas ampliamente, en lugar de acumularlas dentro de la agencia.
Ya existe un precedente sombrío: el desarrollo de Internet en sí mismo es un buen ejemplo de lo que sucede cuando la seguridad es una idea de último momento, ya que todavía estamos tratando de lidiar con los delincuentes cibernéticos y los piratas informáticos malintencionados que aprovechan las vulnerabilidades y lagunas en lo antiguo y lo nuevo. tecnología.
Con la IA, lo que está en juego es aún mayor. El objetivo de GARD es evitar el abuso y los ataques contra la IA antes de que sea demasiado tarde.
«Muchos de nosotros usamos IA ahora, pero a menudo la usamos de maneras que no son críticas para la seguridad. Netflix recomienda lo que debo ver a continuación: si eso fuera pirateado, no arruinaría mi vida. Pero si pensamos en las cosas Al igual que los autos sin conductor, se vuelve mucho más crítico que nuestros sistemas de IA sean seguros y no estén siendo atacados”, explica Draper.
En este momento, la cantidad de IA antagónica en la práctica es muy pequeña, pero no creemos que lo sea en el futuro, dice. «Creemos que, a medida que la IA se vuelva más valiosa y más generalizada, crecerá, y es por eso que estamos tratando de hacer este trabajo en GARD ahora», advierte.
DARPA está trabajando con varias empresas de tecnología, incluidas IBM y Google, para proporcionar plataformas, bibliotecas, conjuntos de datos y materiales de capacitación al programa DARPA GARD para evaluar la solidez de los modelos de IA y sus defensas contra los ataques de los adversarios, tanto aquellos que son que enfrentan hoy y aquellos a los que se enfrentarán en el futuro.
El campus del IBM Almaden Research Center en las afueras de San José, California. Aquí, los investigadores de IA están ayudando al proyecto GARD.
Un componente clave de GARD es Armory, una plataforma virtual, disponible en GitHub, que sirve como banco de pruebas para los investigadores que necesitan evaluaciones repetibles, escalables y sólidas de las defensas antagónicas creadas por otros.
Otro es Adversarial Robustness Toolbox (ART), un conjunto de herramientas para que desarrolladores e investigadores defiendan sus modelos y aplicaciones de aprendizaje automático contra amenazas adversarias, que también está disponible para descargar desde GitHub.
ART fue desarrollado por IBM antes del esquema GARD, pero se ha convertido en una parte importante del programa.
«IBM ha estado interesada en la IA confiable durante mucho tiempo. Para tener cualquier modelo de aprendizaje automático, necesita datos, pero si no tiene datos confiables, entonces se vuelve complicado», dice Nathalie Baracaldo, quien dirige la IA. equipo de soluciones de seguridad y privacidad en el Almaden Research Center de IBM. «Vimos el proyecto DARPA GARD y vimos que estaba muy alineado con lo que estábamos haciendo», agrega.
«Se divide en dos partes: el equipo azul de ART donde intentas defender, pero también debes evaluar cuáles son los riesgos y qué tan bueno es tu modelo. ART proporciona las herramientas para ambos, para los equipos azul y rojo. , explica Baracaldo.
Construir plataformas y herramientas para evaluar y proteger los sistemas de IA contra las amenazas de hoy es bastante difícil. Tratar de averiguar qué lanzarán los piratas informáticos en estos sistemas mañana es aún más difícil.
«Uno de los principales desafíos en la investigación de robustez»
Para obtener más información sobre la traducción, se necesita el texto de origen que puede hacer todo lo mejor que pueda, pensar que tiene razón, publicar su artículo; entonces alguien más sale con un mejor ataque, entonces sus afirmaciones pueden estar equivocadas», explica Nicholas Carlini, científico investigador especializado en en la intersección del aprendizaje automático y la seguridad informática en Google Brain, el equipo de investigación de IA de aprendizaje profundo de Google.
«Es posible esforzarse al mismo tiempo tanto como sea posible para estar en lo correcto y estar equivocado, y esto sucede todo el tiempo», agrega.
Una de las funciones de Carlini dentro del proyecto GARD es garantizar que la investigación sobre la solidez de la IA esté actualizada y que los equipos que trabajan en soluciones defensivas no desarrollen algo que quedará obsoleto antes de que esté terminado, al mismo tiempo que brinda orientación a otros. involucrados para ayudar a realizar su propia investigación.
«La esperanza aquí es que al presentarle a la gente la lista de cosas que se sabía que estaban rotas junto con las soluciones sobre cómo romperlas, la gente podría estudiar esto», explica.
«Porque una vez que se vuelven buenos para romper cosas que sabemos cómo atacar, con suerte pueden extender esto para saber cómo romper cosas que luego crean ellos mismos. Y luego, al hacer eso, podrán producir algo que es más probable que sea correcto».
En el campo de la informatica, posee una experiencia de 15 años, desempeñandose en diferentes áreas desde ser analista de Help Desk ofreciendo soluciones a usuarios y sus diferentes problemas de informatica al rededor del mundo, en empresas de tecnología y de petroleo, trabajando con aplicaciones como Directorio Activo o Windows Active Directory, Lotus Note, Zimbra, Aplicaciones Web, SAP, Microsoft Office y otras aplicaciones de escritorio.
Posee experiencia en el campo de soporte tecnico integral a usuarios o lo llamado soporte de segundo Nivel, donde maneja más el campo del Hardware, mantenimiento de equipos CPU hasta Servidores de gamma baja.
En cuanto a Linux se a desempeñado como consultor de servidores Linux y Unix, desde hace más de 9 años, trabajando con mantenimiento e instalación,
seguridad, administración de servidores de código libre, respaldo para mantenimiento de Servidores Linux y Unix con soluciones como Data Protector y Bacúla,
configuración de aplicaciones bajo ambientes Linux, Servidores de Borde MTA y servidores de correo, Diseño e implantación de soluciones libres para virtualización
en plataformas como VMWARE, XEN, PROMOX y VirtualBox y recientemente con la administración de Docker automatizando el despliegue de aplicaciones dentro de contenedores de software libre. Así como la Administración de sistemas operativos como Debian, Ubuntu, Suse, Red Hat. También tiene experiencia en diversas plataformas de Unix como AIX para SAP, HP UX y Solaris.
Posee conocimientos en el campo de las bases de datos con MySQL o MariaDB y Postgres, así como de programación con Java y en el área de las redes Cisco.
Deja una respuesta