lunes, 28 de agosto de 2017

Inteligencia Artificial podrían estar realizando ciberataques en menos de 12 meses






El siguiente ciberataque importante podría implicar sistemas de inteligencia artificial. Incluso podría suceder pronto: en una reciente conferencia de ciberseguridad, 62 profesionales de la industria de los 100 encuestados dijeron, que pensaban que el primer ataque cibernético intensificado por AI podría llegar en los próximos 12 meses.

Esto no significa que los robots marcharán por las calle principales. Más bien, la inteligencia artificial hará esfuerzos de ciberataques existentes, cosas como el robo de identidad, de denegación de servicio ataques y descifrado de contraseñas, más potentes y más eficientes. Esto es bastante peligroso, este tipo de hacking puede robar dinero, causar daño emocional e incluso herir o matar a la gente . Los ataques más grandes pueden reducir el poder a cientos de miles de personas , cerrar hospitales e incluso afectar a la seguridad nacional .

Como erudito que ha estudiado la toma de decisiones de la IA , puedo decirle que la interpretación de las acciones humanas sigue siendo difícil para la IA y que los humanos no confían en que los sistemas de AI tomen decisiones importantes. Por lo tanto, a diferencia de las películas, las capacidades que AI podría traer a los ataques cibernéticos y ciberdefensa, probablemente no involucrarán inmediatamente a las computadoras para elegir objetivos y atacarlos por su cuenta. La gente todavía tendrá que crear ataques de sistemas AI, y lanzarlos a objetivos específicos. Pero, sin embargo, agregando AI al mundo de la cibercriminalidad y la ciberseguridad de hoy, escalará lo que ya es una carrera de armamentos que cambia rápidamente entre atacantes y defensores.

Ataques más rápidos

Más allá de la falta de comida y sueño de las computadoras, las necesidades que limitan los esfuerzos de los hackers humanos, incluso cuando trabajan en equipo, la automatización puede hacer que los ataques complejos sean mucho más rápidos y eficaces.

Hasta la fecha, los efectos de la automatización han sido limitados. Las capacidades rudimentarias similares a la IA han proporcionado durante décadas a los programas antivirus la capacidad de auto-replicarse , extendiéndose de una computadora a otra sin instrucciones humanas específicas. Además, los programadores han utilizado sus habilidades para automatizar los diferentes elementos de los esfuerzos de piratería. Los ataques distribuidos, por ejemplo, implican el desencadenamiento de un programa remoto en varios ordenadores o dispositivos para abrumar a los servidores. El ataque que cerró grandes secciones de Internet en octubre de 2016 utilizó este tipo de enfoque. En algunos casos, los ataques comunes se ponen a disposición como un script que permite a un usuario poco sofisticado elegir un objetivo y lanzar un ataque contra él.

AI, sin embargo, podría ayudar a los ciberdelincuentes humanos a personalizar los ataques. Los ataques de Spearphishing, por ejemplo, requieren que los atacantes tengan información personal sobre posibles blancos, detalles como el lugar de su banco o la compañía de seguros médicos que utilizan. Los sistemas de IA pueden ayudar a recopilar, organizar y procesar grandes bases de datos para conectar la información de identificación, haciendo este tipo de ataque más fácil y rápido de llevar a cabo. Esta reducción de la carga de trabajo puede conducir a los ladrones a lanzar muchos ataques más pequeños que pasan desapercibidos durante un largo período de tiempo -si se detectan en absoluto- debido a su impacto más limitado.

Los sistemas de inteligencia artificial podrían incluso utilizarse para extraer información de múltiples fuentes para identificar a personas que serían particularmente vulnerables a los ataques. Alguien que está hospitalizado o en un asilo de ancianos, por ejemplo, puede no notar el dinero que falta de su cuenta hasta mucho tiempo después de que el ladrón se ha ido.

Adaptación mejorada

Los atacantes habilitados para IA también serán mucho más rápidos para reaccionar cuando se encuentren con resistencia, o cuando los expertos en ciberseguridad solucionen las debilidades que previamente habían permitido la entrada de usuarios no autorizados. La IA puede ser capaz de explotar otra vulnerabilidad, o empezar a buscar nuevas formas en el sistema - sin esperar instrucciones humanas.

Esto podría significar que los defensores y defensores humanos se encuentran incapaces de mantenerse al día con la velocidad de los ataques entrantes. Puede resultar en una carrera de armamentos tecnológicos y de programación , con defensores desarrollando asistentes de AI para identificar y proteger contra ataques - o quizás incluso AI con capacidades de ataque de represalia.

Evitar los peligros

Operar de manera autónoma podría llevar a los sistemas de AI a atacar un sistema que no debería, o causar un daño inesperado . Por ejemplo, el software iniciado por un atacante con la intención de robar dinero sólo podría decidir apuntar a una computadora del hospital de una manera que cause lesiones humanas o la muerte. La posibilidad de que los vehículos aéreos no tripulados funcionen de manera autónoma ha planteado cuestiones similares sobre la necesidad de que los seres humanos tomen las decisiones sobre los objetivos.


Las consecuencias y consecuencias son significativas, pero la mayoría de la gente no notará un gran cambio cuando se desencadene el primer ataque de AI. Para la mayoría de los afectados, el resultado será el mismo que los ataques provocados por humanos. Pero a medida que continuamos llenando nuestras casas, fábricas, oficinas y carreteras con sistemas robotizados conectados a Internet, los efectos potenciales de un ataque por inteligencia artificial sólo crecen.

0 comentarios:

Publicar un comentario