El siguiente ciberataque importante
podría implicar sistemas de inteligencia artificial. Incluso podría
suceder pronto: en una reciente conferencia de ciberseguridad, 62 profesionales
de la industria de
los 100 encuestados dijeron, que pensaban que el primer ataque
cibernético intensificado por AI podría llegar en los próximos 12 meses.
Esto no significa que los robots
marcharán por las calle principales. Más bien, la inteligencia artificial
hará esfuerzos de ciberataques existentes, cosas como el robo de identidad, de
denegación de servicio ataques y
descifrado de contraseñas, más potentes y más eficientes. Esto es
bastante peligroso, este tipo de hacking puede robar dinero, causar
daño emocional e incluso herir
o matar a la gente . Los ataques más grandes pueden reducir el poder a cientos de miles de personas ,
cerrar hospitales e incluso afectar
a la seguridad nacional .
Como erudito que ha estudiado la toma de
decisiones de la IA , puedo decirle que la interpretación de las
acciones humanas sigue siendo difícil para la IA y que los humanos no confían
en que los sistemas de AI tomen decisiones importantes. Por lo tanto, a
diferencia de las películas, las capacidades que AI podría traer a los ataques
cibernéticos y ciberdefensa, probablemente no involucrarán inmediatamente a
las computadoras para elegir objetivos y atacarlos por su cuenta. La gente
todavía tendrá que crear ataques de sistemas AI, y lanzarlos a objetivos específicos. Pero,
sin embargo, agregando AI al mundo de la cibercriminalidad y la ciberseguridad
de hoy, escalará lo
que ya es una carrera de
armamentos que cambia rápidamente entre atacantes y defensores.
Ataques más rápidos
Más allá de la falta de comida y
sueño de las computadoras, las necesidades que limitan los esfuerzos de los
hackers humanos, incluso cuando trabajan en equipo, la automatización puede hacer
que los ataques complejos sean mucho más rápidos y eficaces.
Hasta la fecha, los efectos de la
automatización han sido limitados. Las capacidades rudimentarias similares
a la IA han proporcionado durante décadas a los programas antivirus la
capacidad de auto-replicarse , extendiéndose de una computadora a otra
sin instrucciones humanas específicas. Además, los programadores han
utilizado sus habilidades para automatizar los diferentes elementos de los
esfuerzos de piratería. Los ataques distribuidos, por ejemplo, implican el
desencadenamiento de un programa remoto en varios ordenadores o dispositivos
para abrumar a los servidores. El ataque que cerró
grandes secciones de Internet en octubre de 2016 utilizó este tipo de
enfoque. En algunos casos, los ataques comunes se ponen a disposición como
un script que permite a un usuario poco sofisticado elegir un objetivo y lanzar
un ataque contra él.
AI, sin embargo, podría ayudar a
los ciberdelincuentes humanos a personalizar los ataques. Los ataques de
Spearphishing, por ejemplo, requieren que los atacantes tengan información
personal sobre posibles blancos, detalles como el lugar de su banco o la
compañía de seguros médicos que utilizan. Los sistemas de IA pueden ayudar
a recopilar, organizar y procesar grandes bases de datos para conectar la
información de identificación, haciendo este tipo de ataque más fácil y rápido
de llevar a cabo. Esta reducción de la carga de trabajo puede conducir a
los ladrones a lanzar muchos ataques más pequeños que pasan desapercibidos
durante un largo período de tiempo -si se detectan en absoluto- debido a su
impacto más limitado.
Los sistemas de inteligencia
artificial podrían incluso utilizarse para extraer información de múltiples
fuentes para identificar a personas que serían particularmente vulnerables a
los ataques. Alguien que está hospitalizado o en un asilo de ancianos, por
ejemplo, puede no notar el dinero que falta de su cuenta hasta mucho tiempo
después de que el ladrón se ha ido.
Adaptación mejorada
Los atacantes habilitados para IA
también serán mucho más rápidos para reaccionar cuando se encuentren con
resistencia, o cuando los expertos en ciberseguridad solucionen las debilidades
que previamente habían permitido la entrada de usuarios no autorizados. La
IA puede ser capaz de explotar otra vulnerabilidad, o empezar a buscar nuevas
formas en el sistema - sin esperar instrucciones humanas.
Esto podría significar que los
defensores y defensores humanos se encuentran incapaces de mantenerse al día
con la velocidad de los ataques entrantes. Puede resultar en una carrera de armamentos
tecnológicos y de programación , con defensores desarrollando
asistentes de AI para identificar y proteger contra ataques - o quizás incluso
AI con capacidades de ataque de represalia.
Evitar los peligros
Operar de manera autónoma podría
llevar a los sistemas de AI a atacar un sistema que no debería, o causar
un daño inesperado . Por ejemplo, el software iniciado por un
atacante con la intención de robar dinero sólo podría decidir apuntar a una
computadora del hospital de una manera que cause lesiones humanas o la
muerte. La posibilidad de que los vehículos aéreos no tripulados
funcionen de manera autónoma ha planteado cuestiones similares sobre
la necesidad de que los seres humanos tomen las decisiones sobre los objetivos.
Las consecuencias y consecuencias
son significativas, pero la mayoría de la gente no notará un gran cambio cuando
se desencadene el primer ataque de AI. Para la mayoría de los afectados,
el resultado será el mismo que los ataques provocados por humanos. Pero a
medida que continuamos llenando nuestras casas, fábricas, oficinas y carreteras
con sistemas robotizados conectados a Internet, los efectos potenciales de un
ataque por inteligencia
artificial sólo crecen.
0 comentarios:
Publicar un comentario