La IA ha disparado la carrera armamentística de la ciberseguridad en el último año. Y los próximos 12 meses no darán tregua. Esto tiene importantes implicaciones para los equipos de ciberseguridad de las empresas y sus empleadores, así como para los usuarios de la web.
07 febrero 2025 |
Mientras que la tecnología de IA ayuda a los defensores a mejorar la seguridad, los actores maliciosos no pierden el tiempo en aprovechar las herramientas potenciadas por IA, por lo que podemos esperar un aumento de las estafas, la ingeniería social, el fraude de cuentas, la desinformación y otras amenazas.
Esto es lo que puede esperar de 2025.
A principios de 2024, el Centro Nacional de Ciberseguridad del Reino Unido (NCSC) advirtió que la IA ya está siendo utilizada por todo tipo de actores de amenazas y que "casi con toda seguridad aumentará el volumen y el impacto de los ciberataques en los próximos dos años". La amenaza es más grave en el contexto de la ingeniería social, donde la IA generativa (GenAI) puede ayudar a los actores maliciosos a elaborar campañas muy convincentes en idiomas locales impecables; o en el reconocimiento, donde la IA puede automatizar la identificación a gran escala de activos vulnerables.
Aunque estas tendencias continuarán sin duda en 2025, es posible que también veamos el uso de la IA para:
La IA no sólo será una herramienta para los actores de amenazas durante el próximo año. También podría introducir un elevado riesgo de fuga de datos. La IA requiere enormes volúmenes de texto, imágenes y vídeo para entrenarse. A menudo, por accidente, algunos de esos datos serán sensibles. En algunos casos, las redes sociales y otras empresas pueden cambiar los términos y condiciones para utilizar los datos de los clientes para entrenar modelos.
Una vez acaparada por el modelo de IA, esta información representa un riesgo para las personas si el propio sistema de IA es pirateado. O si la información se comparte con otros a través de aplicaciones GenAI que se ejecutan sobre el LLM. También existe la preocupación de que los usuarios corporativos compartan involuntariamente información sensible relacionada con el trabajo a través de los mensajes de GenAI. Según una encuesta, una quinta parte de las empresas británicas han expuesto accidentalmente datos corporativos potencialmente sensibles a través del uso de GenAI por parte de sus empleados.
La buena noticia es que la IA desempeñará un papel cada vez más importante en el trabajo de los equipos de ciberseguridad durante el próximo año, a medida que se incorpore a nuevos productos y servicios. Sobre la base de una larga historia de seguridad impulsada por la IA, estas nuevas ofertas ayudarán a:
Sin embargo, los responsables de TI y seguridad también deben comprender las limitaciones de la IA y la importancia de la experiencia humana en el proceso de toma de decisiones. En 2025 será necesario un equilibrio entre humanos y máquinas para mitigar el riesgo de alucinaciones, degradación de modelos y otras consecuencias potencialmente negativas. La IA no es una bala de plata. Debe combinarse con otras herramientas y técnicas para obtener resultados óptimos.