Tan solo el 35% de los profesionales o equipos de ciberseguridad participan en el desarrollo de las políticas para el uso de la tecnología IA en sus empresas, y casi el 45% aseguran no participar en absoluto en el desarrollo, introducción o implementación de soluciones de IA.
En respuesta a nuevas preguntas introducidas en el estudio anual que patrocina Adobe, los servicios de ciberseguridad observaron que se utiliza la IA mayoritariamente para automatizar la detección de respuesta ante amenazas en un 28% y la seguridad de punto final (27%). A estas tareas le siguen la automatización de actividades rutinarias (24%) y la detección de fraude (13%).
«Dadas las dificultades a la hora de encontrar personal de ciberseguridad y el aumento de la presión sobre los profesionales que genera el complejo panorama de amenazas, ciertamente merece la pena explorar el potencial de la IA a la hora de automatizar y agilizar ciertas tareas y aligerar las cargas de trabajo», manifestó Jon Brandt, director de Prácticas Profesionales e Innovación de ISACA.
Índice de temas
Funciones de la IA en el sector
Además de las conclusiones relacionadas con la IA del informe State of Cybersecurity 2024, ISACA ha desarrollado recursos de inteligencia artificial para ayudar al personal de ciberseguridad y otros profesionales de la confianza digital a navegar mejor esta tecnología transformadora.
En primer lugar, un Documento Técnico sobre la Ley de IA de la Unión Europea ya que las empresas deben ser conscientes de los plazos y puntos de acción relacionados con la Ley de IA de la UE, que establece requisitos para ciertos sistemas de inteligencia artificial empleados en la Unión Europea y prohíbe ciertos casos de uso, la mayoría de los cuales entrarán en vigor a partir del 2 de agosto de 2026. El nuevo documento técnico de ISACA, Understanding the EU AI Act: Requirements and Next Steps (Comprendiendo la Ley de IA de la UE: requisitos y próximos pasos), recomienda adoptar ciertas medidas clave, incluyendo auditorias y trazabilidad, adaptar las actuales políticas y programas de ciberseguridad y privacidad, y designar a un responsable de IA que se mantenga al día sobre las herramientas en uso y el enfoque general de la empresa con respecto a la inteligencia artificial.
La verificación en los servicios de ciberseguridad
Los profesionales de ciberseguridad deben ser conscientes tanto de las ventajas como de los riesgos de la verificación adaptativa basada en IA, según se afirma en el nuevo recurso de ISACA, Examining Authentication in the Deepfake Era (Examinando la autenticación en la era de las falsificaciones deepfake).
A pesar de que la IA puede mejorar la seguridad si se emplea en sistemas de autenticación adaptativa que se amolden al comportamiento de cada usuario, dificultando así el acceso para los cibercriminales, los sistemas de IA también pueden ser manipulados a través de ataques adversarios, son susceptibles de caer en sesgos debido a los algoritmos de IA y pueden dar lugar a consideraciones éticas y de privacidad.
Además, según el informe Considerations for Implementing a Generative Artificial Intelligence Policy (Consideraciones para la implementación de una política de inteligencia artificial generativa) de ISACA, aquellas organizaciones que adopten una política sobre IA generativa deberán plantearse una serie de cuestiones para garantizar que cubran todas las posibilidades, incluyendo: “¿A quién impacta el alcance de esta política?”, “¿Cómo se define el buen comportamiento, y cuáles son los términos de uso aceptables?” o “¿Cómo se asegurará la organización de seguir los requisitos legales y de cumplimiento?”