Desde el «nacimiento» de ChatGPT en noviembre de 2022 y la aparición de otras herramientas de IA como Aleph Alpha, Google Bard y Microsoft Copilot, los acontecimientos se han precipitado. Los titulares se suceden y el triunfo de la IA generativa (GenAI) parece imparable. Pero, ¿cómo afecta el desarrollo de la inteligencia artificial a la seguridad? ¿Cómo están cambiando los ciberataques y cómo ayuda la IA a las empresas de seguridad a proteger mejor los datos y los sistemas?
La inteligencia artificial generativa (GenAI) pone la inteligencia artificial por primera vez al alcance de todos. Todos podemos utilizar la IA fácilmente, interactuar con ella e incluso desarrollarla nosotros mismos. Enseguida encontramos casos de uso que nos aportan importantes ventajas para nuestra vida privada, nuestro trabajo o nuestra empresa. La IA generativa facilita considerablemente a los usuarios la tarea de iniciarse en ella y despierta su apetito por más.
Asimismo, la inteligencia artificial también es un tema importante para las TI y la seguridad. Desde hace años se utilizan tecnologías como el análisis de big data, el aprendizaje automático (ML) y el análisis del comportamiento para automatizar procesos o mejorar la tasa de detección de malware. Los campos de aplicación más populares son la detección de amenazas y la defensa contra las mismas. En este sentido, las herramientas inteligentes identifican con rapidez y precisión anomalías o comportamientos sospechosos en redes o sistemas, lo cual permite tomar contramedidas en una fase temprana. Además, las soluciones también ayudan a subsanar lagunas en la seguridad informática detectando automáticamente posibles vulnerabilidades y dando prioridad a las actualizaciones de seguridad.
Por otro lado, los ciberdelincuentes también están haciendo uso de la tecnología, por ejemplo, para encontrar rápidamente en los datos capturados información crítica para la empresa o datos personales. La IA también les permite perpetrar ciberataques más sofisticados y discretos que antes. Los correos de phishing son un ejemplo de esto. Antes se reconocían fácilmente por las faltas de ortografía y la estructura extraña de las frases. Hoy parecen más coherentes y están formulados de forma más profesional. Esto se debe a que la GenAI facilita la redacción de cartas de presentación falsas en muchos idiomas.
Sin embargo, las empresas y fabricantes de soluciones de seguridad también se están adaptando a esto. En su caso, utilizan la inteligencia artificial para reconocer los textos generados por ella. Las soluciones de protección del correo electrónico, por ejemplo, marcan los correos sospechosos y los clasifican. Aunque este enfoque también motiva a los atacantes a utilizar las herramientas de IA de forma aún más eficaz para escribir textos más creíbles. Se trata de un juego del gato y el ratón en el que ciberdelincuentes y empresas de seguridad intentan superarse mutuamente.
Más allá del reconocimiento de correos electrónicos de phishing, la inteligencia artificial ofrece numerosas oportunidades, especialmente a los proveedores de servicios de seguridad gestionados como T-Systems. Por ejemplo, apoya a nuestros analistas de seguridad en el centro de operaciones de seguridad (SOC) para que podamos proteger aún mejor las aplicaciones, los datos y los sistemas de los clientes como parte de la Managed Detection and Response. En el SOC, la IA se emplea para muchas tareas diferentes y ya está integrada en diversas soluciones de seguridad. Por ejemplo, aumenta la calidad de las alertas de seguridad generadas en el curso de la detección de amenazas, lo que reduce el número de falsos positivos y, por tanto, también la carga de trabajo para los equipos del SOC.
1 Global Security Operations Center Study Results, Morning Consult, 2023, IBM
No hay que descuidarla al redactar prompts: la protección de datos. Ni los datos personales ni los datos específicos de los clientes pueden transferirse a modelos públicos de IA como Bard o ChatGPT. Nadie sabe qué ocurre con los datos en segundo plano: dónde se almacenan, si personas no autorizadas acceden a ellos o si se publican para entrenar a otra IA.
Para ir sobre seguro en lo que a la protección de datos respecta, las empresas pueden configurar su propia GenAI como una instancia separada y protegida, y entrenarla con datos internos. Después, solo los empleados de la empresa podrán acceder a ella. Aunque esto también plantea retos: hay que establecer un sistema seguro de autorizaciones y funciones que evite que todo el mundo pueda ver toda la información, por ejemplo, desde finanzas y recursos humanos.
También cabría imaginar una solución de este tipo para el uso de la IA en un contexto de seguridad. Al fin y al cabo, se trata de datos sensibles. Si, por ejemplo, la banca en línea de un cliente del sector financiero se ve comprometida y le ayudamos a analizar el incidente, los datos no deben filtrarse al exterior. Porque podría tratarse, entre otros, de datos bancarios y de tarjetas de crédito, es decir, precisamente la información a la que los ciberdelincuentes querían acceder.
En T-Systems queremos automatizar cada vez más las tareas repetitivas en el centro de operaciones de seguridad de cara al futuro utilizando herramientas de seguridad modernas basadas en IA y aprendizaje automático. Esto acelera los procesos y brinda a nuestros expertos más tiempo para otras tareas. Al mismo tiempo, los procesos SOC se escalan mejor. Esto significa que evitamos cuellos de botella en el nivel de servicio y mejoramos la asistencia a nuestros clientes.
En lo que al revuelo que ha causado la inteligencia artificial en general respecta, hasta ahora estos modelos se han adaptado muy bien a casos de uso individuales, como la conversación y la transferencia de conocimientos en el caso de ChatGPT. Sin embargo, este bot no puede resolver problemas complejos de cálculo. Un modelo capaz de reproducir todas las capacidades humanas sería una inteligencia artificial general (IAG), pero aún nos faltan muchos años y pasos de desarrollo para lograrlo. Por lo tanto, para nosotros está claro: las competencias humanas también serán necesarias en el futuro, y no solo en el ámbito de la seguridad. La IA complementa las capacidades humanas, pero (todavía) no puede sustituirlas.