iaseguridad

Los defensores de la IA generativa afirman que la tecnología aumentará la eficiencia e incluso superará a los delincuentes.

La combinación de la Inteligencia Artificial y la Ciberseguridad

La tecnología de inteligencia artificial ha sido una palabra de moda en la ciberseguridad desde hace una década, citada como una forma de detectar vulnerabilidades y reconocer amenazas mediante el reconocimiento de patrones en grandes cantidades de datos. Los productos antivirus, por ejemplo, utilizan desde hace tiempo la IA para buscar códigos maliciosos o malware y enviar alertas en tiempo real.

Pero la llegada de la IA generativa, que permite a los ordenadores generar contenidos complejos -como texto, audio y vídeo- a partir de simples entradas humanas, ofrece nuevas oportunidades a los ciberdefensores. Sus defensores prometen que aumentará la eficacia de la ciberseguridad, ayudará a los defensores a responder a las amenazas en tiempo real e incluso les ayudará a superar a sus adversarios.

"Los equipos de seguridad llevan años utilizando la IA para detectar vulnerabilidades y generar alertas de amenazas, pero la IA generativa lleva esto a otro nivel", afirma Sam King, director ejecutivo del grupo de seguridad Veracode.

"Ahora, podemos usar la tecnología no solo para detectar problemas, sino también para resolverlos y, en última instancia, prevenirlos en primer lugar".

La tecnología de IA generativa saltó por primera vez a la palestra con el lanzamiento de ChatGPT de OpenAI, un chatbot de consumo que responde a las preguntas e indicaciones de los usuarios. A diferencia de la tecnología que la precedió, la IA generativa "tiene velocidad de aprendizaje adaptativo, comprensión contextual y procesamiento de datos multimodal, y se despoja de la capa más rígida y basada en reglas de la IA tradicional, sobrealimentando sus capacidades de seguridad", explica Andy Thompson, evangelista de investigación ofensiva de CyberArk Labs.

Después de un año de bombo y platillo en torno a la IA generativa, ¿se están cumpliendo estas promesas?

La Inteligencia Artificial Generativa como aliado a la Ciberseguridad

La IA generativa ya se está utilizando para crear modelos específicos, chatbots o asistentes de IA que pueden ayudar a los analistas humanos a detectar y responder a los hackeos, algo parecido a ChatGPT, pero para la ciberseguridad. Microsoft ha puesto en marcha una iniciativa de este tipo, que denomina Security Copilot, mientras que Google tiene un modelo llamado SEC Pub.

"Al entrenar el modelo con todos nuestros datos sobre amenazas, todas nuestras mejores prácticas de seguridad, todo nuestro conocimiento sobre cómo crear software seguro y configuraciones seguras, ya tenemos clientes que lo utilizan para aumentar su capacidad de analizar ataques y malware para crear defensas automatizadas", afirma Phil Venables, director de seguridad de la información de Google Cloud.

Y hay muchos más casos de uso específicos, dicen los expertos. Por ejemplo, la tecnología puede utilizarse para la simulación de ataques o para garantizar que el código de una empresa se mantiene seguro. King, de Veracode, afirma: "Ahora puedes tomar un modelo GenAI y entrenarlo para que recomiende automáticamente correcciones para el código inseguro, genere materiales de formación para tus equipos de seguridad e identifique medidas de mitigación en caso de que se identifique una amenaza, yendo más allá de la mera búsqueda de vulnerabilidades."

La IA generativa también puede utilizarse para "generar [y] sintetizar datos" con los que entrenar modelos de aprendizaje automático, afirma Gang Wang, profesor asociado de informática en la Facultad de Ingeniería Grainger de la Universidad de Illinois. "Esto es especialmente útil para tareas de seguridad en las que los datos son escasos o carecen de diversidad", señala.

El potencial de desarrollo de sistemas de ciberseguridad basados en IA está impulsando la negociación de acuerdos en el sector cibernético, como la adquisición en septiembre por parte de Cisco del fabricante estadounidense de software de seguridad Splunk, por valor de 28.000 millones de dólares. "Esta adquisición refleja una tendencia más amplia e ilustra la creciente adopción por parte del sector de la IA para mejorar las ciberdefensas", afirma King.

Señala que estas alianzas permiten al adquirente ampliar rápidamente sus capacidades de IA, al tiempo que le dan acceso a más datos para entrenar eficazmente sus modelos de IA.

No obstante, Wang advierte de que la ciberseguridad basada en la IA no puede "sustituir totalmente a los métodos tradicionales existentes". Para tener éxito, "los diferentes enfoques se complementan entre sí para proporcionar una visión más completa de las ciberamenazas y ofrecer protecciones desde diferentes perspectivas", afirma.

Por ejemplo, las herramientas de IA pueden tener altas tasas de falsos positivos, lo que significa que no son lo suficientemente precisas como para confiar únicamente en ellas. Aunque pueden ser capaces de identificar y detener ataques conocidos con rapidez, pueden tener problemas con amenazas nuevas, como los llamados ataques de "día cero", que son diferentes de los lanzados en el pasado.

Los expertos advierten de que, a medida que la IA se extiende por el sector tecnológico, los ciberprofesionales deben desplegarla con cuidado, manteniendo, por ejemplo, las normas sobre privacidad y protección de datos. Según los datos de Netskope Threat Labs, en las grandes organizaciones se comparten datos sensibles en una consulta generativa de IA cada hora de la jornada laboral, lo que podría proporcionar a los hackers forraje para dirigir sus ataques.

Steve Stone, responsable de Rubrik Zero Labs en el grupo de seguridad de datos Rubrik, también señala la aparición de chatbots de IA generativa aptos para hackers, como "FraudGPT" y "WormGPT", que están diseñados para que "incluso aquellos con conocimientos técnicos mínimos" puedan lanzar sofisticados ciberataques.

Algunos hackers están utilizando herramientas de IA para escribir y desplegar estafas de ingeniería social a gran escala y de forma más selectiva, por ejemplo, imitando el estilo de escritura de una persona. Según Max Heinemeyer, director de producto de Darktrace, una empresa de ciberseguridad basada en IA, entre enero y febrero de 2023 se produjo un aumento del 135% en los "nuevos ataques de ingeniería social", tras la introducción de ChatGPT.

"2024 mostrará cómo actores más avanzados como APTs [amenazas persistentes avanzadas], atacantes de estados-nación y bandas avanzadas de ransomware han comenzado a adoptar la IA", dice. "El efecto será ataques aún más rápidos, escalables, personalizados y contextualizados, con un tiempo de permanencia reducido".

A pesar de esto, muchos expertos cibernéticos siguen siendo optimistas de que la tecnología será una bendición para los profesionales cibernéticos en general. "En última instancia, somos los defensores los que tenemos la sartén por el mango, dado que somos los propietarios de la tecnología y, por tanto, podemos dirigir su desarrollo teniendo en cuenta casos de uso específicos", afirma Venables. "En esencia, tenemos la ventaja de jugar en casa y pretendemos aprovecharla al máximo".

 

Fuente: somoslibres

 

¿Quién está en línea?

Hay 12338 invitados y ningún miembro en línea