Actualizado: Febrero 1 2024

Febrero 14 / 2024 13:00 hrs

 

Microsoft y Open AI informan que varios grupos de ciberdelincuentes están utilizando IA para lanzar ciberataques.

 

 

Se está utilizando ChatGPT, un modelo de lenguaje de gran escala (LLM), para actividades diversas, pero podrían emplearse otros modelos similares. Lo destacado aquí es el uso de estos LLM para generar textos coherentes y persuasivos a partir de entradas iniciales, como palabras, frases o párrafos.

 

Estos sistemas, basados en aprendizaje profundo y procesamiento de lenguaje natural, se entrenan con grandes cantidades de datos textuales obtenidos de Internet y otras fuentes. Los ciberdelincuentes aprovechan estos LLM para mejorar sus ataques, tanto en ciberseguridad como en manipulación de información. Los grupos identificados provienen de distintas nacionalidades, como Rusia, Corea del Norte, Irán y China.

 

La situación es grave, ya que algunos, como el grupo ruso, utilizan la IA para comprender los protocolos de comunicación entre satélites y radares, entre otros fines. Además de ataques, la IA se emplea en la recolección, interpretación y procesamiento de información, con el objetivo de hacer los ataques más eficientes y aumentar el número de víctimas.

 

Empresas como Microsoft y OpenAI instan a usuarios, desarrolladores y responsables políticos a estar alerta y tomar medidas para prevenir y mitigar los riesgos del uso indebido de la IA. También se comprometen a mejorar la seguridad y ética de sus modelos y aprovechar el potencial de la IA para proteger y empoderar a las personas y organizaciones.

 

Entre los proyectos para abordar estos problemas, se encuentra el desarrollo de Security Copilot, un asistente de IA diseñado para ayudar a profesionales de ciberseguridad a identificar y enfrentar estos ataques