Artificial Intelligence Wallpaper 6484

IA convertida en arma: WormGPT, la nueva herramienta de ciberdelincuencia

La IA genera nuevas amenazas

La Inteligencia Artificial (IA) generativa está ganando cada vez más protagonismo en nuestra sociedad. Sin embargo, esta tecnología también está siendo reaprovechada por actores maliciosos para su beneficio, abriendo nuevas vías para el acelerado avance de la ciberdelincuencia.

Según investigaciones de SlashNext, un nuevo software de ciberdelincuencia basado en IA generativa llamado WormGPT se está publicitando en foros clandestinos. Esta herramienta promete a los adversarios la posibilidad de lanzar ataques de phishing y compromiso del correo electrónico empresarial (BEC) altamente sofisticados.

Los fines oscuros de la IA

«Cyberdelincuentes pueden utilizar tecnologías como estas para automatizar la creación de correos electrónicos falsos muy convincentes, personalizados para el destinatario, aumentando así las posibilidades de éxito del ataque», explicó el investigador de seguridad Daniel Kelley. Además, se ha mencionado que WormGPT es el «mayor enemigo del conocido ChatGPT«, y que «permite hacer todo tipo de cosas ilegales».

Wormgpt Ia

En manos de un actor malintencionado, herramientas como WormGPT pueden convertirse en un arma muy potente. La preocupación aumenta a medida que modelos de lenguaje amplios (LLMs) como OpenAI ChatGPT y Google Bard toman medidas para combatir el abuso de estos en la fabricación de correos de phishing y la generación de código malicioso.

El abuso de las restricciones de ChatGPT

Check Point señaló en un informe reciente que «las restricciones anti-abuso de Bard en el ámbito de la ciberseguridad son significativamente más bajas en comparación con las de ChatGPT». Esto facilita la generación de contenido malicioso utilizando las capacidades de Bard.

Se ha descubierto que los ciberdelincuentes están aprovechando la API de ChatGPT para eludir sus restricciones. Además, intercambian cuentas premium robadas y venden software de fuerza bruta para hackear cuentas de ChatGPT utilizando grandes listas de direcciones de correo electrónico y contraseñas.

El peligro de la IA generativa sin restricciones

El hecho de que WormGPT opere sin restricciones éticas evidencia el peligro que supone la IA generativa. Esta tecnología permite a los ciberdelincuentes novatos lanzar ataques rápidos y a gran escala sin necesidad de conocimientos técnicos.

Además, algunos actores de amenazas están promoviendo «jailbreaks» para ChatGPT. Estos buscan manipular la herramienta para generar contenido que pueda implicar la divulgación de información sensible, la producción de contenido inapropiado y la ejecución de código perjudicial.

El alcance de la IA en manos incorrectas

«La IA generativa puede crear correos electrónicos con una gramática impecable, haciéndolos parecer legítimos y reduciendo la probabilidad de ser marcados como sospechosos», comentó Kelley. «El uso de la IA generativa democratiza la ejecución de ataques BEC sofisticados. Incluso los atacantes con habilidades limitadas pueden utilizar esta tecnología, convirtiéndola en una herramienta accesible para un espectro más amplio de ciberdelincuentes.»

Esta revelación se produce al mismo tiempo que los investigadores de Mithril Security modificaron «quirúrgicamente» un modelo AI de código abierto conocido como GPT-J-6B para hacerlo difundir desinformación. La estrategia, denominada PoisonGPT, se basa en la subida del modelo alterado con un nombre que suplanta a una empresa conocida. En este caso, se utilizó una versión con errores de escritura de EleutherAI, la compañía detrás de GPT-J.

Los comentarios están cerrados.