Expertos Descubren Vulnerabilidad en Servicio de IA Replicate: Modelos y Datos de Clientes en Riesgo

Descubren Grave Vulnerabilidad de Seguridad en Replicate

Investigadores de ciberseguridad han descubierto una grave vulnerabilidad de seguridad en el proveedor de inteligencia artificial (IA) como servicio, Replicate, que podría haber permitido a actores malintencionados acceder a modelos de IA propietarios e información sensible.

«La explotación de esta vulnerabilidad habría permitido el acceso no autorizado a los prompts y resultados de todos los clientes de la plataforma de Replicate,» dijo la firma de seguridad en la nube Wiz en un informe publicado esta semana.

El problema surge debido a que los modelos de IA generalmente se empaquetan en formatos que permiten la ejecución de código arbitrario, lo cual un atacante podría utilizar para realizar ataques de cruce de inquilinos usando un modelo malicioso.

Replicate hace uso de una herramienta de código abierto llamada Cog para contenerizar y empaquetar modelos de aprendizaje automático que luego pueden ser desplegados en un entorno auto-hospedado o en Replicate.

El Ataque y la Técnica Utilizada

Wiz informó que crearon un contenedor de Cog malicioso y lo subieron a Replicate, empleándolo para lograr la ejecución de código remoto en la infraestructura del servicio con privilegios elevados.

«Sospechamos que esta técnica de ejecución de código es un patrón, donde compañías y organizaciones ejecutan modelos de IA de fuentes no confiables, aunque estos modelos sean códigos que podrían ser potencialmente maliciosos,» dijeron los investigadores de seguridad Shir Tamari y Sagi Tzadik.

Cómo Funciona el Ataque

La técnica de ataque desarrollada por la compañía aprovechó una conexión TCP ya establecida, asociada con una instancia de servidor Redis dentro del clúster de Kubernetes alojado en la Google Cloud Platform, para inyectar comandos arbitrarios.

Además, con el uso centralizado del servidor Redis como una cola para gestionar múltiples solicitudes de clientes y sus respuestas, podría ser abusado para facilitar ataques de cruce de inquilinos manipulando el proceso para insertar tareas maliciosas que podrían afectar los resultados de los modelos de otros clientes.

Estas manipulaciones no solo amenazan la integridad de los modelos de IA, sino que también plantean riesgos significativos para la precisión y la fiabilidad de los resultados impulsados por IA.

«Un atacante podría haber consultado los modelos de IA privados de Replicate y haber alterado los resultados, comprometiendo la seguridad y confiabilidad de la plataforma,» advirtieron los investigadores.