“O pagas o entrenaremos la IA con tus obras”: el insólito chantaje de hackers a una web de artistas

El ransomware ya era una pesadilla global: datos cifrados, sistemas bloqueados y rescates exigidos a cambio de recuperar el control. Sin embargo, un ataque reciente introdujo un elemento inesperado: la inteligencia artificial. Los hackers de LunaLock, responsables del ataque a Artists&Clients, no solo piden dinero, también amenazan con usar las obras robadas para entrenar modelos de IA. Una extorsión inédita que golpea a un sector especialmente sensible: los artistas digitales.

El ataque a Artists&Clients

El 30 de agosto, la web Artists&Clients fue hackeada. Los atacantes robaron correos electrónicos, contraseñas y código fuente, dejando la página inaccesible. Hasta el momento, los responsables de la plataforma no han emitido comunicado oficial, aunque usuarios preocupados han compartido su inquietud en foros como Reddit.

El mensaje de los hackers seguía el guion habitual: pagar o ver cómo los datos se filtran públicamente. Pero añadieron una amenaza inédita: “Enviaremos todas las ilustraciones a empresas de inteligencia artificial para que se usen en conjuntos de entrenamiento”.

IA como nueva herramienta de presión

Según una investigadora de la empresa de ciberseguridad Flare, es la primera vez que la amenaza de entrenar modelos de IA con datos robados aparece como táctica de extorsión. Y no es casual: la relación entre arte e inteligencia artificial está en el centro de un debate candente.

Desde que los modelos de generación de imágenes irrumpieron en la escena, miles de artistas han denunciado el uso de sus obras sin consentimiento. Algunos han iniciado demandas legales, otros recurren a técnicas para “envenenar” sus obras y evitar que alimenten algoritmos.

“O pagas o entrenaremos la IA con tus obras”: el insólito chantaje de hackers a una web de artistas
© FreePik

Cibercrimen e inteligencia artificial

En este caso, la IA no fue la herramienta del ataque, sino el argumento elegido para endurecer el chantaje. Sin embargo, existen informes que alertan de un uso cada vez mayor de IA generativa en el cibercrimen: desde programar ransomware hasta automatizar tareas técnicas de los atacantes.

La amenaza de LunaLock muestra un nuevo giro en el uso del miedo a la IA. No solo afecta a los datos personales, también a la creación artística, un ámbito donde el debate sobre el uso de la inteligencia artificial ya era lo bastante tenso sin la intervención de los ciberdelincuentes.

Fuente: Xataka.

Actualizáte