Publicado 27/08/2025 15:58

Portaltic.-Anthropic advierte de que Claude se ha usado para dar "asesoramiento técnico y apoyo operativo" a ciberdelincuentes

Archivo - Anthropic presenta sus nuevos modelos de IA Claude 3.
Archivo - Anthropic presenta sus nuevos modelos de IA Claude 3. - ANTHROPIC - Archivo

   MADRID, 27 Ago. (Portaltic/EP) -

   Anthropic ha informado de varios ejemplos recientes de uso indebido de Claude, en el que su asistente ha brindado "asesoramiento técnico y apoyo operativo activo" en ciberataques que, de otro modo, habrían requerido un equipo de operadores.

   La compañía estadounidense ha advertido de que la IA agente se ha convertido en un "arma", y ha asegurado que los modelos de lenguaje ahora se utilizan para realizar ciberataques sofisticados en diferentes casos.

   En este sentido, Anthropic ha informado de que ha desmantelado las operaciones de un ciberdelincuente que utilizaba su agente de codificación, Claude Code, para obtener "asesoramiento técnico y apoyo operativo activo" y cometer robos y extorsiones a gran escala de datos personales, según ha recogido en su informe de Inteligencia de Amenazas.

   La compañía ha explicado que el actor utilizó la IA a un nivel "sin precedentes" con la técnica del 'vibe hacking', que consiste en técnicas de manipulación psicológica que explotan las emociones o percepciones de la víctima para comprometer su seguridad, como es el caso de crear una sensación de urgencia o pánico para que el usuario facilite sus datos.

   El ciberdelincuente empleó Claude Code para automatizar el reconocimiento, recopilar las credenciales de las víctimas y penetrar en las redes, mientras que Claude era capaz de tomar decisiones tácticas y estratégicas, como decidir qué datos extraer y cómo formular demandas de extorsión psicológicamente dirigidas.

   Del mismo modo, el asistente de Anthropic fue capaz de analizar los datos financieros extraídos para determinar las cantidades adecuadas de los rescates y generó notas de rescate "visualmente alarmantes" que se mostraban en los ordenadores de las víctimas.

   En lugar de cifrar la información robada con 'ransomware' tradicional, amenazó con exponer los datos públicamente para intentar extorsionar a las víctimas y obligarlas a pagar rescates que, en ocasiones, superaban los 500.000 dólares (unos 430.000 euros).

   Este actor tenía como objetivo al menos 17 organizaciones distintas, entre las que se encontraban instituciones sanitarias, servicios de emergencia e instituciones gubernamentales y religiosas.

   Anthropic prevé que este tipo de ataques se volverán más comunes a medida que la codificación asistida por IA reduzca la experiencia técnica necesaria para la ciberdelincuencia.

AGENTES NORCOREANOS MANTIENEN FRAUDULENTAMENTE TRABAJOS EN EMPRESAS TECNOLÓGICAS DE EE.UU.

   Otro de los casos que ha detectado Anthropic ha sido que agentes norcoreanos habían utilizado Claude para conseguir y mantener fraudulentamente puestos de trabajo remotos en empresas tecnológicas estadounidenses de la lista Fortune 500.

   Estos actores usaban los modelos de Claude para crear identidades falsas elaboradas con antecedentes profesionales convincentes, realizar evaluaciones técnicas y de codificación durante el proceso de solicitud y entregar trabajo técnico real una vez contratados, según ha indicado la compañía en su informe.

   Anthropic ha asegurado que esta estrategia fue diseñada para generar ganancias para el régimen norcoreano, desafiando las sanciones internacionales. Se trata de una operación que comenzó antes de la llegada de los grandes modelos de lenguaje, y que incluso ha sido reportada por el FBI.

VENTA DE 'RANSOMWARE' GENERADO POR IA COMO SERVICIO

   El tercer caso descubierto por Anthropic ha sido el de un ciberdelincuente que utilizó Claude para desarrollar, comercializar y distribuir diversas variantes de 'ransomware', cada una con capacidades avanzadas de evasión, cifrado y mecanismos antirrecuperación.

   Estos paquetes de 'ransomware' se vendieron en foros de internet a otros ciberdelincuentes por un precio que oscilaba desde los 400 hasta los 1.200 dólares (entre 345 y 1.035 euros).

   En el informe se ha apuntado que este actor parece haber dependido de la IA para desarrollar 'malware' funcional, que sin la ayuda de Claude no podría haber implementado ni solucionado problemas relacionados con componentes clave del 'malware'.

   Además, la compañía estadounidense también aborda otros usos maliciosos de sus modelos, entre los que se encuentra un intento de comprometer la infraestructura de telecomunicaiocnes vietnamita y el uso de múltiples agentes de IA para cometer fraude.

   Así, el aumento del fraude y la ciberdelincuencia potenciados por IA es algo que preocupa "especialmente" a la empresa, por lo que planean priorizar la investigación en este ámbito.

   De esta manera, Anthropic ha explicado que los abusos que han descubierto les han permitido actualizar sus medidas de seguridad preventiva, así como han compartido los detalles de sus hallazgos con equipos de seguridad externos.

Contador