Publicado 07/10/2025 17:10

Portaltic.-OpenAI desglosa los casos de uso que intentaron usar ChatGPT para estafar, monitorizar y desinformar

Archivo - FILED - 18 April 2023, Berlin: The logo of the ChatGPT can be ssen on the monitor of a cell phone. Photo: Hannes P Albert/dpa
Archivo - FILED - 18 April 2023, Berlin: The logo of the ChatGPT can be ssen on the monitor of a cell phone. Photo: Hannes P Albert/dpa - Hannes P Albert/Dpa - Archivo

   MADRID, 7 Oct. (Portaltic/EP) -

   OpenAI ha desglosado los casos de redes que han abusado de sus herramientas de inteligencia artificial, como ChatGPT, para impulsar campañas maliciosas, generar contenido con información sesgada o monitorizar las conversaciones en redes sociales.

    La firma tecnológica ha interrumpido la actividad de 40 redes por violar los términos de uso de sus herramientas de inteligencia artificial desde febrero de 2024. Estas acciones siguen su visión de crear una IA que beneficie a todos y que ayude a resolver problemas realmente difíciles.

    En un nuevo informe, que ha publicado este martes, OpenAI desglosa varios casos de uso por parte de actores maliciosos ubicado principalmente en Camboya, Corea, Rusia y China, que han abusado de sus herramientas para desplegar ciberataques, estafas y operaciones de influencia encubierta, entre otros.

    Una de esas herramientas es ChatGPT. Una red de Coreana empleó este 'chatbot' para que le ayudara en el desarrollo de 'malware' y de una estructura de comando y control. Otra red, que operaba desde Camboya, Birmania y Nigeria, intentó utilizar ChatGPT para engañara a personas en una campaña fraudulenta.

    También se ha detectado su uso en regímenes autoritarios, como China, con el fin de desarrollar herramientas que habiliten la monitorización a gran escala en las redes sociales. Y el empleo de los modelos de OpenAI para generar contenido para YouTube y TikTok con el que difundir desinformación e información sesgada.

    Este 'chatbot' también se ha empleado para buscar información que ayude a identificar correctamente las estafadas, lo que ha llevado a la compañía a estimar que "ChatGPT se utiliza para identificar estafas hasta tres veces más a menudo que para estafas".

Contador