
OpenAI identifica redes que usaron ChatGPT para estafas, espionaje y desinformación
La compañía tecnológica detectó y desactivó 40 operaciones maliciosas que violaron los términos de uso de su inteligencia artificial, incluyendo casos en Rusia, China, Camboya y Corea.
OpenAI publicó un nuevo informe en el que detalla cómo diversos actores maliciosos han intentado aprovechar sus herramientas de inteligencia artificial, en especial ChatGPT, para realizar actividades ilícitas y campañas de manipulación informativa. Desde febrero de 2024, la empresa ha desarticulado 40 redes por vulnerar sus términos de uso, reafirmando su compromiso de desarrollar una IA “que beneficie a todos” y que contribuya a resolver problemas complejos, no a crearlos.
El documento expone que entre los usos indebidos más frecuentes se encuentran el desarrollo de ‘malware’, la ejecución de ciberataques, la creación de campañas fraudulentas, la monitorización masiva de redes sociales y la generación de contenido desinformativo en plataformas como YouTube y TikTok.
Entre los casos destacados, OpenAI identificó una red con base en Corea que utilizó ChatGPT para diseñar software malicioso y estructuras de comando y control. En Camboya, Birmania y Nigeria, otra red buscó aprovechar el chatbot para montar una campaña de engaños y estafas en línea.
Asimismo, la compañía alertó sobre el uso de sus modelos en países con regímenes autoritarios, como China, donde habrían sido empleados para desarrollar sistemas de vigilancia digital a gran escala. También se detectaron operaciones de influencia que intentaron difundir mensajes sesgados o manipuladores mediante videos generados con IA en redes sociales.
Pese a estos intentos, OpenAI subrayó un dato revelador: ChatGPT es utilizado tres veces más para identificar y prevenir estafas que para ejecutarlas, lo que demuestra que su herramienta también cumple un rol relevante en la lucha contra el fraude digital.
Con estas medidas, la empresa busca marcar un precedente en la regulación y monitoreo del uso ético de la inteligencia artificial, un desafío que se vuelve cada vez más urgente frente al aumento de campañas de desinformación y manipulación automatizada en todo el mundo.
Los comentarios están cerrados, pero trackbacks Y pingbacks están abiertos.