OpenAI revela cómo se usa ChatGPT para estafas y espionaje
- Enfoque Revista
- hace 50 minutos
- 3 Min. de lectura
No todo es productividad y dibujitos al estilo de Studio Ghibli. El último informe de amenazas de OpenAI detalla una red de engaños que incluye desde "abogados fantasma" hasta campañas de desprestigio contra líderes mundiales movidas desde china utilizando ChatGPT
La Inteligencia Artificial ha cambiado las reglas del juego para todos, no solo para los buenos. En un ejercicio de transparencia poco común, OpenAI acaba de publicar un informe de amenazas donde detalla cómo diversos actores malintencionados han intentado convertir a ChatGPT en su cómplice digital.
Desde operaciones de influencia política hasta fraudes sentimentales, el reporte de openai es un recordatorio de que, en las manos equivocadas, la IA puede ser el escritor perfecto para el crimen moderno.

A continuación te detallamos el informe dónde OpenAi nos muestra la forma en que ChatGPT fue utilizado para realizar ciberdelitos.
1. El "Love Bombing" Automatizado
Uno de los casos más impactantes involucra a un grupo de estafadores que se centraron en hombres indonesios. Utilizaron ChatGPT para:
Generar anuncios y textos promocionales para servicios de citas falsos.
Mantener conversaciones fluidas y persuasivas para atraer a las víctimas.
Presionar a los usuarios para completar "tareas" que requerían pagos masivos.
Resultado: Se estima que defraudaron a cientos de personas cada mes mediante esta "ingeniería social" asistida por IA.
La tecnología de Openai les facilitó los discursos para poder convencer a decenas de ciudadanos solitarios y así poder vacías sus carteras.
2. Espionaje con rastro de China
El informe también identifica un grupo de cuentas originadas en China, con objetivos mucho más oscuros que el simple fraude monetario. Estas cuentas utilizaron la IA para:
Solicitar información detallada sobre ciudadanos estadounidenses y la ubicación de edificios federales.
Buscar asesoría técnica sobre software de face-swapping (cambio de rostros), una herramienta clave para crear deepfakes y suplantar identidades en videollamadas.
Redactar correos electrónicos profesionales para atraer a analistas políticos y financieros a "consultas pagadas" que en realidad eran trampas de pesca de información (phishing).
3. Abogados de IA
¿Confiarías en un buffet de abogados que te contacta por redes sociales? Varios delincuentes utilizaron ChatGPT para posar como firmas legales reales y agentes del orden de EE. UU.
El modus operandi: Los estafadores buscaban específicamente a personas que ya habían sido víctimas de fraude, prometiéndoles "ayuda legal" o "recuperación de fondos" mediante documentos y correos redactados con un tono legal impecable, cortesía de la IA.
Creaban anuncios persuasivos con IA y creaban sitios web también con asistencia de la ia para hacerse pasar por bufetes reales con prestigio, que en realidad solo eran otra forma de estafar a personas que ya habían caído anteriormente en una estafa digital.
4. Desprestigio Político en Japón
La geopolítica no quedó fuera. OpenAI detectó y bloqueó una operación vinculada a fuerzas del orden chinas diseñada para atacar a Sane Takaichi, la primera mujer primera ministra de Japón. La IA se utilizó para orquestar una campaña de influencia encubierta, generando contenido diseñado para manipular la opinión pública y erosionar la confianza en su administración.

¿Cómo evitar ser víctima de una IA Malvada"?
Aunque la tecnología de OpenAI tiene filtros, las personas siempre buscan grietas para pedirle a la inteligencia artificial que los ayude con sus planes. Es importante nunca olvidar que si cualquier sujeto en internet, aunque sea una “agencia de citas" o "bufete" te presiona para realizar pagos rápidos por tareas o trámites, es muy probable que se trate de una estafa.
Por tu seguridad, siempre ignora correos electrónicos o anuncios en foros, en inglés o español, con una gramática perfecta, pero con peticiones extrañas (como pedirte que descargues software de intercambio de rostros)
Si recibes invitaciones a participar en foros o consultas pagadas de fuentes que no puedes verificar fuera de la plataforma donde te contactaron, red flag.

Conclusión
OpenAI ha reafirmado su compromiso de banear estas cuentas y seguir informando de nuevos métodos de estafa que vaya descubriendo para poder informar a sus usuarios y mantenerlos protegidos, pero nadie está exento de ser víctima de una ciber-estafa si pasas mucho tiempo en internet, ya que cada día surgen nuevas formas de estafar y ser estafado en el basto mundo del internet.
El informe deja una lección clara: la IA no tiene moral, solo instrucciones. En 2026, nuestra mejor defensa sigue siendo un escepticismo saludable y la verificación por canales oficiales.
Si eres una persona con curiosidad por adentrarte en el mundo de las inteligencias artificiales, lo mejor sería que hagas un compromiso de utilizar este poder para el bien, ya que “un gran poder conlleva una gran responsabilidad…”







Comentarios