Así operan los falsos famosos creados con IA: el caso de una fan estafada por un George Clooney digital

Miércoles 14 de mayo de 2025

Así operan los falsos famosos creados con IA: el caso de una fan estafada por un George Clooney digital

Una mujer argentina fue víctima de una estafa millonaria a través de Facebook y mensajes privados con un falso George Clooney

george clooney.jpg

George Clooney es uno de los actores más rentables de Hollywood.

/

Foto: EFE

George Clooney es uno de los actores que ocupan para las estafas
Foto: EFE

Una mujer argentina fue víctima de una estafa insólita y devastadora que combina tecnología de punta y manipulación emocional. Del otro lado de la pantalla, no había un famoso actor de Hollywood dispuesto a ayudarla, sino un grupo de delincuentes que, mediante inteligencia artificial, recrearon la imagen y voz de George Clooney para hacerle creer que mantenía un vínculo directo con él. El resultado fue desolador: la víctima transfirió más de 15 mil dólares en concepto de membresías, donaciones falsas y supuestos trámites personales del “actor”. Este caso no solo expone la vulnerabilidad emocional de las víctimas, sino también los nuevos alcances del fraude digital impulsado por tecnologías cada vez más convincentes.

Te puede interesar: ‘Es horrible': así reaccionó Brad Pitt a la estafa donde usaron su nombre e imagen

¿Cómo operaron los estafadores que suplantaron a George Clooney?

En una muestra más del potencial malicioso de la inteligencia artificial, una mujer argentina fue víctima de una sofisticada estafa digital que involucró la suplantación de identidad del actor George Clooney. El engaño comenzó en Facebook, una plataforma que la víctima usaba con frecuencia. Allí se topó con una página verificada del supuesto Clooney, lo que reforzó su confianza y la llevó a interactuar con publicaciones del sitio. Fue así como el estafador, actuando desde ese perfil falso, inició contacto directo con ella.

Posteriormente, la conversación se trasladó a una aplicación de mensajería privada, similar a Telegram, donde comenzaron a mantener charlas diarias. El estafador, utilizando videos generados por inteligencia artificial y mensajes personalizados, logró convencerla de que estaba hablando con el verdadero actor. Incluso le prometió ayudarla a conseguir empleo, dado que la víctima le confesó estar desempleada. Esta promesa fue la llave que abrió la puerta a una cadena de pagos que nunca terminó en beneficios reales.

Uno de los primeros pasos del fraude fue invitarla a un supuesto club de fans exclusivo, al que debía acceder mediante una tarjeta VIP, previo pago de 300 dólares. La estafa continuó con solicitudes de dinero para gastos ficticios como la activación de la tarjeta, el envío del plástico, gestiones legales de un supuesto divorcio y donaciones a una fundación real pero utilizada de forma engañosa.

george-clooney.jpg
Actor George Clooney / Foto: Especial

Te puede interesar: El Mantequilla muestra la seducción e ingenio detrás de las estafas

¿De qué manera se utilizó la inteligencia artificial para sostener la mentira?

El caso pone en evidencia cómo la inteligencia artificial puede usarse no solo para manipular imágenes o generar textos, sino también para reproducir rostros y voces de celebridades con gran realismo. La víctima recibió varios videos en los que el falso George Clooney, generado por IA, le hablaba directamente a cámara, agradeciéndole por su apoyo y asegurándole que le pagaría todo. Incluso se usaron frases emotivas como “te amo” y excusas verosímiles como problemas con su esposa para justificar la falta de recursos económicos.

Estos contenidos audiovisuales fueron diseñados para darle veracidad al vínculo y manipular emocionalmente a la mujer, haciéndole creer que existía una relación auténtica con el actor. En uno de los videos, el “George” digital mencionaba que su representante le había dicho que la tarjeta que ella había enviado no servía, lo que incentivaba nuevas compras. Así, la mujer siguió adquiriendo y enviando tarjetas Apple, muchas veces obtenidas por Mercado Libre, con la esperanza de que “esta vez sí funcione”.

La precisión con la que fue imitada la voz y apariencia del actor muestra cómo estas tecnologías, originalmente pensadas para fines creativos o productivos, pueden ser aprovechadas con fines delictivos a gran escala.

¿Qué consecuencias tuvo la estafa y cómo reaccionó la víctima?

La víctima, que prefirió no revelar su identidad ni su lugar de residencia, decidió contar su historia públicamente tras meses de silencio. Declaró que, en total, perdió más de 15 mil dólares a lo largo del engaño. Además del impacto económico, el golpe emocional fue profundo: durante un tiempo creyó que estaba en contacto directo con una figura internacional y que, finalmente, su situación laboral podría mejorar gracias a esta conexión.

A pesar de múltiples señales de alerta, la mujer continuó enviando dinero, confiando en la coherencia interna del relato y en los elementos “verificables” como la existencia real de la fundación que supuestamente apoyaba Clooney. Solo cuando compartió uno de los videos con un amigo comenzó a sospechar que algo andaba mal.

Finalmente, acudió a las autoridades y presentó una denuncia ante el FBI, aunque hasta el momento no ha podido recuperar ni un solo centavo de lo perdido. Su testimonio sirve como una advertencia urgente sobre los riesgos de confiar en la identidad digital de personas famosas y sobre cómo los estafadores aprovechan vulnerabilidades emocionales y contextos de necesidad económica.

george-clooney (1).jpg
Video de la estafa de George Clooney / Foto: Captura

Este caso no es aislado; se suma a una tendencia creciente de fraudes basados en deepfakes y suplantaciones de identidad que, gracias a la sofisticación tecnológica, pueden parecer absolutamente reales. Por ello, expertos en ciberseguridad insisten en que nunca se deben realizar transferencias de dinero sin verificar exhaustivamente la identidad del receptor, especialmente cuando se trata de figuras públicas que, en teoría, no tendrían motivos para pedir ayuda económica a desconocidos.

Te puede interesar: South Park estrena su más reciente capítulo con ChatGPT

PUBLICIDAD

PUBLICIDAD - Estas notas son patrocinadas -