Estafas con IA: Cuáles son y cómo prevenirlas con sencillos consejos

Estafas con IA

Navegacion Segura

La tecnología, como la vida en sí, tiene siempre una cara positiva y otra negativa. Todo depende del uso que le de cada uno, pues por ejemplo, una inteligencia artificial es capaz de generar un bello poema, pero también de crear y difundir estafas con IA.

La inteligencia artificial ya se ha convertido, sin ninguna duda, en el avance tecnológico más revolucionario de la década, sobre todo, por sus miles de aplicaciones prácticas en casi todos los sectores de nuestra vida. 

fraudes personas mayores

Fraudes a las personas mayores: Cuáles son los más habituales y cómo protegerse

Leer más

De hecho, el uso de la IA generativa se ha extendido tanto que hasta se ha convertido en la nueva herramienta elegida por los ciberdelincuentes para intentar hacerse con nuestros datos personales.

Con la IA, los fraudes, estafas y suplantaciones de identidad toman una vertiente única y mucho más peligrosa, al generar contenidos falsos que, en ocasiones, no podemos o no sabemos diferenciar de lo real o hecho por el humano.

Porque, si no fuera suficiente con tener que estar alerta cada vez que contestamos una llamada de un número desconocido, abrimos un correo electrónico con miedo por caer en un caso de phishing, o recibimos un SMS o un WhatsApp que nos anuncia grandes ofertas; ahora llegan las estafas con IA para sumarse como un nuevo problema de ciberseguridad.

@orange_es ¡Cuidado! ¿Te han estafado alguna vez por WhatsApp? Te dejamos algunos tips para que no te pase #Ciberseguridad #WhatsApp #Estafas #Protege ♬ sonido original – Orange España

Para ayudarte, listamos y te explicamos las principales estafas con IA que ya se están difundiendo entre la sociedad española. Sin olvidar una serie de consejos para saber siempre cómo actuar frente a ellas.

Estafas con IA: Imágenes falsas, voces clonadas y falsas ofertas irresistibles

Casos de estafas con IA

Tristemente, un día más tenemos que alertar a todos nuestros contactos de la existencia de una nueva amenaza de ciberseguridad, de esas que intentan hacerse con tus datos personales y hasta tu dinero, pero ahora, mejoradas y evolucionadas. 

Seguro que ahora te preguntarás cómo identificar estafas virtuales o cómo saber que estamos ante una estafa con IA, que la imagen que estamos viendo o la voz que estamos escuchando no son reales.

Creemos que la clave está en la prevención, en saber qué estafas con IA están circulando para poder estar muy atento ante un posible caso. Por ello, te contamos las más comunes en la actualidad.

La estafa del “familiar en apuros”, ahora con imágenes y voces generadas con IA

Ver esta publicación en Instagram

Una publicación compartida por Orange España (@orange_es)

Es la evolución del ya conocido timo del “familiar en apuros” al haber integrado la IA la generación de imágenes, vídeos y hasta voces falsas pero muy reales.

Si, de forma ya clásica, en este fraude los ciberdelincuentes se hacían pasar por un amigo de un familiar, para convencer a la víctima de que su persona querida necesita ayuda o dinero para salir de un apuro; ahora le suman imágenes creadas por programas con IA.

Es decir, se evitan tener que convencerte con su discurso, porque directamente te enseñarán un audio de ese familiar, pidiendo ayuda con su propia voz. Aunque la realidad es que se trata de una voz clonada o sintética y generada tecnológicamente.

O hasta un vídeo corto en el que crees estar viendo a tu familiar, cuando realmente es todo fruto de la IA generativa. Un contenido que ya se conoce como deep fakes.

El objetivo es suplantar una identidad (phishing) para que envíes dinero o que facilites datos personales. Y las variantes son muchas, desde familiares secuestrados, en el hospital, siendo rescatados tras un accidente o perdidos durante un viaje.

Nuestro consejo: Antes de hacer nada, intenta ponerte en contacto con la supuesta persona que está en apuros. Es muy probable que te conteste inmediatamente y descubras que todo era una estafa con IA.

@policia Estafa del falso atropello #seguridad #policianacional #policia #police ♬ sonido original – Policía Nacional

Si te sigue pareciendo imposible que una voz creada por inteligencia artificial suene igual que la de alguien al que conoces, te recordamos el caso de la actriz Scarlett Johansson contra OpenAI.

La empresa tuvo que retirar uno de sus modelos de voz de ChatGPT 4o después de que Johansson denunciase que se parecía demasiado a su propio tono. Tanto, que había usuarios que pensaban que la estrella de Hollywood había cedido su voz a la app. 

Estafas en compras: IA para generar contenido falso y ofertas

Uniendo el phishing o suplantación de identidad, con la generación de contenidos con IA, los ciberdelincuentes son capaces de crear webs completas y plataformas de ecommerce en la que “vender productos falsos”.

Hablamos de clonar con IA al completo, por ejemplo, la web o los perfiles de redes sociales de una marca y todos sus productos, para luego anunciar a bombo y platillo su venta. Incluso, con descuentos sorprendentes y que se acaban en un tiempo limitado.

Todo, lo visual y las prisas, es perfecto para que le des el botón de comprar, introduce tus datos personales, dirección y los de tu tarjeta. Pero, tristemente, nunca te llegará el producto porque no existe.
Eso sí, has sido víctima de un robo monetario, pues la compra si se cargará a tu cuenta bancaria, y de un delito de phishing.

La sofisticación de estas estafas con IA es tan elevada que uno de los deep fake o vídeo falso que más víctimas ha generado es el que mostraba a un falso chef Gordon Ramsay recomendando utensilios de cocina de una marca concreta. Pero las estafas con IA han llegado a clonar imágenes de Taylor Swift u Oprah Winfrey.

Nuestro consejo: Fíjate muy bien en la estructura de la URL, porque suelen incluir elementos raros que nos alerten. Además, te recomendamos que acudas a Google y vuelvas a buscar la web de la marca, que siempre verifiques antes de comprar y, que si puedes, uses métodos de pago seguros como PayPal.

Phishing + IA

Phishing IA

Otra de las estafas con IA que más están creciendo son aquellas en las que se usan herramientas de IA generativa de textos para redactar correos y SMS convincentes y fraudulentos.

En este caso, los ciberdelincuentes entran en programas como ChatGPT, Gemini o Copilot para pedirles que escriban los textos que luego se convertirán en mensajes de spam para viralizar.

Y aunque OpenAI asegura que tiene tanto revisores humanos, como sistemas automatizados para detectar y sancionar este tipo de usos, es algo complicado de identificar. 

Consejos: Desconfía de cualquier mensaje que te solicite algún tipo de información sensible. Además, siempre debes identificar al remitente, fíjate si la web a la que enlazan es segura y cuenta con certificado de seguridad e instala y actualiza un buen antivirus en tus dispositivos. 

IA para acceder a tus cuentas y perfiles

IA generativa y estafas

Y terminamos con una última tendencia en esto de las estafas con IA en la que los ciberdelincuentes usan esta tecnología para eludir controles de identidad y acceso como contraseñas.

Por ejemplo, recopilando información sobre ti, pueden pedirle a la IA que genere un perfil y llegar a descubrir tus contraseñas y claves de acceso.

Pero también pueden generar una imagen falsa de tu rostro y eludir los controles de Face ID para desbloquear tu móvil o acceder a cuentas y perfiles.

Ahora que conoces las estafas con IA más comunes, podrás estar alerta. Y recuerda que, si eres cliente de Orange, puedes beneficiarte de su programa de Ciber Protección Orange. Un avanzado servicio de ciberseguridad y control parental para evitar posibles fraudes y timos.

Imágenes | Adobe Stock Photos | Freepik.

Archivado en
Subir