Las estafas en Internet han ido adaptándose con el paso del tiempo. Los piratas informáticos utilizan nuevas técnicas, perfeccionan el software malicioso que utilizan y también han ido cambiando sus objetivos. En los últimos tiempos, algo que está muy presente son los vídeos falsos generados por Inteligencia Artificial. En este artículo vamos a hablar de ello. Vamos a explicarte por qué es más importante que nunca detectarlos y qué debes hacer para lograrlo.
El objetivo es que no seas víctima de ataques de este tipo. Podrían usar vídeos falsos simplemente para obtener información personal, contraseñas o poner en riesgo tus dispositivos. Pueden llegar por medios muy variados, como WhatsApp, redes sociales como Facebook o Instagram, el correo electrónico, etc.
El problema de los vídeos falsos generados por IA
Podemos decir que los vídeos generados a través de Inteligencia Artificial, están presentes en plataformas de todo tipo hoy en día. En ocasiones, puede ser bastante sencillo identificar si es o no una estafa. En otras, en cambio, resulta muy complicado. Esto último hace que sean muy peligrosos. Por ejemplo, los vídeos falsos generados por IA pueden ser utilizados para desinformar. Podrían mostrar a una persona reconocida, como podría ser un político, un deportista de élite o cualquier otro que pueda tener una gran repercusión, y mostrar un mensaje que nada tiene que ver con la realidad.
Pero también los pueden utilizar para generar fraudes y estafas en Internet. Hemos visto que utilizan vídeos de famosos para provocar que la víctima invierta dinero en una página falsa, que compre un producto que no es oficial o que instale algún programa que, en realidad, va a contener malware. Pueden clonar muy bien la voz y que parezca que esa persona famosa está dando realmente instrucciones. Este problema, conocido también como Deepfake, es uno de los grandes riesgos que hay en Internet actualmente. Así lo indican desde INCIBE, el Instituto Nacional de Ciberseguridad de España. Estos vídeos manipulados pueden invitar a hacer clic en un enlace malicioso, poner datos donde no debes o descargar algún archivo que va a suponer un riesgo importante.
Cómo detectarlos
Entonces, ¿qué puedes hacer para detectar estos vídeos falsos generados por Inteligencia Artificial? Lo primero que debes revisar, son señales que puedan demostrar que se trata de una estafa. Por ejemplo, en un vídeo, podrías ver sombras donde no debería haberlas, gestos faciales extraños en las personas, sincronización rara entre el habla y los movimientos de la boca o transiciones de vídeo que no cuadran con lo que debería ser. Todo esto puede indicar que se trata de una manipulación.
También debes observar el audio. Por ejemplo, en el caso de una persona hablando, podrías notar que es un tono robótico, que no es natural y que puede significar que está claramente creado a través de IA. Especialmente, esto lo puedes ver en vídeos en los que suplantan la identidad de famosos. Eso sí, cada vez lo hacen mejor y cuesta más detectarlo.
Otro detalle que puede ayudarte a detectar si es o no un vídeo generado por IA, es la calidad de imagen. Hoy en día, los móviles y cámaras actuales tienen una gran calidad de grabación, con el 4K y 1080p como algo generalizado. Sin embargo, muchos vídeos generados por Inteligencia Artificial, tienen una calidad pobre. Están hechos a través de programas informáticos y es frecuente ver que la imagen no es completamente nítida o no tiene la misma calidad que si hubiera sido grabado realmente.
Por supuesto, es importante mantener el sentido común y tener en cuenta la fuente. Si te encuentras con un vídeo de este tipo por redes sociales, publicado por perfiles desconocidos, o bien que te llega a través de un grupo de WhatsApp, no es lo mismo que si has visto ese vídeo a través de un medio reconocido, fiable y verificado.
| Tipo de Señal | Detalle a Observar | Ejemplo Práctico |
|---|---|---|
| Visual - Rostro | Parpadeo poco natural o ausente, gestos faciales extraños o limitados. | La persona en el vídeo no parpadea durante un largo periodo de tiempo. |
| Visual - Sincronización | Mala sincronización entre el movimiento de los labios y el audio. | Las palabras suenan ligeramente antes o después de que la boca se mueva. |
| Visual - Entorno | Sombras o iluminación inconsistentes en el rostro o el fondo. | Una sombra en la cara no corresponde con la fuente de luz principal de la escena. |
| Calidad de Imagen | Zonas borrosas o pixeladas, especialmente en los bordes del rostro o el pelo. | El vídeo tiene una calidad general aceptable (1080p) pero el contorno de la cara parece difuminado. |
| Audio | Voz monótona, robótica, con entonación extraña o sin ruidos de fondo naturales. | La voz carece de las pausas y cambios de tono típicos de una conversación humana. |
Con el paso del tiempo, los vídeos falsos se han convertido en «memes» de lo mal que estaban hechos, a ser muy realistas, capaces incluso de engañar a personas debido a lo bien hechos que están. Solamente podremos ver que son falsos si nos fijamos muy muy bien en ciertos aspectos, como en la boca de la persona, o en el entorno. Incluso muchas veces están tan bien hechos, que es casi imposible diferenciarlo de un vídeo real si no hay demasiado contexto.
Qué hacer tras un Deepfake
En caso de que hayas sido víctima de una estafa a través de un vídeo falso hecho por IA, es importante que actúes lo antes posible. Por ejemplo, si esa estafa consiste en que has iniciado sesión o has descargado algún archivo malicioso, es importante que cambies cuanto antes la contraseña y analices tu equipo para eliminar posible malware.
También es clave que cortes la cadena de estafa. En muchos casos, los atacantes lo que buscan es viralizar un vídeo falso para llegar a más y más gente. Intenta contactar con tus amigos y familiares a los que hayas enviado, por error, ese vídeo, para cortar así la cadena y evitar más posibles víctimas.
Además, es importante que reportes este vídeo fraudulento. Puedes hacerlo en la propia plataforma, como podría ser Facebook o Instagram, por ejemplo. También tienes la opción de llamar al 017, el número de teléfono oficial de España para obtener información sobre ciberestafas y poder actuar lo antes posible.
| Nº | Acción Esencial | Detalles Importantes | Completado |
|---|---|---|---|
| 1 | Documentar y Guardar Pruebas | Capturas de pantalla, URL, copia del vídeo. | ☐ |
| 2 | Reportar en la Plataforma Original | Usar la opción 'Denunciar' por fraude o suplantación. | ☐ |
| 3 | Alertar a Afectados | Avisar a tus contactos si te suplanta a ti o a conocidos. | ☐ |
| 4 | Presentar Denuncia Oficial | Acudir a Policía Nacional o Guardia Civil con las pruebas. | ☐ |
| 5 | Solicitar Asesoramiento Experto | Contactar con la Línea de Ayuda en Ciberseguridad de INCIBE (017). | ☐ |
En definitiva, debes tener cuidado con los vídeos falsos generados por IA, ya que los pueden usar para robar información, contraseñas, distribuir malware o simplemente desinformar. Aunque no siempre es sencillo de detectar, puedes seguir estos consejos.
