Con el desarrollo de las herramientas creadas con IA (Inteligencia Artificial) se hace necesario que cada vez las personas estén más alerta con la ciberseguridad personal. Una herramienta muy usada es el ‘deepfake’
Hackers maliciosos han ido mejorando y automatizando técnicas de ataque de ingeniería social como el ‘phishing’ y, precisamente, han ido incursionando en estrategias más complejas como los ‘deepfakes’
“Es un término que tuvo origen en 2017 y, en pocas palabras, se refiere al empleo de IA para crear y modificar contenido de audio y visual con narrativas falsas que parezcan provenir de fuentes auténticas y confiables. Si bien fue una práctica que inició con usos recreativos o cómicos, como hacer videos en los que parezca real que un presidente está diciendo cosas ridículas, es cierto que el ‘deepfake‘ ya se está usando para propósitos perversos”, explica Vladimir Villa, CEO de Fluid Attacks.
Fluid Attacks es una compañía especializada en pruebas de seguridad continuas e integrales a ‘software’, comparte desde su experticia algunas tendencias en el uso de la IA, concepciones sobre lo que es y hace el ‘deepfake‘, además de recomendaciones en su detección y prevención para individuos y compañías.
Han ocurrido casos en los que el ‘deepfake’ ha permitido a criminales hacerse pasar por directivos de compañías en reuniones virtuales o a través de mensajes de voz o llamadas para engañar a sus empleados y extraerles información sensible o incitarlos a transferir fondos monetarios.
¿Cómo detectar el ‘deepfake’?
- Falta de movimiento o movimiento antinatural en los ojos, así como ausencia de parpadeo.
- Expresiones faciales inusuales y rarezas en la forma del cuerpo o del cabello.
- Colores de piel anormales, sombras mal ubicadas e iluminación inusual.
- Posición extraña y movimientos bruscos de la cabeza y el cuerpo.
- Problemas de sincronización entre el movimiento de los labios y las palabras pronunciadas.
Le puede interesar: ChatGPT ayuda a crear virus indetectables en dispositivos
*Con información de Fluid Attacks
**Foto: Pixabay