Crece uso de deepfakes y clonaciĆ³n de voz en ciberataques con IA

Sigue el aumento de casos de estafa con deepfakes con Inteligencia Artificial.

deepfakes
Crece uso de deepfakes y clonaciĆ³n de voz en ciberataques con IA. Foto: cortesĆ­a

En el Ćŗltimo aƱo, la generaciĆ³n de contenido falso o deepfakes ha experimentado un gran desarrollo en materia de ciberataques.

Ya no solo se trata de fotos y videos alterados con Inteligencia Artificial (IA), sino de una tecnologĆ­a mucho mĆ”s madura que ahora estĆ” apuntando a la falsificaciĆ³n de voz, tambiĆ©n conocida como deepvoice.

En ese contexto, los expertos de Kaspersky alertan que estas innovaciones ya son utilizadas para evadir controles de seguridad, por ejemplo, aprovechando datos biomĆ©tricos vulnerados; asĆ­ como para manipular informaciĆ³n en lĆ­nea y cometer otros ataques cibernĆ©ticos.

Esto ha provocado el crecimiento del mercado negro de los deepfakes, donde el costo del contenido puede oscilar entre US$$300 a US$20.000 por minuto, dependiendo su calidad y complejidad.

De acuerdo con Isabel Manjarrez, Investigadora de seguridad del Equipo Global de InvestigaciĆ³n y AnĆ”lisis de Kaspersky, los avances en la Inteligencia Artificial Generativa y el aprendizaje automĆ”tico han propiciado la creaciĆ³n de contenido multimedia falso cada vez mĆ”s realista, ya que son tecnologĆ­as con la capacidad de aprender a partir de datos no estructurados, como el rostro o los movimientos humanos.

ĀæCĆ³mo funcionan los deepfakes en los ciberataques?

Para crear deepfakes, la red generativa puede entrenarse con fotos reales de una persona y asĆ­ generar un nĆŗmero infinito de imĆ”genes convincentes de ella para integrarlas en un video.

Estas mismas tĆ©cnicas de aprendizaje automĆ”tico pueden emplearse para desarrollar contenidos de voz artificial y, mientras la tecnologĆ­a siga expandiĆ©ndose, podrĆ­a ser explotada por los estafadores para crear contenidos engaƱosos de audio aĆŗn mĆ”s accesibles.

Con ello, las personas cuyas muestras de voz o video estĆ”n disponibles en Internet, como celebridades y figuras pĆŗblicas, pueden ser mĆ”s propensas a ser vĆ­ctimas de suplantaciĆ³n. Ya que se prevĆ© que su evoluciĆ³n continĆŗe, los deepfakes ya se han catalogado como uno de los usos mĆ”s preocupantes de la Inteligencia Artificial.

Y es que, mientras se han encontrado beneficios para ciertos campos, por ejemplo, el de marketing, con nuevas herramientas de IA como la de TikTok, que permitirĆ” a marcas y creadores generar avatares de personas reales para producir anuncios en mĆŗltiples idiomas, el uso de deepfakes con propĆ³sitos maliciosos ha perjudicado a otros sectores, incluido el bancario.

Por ejemplo, la suplantaciĆ³n de identidad con deepfakes ha jugado un papel importante en fraudes financieros con tĆ”cticas y aplicaciones capaces de eludir los mecanismos de verificaciĆ³n biomĆ©trica, empleados ya por distintas entidades financieras, permitiendo a los atacantes obtener acceso no autorizado a cuentas bancarias e informaciĆ³n confidencial.

A pesar de disponer abiertamente de herramientas de creaciĆ³n de deepfakes, los delincuentes buscan creadores que puedan producir contenido realista, de alta calidad e incluso en tiempo real, dado que simular movimientos, expresiones faciales o voces de manera fluida y natural es un reto para los algoritmos que deben capturar y reproducir detalles muy especĆ­ficos.

Ciberataque
Ciberataques en AmƩrica Latina. Foto: tomada de Freepik

Recomendado: Asƭ estƔ el panorama de ciberataques en LatinoamƩrica

Por eso, existe un mercado especĆ­fico de deepfakes en la Darknet, donde criminales ofrecen servicios para crear contenido falso y hasta tutoriales con consejos sobre cĆ³mo seleccionar el material de origen o cĆ³mo intercambiar rostros y voces para generar una falsificaciĆ³n convincente.

Ante dicha situaciĆ³n, la experta explica que la demanda de deepfakes en este mercado es tan alta que supera la oferta existente, por lo que en el futuro cercano es probable que se registre un aumento aĆŗn mĆ”s significativo en los incidentes relacionados con contenido falso de alta calidad.

Esto representa un verdadero riesgo para el panorama de ciberseguridad pues, de acuerdo a cifras de Kaspersky, mƔs de la mitad de los usuarios en Colombia (63 %) no sabe quƩ es un deepfake.

ā€œLa exposiciĆ³n de datos personales sensibles en lĆ­nea, como imĆ”genes del rostro o audios, implica un reto significativo para proteger esta informaciĆ³n contra accesos no autorizados y un uso malintencionado para crear contenido falso o suplantar la identidad de otras personas. Esto puede causar daƱo material o monetario, asĆ­ como un impacto psicolĆ³gico y de reputaciĆ³n para las vĆ­ctimasā€, indicĆ³ Isabel Manjarrez.

Y agrega: ā€œPor eso, es esencial establecer pautas y estĆ”ndares claros para la creaciĆ³n y el uso de deepfakes, garantizando la transparencia y responsabilidad en su implementaciĆ³n. No hay que temer a la IA, es una herramienta con un gran potencial, pero depende del ser humano hacer un uso Ć©tico de ellaā€.

CaracterĆ­sticas que pueden ayudar a identificar un deepfake

La fuente del contenido y la informaciĆ³n que comparte son sospechosas. ActĆŗe con cautela ante correos electrĆ³nicos, mensajes de texto o voz, llamadas, videos u otro contenido multimedia que vea o reciba, especialmente si comunican informaciĆ³n extraƱa o ilĆ³gica. Confirme en fuentes de informaciĆ³n oficiales.

Las condiciones e iluminaciĆ³n en un video son inconsistentes. DesconfĆ­e si detecta anomalĆ­as en el fondo del video. EvalĆŗe si la iluminaciĆ³n del rostro corresponde con el entorno, las incoherencias en la iluminaciĆ³n pueden indicar manipulaciĆ³n.

Los movimientos faciales y corporales son inusuales. Sospeche si las expresiones del rostro o cuerpo son poco naturales, como un parpadeo extraƱo o la ausencia total de este. Compruebe que las palabras correspondan con los movimientos de los labios y que las expresiones faciales sean apropiadas para el contexto del video.

Los audios falsos pueden tener distorsiones de voz. Preste atenciĆ³n a la calidad del sonido. Sospeche si identifica un tono monĆ³tono antinatural en la voz, si esta es ininteligible o si hay ruidos extraƱos de fondo.

Para mantenerse protegido, es importante informarse. Sea consciente de la existencia de los deepfakes y edĆŗquese sobre las tecnologĆ­as de manipulaciĆ³n digital. Cuanto mĆ”s consciente sea, mejor podrĆ” detectar posibles fraudes.

Convierta a Valora Analitik en su fuente de noticias