Noticias

Clonar la voz de tu familia: así usan los hackers la inteligencia artificial para robar tus ahorros

By 14/03/2023 No Comments

Los ciberataques están a la orden del día en España, donde la administración pública ha sufrido un 455% más de ataques en 2022. Aunque normalmente sus víctimas son empresas, lo cierto es que cada vez apuntan más a particulares con timos altamente preparados para hacerles caer en el engaño, como la conocida estafa de WhatsAppCorreos o PayPal. Ahora, los hackers han encontrado un nuevo método para robarte dinero: utilizan la inteligencia artificial (IA) para clonar las voces de familiares y pedir una ayuda económica.

Las estafas telefónicas en las que los hackers imitan la voz de otras personas son cada vez más frecuentes en Estados Unidos, de hecho, es el segundo tipo de timo más común en dicho país causando pérdidas de 11 millones de dólares el año pasado, como indican en el Washington Post; medio que ha reportado un par de casos de personas que han sido engañadas mediante está nueva técnica.

Para ello, los ciberatacantes emplean programas de inteligencia artificial para generar las voces de un familiar, que supuestamente está en apuros y necesita dinero urgentemente. Aunque algunos de los detalles de la historia de la llamada no cuadren, la voz falsa se encarga de terminar por convencer a la víctima -que normalmente son personas de avanzada edad-, quien inmediatamente termina transfiriendo la cantidad solicitada, completando así esta nueva estafa.

Replicar la voz

Los avances en inteligencia artificial han añadido una nueva función que permite a los hackers replicar la voz de una persona con tan sólo una muestra de un audio de ella, aunque sea breve y de pocas oraciones, como puede ser un vídeo de TikTok, Instagram o un pódcast. Después, el software de IA analiza qué hace única a esa voz -como la edad, el género y el acento- y busca en una amplia base de datos de voces para dar con otras similares y predecir patrones.

Tras ello, la inteligencia artificial puede recrear perfectamente el tono, el timbre y los sonidos individuales de la voz de una persona determinada para crear un efecto general similar con una pequeña muestra de audio. Es decir, la replica. Un ejemplo de esta tecnología es VALL-E, una inteligencia artificial de Microsoft que puede imitar voces escuchándolas tan solo 3 segundos.

Un hacker.

Un hacker. Max Bender vía Unsplash

De esta manera, con este nuevo método de ciberataque mediante el uso de IA en una llamada telefónica, al estafador le basta con escribir un texto y darle a un botón para que la inteligencia artificial diga dicha frase con la voz que ha clonado; y que según las víctimas suena muy convincente.

Los piratas informáticos pueden llevar a cabo la estafa de diferentes formas, pero todas ellas básicamente funcionan de la misma manera: el ciberdelincuente utiliza la inteligencia artificial para hacerse pasar por alguien de confianza -como un hijo, un amigo o un amante- y convence a la víctima para que le envíe dinero porque está angustiado o en un apuro urgente.

Los expertos apuntan que los reguladores federales, las fuerzas del orden público y los tribunales no tienen equipos para poder controlar esta nueva amenaza. La mayoría de las víctimas apenas tienen pistas para identificar que es un timo y para la policía es complicado rastrear las llamadas, ya que se hacen con origen internacional, o seguir el rastro del dinero, dado que los cibercriminales suelen pedir que se les pague en criptomonedas.

Otro problema añadido es que por ahora no existen precedentes legales para responsabilizar a las empresas que diseñan estas herramientas de inteligencia artificial que usan indebidamente los estafadores. La única manera de evitar esta estafa es confirmar la llamada sospechosa antes de enviar dinero. Es decir, si se hacen pasar por un hijo, poner esa llamada en espera e intentar llamarle a su número de teléfono para salir de dudas.

Aumento de casos

Esta nueva estafa aún no ha llegado a España -puede que lo haga en un futuro-, pero está de moda en Estados Unidos. El Washington Post ha documentado ya un par de casos, como el de un matrimonio de 72 y 75 años. Los hackers les llamaron haciéndose pasar por su nieto, contándoles que se encontraba en la cárcel sin la cartera y necesitaba pagar urgentemente una cantidad de dinero.

El matrimonio fue al banco y envió sin dudarlo más de 2.000 euros y estaban listos para acudir a una segunda sucursal para enviar más dinero. Por suerte, el director de la oficina, que ya conocía el timo, les paró y les informó de que habían sido víctimas de una estafa de suplantación de identidad mediante una voz generada por inteligencia artificial.

Fotomontaje con una persona y un robot.

Otra de las víctimas son los padres ancianos de Benjamin Perkin, quienes perdieron miles de dólares en una estafa de voz. Su historia comenzó cuando un supuesto abogado les llamó diciendo que su hijo había atropellado a un diplomático estadounidense en un accidente de coche. Perkin se encontraba en la cárcel y necesitaba dinero para los honorarios legales.

Después, el supuesto abogado puso a Perkin al teléfono -más bien a la inteligencia artificial-, que dijo que los amaba y apreciaba, y que necesitaba el dinero. Preocupados, sus padres enviaron más de 10.000 euros al ciberdelincuente a través de Bitcoin. Más tarde pensaron que la llamada fue algo extraña e inusual, aunque tenían la sensación de que realmente hablaron con su hijo.

El matrimonio no se dio cuenta de que había sido estafado hasta que el propio Benjamin Perkin les llamó esa noche. “La voz sonaba lo bastante cercana como para que mis padres creyeran de verdad que habían hablado conmigo”, explica el propio el hijo de los afectados; quien no tiene claro de dónde sacaron su voz los piratas informáticos, aunque sospecha que les bastaron unos pocos vídeos de YouTube hablando de motos de nieve para hacerse pasar por él.

Fuente: https://www.elespanol.com/omicrono/software/20230311/clonar-familia-hackers-inteligencia-artificial-robar-ahorros/746675544_0.html