Aumentan las estafas con voces clonadas de familiares usando la inteligencia artificial

IA

Los cibercriminales están utilizando sistemas de IA para suplantar la identidad de seres queridos, generando escenarios de urgencia para engañar a las víctimas.

Los cibercriminales están empleando la inteligencia artificial (IA) para clonar voces y perpetrar engaños cada vez más sofisticados. Esta técnica, que antes parecía sacada de una película de ciencia ficción, se está convirtiendo en una realidad alarmante en el mundo de la ciberdelincuencia.

Imagínate esta situación: recibis una llamada de un número desconocido y, al contestar, escuchas la voz angustiada de un ser querido que afirma estar en problemas y necesitar dinero urgentemente. Esta escena, aunque ficticia, se está volviendo cada vez más común. Los estafadores utilizan sistemas de IA para clonar voces y simular ser familiares o amigos en situaciones de emergencia.

TE PUEDE INTERESAR: Desde mañana, debate artículo por artículo en diputados por la Ley Ómnibus

La técnica es sorprendentemente simple: los criminales solo necesitan unos pocos segundos de grabación de la voz de la víctima para crear una réplica sintetizada casi indistinguible. Esto les permite generar llamadas convincentes que pueden engañar incluso a personas cercanas al supuesto afectado.

Toda la información en el clip de Telenueve. 

Temas que aparecen en esta nota:

Si te interesó, compartilo

Más para ver