Así clonan su voz con inteligencia artificial para estafarlo: Hiperdata revela cómo suplantan a las personas
Descubra cómo están usando la IA para suplantar voces y robarle su dinero.
Por:
Cristian Serrano
Criminales clonan voces con IA para ejecutar estafas
Foto: Composición RCN Radio con IA ImageFX
La inteligencia artificial (IA) dejó de ser un tema futurista, actualmente esta tecnología está presente en la vida cotidiana de miles de personas en el mundo. De hecho, los ciberdelincuentes la están utilizando para clonar voces y ejecutar estafas cada vez más sofisticadas en Colombia.
Así lo revelaron Andrea Cardona y Cristian Serrano en un reciente episodio del videopodcast Hiperdata, un espacio en el que se habla de tecnología sin complicaciones.
En esta entrega, se expusieron pruebas reales de cómo están suplantando voces de personas reconocidas en el país. Lo más alarmante: cualquier voz puede ser clonada con fines maliciosos.
Mire además: WhatsApp castigará a los que se la pasan revisando los estados de los demás: esto es lo les pasará
El caso del “Capi Romero”: clonaron su voz con IA sin su consentimiento
El episodio de Hiperdata tuvo como invitado al periodista Javier Jules, quien expuso un caso concreto que ya está circulando en Colombia. La voz del reconocido locutor Hernando Romero Barliza, más conocido como “El Capi Romero”, ha sido clonada usando inteligencia artificial y está siendo usada para promocionar emisoras digitales en redes sociales, sin su autorización.
Durante el podcast, se presentaron audios que demostraban la similitud de la voz clonada con la real. El resultado es tan convincente que incluso personas cercanas al locutor podrían creer que se trata de una grabación auténtica.
Esto evidencia el gran riesgo que representa que esta tecnología quede en manos equivocadas. Si es posible suplantar a una figura pública, también puede pasar con cualquier persona que haya subido un mensaje de voz, video o audio a redes sociales o apps como WhatsApp.
#Hiperdata | ¿Sabías que te pueden robar tu número sin que te des cuenta? ? ? Se llama SIM swapping y es una de las estafas más peligrosas del momento. Te contamos en Hiperdata cómo protegerte ? #Hiperdata #SimSwapping #CuidadoDigital #SeguridadOnline #TipsDigitales
Estafas con voz sensual: el nuevo gancho para engañar víctimas
Cristian Serrano explicó que los estafadores están llevando la situación a otro nivel. No solo se trata de imitar voces de figuras públicas, sino también de crear voces femeninas con un tono seductor para ejecutar fraudes.
En esta modalidad, la víctima recibe una llamada de una supuesta mujer joven, quien dice haber quedado cautivada por las fotos de perfil de Instagram del usuario. Con una voz suave y provocadora, la supuesta admiradora lo invita a continuar la conversación por WhatsApp.
Pero todo es una trampa. Una vez se crea el chat, los delincuentes detrás del engaño se hacen pasar por una mujer interesada en iniciar una relación romántica. A partir de ahí, pueden solicitar fotos íntimas, pedir dinero o incluso instalar malware en los dispositivos de la víctima.
Vea además: Si lo agregan a este grupo de WhatsApp, salga de inmediato o podría quedarse sin un peso
Así funcionan las voces clonadas por IA
Andrea Cardona y Cristian Serrano explicaron que las voces clonadas con inteligencia artificial generativa se pueden crear a partir de solo unos segundos de audio real. Existen plataformas en línea que permiten subir un clip de voz para entrenar un modelo que luego imita con gran precisión la entonación, acento y forma de hablar de la persona.
Esto significa que una nota de voz en WhatsApp o un video publicado en redes sociales puede ser suficiente para que los estafadores construyan una réplica convincente de una voz real.
La IA no solo reproduce las palabras, sino que también puede generar nuevas frases, lo que permite a los delincuentes escribir cualquier mensaje que deseen transmitir con una voz clonada. Esto abre la puerta a fraudes telefónicos, suplantaciones de identidad e incluso campañas de desinformación con usando las voces de celebridades.
¿Cómo protegerse de las estafas con voces clonadas?
Andrea Cardona cerró el episodio con una serie de recomendaciones clave para evitar caer en este tipo de fraudes. Estas son algunas de las más importantes:
Verifique la identidad
Si una persona llama y su voz le resulta familiar, no confíe de inmediato. Pregunte algo que solo la verdadera persona sabría responder. Use un canal alternativo para confirmar su identidad, como una videollamada o un mensaje directo.
Desconfíe de llamadas inesperadas
Las llamadas que dicen venir de familiares, figuras públicas o supuestos admiradores deben tomarse con precaución. Evite compartir información personal, imágenes o datos financieros con desconocidos.
Revise la privacidad de sus redes
Configure sus cuentas para que su contenido solo sea visible por personas de confianza. Limite el acceso a sus publicaciones con voz o video para reducir el riesgo de que sean usadas para entrenar una IA.
Mantenga actualizados sus dispositivos
Tener el sistema operativo, navegador y aplicaciones actualizadas ayuda a bloquear posibles vulnerabilidades que puedan ser explotadas por los delincuentes.
No siga enlaces sospechosos
Si en una conversación de WhatsApp u otra app le envían enlaces para “conocer más” o “ver una sorpresa”, no los abra. Pueden ser usados para robar información personal o instalar malware.
Fuente: Sistema Integrado Digital
Siga las noticias de RCN Radio en Whatsapp