BUSCADOR DE NOTICIAS

El servicio de ciberseguridad auxilia a una mujer tras un intento de estafa con clonación de voz por IA

Una usuaria de avanzada edad contactó con la línea 017 del Instituto Nacional de Ciberseguridad tras recibir una llamada fraudulenta que simulaba la voz de su hija mediante inteligencia artificial para exigirle un pago urgente por una supuesta operación médica.
León22 de febrero de 2026RMLRML
logo-gobierno-de-españa-con-INCIBE-1
INCIBE - CIBERSEGURIDAD

El incidente comenzó cuando la mujer recibió una comunicación telefónica de un individuo que se identificó como personal sanitario. Este interlocutor le comunicó que su hija se encontraba en estado grave y que requería una intervención quirúrgica inmediata. Para autorizar y proceder con la operación, el supuesto sanitario le exigió el abono previo de una cantidad económica. Durante la conversación, los estafadores llegaron a simular una conexión directa con la paciente, donde la mujer pudo escuchar una voz idéntica a la de su hija, quien profería gritos y llantos, lo que aumentó la veracidad y el impacto emocional del engaño.

Ante la situación de estrés generada por la supuesta emergencia médica, la víctima tuvo la intención inicial de realizar la transferencia solicitada. Sin embargo, antes de ejecutar el pago, decidió colgar y realizar una llamada de comprobación directamente al número habitual de su hija. En ese momento pudo confirmar que se encontraba en perfecto estado y que la comunicación anterior era un fraude.

Tras descubrir el engaño, la afectada recurrió al servicio "Tu ayuda en ciberseguridad" para recibir asesoramiento técnico. Los especialistas confirmaron que el audio escuchado era un registro generado sintéticamente mediante técnicas de clonación de voz con inteligencia artificial, una modalidad de estafa que busca maximizar la urgencia y el bloqueo emocional de las víctimas.

Como parte del protocolo de respuesta, se recomendó a la usuaria el bloqueo inmediato del número de origen de la llamada y el reporte de los hechos a las Fuerzas y Cuerpos de Seguridad del Estado. Asimismo, se sugirió el establecimiento de una "contraseña familiar" o palabra clave secreta para ser utilizada en situaciones de supuesta crisis, permitiendo así verificar la identidad real del interlocutor en futuras llamadas sospechosas.

Esta modalidad de fraude se basa en la obtención previa de muestras de voz, a menudo extraídas de redes sociales o vídeos públicos, para entrenar modelos de IA capaces de replicar tonos y matices humanos con alta precisión. Los expertos insisten en la importancia de desconfiar de cualquier solicitud de dinero inesperada y en mantener la pauta de contrastar siempre la información por canales seguros antes de facilitar datos bancarios.

Últimas noticias
Te puede interesar
Lo más visto
Suscríbete al newsletter para recibir periódicamente las novedades en tu email