María, una mujer de 70 años que vive en la Ciudad de México, recibió una llamada hace unos meses. Del otro lado del teléfono escuchó lo que creyó que era la voz de su hija menor (clonada con inteligencia artificial) pidiéndole ayuda porque estaba secuestrada por un presunto Ingeniero G., identificado como presunto integrante del cártel Jalisco Nueva Generación.
Después de oír la voz desesperada de la mujer, escuchó al hombre amenazándola con quitarle la vida a su hija si no pagaba el rescate ese mismo día. El miedo le impidió analizar la situación y entregó sus ahorros a través de depósitos que hizo en varias tiendas de conveniencia.
Sin obtener al momento apoyo por parte del Ministerio Público u otros organismos como la Comisión Nacional para la Protección y Defensa de los Usuarios de Servicios Financieros (Condusef), María perdió los ahorros de su vida, además de ver mermada su tranquilidad y salud.
Clonación de voz y deepfakes con IA principal amenaza en el mundo
Detrás de esta historia se esconde uno de los casos de uso malicioso de la inteligencia artificial (IA): la clonación de voz y los deepfakes que, de acuerdo con el informe SONAR 2025 de la reaseguradora Swiss Re, son una de las principales amenazas en el corto plazo, no sólo en México, sino alrededor del mundo.
Según el informe, el uso de imágenes y videos manipulados con IA creció 700% en 2023 dentro del sector fintech. El tema ya es tan importante que, en México, la Condusef advierte sobre los fraudes con IA a través de sus redes sociales.
“De 2023 a 2024, el número de incidentes de IA reportados creció más del 60 %. Un tercio de estos incidentes se produjeron debido a fallos de los sistemas de IA. Y a medida que más personas y empresas interactúan con estas herramientas, pueden incrementar las demandas relacionadas con fallos o usos indebidos de esta herramienta”, señala el informe de Swiss Re.
Los deepfakes —videos o audios que no son reales, pero que parecen gracias a una manipulación extrema con IA— son el ejemplo más tangible de cómo se puede usar esta tecnología emergente con fines maliciosos en el sector asegurador, ya que permite crear evidencia convincente, pero falsa, como videos alterados o documentos manipulados, lo que complica la capacidad de las aseguradoras para verificar la autenticidad de los reclamos.
Además del sector asegurador, el informe advierte que hay otros que también están expuestos a pérdidas financieras derivadas del uso de deepfakes y la difusión de desinformación, como bancos, empresas de tecnología financiera (fintechs) y firmas de inversión debido a su control sobre grandes sumas de dinero y su dependencia de las transacciones digitales.
Generalmente, las personas no anticipan una serie de amenazas que pueden enfrentar en el día a día; por ejemplo, las extorsiones o fraudes telefónicos, que en sus expresiones más graves provocan la pérdida de bienes cuantiosos y hasta la muerte de la víctima de la extorsión porque pueden sufrir un infarto durante la llamada, indica el documento.
A pesar de esta compleja realidad, si bien estas tendencias representan un desafío, Swiss Re también advierte que la IA y otras tecnologías emergentes pueden convertirse en aliadas del sector asegurador. La clave estará en anticiparse a los riesgos, adaptar los productos a nuevas realidades y avanzar en marcos regulatorios más claros, que brinden certidumbre a las empresas y confianza a los asegurados.
¿Qué hacer para evitar un fraude hecho con IA?
De acuerdo con un reciente comunicado de la Secretaría de Seguridad y Protección Ciudadana (SSPC), en el que se confirma que hay un incremento considerable en México de reportes de audios y/o videos falsos e imágenes manipuladas con IA, existen diversas recomendaciones que puedes tomar en cuenta para evitar ser afectado por la tecnología:
- Consultar fuentes oficiales, como sitios web de las dependencias correspondientes y los comunicados emitidos por las autoridades.
- Revisar la ortografía correcta, así como el dominio de las páginas consultadas. Si no te parece familiar o dudas por la escritura, es mejor corroborar la fuente o información antes de dar clic.
- Verificar la autenticidad del remitente y utilizar únicamente canales oficiales para cualquier trámite o intercambio de información sensible.
- Estar informado sobre las estafas más comunes y los métodos de fraude en el ámbito financiero y digital.
- Difundir alertas y recomendaciones con adultos mayores y personas con menor experiencia digital, ya que podrían ser más vulnerables a engaños y manipulaciones, especialmente en el contexto de fraudes en línea.
- Ajustar las configuraciones de privacidad en redes sociales y restringir el acceso de personas desconocidas a información personal y publicaciones.
- Reportar este tipo de contenido en redes sociales, de esta manera las plataformas identifican y eliminan material falso o malicioso, con lo que se protege a otros usuarios.