FRAUDES CON IA

AMLO presenta en “la Mañanera” video hecho con IA para cometer posibles fraudes con su imagen

Esta mañana AMLO alertó a la población sobre un video falso que circula en redes donde supuestamente sale él.

AMLO alerta sobre video con IA para cometer fraudes con su imagen.Créditos: Foto: Gobierno de México
Escrito en TENDENCIAS el

Este viernes, durante la conferencia matutina diaria, el presidente Andrés Manuel López Obrador (AMLO) alertó a los mexicanos respecto a analizar mejor y no creer todo lo que circula en redes sociales ya que pueden ser víctimas de estrategias fraudulentas.

Como ejemplo, mostró un video hecho con Inteligencia Artificial (IA) en el que aparece el mandatario supuestamente pidiendo a la población comprar acciones de Petróleos de México (Pemex). El contenido también promete rendimientos de hasta 50 mil pesos y añade que de no tener resultados en la primera semana, Pemex les regresaría el dinero.

Al respecto, el presidente externó la importancia de informar a la gente para evitar fraudes.

"Tenemos que informar bastante para evitar fraudes, para que no se le engañe a la gente y que todos estemos muy informados, atentos, que nos volvamos como ya lo somos en otras materias, ya el pueblo de México es experto en manejo político, me da mucho orgullo, ya no hay prácticamente analfabetismo político, se ha avanzado mucho en eso. También que nos volvamos expertos en todo esto que está surgiendo con la innovación tecnológica"

Además, también pidió a los dueños y encargados de las redes tener más control y detecten este tipo de videos con información falsa.

¿Qué es un deepfake y cómo idetificarlo?

Los deepfakes o "falsedades profundas" son archivos de video, imagen o voz que fueron manipulados mediante un software de IA a modo que parezcan originales, auténticos y reales. En cuanto a la capacidad de parecer tan reales depende de los programas informáticos dedicados a realizarlos.

Son difíciles de detectar, sin embargo, hay algunos detalles que puedes tener en cuenta para identificar un deepfake de acuerdo con LISA Institute:

  • Encontrar fallos:  Algunas veces quienes manipulan el video no pueden corregir todo para que parezcan reales por lo que pueden haber algunas fallas. Por ejemplo, pequeñas diferencias en las expresiones faciales entre una cara y otra.
  • El parpadeo: Puedes fijarte en cuántas veces parpadea la persona de la imagen. En un deepfake, la persona parpadea menos veces de las que lo haría una persona en un vídeo real. Esto se debe a que el algoritmo no es capaz de parpadear sin evidenciar indicios de falsedad.
  • El cuello y la cara: Es importante fijarse en el cuerpo de la persona a la que se le ha sustituido la cara. Si las características del cuerpo no coinciden con las de la persona real, podemos tener una pista más de que se trata de un archivo falso.
  • Una duración corta: Prácticamente todos los deepfakes duran unos pocos segundos ya que el proceso de aprendizaje que debe seguir el algoritmo lleva mucho trabajo.
  • El sonido: Frecuentemente, el algoritmo modifica el archivo de video y no ajusta correctamente el sonido a la imagen, lo que ocasiona que no haya sincronización entre el movimiento de los labios y el sonido.
  • El interior de la boca: La IA no es capaz de copiar con precisión la lengua, los dientes y el interior de la boca al hablar.