LA NADA Y UNO

Uso de la IA: ¿Existen herramientas para lograr que la Inteligencia Artificial sea ética?

Están surgiendo empresas creadoras de herramientas dedicadas a combatir los engaños, fraudes y “hacking” realizados por (IA). Éstas pueden detectar “deepfakes”, exponer actividades fraudulentas e implementar medidas preventivas contra su mal uso.

¿Es posible detectar algo creado con la IA?Créditos: Especial
Por
Escrito en TENDENCIAS el

Las últimas dos semanas hemos hablado de los peligros que representan los “deepfakes”, especialmente durante procesos electorales. Nuestras notas han causado preocupación a más de una persona y con ello en mente busqué información que pudiera contrarrestar esta situación.

Es así que encontré el Informe de Tendencias Tecnológicas 2024 del “Future Today Institute”, dirigido por Amy Webb, de donde tomo las ideas que le expongo a continuación; han sido editadas por mí para fines de traducción y dimensiones de esta columna.

Como hemos platicado anteriormente, los “deepfakes” son contenidos sintéticos falsos (vídeos, audio y textos) que parecen reales. Pueden difundir información errónea fabricando escenas o poniendo palabras en la boca de personas. Herramientas como AntiFake, creada por investigadores de la Universidad de Washington, utilizan marcas de agua imperceptibles para bloquear la clonación de voces o rostros antes de que ello ocurra.

Plataformas como FakeCatcher de Intel y Sentinel, un proveedor europeo, detectan manipulaciones en tiempo real utilizando inteligencia artificial (IA). A medida que la calidad de los “deepfakes” mejora, también lo hacen la oportunidades de mercado para herramientas dedicadas a detectarlos. Amy Webb opina que en el futuro próximo habrá más inversiones en este tipo de herramientas.

Herramientas para identificar textos generados por IA

La IA es muy buena escribiendo como humano. Eso significa que necesitamos herramientas que puedan distinguir entre contenido escrito por humanos y aquel generado por la IA. DetectGPT es una de esas herramientas, pues tiene más de un 95% de precisión para identificar si un texto fue escrito por un humano o por un sistema de IA (como GPT-3).

De manera similar, el mismo OpenAI (creador de GPT-3) ha lanzado al mercado un clasificador que identifica el texto generado por IA el 26% de las veces, con una tasa de falsos positivos del 9%. Estas herramientas son esenciales en contextos donde la distinción entre la autoría humana y la de máquina, tales como el académico, el periodismo y la elaboración de documentación legal, es de importancia crítica.

Herramientas para detectar violaciones a derechos de autor en datos generados por IA

Con modelos de IA capaces de memorizar y reproducir los datos con los que fueron entrenados, el riesgo de violación a derechos de autor se convierte en una preocupación muy importante. Investigadores de Google, DeepMind, ETH Zurich, Princeton y la Universidad de California (Berkeley) han demostrado ello utilizando el modelo Stable Diffusion, el cual puede generar imágenes con base en logotipos de empresas y marcas.

Para combatir estas violaciones se están desarrollando técnicas de “marca de agua”. Por ejemplo, la Universidad de Maryland propone una técnica para insertar “marcas de agua” digitales en los textos generados por modelos lingüísticos gigantes (LLMs, por sus siglas en Inglés), haciendo que el texto sintético sea identificable por otros algoritmos.

La herramienta SynthID de Google DeepMind incrusta marcas de agua digitales directamente en los píxeles de imágenes, permitiendo la identificación de imágenes generadas por IA mientras que dichas marcas permanecen invisibles para el ojo humano.

Herramientas para exponer “deepfakes”

Los “deepfakes” hiperrealistas conllevan importantes representan riesgos de seguridad. Como señalaba más arriba, investigadores de la Universidad de Washington crearon una herramienta llamada AntiFake que puede agregar una marca de agua digital al contenido de forma tal que impide su clonación.

FakeCatcher de Intel y Sentinel utilizan aprendizaje profundo para analizar el contenido multimedia, detectando manipulaciones en tiempo real o resaltando patrones de alteración. Una preocupación importante en torno a muchas herramientas de detección de “deepfakes” es que muestran sesgos.

Algunos estudios han descubierto diferencias notables entre los porcentajes de error arrojados por los algoritmos de detección de “deepfakes” al aplicarlos a diferentes grupos raciales. En uno de esos estudios, la diferencia en la precisión alcanzó hasta un 10.7%.

Este sesgo podría llevar a implicaciones graves, como podría ser el que imágenes genuinas de ciertos grupos raciales sean identificadas erróneamente como falsas o, a la inversa, que imágenes manipuladas sean aceptadas erróneamente como auténticas.

El Dr. Siwei Lyu y un equipo de la Universidad de Buffalo han desarrollado lo que se consideran los primeros algoritmos de detección de “deepfakes” diseñados específicamente para mitigar ese sesgo.

Su enfoque involucra dos métodos de aprendizaje automático: uno que hace que los algoritmos consideren los factores demográficos y otro que trabaja para cegarlos. Estos métodos han reducido exitosamente las disparidades en precisión entre imágenes de diferentes razas y géneros.

Herramientas para obstaculizar el funcionamiento de sistemas de reconocimiento

A medida que el reconocimiento facial se vuelve ubicuo, varios grupos de la sociedad desean limitar la efectividad de la tecnología con miras a proteger la privacidad.

Si bien los métodos para confundir u oscurecer los sistemas de reconocimiento facial no siempre son efectivos, los investigadores están comenzando a confundir las aplicaciones que recopilan imágenes de Internet que después son utilizadas como insumos para el entramiento de sistemas de reconocimiento facial, con el propósito de desarrollar un “camuflaje cibernético” que los consumidores podremos adquirir algún día.

Investigadores de la Universidad de Chicago han creado un programa, Fawkes, que agrega píxeles adicionales a las imágenes para hacer que las aplicaciones de reconocimiento facial clasifiquen erróneamente los rostros.

Llevando este principio varios pasos adelante, la empresa israelí Adversa AI agrega “ruido” o pequeñas alteraciones a las fotografías de rostros, haciendo que los algoritmos detecten un rostro diferente al que es visible a simple vista. El algoritmo logra cambiar imperceptiblemente la imagen de un individuo, por la de otra persona de su elección.

Herramientas para combatir comportamientos maliciosos de la IA

Laboratorios de investigación de todo el mundo están trabajando activamente para construir barreras de protección en contra del comportamiento malicioso de la IA.  DeepMind ha introducido un conjunto completo de herramientas y algoritmos diseñados para mejorar la evaluación de sistemas de IA, que pueden identificar los casos en que 3se comporten de manera inapropiada según algunos estándares éticos.

Este enfoque se centra específicamente en identificar y evaluar capacidades potencialmente peligrosas, como el ciberataque y la auto-replicación, así como la probabilidad de causar algún daño.

Mientras tanto, Anthropic ha presentado su Política de Escalamiento Responsable, que incluye una lista detallada de compromisos de seguridad basados en evaluaciones de riesgo y también incorpora pausas en el desarrollo de sus modelos en los casos en que las medidas de seguridad no coincidan con el ritmo de los avances en la capacidad de procesamiento.

La política abarca varios componentes clave, incluidos controles de acceso internos, pruebas adversariales (equipos de evaluación de seguridad), evaluaciones realizadas por terceros independientes y accesos parciales basados en diferentes niveles de seguridad de IA.

Hasta aquí las referencias al Informe de Tendencias Tecnológicas 2024 del “Future Today Institute”. Si le interesa el informe, puede solicitarlo en esta liga.

Precio de Bitcoin de hoy

Puede ver el precio de hoy de Bitcoin aquí, así como también el precio de hoy de Ethereum y de las principales criptomonedas.

Por Emilio Carrillo, abogado especializado en temas de financiamiento, tecnología y M&A. Twitter: @ecarrillop; página web: pcga.mx. Las opiniones expresadas son personales del autor y no constituyen recomendaciones de inversión; las inversiones en tecnologías novedosas son de muy alto riesgo y cabe la posibilidad de que todos los recursos destinados a ellas podrían perderse.