LA NADA Y UNO

Los principales riesgos del uso de la Inteligencia Artificial sin control y sin regulación

En 2024 se harán evidentes brechas en el control de la IA a medida que los esfuerzos por regularla flaqueen y se expandan más allá del control de los gobiernos.

¿La IA se podrá regular este año?Créditos: Especial
Por
Escrito en TENDENCIAS el

El fin de semana pasado, es decir, entre el 19 y el 21 de enero de 2024, varios votantes de New Hampshire recibieron una llamada telefónica que, con la voz del Presidente Biden, invitaba a los ciudadanos a no votar en las elecciones primarias de este estado. Se trataba de una voz idéntica a la del Presidente, pero creada por inteligencia artificial (IA).

Después de una semana, los autores de ese “deepfake” han sido encontrados: resulta que la tecnología que lo creó pertenece a la empresa “start-up” llamada ElevenLabs, y fue identificada por otra empresa de IA, Pindrop Security Inc. Los autores materiales se encuentran bajo investigación por los fiscales del estado de New Hampshire.

Sin embargo, aún no se conoce el impacto que esa llamada pudo tener sobre la votación en la que alentaba a no participar: es un caso más del uso de la IA sin control. Ante estos hechos, y los que seguramente estamos por presenciar, le presento algunas ideas de Ian Bremmer y Cliff Kupchan de The Eurasia Group en torno a los riesgos que representa la falta de control en la IA, editadas por mi para fines de traducción y espacio.

Factores que contribuyen a la brecha en el control de la IA

Los avances en IA son mucho más rápido que los esfuerzos por controlarla, aún y cuando en 2023 fuimos testigos de avances muy importantes en este tema. En opinión de Bremmer y Kupchan, son 4 los factores que contribuirán a ampliar la brecha en la gobernanza de la inteligencia artificial en 2024:

1. Política. El mínimo común denominador entre aquello susceptible de acordarse entre los gobiernos y las empresas tecnológicas será insuficiente para abordar los riesgos de la IA. Esto tendrá como resultado la falta de acuerdos en torno a la forma de evaluar las herramientas de IA antes de su lanzamiento la población en general.

2. Inercia. Los plazos de atención de los gobiernos son finitos y, una vez que la IA ya no sea “lo actual”, la mayoría de ellos se desviarán a atender otras prioridades políticamente más relevantes – como las guerras. Como resultado de ello, gran parte de las iniciativas para controlarla pasarán al olvido, especialmente cuando su implementación implique decisiones difíciles (tipo costo-beneficio) para los gobiernos.

3. Deserción. Hasta ahora, los principales jugadores en la IA han decidido cooperar para lograr controlarla, comprometiéndose para ello a cumplir estándares y límites voluntarios. Pero a medida que avance sus beneficios se vuelvan más evidentes, la ventaja geopolítica y el interés comercial incentivarán a gobiernos y empresas a abandonar los acuerdos y regímenes voluntarios a los que se han unido.

4. Velocidad tecnológica. La IA continuará evolucionando rápidamente, con capacidades que se duplicarán aproximadamente cada seis meses. A medida que los modelos se vuelvan más capaces, lo cual ya ocurre de manera exponencial, la tecnología superará los esfuerzos para controlarla.

Dos riesgos específicos para 2024

Bremmer y Kupchan creen que el desafío central para controlar la IA consiste más en entender los modelos comerciales que impulsan su expansión para luego limitar los incentivos (capitalismo, geopolítica, ingenio humano) que la impulsan hacia rumbos peligrosos, que en intentar regular la tecnología.

  • El primero: la desinformación

De esta forma, plantean dos riesgos para el 2024: el primero de ellos es la desinformación. En un año en el que alrededor de cuatro mil millones de personas acudirán a votar, la IA generativa será utilizada para influir en campañas electorales, avivar divisiones, minar la confianza en la democracia y sembrar el caos político a una escala sin precedentes.

Bremmer y Kupchan creen que en sociedades fuertemente divididas, donde los votantes acceden cada vez más a la información a través de redes sociales, es más probable que una crisis electoral sea precipitada por la desinformación creada por la IA que por cualquier otro factor.

La IA está por convertirse en un riesgo que afectará las decisiones políticas. Imágenes, audio y video simulados, amplificados en las redes sociales por ejércitos de bots impulsados por IA se utilizarán cada vez más para influir en la opinión pública, desacreditar hechos reales y aumentar las tensiones geopolíticas en todo el mundo.

  • El segundo riesgo: la proliferación

El segundo riesgo que plantean Bremmer y Kupchan en torno a la IA es la proliferación. Mientras que hasta ahora la IA ha estado dominada por Estados Unidos y China, en 2024 nuevos actores podrán desarrollar y adquirir capacidades en la materia.

Estas incluyen modelos lingüísticos gigantes (LLM por sus siglas en Inglés) respaldados por estados nacionales e IA de código abierto (gratuita). Los accidentes seguramente se multiplicarán, pero también las oportunidades.

La IA podrá o no tener un impacto disruptivo en los mercados o la geopolítica este año, pero tarde o temprano lo tendrá. En opinión de Bremmer y Kupchan, cuanto más tiempo permanezca sin control, mayor será el riesgo de una crisis sistémica, y más difícil será para los gobiernos ponerse al día.

Precio de Bitcoin de hoy

Puede ver el precio de hoy de Bitcoin aquí, así como también el precio de hoy de Ethereum y de las principales criptomonedas.

Por Emilio Carrillo, abogado especializado en temas de financiamiento, tecnología y M&A. Twitter: @ecarrillop; página web: www.bcarrillog.com. Las opiniones expresadas son personales del autor y no constituyen recomendaciones de inversión; las inversiones en tecnologías novedosas son de muy alto riesgo y cabe la posibilidad de que todos los recursos destinados a ellas podrían perderse.