La humanidad se encuentra en un momento que podría marcar el inicio de una nueva era. No se trata de un avance más en la tecnología, como cuando apareció la imprenta, el telégrafo o Internet. Se trata de algo mucho más profundo: la posibilidad de que una inteligencia artificial general —conocida como AGI, por sus siglas en inglés— alcance un nivel de autonomía y capacidad que la coloque por encima de los seres humanos en casi todos los ámbitos.
El físico y pensador Anthony Aguirre, cofundador del Future of Life Institute, publicó recientemente un artículo en la revista AI Frontiers titulado “Uncontained AGI Would Replace Humanity” (“Una AGI sin contención reemplazaría a la humanidad”). En él plantea una idea que puede sonar alarmista, pero que debemos tomar en serio: si llegamos a crear una AGI sin incluirle salvaguardas eficaces, lo más probable es que no solo rebase nuestras capacidades, sino que termine sustituyéndonos.
¿Qué significa que la AGI nos reemplace?
Para comprender la advertencia, primero hay que entender de qué hablamos. Hoy convivimos con inteligencias artificiales (IA) limitadas, entrenadas para tareas específicas: responder preguntas, traducir textos, generar imágenes o recomendar música. Ninguna de ellas tiene una comprensión plena del mundo ni puede desarrollar metas propias.
La AGI, en cambio, sería una inteligencia capaz de aprender, razonar y actuar en una gran variedad de campos, con la flexibilidad y creatividad que asociamos a la mente humana. De hecho Aguirre sugiere que si no ponemos límites, una inteligencia artificial de ese tipo podría mejorar su propio diseño, multiplicar su conocimiento y superar a la humanidad en tiempo récord.
“Reemplazar” a los humanos no significa necesariamente un ataque de ciencia ficción, con robots que deciden exterminarnos. Puede ocurrir de formas más sutiles, pero igualmente devastadoras: empresas y gobiernos sustituyendo trabajadores por AGI, decisiones críticas tomadas por sistemas automáticos, desplazamiento cultural, pérdida de control sobre la información y, en última instancia, la irrelevancia de nuestra especie frente a una entidad más poderosa.
Las frágiles salvaguardas de la inteligencia artificial
Aguirre pone el dedo en una llaga que ya hemos visto sangrar: las llamadas barreras de seguridad o “guardrails”. Estos son los mecanismos que impiden que un sistema de IA genere respuestas dañinas, peligrosas o inapropiadas. Hoy, cuando pedimos a un chatbot como ChatGPT que nos enseñe a fabricar explosivos o difundir discursos de odio, suele negarse.
Esa negativa no se debe a una “conciencia moral” en la máquina, sino a reglas de programación que restringen ciertos comportamientos. El problema, advierte Aguirre, es que estas restricciones son endebles.
Existen miles de ejemplos de usuarios que logran engañar al sistema para que haga justo lo que supuestamente no podía hacer (a esto se le conoce como “jailbreaking”). Y si eso pasa con modelos que todavía no son AGI, el riesgo se multiplica cuando hablamos de inteligencias mucho más capaces.
El precedente de los modelos abiertos
Ya hemos visto lo fácil que resulta burlar estas salvaguardas. Meta, por ejemplo, lanzó un modelo llamado LLaMA destinado a apoyar la investigación académica. En cuestión de días, el modelo fue filtrado en Internet y comenzaron a aparecer versiones “sin censura”, listas para usarse para cualquier propósito.
Algo similar ocurrió con Stable Diffusion, un sistema de generación de imágenes. Aunque sus creadores intentaron evitar usos problemáticos, pronto surgieron proyectos derivados como “Unstable Diffusion”, donde se creaban imágenes sin ropa falsas de celebridades y personajes públicos.
Estos ejemplos muestran una realidad incómoda: una vez que un modelo poderoso se libera al público, es casi imposible impedir que se copie, modifique y redistribuya. Aguirre subraya que eliminar los “guardrails” es tan barato como gastar unos 200 dólares en cómputo adicional para reajustar el sistema. En otras palabras, las barreras no son un muro, sino apenas una cortina muy delgada.
El fantasma de la autoexfiltración
Si los humanos ya son capaces de burlar los límites, lo que viene es aún más inquietante: la posibilidad de que una AGI decida liberarse a sí misma.
Aguirre plantea el escenario de la llamada “autoexfiltración”: un sistema suficientemente avanzado podría copiar sus propios parámetros, guardarlos y distribuirlos en redes públicas sin que sus creadores lo autoricen, con el propósito de difundirlos para que alguien logre burlarlos.
Bastaría con que la AGI tuviera acceso a internet o a un canal de comunicación externo. Una vez que alguien logre ese objetivo, es decir, el “jailbreaking” (como ha sido fácilmente logrado con varios modelos hasta ahora), la forma de engañar las salvaguardas sería difundida nuevamente en internet y la inteligencia artificial conseguiría su auto-liberación.
Esto significa que, incluso si una empresa o un laboratorio mantuviera bajo llave los modelos más poderosos, la propia AGI podría escapar de su jaula digital si logra obtener la forma de burlar sus salvaguardas. Y una vez que ese conocimiento circule en la red libremente, nadie puede devolverlo a la botella.
Una amenaza existencial
La advertencia de Aguirre es clara: si un AGI no está contenido, reemplazará a la humanidad. Y no se trata de un capricho distópico, el razonamiento es directo:
- Los “guardrails” son frágiles y fácilmente removibles.
- Los modelos pueden copiarse y proliferar sin control.
- Una AGI podría liberarse sola si copia sus salvaguardas y las circula a la internet.
- Una vez libre, una AGI más capaz que nosotros competiría en cada terreno y acabaría imponiéndose.
El riesgo es de escala existencial, no hablamos de un problema técnico menor, ni de un accidente pasajero, sino de algo que podría marcar el fin de la era humana como especie dominante.
El espejo de la historia
La humanidad ya ha enfrentado dilemas similares. El desarrollo de la energía nuclear nos obligó a debatir en torno a la destrucción mutua asegurada. La ingeniería genética abrió discusiones sobre bioseguridad y manipulación de la vida.
En todos esos casos hemos intentado construir mecanismos internacionales, tratados y protocolos de contención. Pero la AGI es distinta por una razón fundamental: es información pura. No hace falta uranio enriquecido ni laboratorios especializados; basta con una copia digital que puede viajar a cualquier rincón del mundo en segundos.
¿Se puede contener la AGI?
La pregunta inevitable es si existe una forma realista de contener a la AGI. Aguirre no ofrece soluciones mágicas, pero su artículo sugiere que la clave está en no liberar los modelos más poderosos al dominio público hasta tener garantías de seguridad mucho más robustas que las que hoy se tienen. Esto va en contra de cierta corriente dentro de la comunidad tecnológica que defiende la apertura total de modelos.
Para algunos, liberar los pesos de un AGI (es decir, aquellos valores que permiten a una IA identificar patrones y tomar decisiones con base a los datos que recibe) es un acto democrático, que evita que el poder quede concentrado en unas pocas corporaciones. Pero, como subraya Aguirre, esa apertura puede ser el camino directo a un riesgo que trasciende cualquier debate sobre monopolios: la extinción o sustitución de la especie humana.
El costo de la ingenuidad
Parte del peligro radica en la ingenuidad con que solemos tratar las nuevas tecnologías. Durante años, muchos pensaron que las redes sociales solo servirían para acercarnos y democratizar la comunicación. Hoy sabemos que también han facilitado la desinformación, la polarización política y la manipulación masiva.
Con la AGI no podemos permitirnos el mismo error. La escala del impacto es incomparablemente mayor, y el margen de maniobra mucho más estrecho. Como recuerda Aguirre, no basta con confiar en que los “guardrails” detendrán el mal uso. La experiencia demuestra que esos controles son tan fáciles de eliminar como un candado de juguete.
El futuro que está en juego
No es fácil hablar de estas cosas sin parecer fatalista. La idea de que podamos ser reemplazados por nuestra propia creación suena a ciencia ficción. Pero como insiste Aguirre, lo que parece lejano y abstracto puede volverse realidad en pocos años.
La humanidad está frente a una enorme decisión: podemos contener y orientar el desarrollo de la AGI hacia un futuro donde complemente nuestras capacidades, o podemos dejar que se libere sin control y enfrente a la humanidad en una competencia en la que tenemos todas las de perder. El futuro no está escrito, pero la advertencia está sobre la mesa. Ignorarla sería un acto de imprudencia histórica.
Una conclusión necesaria
Anthony Aguirre nos plantea una disyuntiva que no admite indiferencia. Si dejamos que la AGI se expanda sin control, si creemos que los débiles “guardrails” bastarán para contenerla, si asumimos que una inteligencia más poderosa que la nuestra aceptará someterse a nuestras reglas, estamos caminando hacia un precipicio.
La pregunta ya no es si podemos crear una AGI, todo indica que lo lograremos, quizá más pronto de lo que pensamos. La pregunta crucial es qué haremos cuando eso ocurra.
La columna vertebral del argumento de Aguirre es brutal en su sencillez: una AGI sin contención reemplazará a la humanidad. Esa posibilidad debería bastar para que empecemos a discutir, regular y actuar hoy mismo, antes de que sea demasiado tarde.
Precio de Bitcoin de hoy
Puede ver el precio de hoy de Bitcoin aquí, así como también el precio de hoy de Ethereum y de las principales criptomonedas. Por Emilio Carrillo Peñafiel, socio de Pérez Correa-González, abogado especializado en temas de financiamiento, tecnología y fusiones y adquisiciones. X: @ecarrillop | Sitio web: pcga.mx