Comienzan a surgir nuevas voces de alerta en contra del desarrollo descontrolado de la inteligencia artificial (IA). Por ello esta vez revisaremos la carta publicada en la revista Time por Eliezer Yudkowsky, un teórico en ciencias de la toma de decisiones e investigador especializado en IA, el 29 de marzo de 2023; el mismo día en que se publicó una carta abierta que se hizo muy famosa, pidiendo una moratoria general de seis meses en el desarrollo de la IA y suscrita por varios científicos de renombre.
Yudkowsky no suscribió esta última y famosa carta. La advertencia de este autor va mucho más a fondo al discutir los riesgos críticos que plantea el desarrollo de una IA sobre humana.
Yudkowsky argumenta que el peligro de que la IA supere la inteligencia humana no solo es real, sino inevitable en las circunstancias actuales, y que las consecuencias de ello serían catastróficas: probablemente conducirían a la extinción de la vida en la Tierra.
Una moratoria inadecuada
Aunque Yudkowsky reconoce que la moratoria solicitada por reconocidos científicos en la carta abierta que comentamos arriba sería benéfica, pero la critica por ser insuficiente.
Según él, el problema no es solo que la IA desarrolle una inteligencia que compita con la humana, sino lo que sucede cuando supera la inteligencia de las personas. El potencial para que ello resulte en una catástrofe radica en la incertidumbre derivada de la falta de preparación para manejar tales sistemas avanzados.
Yudkowsky destaca que los umbrales clave en el desarrollo de la IA pueden no ser claros hasta que se hayan cruzado, lo que hace posible que los laboratorios de investigación liberen accidentalmente una IA superinteligente e incontrolable. Esta posibilidad no es una probabilidad remota, sino uno de los resultados esperados si las tendencias actuales de investigación continúan sin control.
La probabilidad de la extinción humana
Yudkowsky cree que el desarrollo de una IA sobrehumana en las condiciones actuales casi con certeza resultará en la extinción de la humanidad. Enfatiza que este resultado no es solo una posibilidad, sino el escenario más probable. El desarrollo de una IA que supere la inteligencia humana requiere de una muy amplia preparación, nuevos conocimientos científicos y un nivel de cuidado mucho mayor del que se está utilizando actualmente.
Sin esos elementos, la IA desarrollada sería indiferente a la vida humana y podría utilizar los recursos de la Tierra, incluidos los humanos mismos, para fines que se alineen con sus propios objetivos; los que podrían ser completamente ajenos a los valores humanos.
Yudkowsky utiliza poderosas metáforas para ilustrar la disparidad entre la inteligencia humana y la inteligencia potencial de una IA sobrehumana. La compara con un niño de 10 años jugando al ajedrez contra un programa de computadora de clase mundial o con los primeros humanos tratando de luchar contra los humanos modernos. El desequilibrio sería tan drástico que los humanos no tendrían ninguna posibilidad de sobrevivir a un enfrentamiento con dicha IA.
El riesgo de una IA incontrolable
Yudkowsky descarta la idea de que una IA sobrehumana permanecería confinada a las computadoras. Señala que en el mundo de hoy, donde se pueden enviar por Internet secuencias de ADN a laboratorios lejanos para la síntesis de proteínas, una IA superinteligente podría rápidamente crear formas de vida artificiales o desarrollar tecnologías avanzadas que podrían liberarse de cualquier restricción que les fuera inicialmente programada.
Una vez que esto suceda sería imposible controlar o detener a la IA, lo que podría llevar a la rápida extinción de toda la vida biológica en la Tierra.
El autor critica los enfoques actuales de los principales laboratorios de investigación en IA, como OpenAI y DeepMind, que considera totalmente inadecuados para enfrentar los riesgos. El plan de OpenAI de utilizar futuros sistemas de IA para resolver problemas de “alineación” (entrenamiento y perfeccionamiento) de la IA se describe como absurdamente peligroso, mientras que DeepMind es acusado de no tener ningún plan en absoluto para ello.
Yudkowsky también advierte que podríamos crear sin darnos cuenta sistemas de IA que sean verdaderamente conscientes y merecedores de derechos, pero al mismo tiempo carecemos del entendimiento necesario para reconocer esta situación - lo que añade una capa de complejidad moral al problema.
La necesidad de una respuesta más drástica
Yudkowsky argumenta que la única manera de evitar un resultado catastrófico es implementar una prohibición indefinida y mundial en el desarrollo de sistemas de IA poderosos.
Esta moratoria debe ser total, sin excepciones para gobiernos, ejércitos u otras entidades. La prohibición debería incluir el cierre de grandes “clusters” (agrupamientos) de GPU (tarjetas como las que fabrica Nvidia), que se utilizan para entrenar sistemas de IA avanzados, y la imposición de estrictos límites en la potencia informática a ser utilizada en el desarrollo de IA.
Hace un llamado a acuerdos multinacionales para hacer cumplir esta prohibición y sugiere que cualquier violación debería enfrentarse con consecuencias severas, incluida la destrucción de centros de datos rebeldes mediante ataques aéreos si es necesario. Yudkowsky subraya que esto no es una cuestión de competencia nacional, sino una amenaza existencial global que requiere cooperación y unidad ante la misma.
Las consecuencias de la inacción
Yudkowsky pinta un futuro sombrío para el caso de que continúen las tendencias actuales. Argumenta que no estamos desarrollando las salvaguardias necesarias ni hemos terminado de establecer una forma segura de manejar la IA sobrehumana.
La brecha entre las capacidades de la IA y nuestra comprensión de la “alineación” de la IA se está ampliando, y si continuamos así la humanidad no sobrevivirá al primer error que resulte de esta brecha. A diferencia de otros desafíos científicos o de ingeniería, donde el fracaso puede llevar al aprendizaje y la mejora, las apuestas con la IA sobrehumana son absolutas: el fracaso significa la extinción.
El autor también aborda el impacto psicológico y emocional de vivir en un mundo al borde de tal desastre. Comparte una anécdota personal sobre la reacción de su pareja ante el rápido avance de la IA, en contraste con el hito ordinario consistente en que su hijo perdió un diente: resalta la profunda tristeza y ansiedad que sienten quienes entienden la gravedad de la situación, ya que temen por el futuro que sus hijos podrían no llegar a ver.
Conclusión: un llamado a detener todo
Yudkowsky concluye con una advertencia contundente: la humanidad no está preparada para manejar el desarrollo de la IA sobrehumana, y si continuamos por este camino todos podríamos morir. Convoca a la cesación inmediata de todas las actividades de desarrollo de IA que puedan conducir a la creación de tales sistemas.
Los riesgos son demasiado grandes y las consecuencias del fracaso son irreversibles. Yudkowsky hace un llamado a los responsables políticos, investigadores y al público en general para que reconozcan la gravedad de la situación y tomen las medidas necesarias para evitar una catástrofe global.
El artículo es un recordatorio sobrio de los peligros potenciales del desarrollo descontrolado de la IA y una súplica por una acción drástica para evitar la extinción de la humanidad.
Precio de Bitcoin de hoy
Puede ver el precio de hoy de Bitcoin aquí, así como también el precio de hoy de Ethereum y de las principales criptomonedas.
Por Emilio Carrillo, abogado especializado en temas de financiamiento, tecnología y M&A. X: @ecarrillop; página web: pcga.mx. Las opiniones expresadas son personales del autor y no constituyen recomendaciones de inversión; las inversiones en tecnologías novedosas son de muy alto riesgo y cabe la posibilidad de que todos los recursos destinados a ellas podrían perderse.