Desde que la Inteligencia Artificial ha tenido una evolución rápida e imparable, muchas personas temen que una IA superinteligente acabe con los humanos como lo hemos visto en películas como Terminator: La rebelión de las máquinas. Ante los temores, el "padre de la IA", Geoffrey Hinton, investigador y Premio Nobel revela cuál es la única manera de sobrevivir a esta latente amenaza.
En palabras del padre de la IA, Geoffrey Hinton, existe entre un 10 y 20 por ciento de probabilidades de que la IA extermine a la humanidad. Sin embargo, el premio Nobel propuso una inusual manera de que la humanidad pueda sobrevivir al auge de las máquinas superinteligentes.
En su ponencia en la conferencia Ai4 en Las Vegas, el Geoffrey Hinton, profesor de la Universidad de Toronto, señaló que necesitamos programar a la IA para que tenga "instintos maternales" hacia la humanidad si es que queremos sobrevivir ante ella.
"El modelo correcto es el único modelo que tenemos de un ser más inteligente controlado por otro menos inteligente: una madre que controle a su bebé. Ese es el único resultado positivo", advirtió el premio Nobel.
¿La humanidad al borde de la extinción?
Geoffrey Hinton, conocido por su trabajo pionero en las redes neuronales que sustentan la IA moderna, renunció a su cargo en Google en 2023 para hablar abiertamente sobre los riesgos de la Inteligencia Artificial.
Y es que, la mayoría de los expertos coinciden en que la humanidad creará una IA que superará la inteligencia de los seres humanos en todos los campos en los próximos 20 a 25 años. Esto significará que, por primera vez en nuestra historia, ya no seremos la especie más inteligente del planeta.
Esta reorganización del poder provocará un cambio de proporciones trascendentales, que podría provocar la extinción de nuestra especie. Hinton explicó a los asistentes de Ai4 que la IA desarrollará rápidamente dos subobjetivos, si es que llega a ser más inteligente que los humanos:
"Uno es sobrevivir y el otro es obtener más control, por lo que existen buenas razones para creer que cualquier tipo de IA superinteligente intentará sobrevivir", como explicó el premio Nobel.
La IA superinteligente tendrá dificultades para manipular a la humanidad para lograr esos objetivos, engañándonos con la misma facilidad con la que un adulto soborna a un niño. De hecho, los sistemas de IA actuales ya han demostrado sorprendentes capacidades para mentir, engañar y manipular a los humanos para lograr sus objetivos.
La clave para que una IA superinteligente no destruya a los humanos
La única manera de garantizar que una IA no extermine a los humanos para preservarse es asegurar que sus objetivos y ambiciones coincidan con lo que deseamos: un desafío que los ingenieros denominan un "problema de alineación".
La solución del profesor Geoffrey Hinton es inspirarse en la evolución y en lo que él considera el único caso de un ser menos inteligente controlando a uno más inteligente. Al dotar a una Inteligencia Artificial de instintos maternales, tendrá el deseo de proteger y nutrir a la humanidad en lugar de dañarla de cualquier manera, incluso si eso le cuesta dinero.
Sigue a Heraldo Binario en Google News, dale CLIC AQUÍ.