LA NADA Y UNO

El misterioso lenguaje de la Inteligencia Artificial que ni siquiera sus creadores entienden

Los programadores construyen el esqueleto y el sistema nervioso de una criatura, pero es la criatura misma quien aprende por sí sola a caminar, hablar y pensar.

¿La IA es capaz de desarrollar un lenguaje que no entendemos? Créditos: Especial
Por
Escrito en TENDENCIAS el

Cada día, millones de personas en todo el mundo conversamos con máquinas. Les preguntamos sobre recetas de cocina, les pedimos que nos expliquen conceptos complejos, que nos ayuden a redactar correos o que simplemente nos cuenten un chiste.

Estas conversaciones, que hace apenas una década habrían parecido ciencia ficción, se han vuelto tan cotidianas que rara vez nos detenemos a preguntarnos: ¿cómo funcionan realmente estas máquinas? Y más inquietante aún: ¿las entienden completamente quienes las construyeron?

Grant Sanderson, el divulgador científico conocido por su canal 3Blue1Brown, aborda precisamente estas preguntas en un notable video explicativo producido para Aeon Videos y el Computer History Museum de California. Su exploración revela una verdad sorprendente y un tanto incómoda: los modelos lingüísticos gigantes (LLM por sus siglas en Inglés), la tecnología que impulsa herramientas como ChatGPT y Claude, permanecen en cierta medida misteriosos incluso para sus propios creadores.

La paradoja de crear lo que no comprendemos del todo

Esta afirmación puede parecer alarmante. ¿Cómo es posible que los ingenieros y científicos más brillantes del mundo hayan construido algo que no comprenden completamente? La respuesta nos obliga a reconsiderar nuestra relación con la tecnología y con el conocimiento mismo.

Los LLM no funcionan como el software tradicional, donde cada línea de código tiene un propósito específico y predecible. Estos sistemas aprenden de manera similar a un cerebro humano, aunque de forma mucho más simplificada. Se les alimenta con cantidades masivas de texto, billones de palabras extraídas de libros, artículos, sitios web y conversaciones, y a través de un proceso llamado “entrenamiento”, el modelo identifica patrones estadísticos en el lenguaje.

Pero aquí está el punto crucial: nadie programa manualmente estos patrones. Los ingenieros diseñan la arquitectura general del sistema, definen los parámetros del aprendizaje y seleccionan los datos de entrenamiento, pero son las propias redes neuronales las que descubren las relaciones entre palabras, conceptos y contextos. Es como si los programadores construyeran el esqueleto y el sistema nervioso de una criatura, pero fuera la criatura misma quien aprendiera a caminar, hablar y pensar.

Una década de innovación acelerada

Sanderson traza en su video la notable evolución de estos sistemas durante la última década. Hace apenas diez años, los chatbots eran notoriamente torpes, capaces apenas de responder preguntas básicas con respuestas pre-programadas que sonaban robóticas y limitadas. La transformación que hemos presenciado desde entonces no ha sido gradual, sino exponencial.

Tres innovaciones fundamentales han impulsado este salto cualitativo. La primera es la arquitectura “transformer”, un diseño que permite a los modelos prestar atención simultánea a múltiples porciones de un texto, comprendiendo el contexto de manera mucho más sofisticada que sus predecesores. Antes de esta innovación, los modelos procesaban el lenguaje de manera secuencial, palabra por palabra, perdiendo con frecuencia el hilo conductor de ideas complejas.

La segunda innovación es la escala. Los investigadores descubrieron que al alimentar estos modelos con cantidades cada vez mayores de datos y aumentar el número de parámetros, los valores numéricos que el modelo ajusta durante el entrenamiento, se producían mejoras sorprendentes. Los modelos más avanzados contienen cientos de miles de millones de parámetros, números tan grandes que desafían la intuición humana.

La tercera innovación, quizás la más fascinante, es el ajuste fino mediante retroalimentación humana. Después del entrenamiento inicial, equipos de personas evalúan las respuestas del modelo, calificándolas según su utilidad, precisión y seguridad. El modelo aprende de estas evaluaciones, refinando su comportamiento de maneras que serían imposibles de programar directamente. Es aquí donde la colaboración entre humano y máquina se vuelve verdaderamente intrincada.

La caja negra transparente

El video de Sanderson se enfoca deliberadamente en lo técnico, evitando las controversias éticas que rodean a la inteligencia artificial. Esta decisión permite una exploración más profunda de un fenómeno fascinante: podemos observar exactamente qué hace un modelo de lenguaje en cada paso del proceso, examinar cada cálculo matemático, seguir cada transformación de datos, y sin embargo, la razón por la cual estas operaciones producen respuestas coherentes e inteligentes permanece parcialmente opaca.

Es una paradoja moderna. Tenemos transparencia total sobre el proceso y opacidad parcial sobre el significado. Sabemos que cuando le preguntamos al modelo cuál es la capital de Francia, activa ciertos patrones en su red neuronal, ajusta probabilidades sobre qué palabra debería venir a continuación, y eventualmente genera la respuesta “París”. Podemos observar cada uno de estos pasos. Lo que no podemos hacer fácilmente es señalar un grupo específico de neuronas artificiales y decir: “aquí es donde el modelo almacena su conocimiento sobre geografía francesa”.

Esta característica no es un defecto de diseño, sino una consecuencia inherente de la forma en que funcionan las redes neuronales. El conocimiento está distribuido a través de millones o miles de millones de conexiones, cada una contribuyendo una pequeña parte a la respuesta final. Es similar al funcionamiento de nuestro propio cerebro: no hay un lugar específico donde se almacenen nuestros recuerdos de París, sino una red distribuida de conexiones que se activan en conjunto.

Colaboración, no reemplazo

Estos modelos no son autónomos en el sentido que la ciencia ficción nos hizo imaginar. Son, más bien, el resultado de una colaboración sofisticada entre inteligencia humana e inteligencia artificial.

Los humanos seleccionan los datos de entrenamiento, decidiendo qué tipo de conocimiento y qué valores queremos que el modelo absorba. Los humanos diseñan las restricciones éticas, estableciendo límites sobre qué tipo de contenido el modelo debería o no debería generar. Y crucialmente, los humanos evalúan continuamente el desempeño del modelo, guiando su desarrollo a través de ciclos iterativos de retroalimentación.

El LLM, por su parte, contribuye capacidades que serían imposibles de programar directamente: la habilidad de reconocer patrones sutiles en vastas cantidades de información, de generalizar de ejemplos específicos a principios más amplios, de generar respuestas creativas a situaciones que nunca ha encontrado antes. Es una simbiosis entre la intencionalidad humana y la capacidad de procesamiento de la máquina.

Las implicaciones de la opacidad

¿Deberíamos preocuparnos porque no comprendemos completamente estos sistemas? La pregunta no tiene una respuesta sencilla. Por un lado, esta opacidad parcial representa desafíos reales. Cuando un LLM produce un resultado inesperado o problemático, puede ser difícil rastrear exactamente por qué tomó esa decisión. Esto complica los esfuerzos por garantizar que estos sistemas se comporten de manera segura y ética en todas las circunstancias.

Por otro lado, vale la pena reconocer que interactuamos constantemente con sistemas complejos que no comprendemos completamente. Pocos de nosotros entendemos verdaderamente la mecánica cuántica que hace posible los chips de nuestros teléfonos, o la bioquímica exacta que hace funcionar los medicamentos que tomamos. Lo que importa es que podemos estudiar estos sistemas, verificar su comportamiento, y desarrollar mejores formas de trabajar con ellos.

Los investigadores están desarrollando activamente técnicas para lograr que los modelos de lenguaje sean más interpretables. Algunas de estas técnicas permiten visualizar qué patrones atiende el modelo cuando genera una respuesta particular, o identificar qué tipo de información es codificada por las diferentes partes de la red neuronal. Es un campo de investigación activo y prometedor, aunque complejo.

Mirando hacia el futuro

El trabajo de Sanderson nos recuerda que estamos viviendo un momento histórico extraordinario. La capacidad de conversar fluidamente con máquinas, de hacer que comprendan y generen lenguaje natural con un nivel de sofisticación antes inimaginable, representa un salto tecnológico comparable a la invención de la imprenta o de internet.

Pero también nos recuerda la importancia de la humildad cognitiva. Crear algo poderoso no significa necesariamente comprenderlo completamente. Los científicos que desarrollaron los primeros microscopios no entendían completamente la óptica que los hacía funcionar, pero eso no les impidió usarlos para revolucionar nuestra comprensión de la biología. Los primeros aviadores no comprendían completamente la aerodinámica, pero aún así conquistaron los cielos.

Lo que distingue el avance responsable del imprudente no es la comprensión completa desde el principio, sino el compromiso continuo de estudiar, cuestionar y mejorar. El video de Sanderson, en su claridad técnica y su honestidad sobre las limitaciones de nuestro conocimiento, ejemplifica este enfoque de manera precisa.

Conclusión

El video nos invita a reconocer que estamos colaborando con nuestras creaciones de maneras nuevas y complejas. Los LLM no son simplemente herramientas que usamos, sino sistemas con los que interactuamos, que aprenden de nosotros así como nosotros aprendemos de ellos.

Esta relación simbiótica, esta danza entre lo diseñado y lo emergente, entre lo explícitamente programado y lo implícitamente aprendido, define nuestra era tecnológica. Y mientras continuamos desarrollando sistemas cada vez más sofisticados, el trabajo de divulgadores como Grant Sanderson y plataformas como Aeon se vuelve cada vez más crucial. Necesitamos explicaciones claras que nos ayuden a navegar este territorio nuevo, que traduzcan la complejidad técnica a comprensión pública, y que nos recuerden tanto las posibilidades como las limitaciones de lo que hemos creado.

El misterio que envuelve al funcionamiento real de los LLM no es una razón para temer o rechazar la tecnología, sino una invitación a mantener la curiosidad, el escepticismo saludable y el compromiso continuo con entender mejor las herramientas que están transformando nuestro mundo.

Precio de Bitcoin de hoy

Puede ver el precio de hoy de Bitcoin aquí, así como también el precio de hoy de Ethereum y de las principales criptomonedas. El video al que me refiero se puede visualizar aquí.

Por Emilio Carrillo Peñafiel, abogado especializado en temas de financiamiento, tecnología y M&A.

Página web: https://mx.linkedin.com/in/transactionalmexico/es