LA NADA Y UNO

DEEPSEEK-R1: La revolución de las inteligencias artificiales que podría cambiar el panorama

“No nos propusimos construir el modelo más grande — nos propusimos construir el más inteligente.” Liang Wenfeng, fundador de DeepSeek.

¿DeepSeek llegó para quedarse?Créditos: Especial
Por
Escrito en TENDENCIAS el

En una industria donde Silicon Valley ha sido durante mucho tiempo el epicentro de la innovación, una start-up china llamada DeepSeek ha hecho lo impensable.

Su último modelo, DeepSeek-R1, no es solo otro modelo de inteligencia artificial, es un cambio de paradigma que ha puesto a la comunidad global de IA en alerta. Pero ¿cómo logró una empresa fundada hace menos de dos años, con un presupuesto modesto, un hito sin precedentes?

El hombre detrás de la máquina: Liang Wenfeng

Para entender el ascenso meteórico de DeepSeek, necesitamos mirar a su fundador, Liang Wenfeng. Nacido en 1985 en un pequeño pueblo llamado Mililing en la provincia de Guangdong, China, el viaje de Liang desde sus humildes comienzos hasta convertirse en innovador tecnológico es simplemente impresionante.

Después de obtener sus títulos de licenciatura y maestría en ingeniería de la Universidad de Zhejiang, Liang cofundó High-Flyer Quant en 2015, un fondo de cobertura (“hedge fund”).

Ese fondo se convirtió en una historia de éxito en el intercambio automatizado de acciones y otros activos, proporcionándole los recursos y la experiencia técnica necesarios para aventurarse en el mundo de la IA: Liang exigía a su equipo obtener el máximo rendimiento posible de sus computadoras para conseguir aventajar en un mundo donde retrasos de segundos pueden hacer la diferencia entre la utilidad y la pérdida.

En 2023, Liang estableció DeepSeek con una visión clara: desarrollar modelos de IA avanzados que fueran tanto eficientes como asequibles. Lo que distingue a Liang de muchos otros líderes tecnológicos es su enfoque en la innovación por encima de la imitación.

En un panorama a menudo criticado por inclinarse a elaborar derivados de modelos exitosos, el trabajo de Liang representa un audaz y original paso adelante en el desarrollo de la IA.

El nacimiento de DeepSeek-R1

El 26 de enero de 2025, DeepSeek sorprendió al mundo de la IA con el lanzamiento de DeepSeek-R1. A diferencia de muchos modelos que requieren enormes presupuestos y vastos recursos computacionales, éste fue desarrollado con un presupuesto relativamente pequeño de 5.6 millones de dólares – aunque existe un debate en torno a la precisión y comparabilidad de esta cifra.

Para poner esto en perspectiva, se informa que el GPT-4 de OpenAI costó más de 100 millones de dólares para desarrollarse. Aún más asombroso, DeepSeek-R1 utiliza solo el 9% de la potencia computacional que normalmente se necesita para modelos de su calibre. ¿Cómo lo lograron?

DeepSeek empleó varias técnicas innovadoras:

  • Aprendizaje a través de refuerzo puro (RL): en lugar de depender de enormes conjuntos de datos etiquetados, que en última instancia requieren de cierta (y muy costosa) supervisión humana, DeepSeek apostó por el RL permitiendo que el modelo aprendiera y se adaptara en tiempo real.
  • Uso eficiente de GPU (unidades de procesamiento gráfico, o “chips”): la empresa necesitó muchas menos horas de uso de GPU que los estándares de la industria — lo que hizo que el modelo fuera rentable y ecológico.
  • Soluciones creativas: a pesar de enfrentar restricciones para adquirir chips elaborados por Nvidia en China, DeepSeek encontró formas ingeniosas de optimizar el uso del hardware con el que contaba, como ocurrió con el fondo High-Flyer Quant fundado por Liang.
  • Preprocesamiento de datos: redujeron la precisión decimal de 32 puntos a 8, simplificando el modelo sin sacrificar el rendimiento.

Un rendimiento que rivaliza con los mejores

DeepSeek-R1 no es solo una alternativa económica; es una potencia por derecho propio. El modelo cuenta con 671 mil millones de parámetros y sobresale en tareas de matemáticas y razonamiento, áreas donde muchos modelos de IA tienen problemas de desempeño.

Obtuvo una impresionante puntuación del 79.8% en pruebas de matemáticas avanzadas, igualando o superando a gigantes de la industria como o1 y GPT-4 de OpenAI en varios parámetros. Aquí una rápida comparación:

  1. Ventana de contexto: 128,000 tokens (en comparación con los 8,192 tokens de GPT-4)
  2. Costo de entrada: US$0.14 por millón de tokens (GPT-4 cuesta alrededor de US$30)
  3. Costo de salida: US$0.28 por millón de tokens (GPT-4 cobra alrededor de US$60).

¿Por qué tanto alboroto?, las razones son múltiples: Libertad que da el código abierto: a diferencia de sus competidores, DeepSeek-R1 está completamente construido con código abierto bajo la licencia MIT (Massachussets Institute of Technology).  Esto significa que los desarrolladores de todo el mundo pueden modificar, comercializar e integrar el modelo sin restricciones.

En contraste, modelos como GPT-4 y Claude están estrictamente controlados por sus autores, lo que limita su adaptabilidad.

  • Asequibilidad: el costo drásticamente menor de ejecutar, este modelo hace que la IA avanzada sea accesible para start-ups, educadores e investigadores que antes no podían permitirse esta tecnología.
  • Rendimiento: no es solo barato — es bueno. DeepSeek-R1 iguala e incluso supera a algunos de los mejores modelos en tareas que requieren razonamiento profundo e inferencia lógica.
  • Impacto global: el éxito del modelo desafía el dominio de Silicon Valley, demostrando que la IA revolucionaria puede surgir de cualquier lugar — incluso bajo condiciones tecnológicas restrictivas (los controles de exportación impuestos por EE.UU. a los “chips” elaborados por Nvidia explican en gran parte las soluciones ingeniosas que encontraron los desarrolladores de DeepSeekR-1).
  • El lado oscuro: desafíos y preocupaciones

Aunque el ascenso de DeepSeek-R1 es impresionante, no está exento de controversias. Al ser desarrollado por una empresa china, el modelo debe cumplir con las regulaciones de contenido chinas. Esto significa que ciertos temas políticamente sensibles están fuera de su alcance, lo que podría limitar su aplicabilidad global.

Además, los términos de servicio de DeepSeek otorgan a la empresa amplios derechos sobre el contenido enviado por los usuarios. La empresa puede modificar, publicar y sublicenciar cualquier cosa que los usuarios ingresen en el modelo. Esto plantea importantes preocupaciones sobre la privacidad y la propiedad intelectual, especialmente para empresas y creadores de contenido.

El panorama general: ¿qué significa esto para la IA?

El éxito de DeepSeek-R1 es más que un triunfo tecnológico; es un cambio de paradigma:

Democratización de la IA: al desarrollar un modelo de alto rendimiento construido con código abierto y asequible, DeepSeek está reduciendo la barrera de entrada al desarrollo de IA. Esta democratización podría conducir a un aumento en la innovación a medida que más personas tengan acceso a herramientas de vanguardia.

Desencadenamiento de una “carrera armamentista” en IA: el lanzamiento del modelo ha desencadenado lo que muchos llaman una nueva carrera armamentista en IA. A medida que las empresas se apresuran a igualar la rentabilidad y el rendimiento de DeepSeek, podemos esperar modelos de IA más rápidos, económicos y poderosos en un futuro cercano.

Desafiando el dominio de Silicon Valley: el ascenso de DeepSeek demuestra que el futuro de la IA no está confinado a Silicon Valley. Con la combinación adecuada de innovación y eficiencia en el uso de recursos, cualquiera, en cualquier lugar puede liderar el próximo gran avance.

Consideraciones éticas: el potencial del modelo para el mal uso — combinado con sus preocupaciones de privacidad — destaca la necesidad de contar con directrices éticas robustas en el desarrollo y despliegue de la IA.

Mirando hacia el futuro, DeepSeek tiene planes ambiciosos. Pretenden desarrollar modelos más pequeños utilizando DeepSeek-R1 como un modelo maestro, un proceso conocido como “destilación”. Los primeros resultados son prometedores, obteniéndose modelos “destilados” que superan a GPT-4 y Claude 3.5 Sonnet en varios puntos de comparación, especialmente en matemáticas.

DeepSeek también planea mejorar el soporte multilingüe: actualmente optimizado para inglés y chino, DeepSeek-R1 se expandirá para manejar más idiomas de manera efectiva.

Mejorar la ingeniería de prompts: al refinar la manera en que los usuarios interactúan con el modelo, DeepSeek busca hacerlo aún más fácil de usar.

Optimizar tareas de ingeniería de software: las versiones futuras de DeepSeek-R1 reducirán los largos tiempos de evaluación y mejorarán la eficiencia en tareas relacionadas con la programación.

Conclusión: inteligencia vence tamaño

DeepSeek-R1 es un testimonio vivo de la idea de que la inteligencia vence al tamaño. En una industria dominada por bolsillos muy profundos e infraestructuras masivas, DeepSeek ha demostrado que el ingenio, la eficiencia y el compromiso con los principios de código abierto pueden lograr lo mismo — si no es que más.

Ya sea que sea usted un desarrollador, un líder empresarial o simplemente un entusiasta de la IA, DeepSeek-R1 es un modelo digno de atención. No es solo un logro tecnológico; es un símbolo de lo que es posible cuando replanteamos la forma en que abordamos la innovación.

En palabras del propio Liang Wenfeng, “No nos propusimos construir el modelo más grande—nos propusimos construir el más inteligente.” Y parece que lo han logrado. Entonces, ¿es DeepSeek-R1 una “llamarada de petate” o el comienzo de algo más grande? Solo el tiempo lo dirá. Pero algo es seguro: el mundo de la IA nunca volverá a ser el mismo.

Precio de Bitcoin de hoy

Puede ver el precio de hoy de Bitcoin aquí, así como también el precio de hoy de Ethereum y de las principales criptomonedas. Por Emilio Carrillo Peñafiel, abogado especializado en temas de financiamiento, tecnología y M&A. X: @ecarrillop; página web: pcga.mx. Las opiniones expresadas son personales del autor y no constituyen recomendaciones de inversión; las inversiones en tecnologías novedosas son de muy alto riesgo y cabe la posibilidad de que todos los recursos destinados a ellas podrían perderse.