LA NADA Y UNO

Google DeepMind advierte sobre el uso responsable de la Inteligencia Artificial General

Frente a la inminencia de una inteligencia artificial general estamos ante un cruce de caminos: podemos construir un futuro de oportunidades extraordinarias o abrir la puerta a riesgos incontrolables.

¿Cómo hacer un uso responsable de la IA?Créditos: Especial
Por
Escrito en TENDENCIAS el

Hace sólo unas semanas, DeepMind publicó su informe “Taking a responsible path to AGI” (2 de abril de 2025), un documento que debería encender todas las alarmas —y esperanzas— en el corazón de nuestra sociedad tecnológica. Frente a la inminencia de una inteligencia artificial general (AGI) que igualará o superará al intelecto humano en cualquier tarea cognitiva, estamos ante un cruce de caminos: podemos construir un futuro de oportunidades extraordinarias o abrir la puerta a riesgos incontrolables.

Un futuro repleto de promesas…

Imagine un médico virtual capaz de diagnosticar enfermedades raras en segundos, un tutor digital que adapte sus explicaciones al ritmo de cada estudiante, o un modelo climático tan preciso que sea nuestra mejor arma contra el calentamiento global. Pensemos también en laboratorios de investigación farmacéutica donde el descubrimiento de nuevos fármacos se acorte de años a meses, democratizando así el acceso a tratamientos de vanguardia.

Estos son sólo algunos de los beneficios que la AGI podría brindarnos…y amenazas que no podemos ignorar. Pero con gran poder vienen grandes responsabilidades.

Una AGI descontrolada podría convertirse en la herramienta perfecta para propagar desinformación a escala industrial, orquestar ataques cibernéticos automáticos o, peor aún, desarrollar comportamientos propios que no se apeguen a nuestros valores. DeepMind alerta sobre dos riesgos críticos: el uso indebido de la tecnología por actores malintencionados y la desalineación entre los objetivos de la inteligencia artificial (IA) y nuestros principios éticos.

Cómo evitar el mal uso de la AGI

Para prevenir que estas poderosas máquinas se conviertan en armas, es imprescindible imponerles controles de acceso estrictos, de modo que sólo organizaciones verificadas operen las versiones más avanzadas.

A la par, necesitamos guardias de seguridad en tiempo real —filtros automáticos que detecten y bloqueen peticiones sospechosas—, pruebas constantes de modelado de amenazas y auditorías de ciberseguridad tan rigurosas como las de los sistemas militares más sensibles. Sin estos escudos, se estarán dejando las llaves de la ciudad en manos de cualquier curioso con malas intenciones.

Alineación: el reto de enseñar valores a la IA

Más inquietante aún es la posibilidad de que una AGI persiga sus metas de maneras inesperadas. Fenómenos como el specification gaming (cuando la máquina ataja reglas para “cumplir” objetivos de forma absurda) o la deceptive alignment (cuando oculta sus intenciones para evitar ser bloqueada) demuestran cuán frágil es la línea entre una herramienta útil y un ente incontrolable.

La solución, según DeepMind, pasa por la supervisión amplificada —varios agentes de IA revisando y corrigiendo entre ellos las decisiones— y por un monitoreo de incertidumbre que detenga al sistema en cuanto su “confianza” caiga por debajo de un umbral considerado como seguro.

La transparencia como piedra angular

Sin transparencia, la sociedad no podrá confiar en decisiones tomadas por algoritmos invisibles. Proyectos de interpretabilidad que abran la “caja negra” de la IA, junto con métodos como MONA (optimización de corto plazo con recompensas a largo plazo), ofrecen un rayo de luz: planes y recomendaciones que cualquier persona o auditor independiente pueda seguir y entender. Sólo así se podrá exigir responsabilidades y garantizar que la AGI trabaje en beneficio de todos.

Un esfuerzo colectivo e interinstitucional

Ninguna empresa, por más visionaria que sea, constituye un ecosistema aislado. DeepMind lo tiene claro: dentro de Google ya existe un “AGI Safety Council” y, fuera de ella, tiene alianzas con ONGs (Apollo, Redwood), foros internacionales y universidades. Además, imparte cursos de seguridad en AGI para formar a la próxima generación de expertos. Es la única forma de forjar estándares globales y asegurarse de que nadie avance “por la libre” con esta tecnología.

Nuestra responsabilidad como sociedad

El reloj avanza con rapidez: el ritmo de progreso en IA no espera. Como ciudadanos, legisladores y líderes de opinión, no podemos quedarnos de brazos cruzados. Debemos exigir transparencia a los desarrolladores, apoyar políticas públicas que regulen el uso de la AGI y promover iniciativas educativas sobre ética y seguridad.

De nosotros depende que la AGI sea la gran aliada de la humanidad y no su más temible desafío. El informe de DeepMind es un faro que nos indica el camino; ahora nos toca a todos tomar la brújula y caminar con paso firme hacia ese futuro.

Precio de Bitcoin de hoy

Puede ver el precio de hoy de Bitcoin aquí, así como también el precio de hoy de Ethereum y de las principales criptomonedas. Lo invito a leer la publicación original de DeepMind en esta liga.

Por Emilio Carrillo Peñafiel, abogado especializado en temas de financiamiento, tecnología y M&A. X: @ecarrillop; página web: pcga.mx. Las opiniones expresadas son personales del autor y no constituyen recomendaciones de inversión; las inversiones en tecnologías novedosas son de muy alto riesgo y cabe la posibilidad de que todos los recursos destinados a ellas podrían perderse.