Un llamado desde el Vaticano
En septiembre de 2025, el Vaticano fue sede del Tercer Encuentro Mundial sobre la Fraternidad Humana. No fue una reunión ceremonial ni un foro más en el calendario internacional. Fue una llamada de alarma. En medio del avance vertiginoso de la inteligencia artificial (IA), líderes tecnológicos, académicos, religiosos y de la sociedad civil coincidieron en algo que rara vez une a tantos sectores: si no se establecen marcos éticos sólidos con urgencia, la IA podría profundizar desigualdades, erosionar derechos y poner en riesgo la convivencia humana. Fruto de ese encuentro surgió el documento intitulado “Fraternity In The Age Of AI”, que hace las veces de un manifiesto global en favor de la orientación del desarrollo tecnológico hacia el bien común y que incluye las ideas a las que me refiero a continuación. Puede obtener acceso al documento en esta liga.
El texto no nació del miedo a la innovación ni de una postura anticuada frente al progreso. Por el contrario, reconoce que la IA ya está transformando la salud, la ciencia, la gobernanza y la economía de formas que hace menos de una década parecían ciencia ficción. Pero también admite que estos avances están ocurriendo sin suficientes contrapesos éticos, en un contexto donde las decisiones clave se toman en laboratorios privados, consejos de administración o entidades gubernamentales con poca supervisión. De ahí su premisa central: la tecnología no debe avanzar más rápido que nuestra capacidad para gobernarla.
La dignidad humana en el centro
Uno de los puntos medulares del documento es el énfasis en la dignidad humana. Para sus firmantes, la IA nunca debe utilizarse para degradar, sustituir o descalificar a las personas. Insisten en que la IA debe mantener su calidad de herramienta, no evolucionar hacia una autoridad. El ser humano —con su capacidad de juicio moral, empatía y responsabilidad— tiene que seguir al mando de las decisiones que lo afectan. Diseñar sistemas que tomen decisiones incontrolables o que actúen por encima de la deliberación humana no solo es irresponsable, sino moralmente inadmisible.
El texto también rechaza de forma tajante otorgar personalidad legal o derechos propios a las máquinas. La responsabilidad, dice, recae en quienes diseñan, comercializan, despliegan o utilizan sistemas de IA: empresas, gobiernos, instituciones, individuos. No hay lugar para la ambigüedad. La tentación de desplazar la culpa hacia los algoritmos no puede esconder que siempre hay una mano humana detrás: la que programa, financia, ordena o permite su uso.
Decisiones letales bajo control humano
Otro de los ejes más contundentes del documento es la prohibición de delegar en sistemas autónomos decisiones que no admiten marcha atrás. La posibilidad de que la IA participe en conflictos armados, control fronterizo, operaciones policiacas o diagnósticos críticos sin intervención humana se considera inaceptable. La razón no es tecnológica, sino ética: el derecho a la vida y a la justicia no puede dejarse en manos de procesos automatizados, por más precisos que parezcan.
El documento también hace un llamado a regular la IA con visión de largo plazo. No basta con declaraciones de buenas intenciones o códigos voluntarios. Se requieren normas obligatorias, mecanismos de supervisión independientes, evaluaciones de riesgo permanentes y colaboración internacional. Pide un tratado internacional que fije “líneas rojas” y cree una autoridad global capaz de hacerlas cumplir.
Contra la concentración del poder
La urgencia también aparece en el plano económico y social. El texto advierte que la IA ya está logrando concentrar el poder en pocas manos. Las grandes empresas tecnológicas y algunos estados están acumulando información, infraestructura, capital e influencia como nunca antes. Esto puede traducirse en monopolios de facto, nuevas formas de colonialismo digital o pérdida de soberanía para muchos países. Los beneficios de la IA deben ser compartidos, no privilegio de una élite.
Ligado a esto, el llamado a evitar una carrera irresponsable entre países y compañías es categórico. La competencia por desarrollar sistemas cada vez más poderosos sin detenerse a evaluar los daños posibles aumenta los riesgos colectivos. La lógica del “si no lo hago yo, alguien más lo hará” no puede seguir marcando el paso de nuestros avances. La cooperación y la transparencia deben imponerse sobre la rivalidad.
Impacto ambiental ignorado
La dimensión ambiental también está presente. La IA consume enormes cantidades de energía, agua y minerales escasos. Esto tiene consecuencias concretas para el planeta, especialmente en comunidades vulnerables que ya padecen los efectos de la extracción de recursos sin control y del cambio climático. Se exige que las cadenas de suministro y los procesos de entrenamiento y operación de modelos de IA se sometan a estándares ecológicos estrictos.
Nuevas métricas, nuevos valores
El documento no se queda en principios abstractos. Reclama cambios en la forma en que evaluamos los algoritmos. Hoy los modelos se entrenan para maximizar eficiencia o rentabilidad, pero no necesariamente verdad, justicia o bienestar. Se propone crear indicadores que midan su impacto desde una perspectiva humana. Para lograrlo, se pide la participación de científicos, sociedad civil y auditores independientes.
Una parte especialmente potente del texto es la solidaridad con los marginados. Los firmantes exhortan a escuchar a los colectores y capturistas de datos, a las comunidades afectadas por la extracción de recursos o por la automatización, y a los grupos que cargan con los costos invisibles derivados de la operación de los sistemas digitales. La legitimidad de cualquier norma depende de la manera en que trata a los más vulnerables.
La ciudadanía también cuenta
También hay una invitación abierta a los ciudadanos comunes. No se trata de un debate reservado a técnicos, juristas o filósofos. El futuro de la IA afecta el empleo, la salud, la privacidad, la educación, la seguridad y la vida comunitaria. Renunciar a participar equivale a dejar que otros decidan por nosotros qué usos serán permitidos y con qué consecuencias.
La fraternidad que da título al texto no se propone como un ideal abstracto, sino como principio rector. Frente a la tentación de usar la IA para dominar, vigilar o excluir, se plantea utilizarla para fortalecer el entendimiento, el diálogo y el bien común. La dirección que tomen los avances en la IA dependerá de si la concebimos como herramienta de cooperación o de poder.
Futuro abierto, no destino fijo
El mensaje final es claro: la IA no nos condena a un futuro distópico ni tampoco garantiza uno utópico. Las tecnologías reflejan los valores y prioridades que les imponemos. Si dejamos que la lógica del mercado o la geopolítica marquen el rumbo de nuestro progreso, los riesgos crecerán. Si colocamos la dignidad humana, la justicia y la sostenibilidad en el centro, la IA puede convertirse en una aliada.
La gran aportación del documento es recordarnos que la tecnología no es destino, sino elección. Si queremos que la IA fortalezca la vida humana en lugar de desplazarla, necesitamos acuerdos éticos, normas vinculantes, controles democráticos y colaboración internacional. La fraternidad, lejos de ser un concepto abstracto, puede ser el criterio que evite que el futuro digital nos aleje de aquello que nos hace humanos.
Precio de Bitcoin de hoy
Puede ver el precio de hoy de Bitcoin aquí, así como también el precio de hoy de Ethereum y de las principales criptomonedas. Por Emilio Carrillo Peñafiel, socio de Pérez Correa-González, abogado especializado en temas de financiamiento, tecnología y fusiones y adquisiciones.
X: @ecarrillop | Sitio web: pcga.mx