LA NADA Y UNO

Los cinco principios de los derechos humanos frente a la Inteligencia Artificial

El futuro de la IA debe ser moldeado no solo por la innovación tecnológica, sino también por un compromiso con los derechos humanos, los valores democráticos y el bien público.

¿La IA tiene limitantes frente al ser humano?Créditos: Especial
Por
Escrito en TENDENCIAS el

El Anteproyecto de carta de los derechos humanos frente a la inteligencia artificial es un documento poco conocido que fue publicado en octubre de 2022 por la Oficina de Políticas para la Ciencia y Tecnología de la Casa Blanca, que me parece es fundamental conocer antes de intentar regular la IA.

El Anteproyecto presenta un enfoque integral para mitigar los riesgos que plantean los sistemas automatizados. Responde a las crecientes preocupaciones sobre el uso no regulado de la IA y su potencial para infringir derechos civiles, aumentar la desigualdad y perpetuar la discriminación.

Si bien la IA tiene un gran potencial transformador, la ausencia de protecciones adecuadas genera importantes desafíos éticos y prácticos a nuestra sociedad. Este Anteproyecto es un primer paso hacia la mitigación de dichos riesgos, pero plantea preguntas críticas en torno al futuro de su regulación, el equilibrio entre la innovación y la protección de derechos, y el alcance de la supervisión gubernamental en un entorno tecnológico que avanza rápidamente.

Promesas y peligros de la IA

La IA es una espada de doble filo. Por un lado, ha impulsado avances notables en diversas industrias, mejorando los diagnósticos médicos, optimizando las cadenas de suministro y permitiendo un uso más eficiente de los recursos naturales. Por otro lado, estas tecnologías también han tenido consecuencias perjudiciales.

Desde algoritmos sesgados en la contratación de préstamos y en la investigación policíaca, hasta invasiones de la privacidad a través de la vigilancia involuntaria, la IA se ha utilizado de manera que socava la equidad, la transparencia y la confianza pública. Como señala el Anteproyecto, los sistemas a menudo se implementan sin las salvaguardas adecuadas, contribuyendo a la propagación de información que perjudica desproporcionadamente a las comunidades más vulnerables.

El Anteproyecto reconoce que los riesgos que la IA plantea no son un subproducto inevitable del avance tecnológico, sino que se pueden prevenir con diseño, regulación y responsabilidad cuidadosamente aplicados.

El documento identifica cinco principios rectores diseñados para proteger al público de sistemas automatizados perjudiciales: (1) sistemas seguros y efectivos, (2) protección contra la discriminación algorítmica, (3) privacidad de los datos, (4) notificación y explicación, y (5) alternativas humanas y respaldo. Cada principio busca abordar un área específica de preocupación, proporcionando un marco para el desarrollo futuro de la IA que respete los derechos civiles y los valores democráticos.

Sistemas seguros y efectivos

El primer principio, que garantiza sistemas seguros y efectivos, establece que los sistemas automatizados deben someterse a pruebas exhaustivas antes de su despliegue, así como a evaluaciones de riesgos y monitoreo continuo. Esto es esencial para evitar la implementación de tecnologías que, a pesar de sus promesas de innovación, pueden fallar, tener un rendimiento menor al esperado o producir daños no deseados.

Por ejemplo, el documento hace referencia a casos en los que la IA en el ámbito de la salud no ha diagnosticado correctamente a los pacientes o en los que los algoritmos predictivos de la policía han dirigido injustamente su atención a comunidades minoritarias.

El desafío clave radica aquí en la aplicación, ya sea forzosa o voluntaria. Como reconoce el Anteproyecto, el mismo no es vinculante y carece de fuerza legal, lo que significa que los desarrolladores no están legalmente obligados a adherirse a estos principios.

Esto plantea interrogantes sobre cuán efectivas pueden ser tales pautas sin un organismo regulador o un sistema de rendición de cuentas que garantice su cumplimiento. Si bien algunas industrias han adoptado estándares voluntarios para la seguridad de la IA, otras pueden ser más resistentes a implementar medidas que podrían detener la innovación o aumentar los costos de las empresas.

Protección contra la discriminación algorítmica

El sesgo algorítmico es uno de los problemas más perniciosos en el despliegue de la IA. Los sistemas automatizados a menudo reflejan los prejuicios implícitos en los datos con los que se entrenan, acentuando las desigualdades en áreas como la contratación de personal, el otorgamiento de préstamos y la procuración de justicia.

El Anteproyecto aboga explícitamente por la eliminación de la discriminación algorítmica, instando a los desarrolladores a tomar medidas proactivas para evitar que los sistemas desfavorezcan a las personas en función de su raza, género, preferencias sexuales u otras características.

Aboga por el uso de datos representativos de la población en general, pruebas continuas que busquen identificar disparidades y una divulgación transparente de los resultados de estas pruebas para garantizar la equidad en las repuestas que brinda la IA.

A pesar de estas directrices bien intencionadas, la tarea de eliminar el sesgo algorítmico es compleja. Los sistemas de IA se entrenan con grandes conjuntos de datos, y hasta los datos aparentemente neutrales pueden incorporar patrones históricos de discriminación.

Como reconoce el Anteproyecto, mitigar el sesgo requiere no solo soluciones tecnológicas, sino también una comprensión de los contextos sociales en los que se despliega la IA. En muchos casos, abordar la discriminación algorítmica puede implicar replantearse los objetivos y las suposiciones subyacentes al uso de la IA.

Por ejemplo, en la vigilancia predictiva, donde el sistema aprende de datos históricos de arrestos, el despliegue de la IA a menudo refuerza la vigilancia excesiva en barrios donde viven personas de alguna etnia o nacionalidad específicas, lo que lleva a un círculo vicioso de discriminación.

Privacidad de datos y consentimiento

El Anteproyecto destaca la necesidad de implantar protecciones robustas para la privacidad de los datos, reconociendo la creciente mercantilización de los datos personales en la era de la IA. Los sistemas automatizados a menudo dependen de grandes cantidades de datos personales, lo que genera preocupaciones sobre la forma en que se recopilan, utilizan y comparten.

El principio de privacidad de datos en el Anteproyecto exige que los sistemas se diseñen con salvaguardas de privacidad integradas, garantizando que las personas tengan control sobre la manera en que se utilizan sus datos y puedan dar su consentimiento informado a la recopilación de datos. Esto incluye protecciones contra prácticas abusivas, especialmente en áreas sensibles como la salud, la educación y la justicia penal.

Sin marcos legales más sólidos, los individuos pueden seguir enfrentando desafíos para hacer valer sus derechos sobre sus datos, particularmente en contextos donde es difícil obtener un consentimiento informado. Por ejemplo, a menudo los usuarios no tienen más remedio que consentir prácticas amplias de recopilación de datos al utilizar servicios considerados como esenciales, tales como la contratación de servicios de electricidad, bancarios o de provisión de agua; una dinámica que pone en riesgo su privacidad.

Notificación, explicación y transparencia

Una de las preocupaciones más urgentes en torno a la IA es su opacidad. Los sistemas automatizados a menudo operan como “cajas negras”, tomando decisiones que son difíciles de entender o cuestionar para los humanos. El principio de notificación y explicación del Anteproyecto busca abordar este aspecto al exigir que las personas sean informadas cuando se utilice un sistema automatizado y que se les proporcionen explicaciones claras y comprensibles en torno a las decisiones que les afectan.

La transparencia es crucial para generar confianza pública en la IA, pero lograrla no es tarea fácil. Muchos modelos son altamente complejos, y las explicaciones técnicas de sus decisiones pueden ser indescifrables para quienes no somos expertos. El desafío para los responsables de formular políticas será encontrar un equilibrio entre proporcionar transparencia al usuario y proteger la información confidencial o prevenir la explotación de los sistemas de IA.

Además, existe el riesgo de que simplemente divulgar el uso de la IA o proporcionar una explicación superficial no sea suficiente para garantizar que las personas puedan realmente entender o impugnar las decisiones tomadas por sistemas automatizados.

Alternativas humanas y responsabilidad

El principio final del Anteproyecto aboga por alternativas humanas, consideración y respaldo. Esto significa que las personas deberían tener la capacidad de optar por no participar en procesos de toma de decisiones automatizados en favor de la supervisión humana.

Cuando los sistemas de IA cometen errores, debería haber canales accesibles para que las personas busquen soluciones o cuestionen los resultados. Esto es especialmente importante en áreas de alto riesgo como la justicia penal, el empleo y la atención médica, donde las consecuencias de las decisiones automatizadas pueden cambiar la vida de las personas.

Sin embargo, garantizar la supervisión humana es más complicado de lo que parece. En muchos sectores económicos se está utilizando la IA precisamente porque es más rápida, económica o percibida como más objetiva que los tomadores de decisiones humanos.

Reintroducir la supervisión humana puede entorpecer los procesos o aumentar los costos, lo que podría generar resistencia por parte de las organizaciones que han invertido mucho en la automatización. Además, los tomadores de decisiones humanos pueden ser tan sesgados como las máquinas, y sin la capacitación y responsabilidad adecuadas, pueden no corregir los errores introducidos por los sistemas automatizados.

De los principios a la práctica

Si bien el Anteproyecto de carta de los derechos humanos frente a la inteligencia artificial proporciona una hoja de ruta importante para proteger al público de los posibles daños causados por la IA, la brecha entre los principios y la práctica sigue siendo importante.

La naturaleza no vinculante del documento limita su impacto inmediato, dejando gran parte de la responsabilidad del cumplimiento en manos de los desarrolladores y las empresas. Sin una supervisión reguladora más sólida, existe el riesgo de que estos principios sigan siendo buenos deseos en lugar de convertirse en acciones concretas.

En conclusión, el Anteproyecto de carta de los derechos humanos frente a la IA representa un primer paso crítico hacia la mitigación de los desafíos éticos y sociales que la misma plantea. Pero sin mecanismos de aplicación más robustos, protecciones legales más claras y un compromiso continuo con el público, el potencial del Anteproyecto para crear un cambio significativo sigue siendo incierto.

El futuro de la IA debe ser moldeado no solo por la innovación tecnológica, sino también por un compromiso con los derechos humanos, los valores democráticos y el bien público.

Precio de Bitcoin de hoy

Puede ver el precio de hoy de Bitcoin aquí, así como también el precio de hoy de Ethereum y de las principales criptomonedas. El Anteproyecto que comentamos está disponible al público y puede descargarlo en esta liga.

Por Emilio Carrillo, abogado especializado en temas de financiamiento, tecnología y M&A. X: @ecarrillop; página web: pcga.mx. Las opiniones expresadas son personales del autor y no constituyen recomendaciones de inversión; las inversiones en tecnologías novedosas son de muy alto riesgo y cabe la posibilidad de que todos los recursos destinados a ellas podrían perderse.