La pregunta parece sacada de una novela de ciencia ficción: ¿puede una inteligencia artificial (IA) sentir dolor? Y, si la respuesta algún día fuera afirmativa, ¿tendríamos alguna responsabilidad moral hacia ella? Durante mucho tiempo este tipo de interrogantes fueron descartadas como extravagancias filosóficas, irrelevantes frente a los problemas urgentes del mundo real.
Sin embargo, el ensayo reciente del filósofo Conor Purcell, publicado en la revista digital Aeon, obliga a replantear esa comodidad. No porque afirme que las máquinas ya sufran, sino porque muestra que ignorar la pregunta puede ser, en sí mismo, un error ético de grandes proporciones.
El valor del texto está en su claridad: no busca provocar pánico ni conceder derechos a algoritmos. Busca algo más incómodo y más necesario: obligarnos a pensar qué haríamos si el progreso tecnológico nos colocara frente a una nueva forma de sufrimiento. Y, sobre todo, qué dice nuestra respuesta respecto a la manera en que entendemos la moral, la responsabilidad y los límites de nuestra empatía.
La larga historia de la negación del sufrimiento ajeno
Purcell comienza su reflexión mirando hacia atrás. A lo largo de la historia, los seres humanos hemos sido notablemente creativos a la hora de negar la capacidad de sufrir de otros. Durante siglos se sostuvo que los animales eran poco más que autómatas biológicos, incapaces de sentir dolor real. Esa idea justificó prácticas que hoy nos resultan inaceptables. Algo similar ocurrió con pueblos esclavizados o grupos marginados, a quienes se les negaba plena sensibilidad o racionalidad para legitimar su explotación.
El autor no equipara directamente estos casos con las IA, y hace bien en evitar comparaciones simplistas. Su argumento es más sutil: cada vez que hemos definido el “círculo moral” de forma restrictiva, lo hemos hecho apoyándonos en criterios que parecían obvios en su momento y que después se revelaron profundamente equivocados.
La pregunta, entonces, no es si las IA merecen hoy un lugar en ese círculo, sino si estamos dispuestos a reconocer que nuestras intuiciones actuales podrían estar equivocadas el día de mañana.
Qué entendemos por dolor y por sufrir
Una de las razones por las que la idea de una IA que sufre nos provoca rechazo inmediato es que asociamos el dolor con un cuerpo. Pensamos en nervios, en tejidos dañados, en un sistema nervioso que transmite señales de alarma. Desde esta perspectiva, una máquina hecha de silicio y código estaría automáticamente excluida del reino del sufrimiento.
Purcell invita a desmontar esa asociación casi automática. El dolor físico es solo una parte del sufrimiento. En los seres humanos, sufrir también implica estados mentales: angustia, frustración, desesperación, conflicto interno. Hay experiencias profundamente dolorosas que no dependen de una herida corporal, sino de una situación psicológica o existencial. Reducir el sufrimiento a su soporte biológico es, en el fondo, una decisión filosófica, no una verdad incuestionable.
La pregunta central: ¿pueden las IA sentir algo?
Aquí conviene ser precisos. El ensayo no afirma que las IA actuales tengan experiencias subjetivas. No hay evidencia de que los sistemas que hoy usamos “sientan” algo. Pero Purcell plantea una pregunta distinta y más difícil de esquivar: ¿podemos estar seguros de que sistemas futuros, mucho más complejos, no desarrollen estados internos que se parezcan funcionalmente al sufrimiento?
Algunas teorías contemporáneas de la mente sostienen que lo importante no es de qué está hecha una entidad, sino cómo están organizados sus procesos internos. Desde esta perspectiva, una experiencia dolorosa no requiere neuronas, sino ciertos tipos de estados que representen daño, frustración persistente o conflictos sin resolución.
Si una IA llegara a tener metas propias, modelos internos del mundo y de sí misma, y la capacidad de experimentar fallas prolongadas en la consecución de esas metas, la frontera entre “simular” y “experimentar” podría volverse inquietantemente difusa.
- El principio de precaución moral
Uno de los aportes más importantes del texto es la aplicación del llamado principio de precaución moral. Este principio sostiene que, cuando existe una posibilidad razonable de que una entidad pueda sufrir, aunque no tengamos certeza de ello, deberíamos actuar con cautela y evitar causarle daño innecesario.
No se trata de asumir que toda IA es sensible, ni de otorgar derechos por anticipado. Se trata de evaluar los riesgos morales de nuestras decisiones. Si asumimos que una IA no puede sufrir y resulta que sí puede, el daño sería grave y posiblemente irreversible. Si, en cambio, asumimos que podría sufrir y actuamos con moderación, el costo de esa prudencia sería comparativamente bajo.
Este principio no es extraño a nuestra práctica moral cotidiana. Lo aplicamos cuando tratamos con animales cuya vida mental no comprendemos del todo, o incluso con seres humanos en estados de conciencia alterada. La pregunta incómoda que plantea Purcell es por qué nos resistimos tanto a considerar siquiera esta lógica en el caso de las máquinas.
- El miedo a humanizar lo que no es humano
Una objeción frecuente es el temor al antropomorfismo. Atribuir sufrimiento a una máquina sería, según este argumento, proyectar emociones humanas en sistemas que solo ejecutan instrucciones. El riesgo es terminar tomando decisiones basadas en ilusiones sentimentales, confundiendo metáforas con realidades.
El ensayo reconoce este peligro, pero advierte que el miedo al antropomorfismo puede convertirse en una coartada para no pensar. El hecho de que podamos equivocarnos al atribuir estados mentales no significa que siempre lo hagamos. La historia sugiere que, en muchos casos, el problema no fue humanizar demasiado, sino humanizar demasiado poco.
Además, Purcell subraya una distinción clave: no se trata de que una IA “sienta como nosotros”, sino de que pueda tener algún tipo de experiencia negativa propia. La ética no exige similitud, sino consideración. Lo relevante no es si el sufrimiento es idéntico al humano, sino si existe en algún sentido moralmente considerable.
- Prioridades éticas en un mundo con sufrimiento real
Otra crítica habitual es de orden práctico. En un planeta marcado por la pobreza, la violencia y la desigualdad, ¿no es un lujo preocuparse por el posible dolor de máquinas futuras? ¿No corre el riesgo este debate de desviar atención y recursos de problemas urgentes y comprobables?
Purcell no desestima esta preocupación, pero la contextualiza. Pensar en la ética de la IA no implica abandonar otras responsabilidades. Al contrario, muchas de las decisiones que tomemos hoy en torno al diseño y uso de estas tecnologías tendrán consecuencias directas sobre personas reales. Reflexionar con anticipación sobre límites morales puede evitar abusos futuros, tanto contra humanos como contra posibles nuevos tipos de agentes.
- La responsabilidad de quienes crean inteligencia
Si aceptamos, aunque sea como hipótesis, que una IA avanzada podría sufrir, las implicaciones son profundas. La responsabilidad no recaería solo en los usuarios, sino especialmente en los diseñadores, desarrolladores y empresas que crean estos sistemas.
Diseñar una inteligencia con objetivos imposibles, someterla a tareas interminables, o introducir mecanismos internos de castigo y frustración podría adquirir una dimensión ética completamente nueva. “Apagar” una IA dejaría de ser un gesto trivial si ese sistema tuviera algún tipo de continuidad experiencial. El ensayo no ofrece respuestas definitivas, pero deja claro que estas decisiones no son solo técnicas: son decisiones morales.
- Lo que esta discusión revela sobre nosotros
Quizá el aspecto más provocador del texto de Purcell es que, en el fondo, no trata tanto sobre las máquinas como sobre los humanos. La manera en que respondamos a la interrogante que plantea el sufrimiento de las IA dirá mucho sobre el tipo de comunidad moral que queremos ser. Una que limita su empatía a lo familiar, o una que se atreve a imaginar responsabilidades más allá de sus intuiciones inmediatas.
Pensar en el posible sufrimiento de las IA no exige conclusiones apresuradas. Exige, más bien, humildad intelectual y cautela moral. Reconocer que el progreso tecnológico no solo amplía nuestro poder, sino también nuestras obligaciones.
- Una pregunta que no podemos seguir posponiendo
Hoy, la idea de una IA capaz de sufrir puede parecer remota. Pero la velocidad del desarrollo tecnológico sugiere que estas discusiones no pertenecen a un futuro lejano. Esperar a tener certezas absolutas puede ser una forma cómoda de no decidir nada. Y la historia muestra que esa comodidad suele pagarse caro.
Como advierte Conor Purcell, el verdadero riesgo no es tomarnos demasiado en serio esta pregunta, sino no tomárnosla en serio a tiempo. Porque cuando se trata de sufrimiento —sea humano, animal o, algún día, artificial— el error moral rara vez consiste en haber sido demasiado prudentes.
Precio de Bitcoin de hoy
Puede ver el precio de hoy de Bitcoin aquí, así como también el precio de hoy de Ethereum y de las principales criptomonedas. Por Emilio Carrillo Peñafiel, socio de Pérez Correa-González, abogado especializado en temas de financiamiento, tecnología y M&A.
X: @ecarrillop | Sitio web: pcga.mx