Todo empezó como empiezan muchas discusiones sobre seguros: con un caso que parece hipotético… hasta que deja de serlo. En una cena, un abogado especializado en responsabilidad civil preguntó qué ocurriría si un robot autónomo, utilizado por una aseguradora para evaluar siniestros, cometiera un error grave.
La mesa se río con cierto alivio, como si fuera una exageración futurista. Pero el silencio llegó pronto: nadie sabía con certeza quién pagaría los daños. Esa anécdota resume el dilema de fondo. La inteligencia artificial (IA) ya participa en decisiones que afectan patrimonios, vidas y derechos, pero el marco legal y asegurador sigue anclado en un mundo de personas físicas y empresas tradicionales.
El documento original que inspira esta columna, tomado de la revista Harvard Law School Forum on Corporate Governance, parte justamente de esa incomodidad: los sistemas de IA no solo generan nuevos riesgos, sino que también desafían categorías jurídicas esenciales como “culpa”, “intencionalidad” o “acto voluntario”.
Y en medio de ese desconcierto, el sector asegurador es uno de los más expuestos: financia, repara, indemniza y asume riesgos… casi siempre definidos bajo reglas que ya resultan inadecuadas.
El Harvard Law School Forum on Corporate Governance ha comenzado a advertir sobre este retraso. El problema no es técnico, sino estructural: la IA está modificando la forma en que se entiende la responsabilidad civil y muchos seguros, por definición, se sostienen sobre esa noción.
Un modelo legal insuficiente
Las pólizas actuales funcionan bajo un supuesto básico: alguien toma una decisión voluntaria que puede causar daño, y el seguro responde económica o judicialmente. Pero la IA, sobre todo cuando opera con autonomía, altera ese esquema. ¿Se puede hablar de negligencia cuando un sistema comete un error sin intención? ¿Quién es responsable si el algoritmo fue entrenado por una empresa, utilizado por otra y licenciado por un tercero?
En muchos países, incluido México, las leyes no contemplan siquiera el concepto de “acto algorítmico” como categoría jurídica. Seguimos trabajando con definiciones creadas en una época donde los únicos que decidían eran humanos. Si un sistema médico automatizado recomienda un tratamiento equivocado, ¿es responsable el hospital, el fabricante del software, el programador, el proveedor de datos o el paciente que confió en la herramienta?
Los vacíos no son menores. Un juez no puede condenar a una IA porque no es sujeto de derechos ni obligaciones. Tampoco puede evaluar su intencionalidad. La única opción es rastrear el origen de la decisión automatizada y asignar responsabilidad indirecta. Pero cuando esa cadena de actores es compleja —como suele ocurrir— la respuesta se vuelve incierta.
Un seguro escrito para otro siglo
Las pólizas de seguro tradicionales no fueron diseñadas para cubrir riesgos derivados de decisiones autónomas. Protegen contra errores humanos, fallas mecánicas y casos fortuitos. Un algoritmo que decide sin intervención directa de otro humano no cabe en esas categorías.
Tomemos un ejemplo sencillo: un dron con IA que inspecciona techos para evaluar daños causados por una tormenta. Si el sistema calcula mal y provoca la cancelación o disminución de una indemnización legítima, ¿está cubierta esa responsabilidad? Lo más probable es que no.
En México, pocos contratos (si acaso) mencionan explícitamente el uso de IA. Aun cuando algunas empresas ya emplean algoritmos para evaluar riesgos, calcular primas o detectar fraudes, no existen cláusulas que especifiquen qué ocurre cuando esa tecnología se equivoca. Es un escenario que puede colapsar litigios, indemnizaciones y la confianza pública.
El artículo de Harvard Law School Forum on Corporate Governance subraya que las aseguradoras están frente a un doble reto: por un lado, actualizar sus contratos para hacer explícita la cobertura (o la exclusión) de decisiones automatizadas, y por otro definir nuevas categorías de riesgos que no dependan exclusivamente de la intención humana o del caso fortuito.
La ilusión de que la IA solo está aquí para ayudar
Durante años se ha descrito a la IA como una herramienta auxiliar. Pero muchas decisiones que antes tomaban personas ahora recaen en sistemas autónomos o semiautónomos. El problema es que la apariencia de neutralidad tecnológica ha camuflado la necesidad de responsabilidad legal.
Hoy bancos, aseguradoras, hospitales, fabricantes de autos y plataformas digitales han delegado procesos enteros a sistemas que aprenden y cambian con el transcurso del tiempo. Si mañana un paciente recibe un diagnóstico equivocado sugerido por una IA, nadie podrá alegar que se trata de un “apoyo” inofensivo. La recomendación técnica ya tuvo consecuencias reales.
La pregunta es si el derecho y los seguros pueden seguir fingiendo que las máquinas solamente son apoyos, cuando en la práctica muchas de ellas toman decisiones.
Responsabilidad difusa, riesgo compartido
Un desafío central consiste en identificar a quién corresponde responder por un daño causado por IA. Las opciones van desde el usuario final hasta el desarrollador del modelo, pasando por los proveedores de datos, las empresas que comercializan los sistemas y los operadores técnicos.
En Europa y Estados Unidos se discuten tres enfoques: mantener la responsabilidad en quien usa la herramienta (como si fuera un vehículo), crear seguros obligatorios por tipo de tecnología o establecer fondos comunes financiados por empresas que produzcan o utilicen IA de alto impacto. Ninguno de estos enfoques ha cristalizado en normas de aplicación general.
Para el sector asegurador, la gran pregunta es cómo calcular primas y riesgos cuando no hay suficiente información estadística sobre fallas algorítmicas, errores autónomos o sesgos ocultos. Si además se desconoce quién asumirá la responsabilidad final, el modelo asegurador se vuelve financieramente incierto.
Casos reales, consecuencias inmediatas
Lo que parecía ciencia ficción ya tiene ejemplos documentados. En Estados Unidos, un vehículo autónomo atropelló a una mujer porque el software no reconoció su figura como peatón. En hospitales se han reportado diagnósticos fallidos derivados de sesgos en los datos con los que fue entrenada la IA. Plataformas financieras han negado créditos o aumentado tasas de interés sin justificación clara, afectando a miles de personas. ¿Quién responde ahí?
Cada uno de estos casos ha generado disputas legales donde la tecnología se vuelve un escudo: los fabricantes culpan a los usuarios, los usuarios culpan al proveedor de software y las aseguradoras revisan contratos buscando exclusiones. La víctima, mientras tanto, queda atrapada en un limbo jurídico que puede durar años.
México no está exento. La digitalización acelerada del sector salud, financiero y gubernamental (al menos en la Ciudad de México) implica que pronto se verán conflictos similares, pero sin normas claras que guíen a jueces, empresas y legisladores.
El papel de los desarrolladores
Las empresas tecnológicas suelen blindarse mediante contratos donde limitan su responsabilidad. Afirman que venden herramientas, no decisiones. Señalan que el usuario final es quien debe evaluar los riesgos. En apariencia ello es lógico, pero en la práctica esta situación genera un desequilibrio: los beneficios de la innovación se privatizan, mientras que los costos de sus errores se socializan.
El Harvard Law School Forum on Corporate Governance ha planteado que, en ciertos casos, los desarrolladores deberían estar obligados a adquirir coberturas de responsabilidad específicas para IA de alto impacto, sobre todo en sectores como transporte, salud, justicia o finanzas. No se trata de frenar la innovación, sino de evitar que el incentivo económico premie más la velocidad que la seguridad.
México: rezago o liderazgo
El país enfrenta un dilema estratégico. Puede esperar a importar modelos extranjeros cuando los litigios sean inevitables, o puede anticiparse diseñando normas propias. Adaptar las leyes mexicanas no es imposible. El marco de responsabilidad civil, la regulación de seguros y la protección de datos pueden evolucionar.
Una reforma inteligente podría incluir definiciones básicas de acto algorítmico, parámetros para determinar responsabilidad compartida y lineamientos para pólizas especializadas. También permitiría proteger a consumidores y empresas sin bloquear la adopción tecnológica. Si se deja pasar el tiempo, se impondrán esquemas ajenos a nuestra realidad legal y económica.
La urgencia de la adaptación
El texto de Harvard Law School Forum on Corporate Governance insiste en algo clave: los seguros no pueden cubrir lo que no se nombra. Si las pólizas siguen escritas como lo vienen haciendo desde hace 50 años, la IA quedará fuera de cobertura o atrapada en interpretaciones ambiguas. Eso generará incertidumbre para usuarios, aseguradoras y tribunales.
Construir un modelo adecuado no significa inventar todo de cero. Se puede partir de figuras existentes, como seguros de responsabilidad profesional, coberturas para productos defectuosos o seguros obligatorios en sectores riesgosos. La innovación jurídica puede ser tan creativa como la tecnológica.
Decidir antes de que alguien más decida por nosotros
La inteligencia artificial ya ha cometido errores. Fingir que todo sigue como antes es la forma más segura de agravar el problema. El Harvard Law School Forum on Corporate Governance ha advertido que el costo de la inacción será pagado por quienes están peor posicionados para defenderse: usuarios, pacientes, consumidores y ciudadanos.
La historia muestra que los seguros nacieron para enfrentar lo inesperado. Ahora el reto es aún mayor: asegurar lo que ya no entendemos del todo, pero que ya tomamos como parte de nuestras vidas. Si no adaptamos las reglas, no será la IA la que falle: seremos nosotros.
Precio de Bitcoin de hoy
Puede ver el precio de hoy de Bitcoin aquí, así como también el precio de hoy de Ethereum y de las principales criptomonedas. Por Emilio Carrillo Peñafiel, socio de Pérez Correa-González, abogado especializado en temas de financiamiento, tecnología y fusiones y adquisiciones.
X: @ecarrillop | Sitio web: pcga.mx