Mientras el mundo legal debate en torno al futuro de la inteligencia artificial (IA), una transformación silenciosa pero profunda está ocurriendo en las salas de arbitraje y mediación.
El reciente informe intitulado “La revolución de las disputas: cómo la IA está reescribiendo las reglas de la solución alternativa de controversias”, publicado por la Asociación Americana de Arbitraje (AAA), revela que la IA ya no es una posibilidad abstracta en el mundo legal, sino una fuerza activa que está redefiniendo la forma en que se previenen, gestionan y resuelven los conflictos.
El documento, resultado de la conferencia “Future Dispute Resolution” celebrada en Nueva York en 2025, reunió a jueces, practicantes, tecnólogos y académicos para examinar una pregunta fundamental: ¿Cómo puede coexistir la innovación tecnológica con los principios de equidad, transparencia y criterio humano que sostienen nuestro sistema de justicia?
El dilema del criterio humano en la era digital
Existen numerosas secciones de los laudos arbitrales que se prestan naturalmente a la integración de la IA, pero al final del día la función esencial del árbitro sigue siendo la aplicación de su criterio. Esta observación captura la tensión central del momento por el que pasamos: la tecnología puede hacer el trabajo más eficiente, pero no puede reemplazar la sabiduría humana en la toma de decisiones.
El informe de la AAA documenta cómo la IA ha demostrado ser valiosa para generar historiales procesales, revisar evidencia y verificar citas legales. Sin embargo, los expertos reunidos en la conferencia enfatizan que la legitimidad en el arbitraje todavía depende del criterio humano. Los árbitros deben seguir siendo quienes evalúan la credibilidad de los testigos, sopesan la evidencia y determinan qué es justo; tareas que ningún algoritmo puede actualmente replicar.
La advertencia es clara y viene respaldada por experiencia práctica: la IA puede generar confianza incluso cuando está equivocada. Su tono confiado puede llevar a los usuarios a sobreestimar la precisión de sus resultados. Por ello, el documento subraya la necesidad de mantener un escepticismo saludable y una revisión humana constante.
Pero aquí surge un problema práctico: verificar un documento breve y asegurarse de que las citas sean precisas es una cosa, pero verificar diez mil documentos y garantizar que las extracciones sean exactas es otra completamente diferente. Si se necesita revisar todos esos documentos manualmente, se ha perdido todo el beneficio proveniente de la eficiencia en el sistema.
La solución propuesta es innovadora: usar IA para verificar IA. Los panelistas describen marcos de trabajo en los que un modelo identifica inconsistencias, anomalías o vacíos en los resultados de otro modelo, fortaleciendo así la supervisión humana en lugar de reemplazarla. Este enfoque dirige la atención experta hacia donde agrega más valor, reconociendo que la revisión manual exhaustiva de cada detalle ya no es factible ni necesaria si los sistemas están diseñados para ser validados en distintas “capas”.
Transparencia y consentimiento: los nuevos pilares éticos
El informe de la AAA deja claro que aunque las herramientas de IA pueden mejorar la eficiencia y precisión en el arbitraje, su uso debe permanecer fundamentado en deberes profesionales establecidos. Las obligaciones de diligencia, competencia, honestidad y confidencialidad siguen siendo las brújulas que orientan la forma en que los árbitros, mediadores y abogados aplican responsablemente estas herramientas.
Los árbitros no pueden simplemente firmar un laudo redactado por IA sin asegurarse de que no están delegando la toma de decisiones a la herramienta tecnológica. Esta advertencia señala un riesgo real: la tentación de la eficiencia puede conducir a una abdicación sutil pero peligrosa de la responsabilidad profesional.
El documento reconoce que algunas personas pueden aceptar un mayor uso de IA a cambio de resultados más rápidos o menos costosos. Sin embargo, los expertos subrayan que los árbitros deben garantizar que cualquier uso de IA sea divulgado y basado en el consentimiento informado.
Algunas personas quieren un resultado realmente económico y rápido y están dispuestas a asumir los riesgos. Lo importante es que las partes en conflicto elijan asumir esos riesgos. Nadie querría ser un árbitro que asuma esos riesgos en nombre de las partes de la controversia.
La AAA ha respondido a esta necesidad con su “Guía sobre el uso de herramientas de IA por árbitros”, que aconseja a los árbitros divulgar, al inicio de los procedimientos, cualquier uso de IA generativa que pueda afectar el proceso de arbitraje o el razonamiento que subyace a sus decisiones. La guía también requiere obtener el consentimiento de las partes en disputa y asegurar que la IA apoye en lugar de que reemplace al criterio humano.
De la resolución a la prevención: un cambio de paradigma
Quizás el cambio más radical que documenta el informe es el movimiento de la resolución reactiva de problemas, hacia la prevención proactiva de disputas. Algunos algoritmos predictivos pueden generar pronósticos precisos y comprensibles en torno a la forma en que se espera que evolucione algún proceso, y al obtener esta información las partes pueden ir directo al grano y alcanzar una resolución mucho más rápido; con costos significativamente menores y con menos dolores asociados al litigio o al proceso en general.
Estas herramientas predictivas, que ya están en uso en industrias como la de seguros y la de construcción, permiten a los abogados y administradores de casos evaluar reclamaciones más eficientemente, estimar la exposición al riesgo y simular escenarios de conflicto antes de que escalen.
Las empresas están ahora incorporando características predictivas en sus sistemas de gestión de contratos para identificar inconsistencias y resaltar cláusulas de alto riesgo durante la redacción de los documentos, apuntando a un futuro donde la solución de controversias y su prevención convergen cada vez más.
La mediación como terreno ideal para la IA
El informe identifica la mediación como el área más adecuada para la integración de IA. La naturaleza colaborativa y creativa de la mediación se alinea con las fortalezas de la IA para resumir, reformular y generar nuevas ideas, convirtiéndola en un campo de prueba ideal para la experimentación.
Al respecto el informe aporta un consejo específico: no le digas a ChatGPT cuál es la solución para una disputa específica, sino pídele que te dé veinte ideas para resolverla. La IA puede ayudar a los mediadores a generar perspectivas frescas, identificar puntos de acuerdo y organizar información compleja más eficientemente, liberando a los profesionales para enfocarse en la empatía, la comunicación y la resolución de problemas.
Hay también otra aplicación prometedora para la IA: la capacitación de mediadores. La IA puede crear simulaciones realistas que ayudan a los practicantes a refinar sus habilidades de escucha, negociación y reformulación que los “juegos de rol” tradicionales no pueden igualar.
Hacia un futuro centrado en lo humano
El informe de la AAA concluye con una afirmación contundente: el éxito de la tecnología en la justicia alternativa no dependerá de su potencia computacional, sino de su credibilidad y de su aplicación transparente, ética y responsable. Los expertos hacen un llamado a una gobernanza adaptable, una supervisión humana continua y una colaboración entre tecnólogos y profesionales en solución de controversias para asegurar que la innovación refuerce, en lugar de que reemplace, el criterio humano.
No debe objetarse rotundamente el uso de IA en un procedimiento arbitral o de mediación, eso sería como volver a 1983 y objetar la utilización de computadoras personales. Sin embargo, ello implica que la transparencia, la equidad y la divulgación apropiada en el uso de la IA en la solución de controversias deben ser la norma.
Para México y América Latina, donde los sistemas de justicia enfrentan desafíos de acceso, costo y tiempo, las lecciones de este informe son particularmente relevantes.
La IA ofrece la promesa de democratizar el acceso a la justicia, pero solo si se implementa con las salvaguardas éticas y técnicas adecuadas. La experiencia documentada por la AAA proporciona un marco valioso para cursar esta transformación sin sacrificar los principios fundamentales que sostienen la confianza en nuestros sistemas de solución de controversias.
El futuro de la justicia alternativa será inevitablemente tecnológico, pero su legitimidad seguirá dependiendo de algo profundamente humano: la capacidad de aplicar nuestro criterio, mantener la equidad y preservar la confianza. El desafío no es resistir el cambio, sino dirigirlo con sabiduría.
Precio de Bitcoin de hoy
Puede ver el precio de hoy de Bitcoin aquí, así como también el precio de hoy de Ethereum y de las principales criptomonedas. Por Emilio Carrillo Peñafiel, socio de Pérez Correa-González, abogado especializado en temas de financiamiento, tecnología y fusiones y adquisiciones.
X: @ecarrillop | Sitio web: pcga.mx