En un artículo publicado en el Financial Times el pasado 14 de octubre, por Stefania Palma y Patrick Jenkins, el Presidente de la Securities and Exchange Commission (SEC), entidad reguladora de los mercados de valores estadounidenses, apunta varios riesgos que la inteligencia artificial (IA) representa para los mercados financieros.
El acceso directo al artículo que cito requiere una suscripción, pero puede encontrarlo en esta liga.
Manejo de riesgos que implica la IA
Dicho artículo comienza citando al señor Gensler, quien señaló que “los reguladores deben encontrar rápidamente una forma de manejar los riesgos que para la estabilidad financiera implica la concentración de poder presente en las plataformas de IA”.
En su opinión es “casi inevitable” que la IA desencadene una crisis financiera en la próxima década. Gensler apuntó que su regulación representa una prueba difícil para los reguladores estadounidenses, ya que los riesgos potenciales cruzan todos los mercados financieros y tienen su origen en modelos elaborados por empresas tecnológicas que no están bajo la supervisión de los reguladores de Wall Street.
Un problema que atraviesa a varios mercados
“Francamente, es un desafío difícil”, señaló Gensler. “Es un problema de estabilidad financiera difícil de abordar porque la mayoría de nuestra regulación se centra en instituciones individuales, bancos individuales, fondos de inversión de deuda individuales, casas de bolsa individuales; es simplemente la naturaleza de lo que hacemos.
Y esto se trata de un asunto horizontal, en el que muchas instituciones podrían estar confiando en el mismo modelo subyacente o en el mismo agregador de datos subyacente”.
Mayor riesgo: la confianza en un mismo modelo subyacente
De acuerdo con los autores del artículo, la SEC propuso en julio una norma que abordaba posibles conflictos de interés en análisis predictivos de datos, pero se enfocaba en los modelos individuales implementados por casas de bolsa y asesores de inversiones.
Incluso si se actualizara la normativa hoy vigente, citan los autores a Gensler, “aún no se aborda este problema horizontal... si todos están confiando en un modelo base y el modelo base no está bajo el control de una casa de bolsa, sino de una de las grandes empresas tecnológicas”, dijo Gensler.
“¿Y cuántos proveedores de servicios en la nube (que tienden a ofrecer la IA como un servicio) tenemos en este país?”. Añadió: “He planteado esto en el Consejo de Estabilidad Financiera. Lo he planteado en el Consejo de Supervisión de Estabilidad Financiera. Creo que es realmente un desafío inter regulatorio.”
IA: Problemas comunes a todo el mundo
Los reguladores de todo el mundo están teniendo problemas para supervisar la IA, señalan los autores, pues apuntan que los grupos tecnológicos y sus modelos no están por naturaleza sujetos a la regulación de entidades específicas. Apuntan dichos autores que la Unión Europea ha procedido rápidamente, elaborando medidas estrictas en torno al uso de la IA a través de una ley innovadora que se espera sea completamente aprobada a finales de este año.
En contraste, señalan los señores Palma y Jenkins, Estados Unidos está revisando la tecnología para determinar cuáles aspectos de la IA requieren una nueva regulación y cuáles podrían normarse por algunas leyes vigentes. Afirman que Wall Street ya ha adoptado la IA a través de diversas modalidades, desde asesoría a través de robots hasta el manejo de procesos de apertura de cuentas y el uso de aplicaciones para la compraventa de valores.
Comportamiento de manada
En opinión de dichos autores, Gensler teme que las partes que toman decisiones basadas en el mismo modelo de datos puedan conducir a los mercados a un comportamiento de manada que socavaría la estabilidad financiera y desencadenaría la próxima crisis.
Citando a Gensler: “creo que en el futuro tendremos una crisis financiera... y en los informes posteriores a ello, la gente dirá '¡Ajá! Había un agregador de datos o un modelo en el que confiábamos'. Tal vez sea en el mercado hipotecario. Tal vez sea en algún sector del mercado de valores”.
La poderosa “economía de redes” de IA la hace “casi inevitable [una crisis financiera]”, añadió Gensler citado por los señores Palma y Jenkins, prediciendo que una crisis podría ocurrir tan pronto como a finales de la década de 2020 o principios de la de 2030.
Otros reguladores intentan supervisar la IA
Los señores Palma y Jenkins, autores del artículo que cito, continúan señalando que los legisladores y reguladores en Washington han intensificado la supervisión de la IA, planteando preocupaciones en torno a la estabilidad del mercado, la protección de datos y la competencia desleal.
La Federal Trade Comission de los Estados Unidos, apuntan, inició una revisión de OpenAI, el creador de ChatGPT, el pasado julio, enfocada en el posible daño al consumidor y en la seguridad de los datos. Según reportan dichos autores, las agencias antimonopolio de los Estados Unidos han advertido que la dependencia estructural de la IA en datos a gran escala podría conducir a la creación de monopolios tecnológicos.
Otro problema: menor competencia
Concluyen dichos autores que el señor Gensler, que ha atacado la concentración en los mercados de capitales para promover la eficiencia, cree que la IA podría crear problemas de competencia en esa área. “¿Podría esto llevar a una mayor concentración de ‘market makers’ (creadores de mercado)?”, dijo.
Hasta aquí las referencias al artículo de los señores Stefania Palma y Patrick Jenkins publicado en el Financial Times el pasado 14 de octubre de 2023.
Precio de Bitcoin de hoy
Puede ver el precio de hoy de Bitcoin aquí, así como también el precio de hoy de Ethereum y de las principales criptomonedas.
Por: Emilio Carrillo, abogado especializado en temas de financiamiento, tecnología y M&A. Twitter: @ecarrillop; página web: www.bcarrillog.com. Las opiniones expresadas son personales del autor y no constituyen recomendaciones de inversión; las inversiones en tecnologías novedosas son de muy alto riesgo y cabe la posibilidad de que todos los recursos destinados a ellas podrían perderse.