La inteligencia artificial provocará la próxima gran crisis económica, afirma EE.UU.

La rápida evolución de la inteligencia artificial está generando un profundo impacto en nuestra sociedad, y su aplicación en la economía plantea incertidumbres significativas. Hay preocupaciones crecientes sobre el potencial de los algoritmos de aprendizaje automático para desencadenar crisis financieras. Gary Gensler, presidente de la Comisión de Bolsa y Valores de Estados Unidos, advierte sobre el riesgo real de que la IA desempeñe un papel central en futuras crisis financieras, y los reguladores podrían no ser capaces de prevenirlas a tiempo. En una entrevista con Bloomberg, Gensler, quien tiene un papel crucial en la regulación financiera de EE. UU., señala que la amenaza más destacada de la inteligencia artificial en los mercados financieros es la posibilidad de que los algoritmos de "caja negra" se descontrolen, llevando a la venta masiva simultánea de activos y provocando un colapso en el mercado. Durante su tiempo como profesor en el MIT, el actual presidente de la Comisión de Bolsa y Valores (SEC), Gary Gensler, ha advertido desde hace años sobre los posibles peligros de la inteligencia artificial, especialmente el "deep learning", en relación con la estabilidad financiera. En un artículo publicado en 2020, Gensler destacó los riesgos y señaló que los sistemas regulatorios actuales no están adecuadamente equipados para enfrentar esta amenaza.


Uno de los riesgos que plantea la inteligencia artificial en los mercados financieros es la tendencia a la homogeneización, según indica el experto. Esto puede ocurrir debido al "efecto de aprendiz", donde profesionales calificados para manejar estos sistemas provienen de los mismos entornos educativos, comparten historiales similares y establecen conexiones estrechas entre ellos. Gary Gensler, en su estudio, explica que la falta de expertos capacitados para construir y dirigir estos modelos conlleva a que provengan de orígenes bastante uniformes. La regulación misma puede contribuir a este riesgo. Si los reguladores imponen límites sobre las capacidades de la inteligencia artificial, existe el peligro de que todas las IA sigan un patrón similar al mismo tiempo. Esto aumentaría la posibilidad de que la mayoría de las empresas elijan utilizar los mismos servicios ofrecidos por unos pocos proveedores, lo que a su vez multiplicaría el riesgo.

Posible "efecto rebaño"
Es probable que los modelos basados en conjuntos de datos similares hagan predicciones muy parecidas al mismo tiempo, lo que puede causar congestiones y comportamientos en masa. Esto aumenta el riesgo de exponer cualquier debilidad que exista en esos conjuntos de datos. Gensler también sugiere que la búsqueda de grandes fuentes de datos podría llevar a la formación de monopolios, convirtiéndolos en puntos críticos de falla que podrían desencadenar un colapso generalizado en todo el sistema.
Según Gensler, los conjuntos de datos más grandes presentan un riesgo debido a su falta de completitud. El experto menciona que el uso de internet, datos de dispositivos móviles, telemetría, GPS y teléfonos inteligentes carece de períodos temporales lo bastante extensos como para abarcar un ciclo financiero completo.

Sistemas opacos

Debido a la imprevisibilidad en la evolución de las inteligencias artificiales, es sumamente complicado comprender cómo se comportan. Esto conlleva un gran riesgo: que puedan desarrollar comportamientos discriminatorios hacia los humanos de manera inadvertida. Por ejemplo, una IA que no mostraba signos de racismo ayer podría hacerlo hoy, y podría ser difícil detectarlo a tiempo para prevenirlo. Además, las reglas que guían su comportamiento son completamente opacas e incontrolables, imposibilitando su regulación incluso retrospectivamente. Esta situación hace extremadamente difícil que los reguladores prevengan un colapso futuro.

¿Se podría evitar?
Según Gensler, la medida más efectiva desde el punto de vista regulatorio sería aumentar la cantidad de capital que las instituciones financieras deben mantener cuando utilizan inteligencia artificial. Esto significa que los reguladores podrían requerir pruebas para los sistemas de IA, además de desalentar o incluso prohibir acciones que no puedan ser explicadas adecuadamente. Sin embargo, advierte que incluso con estas medidas, es poco probable que se pueda evitar por completo el aumento del riesgo sistémico. A pesar de aplicar regulaciones, Gensler sostiene que estas serían insuficientes para afrontar el desafío que se nos presenta.

3 Comentarios

  1. Interesante artículo, Carmen. Totalmente de acuerdo con él!

    ResponderEliminar
  2. Me ha parecido súper interesante y entretenido, gracias por compartir!

    ResponderEliminar
  3. Lo desconocía. Bastante interesante

    ResponderEliminar