18 C
Tegucigalpa

Expertos advierten sobre los efectos de la IA en las finanzas, la empresa y las leyes

Lo más reciente

La Autoridad Reguladora de la Industria Financiera considera prioritario atender la evolución de los algoritmos y su influencia en la toma de decisiones económicas, mientras que ejecutivos y emprendedores debaten su papel en la sociedad y su posible impacto en la seguridad y el bienestar colectivos.

Por The Washington Post

Las figuras de Silicon Valley llevan tiempo advirtiendo de los peligros de la inteligencia artificial. Ahora su ansiedad se ha trasladado a otros ámbitos de poder: el sistema jurídico, las reuniones mundiales de líderes empresariales y los principales reguladores de Wall Street.

La semana pasada, la Autoridad Reguladora de la Industria Financiera (FINRA), el autorregulador del sector de valores, calificó la IA de “riesgo emergente”, y el Foro Económico Mundial de Davos, Suiza publicó una encuesta en la que se concluía que la desinformación generada por la IA representa la mayor amenaza a corto plazo para la economía mundial.

Estos informes se publicaron apenas unas semanas después de que el Consejo de Supervisión de la Estabilidad Financiera de Washington afirmara que la IA podría causar “daños directos a los consumidores” y de que Gary Gensler, presidente de la Comisión del Mercado de Valores (SEC), advirtiera públicamente de la amenaza que supone para la estabilidad financiera el hecho de que numerosas empresas de inversión se basen en modelos de IA similares para tomar decisiones de compra y venta.

“La IA puede desempeñar un papel central en los informes posteriores a una futura crisis financiera”, afirmó en un discurso pronunciado en diciembre. En la conferencia anual del Foro Económico Mundial para altos ejecutivos, políticos y multimillonarios, que se celebra en una elegante estación de esquí suiza, la inteligencia artificial es uno de los temas centrales y se aborda en muchos de los paneles y actos.

En un informe publicado la semana pasada, el foro afirma que su encuesta a 1.500 responsables políticos y líderes del sector reveló que las noticias falsas y la propaganda escrita y potenciada por chatbots de IA es el mayor riesgo a corto plazo para la economía mundial. Alrededor de la mitad de la población mundial participa en las elecciones de este año en países como Estados Unidos, México, Indonesia y Pakistán, y los investigadores de la desinformación temen que la IA facilite la difusión de información falsa y aumente los conflictos sociales.

Los propagandistas chinos ya están utilizando IA generativa para intentar influir en la política de Taiwán, según informó el viernes 12 de enero The Washington Post. Los contenidos generados por IA aparecen en vídeos de noticias falsas en Taiwán, según han declarado funcionarios del gobierno.

El informe del foro se publicó un día después de que la FINRA señalara en su informe anual que la IA ha suscitado “inquietudes sobre la precisión, la privacidad, la parcialidad y la propiedad intelectual”, aun cuando ofrece posibles ganancias en costes y eficiencia. Y en diciembre, el FSOC del Departamento del Tesoro, que supervisa el sistema financiero en busca de comportamientos de riesgo, afirmó que los fallos de diseño de la IA no detectados podrían dar lugar a decisiones sesgadas, como denegar préstamos a solicitantes que de otro modo estarían cualificados.

La IA generativa, que se entrena con enormes conjuntos de datos, también puede producir conclusiones totalmente incorrectas que suenan convincentes, añadió el consejo. El FSOC, presidido por la Secretaria del Tesoro, Janet L. Yellen, recomendó que los reguladores y el sector financiero presten más atención al seguimiento de los riesgos potenciales derivados del desarrollo de la IA.

Gensler, de la SEC, ha sido uno de los más críticos con la IA. En diciembre, su agencia solicitó información sobre el uso de la IA a varios asesores de inversión, según Karen Barr, directora de la Investment Adviser Association, un grupo del sector. La solicitud de información, conocida como “barrido”, se produjo cinco meses después de que la comisión propusiera nuevas normas para evitar conflictos de intereses entre los asesores que utilizan un tipo de IA conocida como análisis predictivo de datos y sus clientes.

“Cualquier conflicto de intereses resultante podría causar daños a los inversores de una manera más pronunciada y en una escala más amplia de lo que antes era posible”, dijo la SEC en su propuesta de reglamento.

Los asesores de inversión ya están obligados, en virtud de la normativa vigente, a dar prioridad a las necesidades de sus clientes y evitar tales conflictos, dijo Barr. Su grupo quiere que la SEC retire la norma propuesta y base cualquier acción futura en lo que aprenda de su barrido informativo. “La normativa de la SEC no da en el clavo”, afirmó.

Las empresas de servicios financieros ven oportunidades de mejorar las comunicaciones con los clientes, las operaciones administrativas y la gestión de carteras. Pero la IA también entraña mayores riesgos. Los algoritmos que toman decisiones financieras podrían producir decisiones de préstamo sesgadas que denieguen a las minorías el acceso al crédito o incluso provocar un colapso del mercado mundial, si decenas de instituciones que confían en el mismo sistema de IA venden al mismo tiempo.

Las empresas de servicios financieros ven oportunidades de mejorar las comunicaciones con los clientes, las operaciones administrativas y la gestión de carteras. Pero la IA también entraña mayores riesgos. Los algoritmos que toman decisiones financieras podrían producir decisiones de préstamo sesgadas que denieguen a las minorías el acceso al crédito o incluso provocar un colapso del mercado mundial, si decenas de instituciones que confían en el mismo sistema de IA venden al mismo tiempo.

A medida que la inteligencia artificial se hace más compleja y capaz, algunos expertos temen que la automatización se convierta en una “caja negra” incapaz de explicar cómo ha llegado a una decisión, dejando a los humanos en la incertidumbre sobre su solidez. Los sistemas mal diseñados o gestionados podrían socavar la confianza entre comprador y vendedor necesaria para cualquier transacción financiera, afirma Richard Berner, profesor clínico de finanzas de la Stern School of Business de la Universidad de Nueva York.

“Nadie ha hecho un escenario de estrés con las máquinas desbocadas”, añadió Berner, primer director de la Oficina de Investigación Financiera del Tesoro. En Silicon Valley, el debate sobre los peligros potenciales de la IA no es nuevo. Pero se sobrealimentó en los meses posteriores al lanzamiento a finales de 2022 del ChatGPT de OpenAI, que mostró al mundo las capacidades de la tecnología de nueva generación.

En medio de un boom de la inteligencia artificial que impulsó un rejuvenecimiento de la industria tecnológica, algunos ejecutivos de empresas advirtieron de que el potencial de la IA para desencadenar el caos social rivaliza con las armas nucleares y las pandemias letales. Muchos investigadores afirman que estas preocupaciones desvían la atención de las repercusiones de la IA en el mundo real. Otros expertos y empresarios afirman que la preocupación por esta tecnología es exagerada y puede empujar a los reguladores a bloquear innovaciones que podrían ayudar a las personas y aumentar los beneficios de las empresas tecnológicas.

El año pasado, políticos y responsables políticos de todo el mundo también se esforzaron por entender cómo encajará la IA en la sociedad. El Congreso celebró múltiples audiencias. El Presidente Biden emitió una orden ejecutiva diciendo que la IA era la “tecnología más trascendental de nuestro tiempo”. El Reino Unido convocó un foro mundial sobre IA en el que el Primer Ministro Rishi Sunak advirtió de que “la humanidad podría perder completamente el control de la IA”. Las preocupaciones incluyen el riesgo de que la IA “generativa” -que puede crear texto, vídeo, imágenes y audio- pueda utilizarse para crear desinformación, desplazar puestos de trabajo o incluso ayudar a la gente a crear peligrosas armas biológicas.

Los críticos de la tecnología han señalado que algunos de los líderes que han dado la voz de alarma, como Sam Altman, consejero delegado de OpenAI, están impulsando el desarrollo y la comercialización de la tecnología. Las empresas más pequeñas han acusado a los pesos pesados de la IA, OpenAI, Google y Microsoft, de exagerar los riesgos de la IA para desencadenar una regulación que dificulte la competencia a los nuevos competidores.

“Lo que ocurre con el bombo publicitario es que hay una desconexión entre lo que se dice y lo que es realmente posible”, afirma Margaret Mitchell, jefa científica de ética de Hugging Face, una start-up de IA de código abierto con sede en Nueva York. “Tuvimos un periodo de luna de miel en el que la IA generativa era algo súper nuevo para el público y sólo podían ver lo bueno, cuando la gente empezó a usarla pudieron ver todos los problemas que tenía”.

spot_img

        

       

Destacados

Honduras queda excluida de la Cuenta del Milenio por falta de control de la corrupción

Honduras volvió a quedar excluida de la Corporación del Reto del Milenio (MCC) para 2025, tras obtener una de las calificaciones más bajas en control de corrupción desde que el Banco Mundial comenzó sus mediciones en 1996.

Noticias relacionados