Eric Schmidt, expresidente y director ejecutivo de Google, advierte que la sociedad se enfrenta a cambios drásticos como resultado de la inteligencia artificial (IA) mucho antes de lo que la mayoría imagina. “No creo que la gente aprecie lo rápido que esto va a suceder”, afirmó en una charla reciente, en un ciclo de entrevistas de Citadel en YouTube.
Por Infobae
“En los próximos cinco años, veremos cambios que transformarán nuestra vida cotidiana”. Esta advertencia cobra aún mayor peso, considerando que Schmidt no la formula solo: recientemente coescribió el libro The Age of AI: And Our Human Future, junto al Dr. Henry Kissinger, experto en geopolítica y seguridad internacional, y Daniel Huttenlocher, decano del MIT Schwarzman College of Computing. La perspectiva de Kissinger, quien vivió de cerca la Guerra Fría y la amenaza nuclear, añade una dimensión crucial al análisis de Schmidt sobre los riesgos de la IA.
La IA en la vida diaria: de la traducción al desarrollo de software
Schmidt explicó que la tecnología actual ya permite la traducción instantánea entre idiomas y la generación de contenido multimedia a partir de texto. Sin embargo, la próxima fase de la IA, que se espera que se desarrolle en los próximos cinco años, tendrá un impacto aún mayor.
“Lo próximo que veremos son agentes de IA con grandes ventanas de contexto y la capacidad de convertir texto en programas”, señaló el ex-Google, quien agregó: “Esto significa que podré decirle a la computadora lo que quiero y ella escribirá y ejecutará el programa por mí”.
En otras palabras, la IA no solo comprenderá el lenguaje humano, sino que también podrá traducirlo al lenguaje de las máquinas, generando código funcional a partir de instrucciones en lenguaje natural.
Esta capacidad de la IA para generar código tendrá un impacto significativo en la industria del software. “Aproximadamente la mitad del trabajo de los programadores será realizado por una computadora”, predijo Schmidt. Esta automatización podría liberar a los programadores de tareas repetitivas, permitiéndoles enfocarse en la creatividad y la resolución de problemas más complejos.
Hacia la automejora recursiva: una carrera por la dominación de la inteligencia
Schmidt visualiza un futuro en el que la IA no solo automatizará tareas, sino que también será capaz de llevar a cabo investigaciones científicas de forma autónoma. “Los sistemas actuales de IA pueden resolver problemas de física y química al nivel del 80 al 90 % de un estudiante de doctorado en esas áreas”, afirmó. “Y pueden hacerlo en todas las áreas a la vez”, añadió.
Basta solo con imaginarse a un equipo de investigación compuesto por humanos y máquinas, donde la IA no solo asiste a los científicos, sino que también formula hipótesis, diseña experimentos y analiza resultados de forma independiente.
Esta capacidad de la IA para aprender y mejorar de forma independiente, conocida como “automejora recursiva”, es a la vez emocionante y preocupante. “En algún momento, será posible tener científicos de IA que interactúen con los científicos humanos”, dijo Schmidt. “Y entonces la curva de la innovación se acelerará aún más”, enfatizó.
En ese sentido, esta aceleración exponencial del progreso tecnológico podría llevar a avances científicos sin precedentes, pero también plantea interrogantes sobre el control y la seguridad de la IA.
“Piensen en la IA como en las armas nucleares, pero de un tipo diferente”, advirtió Schmidt en una entrevista en el podcast “Masters of Scale”. Y agregó: “Son tan peligrosas que necesitan ser protegidas”. Al igual que con la energía nuclear, este tipo de inteligencia tiene un potencial destructivo que debe ser gestionado con responsabilidad.
La velocidad del cambio y el desafío de la adaptación
Uno de los aspectos más preocupantes del auge de la IA es la velocidad a la que se está produciendo. “Este proceso está ocurriendo tan rápido que no habrá tiempo para la diplomacia”, alertó Schmidt, haciéndose eco de las preocupaciones de Kissinger. Esta velocidad del cambio plantea un desafío para los gobiernos, las instituciones y la sociedad en general, que deben adaptarse a una nueva realidad.
“Los procesos gubernamentales no están listos. Las doctrinas no están listas”, afirmó. La falta de preparación de los sistemas políticos para regular la IA podría tener consecuencias negativas, desde la proliferación de armas autónomas hasta la manipulación de la información a gran escala.
El desafío de la gobernanza en la era de la IA
Schmidt, quien presidió la Comisión Nacional de Seguridad de Inteligencia Artificial de Estados Unidos, expresó su preocupación por la falta de un marco regulatorio adecuado para la IA. “Estamos construyendo herramientas que acelerarán los peligros que ya existen”, advirtió. Sin una gobernanza efectiva, la IA podría ser utilizada para fines maliciosos, como la creación de armas biológicas o la vigilancia masiva.
“Mientras que el auge de los modelos de lenguaje de gran tamaño (LLM) de código abierto está impulsando la innovación, me preocupa su uso indebido por parte de actores maliciosos que podrían explotar esos modelos para desarrollar aplicaciones dañinas, como la síntesis de patógenos mortales, incluidos los virus”, señaló.
Asimismo, comparó la situación actual con el desarrollo de las armas nucleares. “Después de Nagasaki e Hiroshima, se necesitaron 18 años para establecer tratados que prohibieran las pruebas nucleares. Hoy no tenemos ese tiempo”, afirmó.
Por tales motivos, Schmidt aboga por la creación de un organismo regulador internacional similar al Panel Intergubernamental sobre el Cambio Climático (IPCC) para guiar a los responsables políticos en la gestión de los riesgos y oportunidades que presenta la IA. “Si vamos a probar algo, no lo hagamos en secreto. Eso podría ser detectado y desencadenar una reacción”, sugirió.
Además, recomienda la creación de un “marco de confianza humano” para la IA, que implicaría la participación de la sociedad civil en la definición de los límites éticos y las normas de uso de la IA, así como la creación de mecanismos de control que garanticen la transparencia y la rendición de cuentas.
“En Occidente, los verificadores privados jugarán un papel clave, utilizando la IA para monitorear otros sistemas de IA”, añadió Schmidt. La participación del sector privado en dicha supervisión podría complementar la labor de los gobiernos y las organizaciones internacionales.
El dilema del código abierto en la IA
El debate sobre el código abierto en IA también preocupa a Schmidt. “La regla general actual de que los modelos que cuestan menos de 100 millones de dólares para entrenar se consideran ‘seguros’, mientras que los más caros se clasifican como ‘más peligrosos’, parece sorprendentemente arbitraria”, destacó.
La creciente disponibilidad de herramientas de IA de bajo costo y alto rendimiento plantea interrogantes sobre cómo controlar su acceso y prevenir su uso malicioso.
Implicaciones económicas y sociales de la IA
El impacto de la IA se extenderá más allá de la ciencia y la tecnología, afectando también la economía y la sociedad en general. Schmidt planteó interrogantes sobre las consecuencias del aumento exponencial de la productividad que se espera que genere la IA. “¿Significa esto que un número muy pequeño de personas controlará la mayor parte del dinero?¿O la riqueza se distribuirá en la sociedad?”, preguntó.
Además, la IA plantea desafíos éticos y sociales complejos. “¿Qué sucede cuando la IA genera contenido que es ilegal en China? ¿A quién se castiga: al usuario, al desarrollador o al sistema?”, cuestionó Schmidt .
Y fue más allá: “Imaginen una situación en la que el juguete de un niño está hablando con el niño, pero ¿qué está aprendiendo? ¿Quién está enseñando al juguete? ¿Y qué pasa si se equivoca? Tal vez se vuelva racista temporalmente. ¿Cómo controlamos eso? ¿Cómo lidiamos con eso?”. La interacción de los niños con la IA plantea interrogantes sobre la formación de valores, la privacidad y la seguridad en línea.
El rol de lo humano y aplicaciones en la ciencia en la era de la IA
A pesar de los avances de la IA, Schmidt considera que los humanos seguirán siendo relevantes. “Así como preferimos ver a pilotos humanos de Fórmula 1 en lugar de vehículos autónomos, habrá áreas en las que conscientemente preferiremos el elemento humano”, explicó. La creatividad, la empatía y la intuición son cualidades humanas que difícilmente podrán ser replicadas por la IA.
Y con respecto a la ciencia, el potencial de la IA es enorme. Schmidt mencionó el ejemplo del desarrollo del fármaco Halicin, un nuevo antibiótico descubierto gracias a ese tipo de inteligencia. “Construyeron una red neuronal que analizó miles de moléculas con propiedades antibacterianas. Luego construyeron otra red que puntuó las que se les ocurrieron, y de ahí surgió un único candidato cuyo nombre es Halicin, que parece funcionar. Eso no es algo que un humano pudiera hacer. Tampoco es algo que una computadora por sí sola pudiera hacer”, explicó.
Cabe destacar que la IA puede acelerar el descubrimiento de nuevos fármacos, materiales y soluciones a problemas científicos complejos.
El papel de las universidades en la era de la IA
Schmidt destacó la importancia de las universidades en la investigación y el desarrollo de la IA. “Necesitamos financiar a las universidades de la misma manera que financiamos la investigación científica a gran escala”, afirmó. “Así como los físicos necesitaban acceso a ciclotrones en el pasado, los investigadores de IA necesitan acceso al hardware de IA”, agregó.
En este contexto, las universidades deben contar con los recursos necesarios para formar a la próxima generación de expertos en IA y liderar la investigación en este campo. Asimismo, instó a los estudiantes a aprender junto con la IA y a aprovechar las oportunidades que ofrece esta tecnología. “Las ciencias, las matemáticas, todas las disciplinas se verán transformadas por la IA. Esta es la mejor generación para asumir este desafío”, dijo sobre la adaptación de la educación, fomentando el pensamiento crítico, la creatividad y la capacidad de trabajar en colaboración con las máquinas.
La velocidad de los avances, la falta de regulación y la creciente competencia geopolítica hacen que este sea un momento crucial para la humanidad. Las decisiones que se tomen en la actualidad determinarán si la IA se convierte en una herramienta para el progreso o en una amenaza para el futuro.