Sam Altman insistió en la necesidad de enfocar la reglamentación en los alcances peligrosos de esta tecnología.
Por Infobae
Sam Altman, CEO de OpenAI y uno de los creadores de ChatGPT, aseguró que en el último tiempo le ha surgido una preocupación sobre el efecto negativo que puede tener esta plataforma, que ha tenido un crecimiento exponencial y ha inspirado a otros sistemas de inteligencia artificial.
“Lo que más me quita el sueño es la idea hipotética de que ya hemos hecho algo realmente malo al lanzar ChatGPT”, afirmó el directivo en entrevista con Time of India.
Aunque no considera que la idea de la plataforma y el hecho de haberla puesto en el mercado sea un error, sí reflexiona sobre su impacto en la industria y en lo que puedan hacer con ella.
“Está la hipótesis de que nosotros, al lanzar ChatGPT en el mundo, disparamos la industria por un cañón de riel y ahora ya no tendremos mucho impacto”, dijo.
Uno de los aspectos que más se han mencionado en medio del crecimiento de la inteligencia artificial es la necesidad de regularla, ya que los alcances de esta tecnología han permitido que los ciberdelincuentes tengan mejores herramientas de estafar. Pero también surge la obligación para que las empresas la usen con responsabilidad y pongan límites a sus desarrollos.
Para llegar una regulación, Altman asegura que es necesario tener “un sistema en marcha para que podamos auditar a las personas que lo están haciendo” y también contar con las “pruebas de seguridad” suficientes antes de desplegar una plataforma y abrir el acceso a las personas.
Preocupaciones de OpenAI sobre la inteligencia artificial
Esta no es la primera vez que Altman se pronuncia sobre los efectos que puede tener esta tecnología en el futuro. Hace unos días el directivo fue uno de los dirigentes que firmó un comunicado publicado por el Centro para la Seguridad de Inteligencia Artificial, en el que se asegura que la IA podría generar posibles eventos de “extinción” para la sociedad.
En el texto se sugiere que, para iniciar la regulación, la conversación se debe centrar en reducir los posibles peligros que conlleve la creación de versiones más avanzadas.
“Mitigar el riesgo de extinción por IA debería ser una prioridad global junto con otros riesgos para la sociedad como las pandemias y una guerra nuclear”, se mencionó en el comunicado.
El CEO de la compañía ha reiterado en varias ocasiones que se necesita una reglamentación para esta tecnología con el fin de proteger a los usuarios. Además, ha dejado claro que la inteligencia artificial con capacidad para dominar al mundo solo se presenta en las películas, pero sí teme que pueda ser utilizada para generar contenido dirigido a desinformar a las personas.
“Uno de mis mayores temores es que nosotros, esta industria, esta tecnología, causemos un daño significativo a la sociedad. Si esta tecnología va por el camino equivocado, puede llegar bastante lejos. Y queremos trabajar con el gobierno para evitar que eso suceda”, aseguro Altman hace unos días ante el Senado de Estados Unidos.
El empresario recordó que, si bien OpenAI es una empresa privada, está controlada por una organización sin fines de lucro, lo que la obliga a “trabajar para una distribución amplia de los beneficios de la IA y a maximizar la seguridad de los sistemas basados en IA”. Pero al mismo tiempo saben que “la inteligencia artificial tiene el potencial de mejorar casi todos los aspectos de nuestras vidas”.