El prototipo podría consumir menos batería que los celulares modernos y funciona “similar” al cerebro humano.
Por Infobae
Ante las crecientes preocupaciones por las emisiones ligadas al consumo energético y de agua de los centros de datos que impulsan los sistemas de Inteligencia Artificial, IBM apuesta por la eficiencia con el desarrollo de un prototipo de chip de inteligencia artificial de bajo consumo que emula la funcionalidad del cerebro humano.
Esto se debe a que, a diferencia de los chips digitales tradicionales que dependen del almacenamiento de datos binarios, este prototipo hiper eficiente de 64 núcleos utiliza memristores, componentes que pueden almacenar una serie de valores de manera similar a las conexiones dentro del cerebro.
En otras palabras, tiene la capacidad de recordar, al igual que sucede con las sinapsis; que son las estructuras que se encuentran entre las neuronas para comunicarlas funcionalmente y así permitir al cerebro aprender y memorizar. Un elemento ideal para mejorar el rendimiento de redes neuronales utilizadas en aplicaciones de inteligencia artificial, dado que los memristores podrían potenciar su capacidad de procesamiento de grandes cantidades de datos.
Además, la principal ventaja de estos componentes radica en su naturaleza no volátil. Esto significa que pueden retener los datos incluso cuando se interrumpe la alimentación, lo que reduce el consumo energético.
El cerebro humano se destaca por su rendimiento excepcional con un consumo mínimo de energía, y este enfoque de “informática inspirada en la naturaleza” podría permitir que los sistemas de IA imiten mejor la cognición humana.
Si bien este chip representa un paso prometedor hacia la eficiencia energética de la IA, los expertos señalan que todavía hay desafíos técnicos y de desarrollo por superar.
Los chatbots, unos devoradores de energía
Investigadores de la Universidad de Massachusetts descubrieron que el proceso de entrenamiento de IA puede generar un aproximado de emisiones de dióxido de carbono, comparables al impacto ambiental de casi 300 vuelos de ida y vuelta entre Nueva York y San Francisco. Una cantidad que es casi cinco veces las emisiones de por vida producidas por un automóvil promedio.
Adémas, el uso de agua para enfriar los centros de datos durante el entrenamiento y la ejecución de modelos de IA también es considerable. E incluso el estudio reveló que por cada “conversación” que consta de 20 a 50 indicaciones y respuestas, ChatGPT consume agua equivalente a una botella de 500 mililitros.
Es por ello que las empresas están compitiendo para encontrar formas de reducir el consumo de energía de la IA y están utilizando piezas de computadora únicas que ahorran energía y están diseñadas solo para tareas de inteligencia artificial.