Por Manuel Filomeno
El medioambiente es nuestro más grande patrimonio y cuidarlo es una responsabilidad que compartimos todos los habitantes del planeta y el sector tecnológico no puede mantenerse al margen.
Mientras se desarrollan nuevas tecnologías para ayudarnos a limpiar los cielos, la tierra y los océanos, a través de robótica, nuevos materiales y formas de producir energía, la Inteligencia Artificial (IA), uno de los avances más grandes de los últimos tiempos, se ha convertido en poco tiempo en uno de los sectores más contaminantes, pero ya se está haciendo algo al respecto, los algoritmos verdes.
“Los algoritmos verdes, son los que se utilizan para minimizar el impacto ambiental de la tecnología incluida la IA. Se centran en reducir el consumo de recursos, la huella de carbono y otros aspectos ambientales negativos”, explica Alejandro Rodríguez, docente de la carrera de Ingeniería de Sistemas de la Universidad Franz Tamayo, Unifranz.
Rodríguez expresa que los algoritmos verdes son un conjunto de instrucciones o reglas definidas que consumen menos recursos y consiguen el mismo resultado que obtendría uno más complejo.
Esto es clave si se tiene en cuenta que el ciclo de vida de la IA, desde la fabricación de su hardware hasta su despliegue y eliminación, incide considerablemente en el consumo energético y la generación de residuos electrónicos, lo que a su vez afecta el medio ambiente.
Recordemos que un algoritmo es como una receta, una serie de pasos a seguir para que un programa haga lo que queremos que haga.
“Básicamente, lo que se busca hacer es desarrollar algoritmos que permitan una convergencia más rápida durante el entrenamiento o requieran menos recursos computacionales, ya que estos podrían suponer un ahorro sustancial de energía y agua de los centros de datos”.
Los algoritmos verdes se dividen en dos corrientes principales: los enfocados en la eficiencia energética, que buscan lograr resultados óptimos consumiendo menos recursos; y aquellos que apuntan a promover la sostenibilidad a través de inteligencia artificial verde.
La IA verde, responde al principio de las 3 Rs: reducir, reutilizar y reciclar. Y su objetivo es interpretar los datos empresariales a través de algoritmos que tomen en cuenta un abanico de factores para optimizar los procesos en una variedad de sectores, desde la logística hasta el transporte.
“Incluso busca ser más eficiente en el uso de energía y recursos como el agua, apuntando a la minimización de la contaminación y al desafío de hacer frente a obstáculos que pongan en riesgo la sostenibilidad del medio ambiente”, puntualiza.
Mientras que la integración de los algoritmos verdes en infraestructuras, ciudades inteligentes y servicios de cloud computing (computación en la nube), tiene el potencial de tener múltiples aplicaciones y beneficios.
“Los algoritmos verdes pueden servir, por ejemplo, para apagar la luz a una determinada hora, con los hogares inteligentes, optimizar las rutas al manejar un automóvil para reducir emisiones y la gestión inteligente de los recursos naturales, entre otras aplicaciones», expresa el ingeniero de sistemas.
Por otra parte, para reducir aún más el impacto, se proponen estrategias como el desarrollo de hardware de bajo consumo, el uso de energías renovables para la infraestructura de operaciones y la precisa cuantificación de emisiones.
También luchar contra la obsolescencia programada del hardware y promover la investigación colaborativa para una evolución sostenible de la IA y de los grandes centros de computación, en donde se alojan multitud de superordenadores que sustentan a este tipo de tecnologías.
¿Por qué contamina la IA?
Según el artículo “Energy and Policy Considerations for Deep Learning in NLP”, publicado en 2019, la Universidad de Massachusetts advierte que, en el entrenamiento de grandes modelos de IA, se pueden emitir más de 626.000 libras de dióxido de carbono, que equivale a casi cinco veces las emisiones de un automóvil de por vida, además de su manufactura.
Entre los factores que incrementan la emisión de carbono por el uso de la IA, se encuentra la formación intensiva de energía necesaria para el entrenamiento de modelos complejos, como las redes neuronales profundas.
Además, la inferencia y tratamiento de datos generan emisiones significativas, especialmente cuando no se implementan medidas de eficiencia energética en el hardware.
Las operaciones de centros de datos también son fuentes importantes de emisiones al requerir un consumo energético elevado para su mantenimiento y refrigeración.
Por último, la inevitable producción de residuos electrónicos derivados de dispositivos obsoletos también exacerba el impacto ambiental.
Este tipo de preocupaciones surgen en un momento en el que las tecnologías de la información suponen entre un 5% y un 9% del consumo eléctrico mundial y podrían llegar al 20 % en 2030, según un informe del Parlamento Europeo.