Mantenimiento y predicción de la infraestructura energética

Energia

,

Rhinno

Mantenimiento y predicción de la infraestructura energética

Javier Napolitano | ago 26, 2020

Cada vez es más habitual oír hablar del uso de algoritmos predictivos para estimar posibles fallos en diferentes tipos de maquinaria en la industria. Esto ya se está convirtiendo en una realidad pues ya hemos empezado a verlo en algunas compañías.

En este artículo, hemos querido hacer hincapié en un sector tan común en nuestra vida cotidiana como es el sector energético, donde todos los cambios y transiciones en la red eléctrica son cruciales en el aprovechamiento de la generación y distribución de energía.

En este campo, cualquier fallo que se pueda producir, puede verse reflejado en toda una población, privándola del suministro de electricidad. En este caso, los empleados serían los encargados de trabajar a contrarreloj para devolver el suministro energético lo antes posible.

Se ha notado la gran importancia de utilizar algoritmos predictivos en plantas de generación de energía eléctrica, como en 2019 en San Francisco (EE. UU.), que debido al mal estado de algunas de sus instalaciones, se llegaron a producir una serie de incendios.

Captura de pantalla 2020-08-25 a las 13.02.30Fuente: Pixabay

Proponer un mantenimiento preventivo, es una opción a tener en cuenta para poder actuar con tiempo previo antes que se produzca un fallo en el sistema e implique unos costes mucho más elevados posteriormente. Esto puede suponer el cambio de piezas enteras en lugar de pequeños ajustes, además de las posibles indemnizaciones o multas producidas a raíz del corte en servicio. En un caso de prueba realizado en Estados Unidos para una planta generadora en agosto de 2016, se pudo detectar el fallo temprano de un transformador. Si este no se hubiera notificado, hubiese implicado 26 horas de baja en el servicio eléctrico y unas pérdidas aproximadas de 150.000 $ de beneficio durante el periodo de prueba del sistema.

Como ejemplo de caso de uso, en Techedge estamos trabajando en el desarrollo de un algoritmo de predicción de viento para intervalos cortos de tiempo. Este proyecto nace de la necesidad de mantenimiento para una empresa de despliegue de paneles fotovoltaicos. En este caso, se busca predecir las ráfagas de viento que pudieran dañar la instalación, de tal modo que el sistema pueda plegar los paneles n de captación de energía solar a una posición defensiva, optimizando así la máxima producción de energía y la integridad de los equipos de generación.

Para ello desde Techedge, el planteamiento de este sistema predictivo empezamos a abordarlo con una extracción de los datos monitorizados de su uso mediante la sensorización de los equipos. Además de esta monitorización, para la realización de estos sistemas, accedemos a un histórico de datos recopilados sobre el cual se pueda establecer el desarrollo de los algoritmos propuestos. A todo esto, le añadimos el poder recabar algunas variables externas para poder enriquecer la naturaleza del dato. Los datos que se originan de la sensorización de estos sistemas, al igual que nuestro entorno, están en constante cambio, por lo que es importante el reentrenamiento de estos algoritmos después de un tiempo para que sigan aportando valor y precisión a sus usuarios.

Captura de pantalla 2020-08-25 a las 13.06.19

Fuente: Pixabay

A partir de estos datos, somos capaces de aplicar una capa de analítica y empezar a establecer algoritmos, algunos de ellos utilizando técnicas de aprendizaje automatizado o Machine Learning. Estos, pueden ayudar a notificar con tiempo suficiente cuando uno de los equipos o sistemas corren riesgo de fallo para su actuación temprana y así poder corregirlo a tiempo.

El mayor de todos los retos es homogeneizar todos los datos disponibles. A este proceso se le conoce como Feature Engineering o Ajuste de parámetros, que se refiere a establecer un formato donde se pueda conseguir la mayor calidad del dato para sacar el máximo provecho. Esta es una tarea indispensable en el planteamiento de todo algoritmo de aprendizaje automatizado. Por ende, se debe a que es muy difícil aprender a realizar una tarea correctamente cuando la información disponible es errónea, está distorsionada o no es completa.

No solamente estos algoritmos están siendo utilizados para el mantenimiento de instalaciones, también se están planteando para mejorar la eficiencia y el ahorro energético en algunos casos de uso.

Otro ejemplo de caso de aprovechamiento energético en planificación de tareas podemos verlo en el ámbito de los grandes centros de procesamiento de la información, también conocidos como data centers. En estos, se pasa de una distribución de tareas de manera manual a través de un itinerario gestionado por personas, a una distribución de tareas automatizada. El cambio se está produciendo mediante el uso de técnicas de aprendizaje automatizado, en concreto con una te´cnica denominada Aprendizaje Reforzado o Reinforced Learning.

Captura de pantalla 2020-08-25 a las 13.17.05

Fuente: Pixabay

Esta técnica consiste en tres elementos particulares:

  • El primero de los elementos es un programa con reglas que replica el entorno con el cual tendrá que interactuar nuestra máquina.
  • El segundo elemento es una máquina, que se entrenará para que esté en contacto con el programa que simula el entorno.
  • En tercer lugar, un agente se encargará de recompensar o penalizar los comportamientos que vaya realizando la máquina en el entorno.

Las recompensas y penalizaciones que se le den a la máquina dependerán de cómo de bien se aproxime al objetivo que quiere conseguirse en el entorno. A través de múltiples escenarios y ciclos de entrenamiento, el sistema es capaz de enfrentarse por sí solo a situaciones reales.

Este principio de técnicas de Aprendizaje Reforzado o Reinforced Learning, ya ha sido utilizado con éxito en casos más vistosos como el Google AlphaZero. Google AlphaZero ha sido desarrollado con técnicas de Aprendizaje Reforzado y es un programa capaz de batir a campeones del mundo en el ajedrez o el Go. Actualmente, este tipo de soluciones ya se están empezando a testear en entornos de Data Centers, las cuales están mejorando el procesamiento de datos entre un 20% y un 30% más rápido.

Para conseguir estos resultados, no solo fue necesario entrenar con los datos del histórico disponible, sino también compararlos con los resultados del desempeño del futuro para poder comprobar que el rendimiento no se veía afectado ante nuevos escenarios. Con todo ello, al completar las tareas en un menor intervalo temporal, se puede ahorrar en equipamiento y en consecuencia se reduce en el gasto energético.

En este caso, se plantea como un inicio prometedor, lo que se podría llevar a diversos casos de uso en el sector energético de producción y generación, como también extrapolarlo a otro tipo de industrias.

Finalmente, como puede quedar reflejado previamente en los casos de utilización de predicción y optimización, son evidentes todas las ventajas que esto presenta de cara a la disminución de costes y aprovechamiento de la energía, resultando en una mejor imagen de la empresa y una mejor respuesta con el medio ambiente.

Nimbl Ripple Framework

Referencias de artículos:

¡Suscríbete!