
La inteligencia artificial tiene un comportamiento ascendente en el sector energético debido a su capacidad para optimizar operaciones, mejorar la eficiencia y facilitar la transición hacia fuentes más limpias y sostenibles.
Es de todos conocido que los paneles generan electricidad a partir de energía proveniente del sol. Generalmente, el efecto fotovoltaico de los materiales con los que se construyen debería comportarse de forma lineal. De esto, entonces, podemos deducir, de manera simple, que: “a mayor cantidad de sol, mayor creación de electricidad”. En aplicaciones domésticas, donde el balance entre consumo y producción es menor, las variaciones serán amortiguadas por los hábitos energéticos del usuario. Por ejemplo, en un día nublado podemos contrarrestar esto reduciendo el gasto eléctrico de nuestros aparatos electrodomésticos. En la industria, el problema resulta ser más complejo. De nueva cuenta, nos encontramos con escenarios que requieren ser resueltos con herramientas no lineales.
Las granjas solares, en algunos casos, son utilizadas como centros de generación y venta de energía, por lo tanto, deben de tener una programación diaria estimada mediante escenarios teóricos muy cercanos a la realidad. En esta ocasión, construiremos un modelo de aprendizaje, donde la variable a predecir es la producción, en función de algunas variables ambientales y encontrar su interrelación. Las enlistamos:
- Humedad en porcentaje.
- Irradiancia en kWh/m².
- Velocidad del viento. Velocidad diaria promedio, en metros por segundo.
- Dirección del viento. Dirección diaria promedio, de 0° a 360°.
- Promedio diario, en grados Celsius.
- En una escala de 1 a 5. Donde 1 es totalmente despejado y 5 es cubierto.
- Visibilidad en kilómetros.
- Factor de ensuciamiento. Días transcurridos sin mantenimiento.
- Grado de degradación del panel. Horas de servicio desde la instalación.
Como primer paso, graficaremos la correlación que existe entre cada variable de entrada con respecto a la salida del sistema. En este caso, la más alta es con la irradiancia solar. Esto comprueba la relación directa del sol con la energía producida, seguida de la humedad.
El segundo paso es construir una red neuronal que represente el escenario a resolver. Los modelos de aproximación suelen contener las siguientes capas:
- LSTM (Long Short-Term Memory). Captura dependencias a largo plazo en los datos secuenciales, lo que las hace muy útiles en tareas como la predicción de series temporales.
- De escalamiento. En la práctica, siempre es conveniente parametrizar las entradas para darles un rango adecuado. Contiene algunas estadísticas básicas que incluyen el promedio, la desviación estándar, los valores mínimos y máximos.
- Perceptrón. Es un tipo de modelo matemático de neurona artificial y es uno de los primeros y más simples algoritmos en el campo del aprendizaje automático.
- De desescalamiento. Las salidas escaladas de una red neuronal se deben regresar a las unidades originales.
Como ya lo establecimos para nuestro ejercicio, la red tiene nueve entradas y una salida.
Una vez definida la arquitectura y los registros históricos, seguimos a la fase de aprendizaje. El procedimiento utilizado se denomina estrategia de entrenamiento. Esto se hace buscando parámetros que ajusten la RNA al conjunto de datos. Típicamente, se divide en dos procesos:
- Función de pérdida. Es una métrica que mide qué tan bien o mal está funcionando el modelo en relación con el objetivo esperado. En otras palabras, es una medida de cuánto error o diferencia hay entre las predicciones realizadas por la RNA y los valores reales o deseados.
- Algoritmo de optimización. Es un método matemático utilizado para ajustar los pesos sinápticos y sesgos, de manera que se minimice la función de pérdida. Es decir, guía el aprendizaje, ayudando a la RNA a encontrar los parámetros óptimos. Tienen una variedad distinta de requisitos de procesamiento y almacenamiento, dependiendo de la cantidad de datos.
Cuando el modelo concluye con el entrenamiento, realizamos una validación llamada análisis de prueba. La finalidad es evaluar las capacidades de estandarización de la RNA. Un método de prueba estándar en aplicaciones de aproximación es efectuar un análisis de regresión lineal entre los valores calculados contra los reales.
Para un ajuste perfecto, el coeficiente de correlación R ² sería 1. Como tenemos R ² = 0.9951, la RNA predice con un grado de precisión bastante elevado.
Por último, en la implementación del modelo, la RNA predice datos para entradas que nunca ha visto. Podemos calcular los resultados para un conjunto dado:
- Humedad = 74.3 %
- Irradiancia = 8.4 kWh/m²
- Velocidad del viento = 8.03 km/s
- Dirección del viento = 178°
- Temperatura = 31 °C
- Nubosidad = 1.034
- Visibilidad = 8.67 km
- Factor de ensuciamiento = 94
- Grado de degradación del panel = 24,816
El resultado determinado para estos valores será: energía producida = 3,012.4 Watts.
Una vez que se vuelve funcional, podremos proyectar la tendencia impactándola con sus diversas variantes. No obstante, será imperativo continuar con el ingreso de más estadísticas a razón de ir nutriendo de conocimiento al sistema para robustecerlo y volverlo cada vez más preciso. A partir de datos históricos de producción, condiciones meteorológicas, posición del sol y factores estacionales, los modelos pueden pronosticar la cantidad de energía generada a corto y largo plazo.
La inteligencia artificial está transformando el uso y la gestión de los paneles solares, desde la optimización, el mantenimiento predictivo y la gestión eficiente de los recursos energéticos. Con el tiempo, su integración en sistemas fotovoltaicos continuará mejorando la eficiencia y reduciendo los costos, haciendo que sea aún más competitiva, interconectable y sostenible.
En la siguiente entrega llevaremos a la IA al siguiente nivel. ¿Qué pasa cuando se interconectan fuentes de generación y consumidores?
(Lea la primera parte de este material aquí)
*/ Frank Reyes es ingeniero en Electrónica y Telecomunicaciones por la Universidad Autónoma del Estado de Hidalgo. Trabajó en Petróleos Mexicanos como experto en sistemas de control y automatización. Durante su trayectoria en el ramo de hidrocarburos desarrolló herramientas de predicción mediante inteligencia artificial y machine learning para la optimización operativa de procesos en tiempo real, logrando certificaciones y reconocimientos dentro y fuera de la Empresa Productiva del Estado.
Es especialista en almacenamiento y distribución de energía, así como de su optimización y generación; asocia sistemas de gestión y mejores prácticas de confiabilidad. Es miembro en activo del Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) desde el 2010.
Las opiniones vertidas en «El Diario de la Transición Energética» son responsabilidad exclusiva de quienes las emiten y no representan necesariamente la posición de Energía a Debate, su línea editorial ni la del Consejo Editorial, así como tampoco de Perceptia21 Energía. Energía a Debate es un espacio informativo y de opinión plural sobre los temas relativos al sector energético, abarcando sus distintos subsectores, políticas públicas, regulación, transparencia y rendición de cuentas, con la finalidad de contribuir a la construcción de una ciudadanía informada en asuntos energéticos.