El potencial tecnológico de la energía eólica (vuelto a visitar)

A top-down approach to the technical potential of the wind power.

Carlos de Castro Carranza

 

 

  1. Introducción

 

Esto es un borrador hecho hace más de dos años, algunos párrafos no son míos sino producto de mis discusiones con Antonio García-Olivares et al. y la gente de mi grupo. La responsabilidad de lo que hay aquí es mía. Puede ser conveniente leer con atención enteros o al menos tener a mano los trabajos de Marvel et al, de J&A, de Miller et al. y el nuestro: de Castro et al.

Es importante distinguir entre potencia instalada nominal, potencia cinética de los vientos y la potencia promedio neta eléctrica que se vierte al usuario final, las primeras se darán normalmente en TW y la última, que es la que tratamos de calcular aquí, en TWe.

 

2. Definición de potenciales de un recurso energético renovable.

 

El potencial extraíble real de un recurso debería tener en cuenta, además de los límites teóricos de una tecnología (e.g. eficiencia), cuestiones derivadas de restricciones geográficas, de acceso a minerales y de cualquier otra posible limitación que de forma realista y práctica pueda darse sobre la aplicabilidad de esa tecnología, como pueden ser las necesidades de territorio reales y su posible competencia/conveniencia etc. Es decir, hay que pensar en un sentido amplio lo que se entiende por tecnología.

 

Dado que en  el Anexo I del documento “Renewable Energy Sources and Climate Change Mitigation. Special Report of the Intergovernmental Panel on Climate Change” se dan unas definiciones sobre potenciales de recursos energéticos renovables, parece lógico asumir como punto de partida esas definiciones y ampliarlas en dos sentidos.

  • Particularizar dichas definiciones para el caso de la energía eólica.
  • Desarrollar las definiciones con ejemplos, casos y datos que permitan una comprensión mas precisa de las mismas, así como indicar que restricciones o límites llevan de unas a otras definiciones.

Las definiciones recogidas por el IPCC y que nosotros vamos a utilizar son (directamente en inglés para respetar cualquier matiz):

Technical potential is the amount of renewable energy output obtainable by full implementation of demonstrated technologies or practices. No explicit reference to costs, barriers or policies is made. Technical potentials reported in the literature being assessed in this report, however, may have taken into account practical constraints and when explicitly stated there, they are generally indicated in the underlying report.

Theoretical potential is derived from natural and climatic (physical) parameters (e.g., total solar irradiation on a continent’s surface). The theoretical potential can be quantified with reasonable accuracy, but the information is of limited practical relevance. It represents the upper limit of what can be produced from an energy resource based on physical principles and current scientific knowledge. It does not take into account energy losses during the conversion process necessary to make use of the resource, nor any kind of barriers.

En la definición de potencial técnico se tienen en cuenta las “prácticas demostradas” que de alguna manera ya tienen en cuenta cuestiones económicas y de retorno energético (EROEI). Tecnológicamente se puede construir una plataforma gigantesca en plan isla flotante e irse a captar los vientos que circunnavegan el Antártico. Pero sería tan prohibitivamente caro que nadie en la práctica está haciendo eso ni lo hará en un futuro cercano. Incluso, podría pasar que la tasa de retorno energético fuera menor que uno, pero aún así, tecnológicamente sería factible, incluso anecdóticamente realizado, que es lo que se hace en algunos casos con los biocombustibles.

Tecnológicamente se puede poner un molino de viento en una zona de clase 1 o 2 pero no es práctica tecnológica común porque no es rentable económicamente. Los autores que hablan de potenciales técnicos suelen excluir estas clases de viento, aunque no haya razones puramente tecnológicas que excluyan su instalación.

 

A continuación definiremos las restricciones que tendremos en cuenta y que afectan al potencial técnico.

 

Technical and practical constraints. Englobarían a las puramente tecnológicas, que pueden cambiar según varía la tecnología a lo largo del tiempo, y las “prácticas comunes”. Restricciones de este tipo para el caso de la energía eólica son:

  • Geográficas: zonas en las que no es técnicamente factible, debido a su ubicación geográfica, la instalación de generadores de energía eólica con las tecnologías y prácticas actuales, tales como alta montaña u océanos fuera de la plataforma continental. Zonas de viento más allá de la ABL (ver definición más adelante) o por debajo de las clases de viento 3 o 4.
  • Tecnológicas. Rendimiento promedio en la transformación de una cantidad de energía eólica disponible en un lugar delimitado y la energía eléctrica disponible para un consumidor final. Las pérdidas son al menos debidas a no captación en las palas de los aerogeneradores de toda la energía circundante, perdidas mecánicas en la transmisión entre ejes de giro y rozamientos, pérdidas eléctricas en la transformación y pérdidas eléctricas en el transporte, consumo propio del sistema de regulación, pérdidas debidas a pérdida de disponibilidad operacional como consecuencia de averías y mantenimiento y pérdidas debidas a vientos fuera del rango de operación. Se tienen en cuenta que los parques eólicos deben tener un factor de capacidad (Cp) mínimo para ser viables. Se tiene en cuenta también un espaciado entre molinos al uso actual o no mayor del doble.
  • Materiales. No vamos a tener en cuenta esta restricción directamente en nuestro artículo, aunque diversos autores sostienen que no hay cobre en la tierra para montar, del orden de 50TW de potencia eólica (García-Olivares et al.).

3. A critical revision of the wind power potential estimation methodologies.

 

Se han utilizado y propuesto varias metodologías distintas para la estimación de los potenciales teóricos y técnicos (de Castro et al.). Podríamos agruparlas en dos grandes grupos: metodologías bottom-up (b-u) y top-down (t-d). Durante décadas se ha venido utilizando la metodología bottom-up a partir de la configuración de un mapa de las velocidades del viento en el mundo, con este mapa e hipótesis sobre tecnologías concretas y de disposición geográfica de las turbinas, se escala hacia arriba para encontrar los distintos potenciales a escala nacional, regional o global. Recientemente se han añadido metodologías a partir de GCM (modelos de circulación general) enfocadas al impacto climático de distintas disposiciones de molinos; aunque algunas de ellas han trabajado también los límites de su implantación. Éstas metodologías se han enfocado con simulaciones de los efectos de los molinos desde una perspectiva diferente que podríamos denominar top-down, Keith 2004, Miller 2012, Gans 2012, Wang 2010, Marvel 2012, aunque han ido apareciendo modelos GCM que simulan los molinos desde la perspectiva bottom-up (J&A).

Es en base a los estudios tradicionales bottom-up a partir de los cuales se han elaborado estudios, informes o papers que tratan de estimar los distintos potenciales teórico, tecnológico, económico o sostenible que se podría desarrollar con las políticas adecuadas (citas en de Castro et al.). Podemos destacar que el reciente informe del IPCC se basa de nuevo en este tipo de metodologías para dar los potenciales técnicos.

Frente a las metodologías bottom-up, se han propuesto recientemente metodologías top-down que parten de consideraciones teóricas basadas en principios fundamentales de la física y/o consideraciones tecnológicas (de Castro, Miller, Gans) o que se aplican a partir de GCM y Dataset analisis (Miller, Gans).

Como hemos señalado, las metodologías b-u han sido criticadas de forma directa en base a principios fundamentales de la física, porque se puede violar el principio de conservación de la cantidad de movimiento (Gans, Miller) y/o por la violación de la primera y/o segunda ley de la termodinámica (Miller, Gans, de Castro, este trabajo). De forma indirecta la metodología b-u ha sido puesta también en entredicho por los modelos GCM recientes que confirman una saturación de la potencia captable con turbinas eólicas y que concluyen que la metodología b-u tiene un límite de aplicación relativamente bajo (Gans y las revisiones hechas aquí de J&A y Marvel), lo que confirma la inquietud inicial de de Castro y Miller, aunque no se reconocen en J&A y Marvel et al.

A su vez, García-Olivares et al., en una visión top-down de tecnologías renovables, llaman la atención sobre que implantaciones elevadas de tecnologías renovables basadas fundamentalmente en solar y eólica (por ejemplo J&D proponen la producción de 5,75TW+5,75TW respectivamente para el 2030), se encuentran con límites de materiales importantes; según estos García-Olivares et al., se requeriría el 60% de las reservas del cobre del mundo para ello, lo que daría cuenta ya de su imposibilidad práctica en un mundo que aumenta su demanda para otros usos, con lo que potenciales técnicos que superen con mucho los 5TWe son tecnológicamente imposibles si por tecnología incluimos la que debe acceder a recursos materiales finitos, aunque se reciclen los materiales a tasas muy superiores a las actuales.

 

3.1. Top-down methodology of de Castro et al.

La metodogía propuesta por de Castro et al. parte de la conservación de la energía y potencia cinética de la atmósfera para ir detrayendo o excluyendo la energía no accesible por restricciones geográficas y tecnológicas. Este trabajo tiene dos objetivos: denunciar aquellas metodologías bottom-up que dan potenciales muy elevados por violar el primer principio de la termodinámica y proponer una nueva metodología que encuentra que los potenciales técnicos alcanzables (que de Castro et al. consideran realistas) están en el orden de 1TWe.

En esta metodología:

  1. Primeramente se calcula la potencia cinética que podría interactuar con las turbinas eólicas (alrededor de 100TW, que es el orden de magnitud que encuentran los estudios b-u como límite tecnológico para la energía eléctrica producible por molinos)
  2. de esta potencia se estima cuánta está en ubicaciones geográficamente accesibles
  3. de éstas ubicaciones se estiman cuáles ofrecen un potencial energético lo suficientemente grande como para entrar dentro del rango que se usa hoy en día para construir parques eólicos
  4. en las ubicaciones resultantes colocamos los molinos teniendo en cuenta que hay que dejar un mínimo espacio entre ellos para evitar que las estelas mermen la extracción
  5. para esos molinos se estima su factor de carga
  6. y por último, de esa cantidad se estima la eficiencia en que se puede transformar en energía eléctrica.

Es importante señalar que el factor verdaderamente limitante, el que cambia cualitativamente la capacidad de aprovechar la energía, es el primero de todos: la energía disipada en los primeros 200 metros de la atmósfera. Al fin y al cabo, el potencial aprovechable, que estiman en 1TWe, es un 1% de esa cantidad total, lo cual es razonable teniendo en cuenta las limitaciones de accesibilidad, disposición de molinos, clases de viento adecuadas y los factores de capacidad y de conversión. El hecho de que sólo haya ~100TW disponibles en los 200 metros de la atmósfera es lo que explica la gran diferencia entre los enfoques bottom-up y top-down. Los enfoques b-u se basan en la observación de ciertos puntos representativos y en asumir que todo es más o menos igual en una determinada área, independientemente de nuestra actuación sobre el área en concreto (salvo en la zona más próxima de la estela). Esto es solo correcto si los aerogeneradores son pocos y dispersos.

El trabajo de de Castro et al. se ha criticado por parte de J&A aduciendo que no se basa en consideraciones físicas realistas y para ello lo comparan con el resultado de un modelo GCM con simulación bottom-up de los molinos. En realidad, la comparación que se establece no puede ser directa, porque J&A en todo caso tratan de hallar un potencial teórico (según nuestra definición), frente al potencial técnico que persiguen de Castro et al.; y aunque J&A tratan de corregir los factores que diferencian su potencial teórico del potencial técnico, no lo hacen a nuestro juicio correctamente (ver más adelante).

La metodología top-down que proponen de Castro et al. se basa en una hipótesis fundamental: la potencia extraíble está limitada por la potencia disipada en la capa en la que se encuentran los molinos.

Se podría argumentar que la atmósfera no es un fluido compartimentado y que si se va extrayendo energía de la zona de 200 metros desde la superficie puede haber un bombeo desde zonas superiores, con lo que la visión de partir de 100TW accesibles, que hacen de Castro et al. sería errónea; pero debido a la rápida rotación de la Tierra la atmósfera es un fluido bastante estratificado. Esto quiere decir que se forman verdaderas capas en las que el fluido se mueve horizontalmente (perpendicularmente a la gravedad). Por supuesto, la estratificación se rompe en determinadas zonas y/o momentos debido a los movimientos convectivos, pero en la mayoría del fluido y la mayoría del tiempo, la atmósfera está formada por capas. La capa más próxima es la capa límite atmosférica inferior (ABL, atmospheric boundary layer). En esta zona los campos de vientos de la circulación global se adaptan a la rugosidad de la superficie de la tierra hasta llegar a la velocidad límite de cero m/s justo en la propia superficie. La capa límite es altamente turbulenta y con muchos movimientos verticales y está muy mezclada próxima a la superficie; los movimientos se van tornando progresivamente más ordenados, horizontales y conformes con el estado de las capas superiores a medida que nos vamos acercando al extremo superior del ABL y, salvo, en zonas convectivas, la circulación de la ABL está bastante desconectada de las capas superiores y no son de esperar grandes bombeos de energía desde y hacia la capa límite. La altura de esta capa suele ser muy superior a los 200 metros, por lo que los molinos eólicos siempre están dentro de esta capa y encima de ellos normalmente habrá decenas o cientos de metros de capa de ABL. La inmensa mayor parte de la interacción con los molinos será protagonizada por esta zona. Si no fuera así además, los molinos podrían generar grandes modificaciones en la dinámica atmosférica y por tanto fuertes cambios climáticos.

A los efectos del viento, las turbinas son un drag. Si se incrementa mucho el drag en una zona, se conseguirá que el viento esquive el obstáculo; es por lo que es difícil alterar el balance de energía total disipada en la capa de 200 metros, en especial si la disipación de los molinos a disponer es relativamente pequeña a esa energía inicial.

 

Aunque la hipótesis puede ser criticada en base a algunos trabajos y estudios, como los del propio J&A, Meneveau 2012, Baidya, Lebrometal etc. que argumentan que una parte de la disipación en los molinos proviene no de la propia capa donde se encuentran los molinos (axial mean flow) sino de flujos turbulentos de la periferia, especialmente de capas superiores a la altura de las turbinas; como se verá, si la disipación final en los molinos en el límite técnico es relativamente pequeña respecto al potencial de la ABL en donde están situados los molinos, la hipótesis es aplicable y válida, puesto que el error cometido inicial sería finalmente inferior al pequeño porcentaje respecto al potencial de la ABL. Es decir, si, por poner un ejemplo, se captara un 5% del potencial de la capa, aunque la mayor parte de esa energía viniera de fuera de la capa, es como si la fuente de potencia inicial fuera como mucho un 5% mayor y por tanto los cálculos habría que corregirlos al alza en un factor <1.05, nada significativo.

Por otro lado, de Castro et al. utilizó cálculos y estimaciones propias para calcular la potencia que se podría estar disipando en los vientos por debajo de los 200 metros. Esta estimación fue bastante gruesa y se puede refinar a partir de resultados teóricos y de data-analysis de la zona del ABL, donde de forma efectiva sí se puede afirmar con confianza que es la zona de influencia de las turbinas eólicas terrestres (ver epígrafe más adelante).

Se pueden refinar más los trabajos top-down propuestos hasta ahora, a partir de consideraciones estadísticas más realistas que las teóricas propuestas en de Castro et. al y Miller et al. Se hará aquí.

Por último, otra posible crítica al trabajo de de Castro et al. es la asignación de un factor de intercepción del viento por parte de los molinos que no tiene en cuenta de forma explícita el número de líneas de turbinas y la pérdida de potencia que los parques actuales tienen. Se limitan a exponer que el aumento de uno va en detrimento del otro, como se ha confirmado en base a modelos y experimentalmente, pero sin cuantificarlo. En realidad, la metodología top-down podría mejorar si se pudiera usar un GCM a escala de la ocupación de las turbinas o al menos, de las granjas, pero se defiende aquí que los GCM empleados hasta la fecha, con escalas muy grandes comparadas con la de los molinos, si bien pueden ser útiles para discusiones teóricas, son inferiores a la metodología top-down propuesta para estimar potenciales técnicos.

 

3.2. Marvel, J&A and Gans GCM models and estimations

 

Recientemente se han propuesto tres modelos GCM que evalúan o se aproximan a lo que podríamos llamar potenciales teóricos.

La ventaja de la utilización de un GCM es que explícitamente trata la dinámica atmosférica global, y su principal inconveniente es que debe simular el impacto sobre el viento de las turbinas y la escala empleada es muy grande comparada con el tamaño de un parque eólico.

Estos tres modelos pretenden tener en cuenta la conservación de la energía y/o del momentum en sus simulaciones, pero como veremos llegan a conclusiones muy diferentes entre ellos.

 

Marvel et al. utilizan un GCM para hallar un límite teórico encontrando la potencia cinética máxima que se podría disipar en el entorno de las turbinas terrestres o en hipotéticas turbinas en toda la atmósfera. Sus resultados dan más de 428TW cerca del suelo y más de 1873 TW en toda la atmósfera si llenáramos de turbinas todo el planeta. Concluyen con ello que no ven razones geofísicas limitantes para obtener del orden de los 17 TW. En la condición actual (sin turbinas), la atmósfera, según su modelo, y como se aprecia en su figura 1c. disipa  ~1650TW. Este valor es mayor que el más alto de los cinco GCM (la DE más alta de estos GCM resulta en 1235TW) y los tres datasets (con una media de 941TW) que revisa Marques 2009; Marques cree que los GCM tienden a sobre estimar ligeramente esta potencia, con lo que el resultado de Marvel está claramente fuera de rango (Peixoto y Oort, los autores más citados, dan 870TW para este valor aunque la actualización de datos efectivamente puede llevar a un valor de 940TW). Aunque 1650TW es la potencia disipada en toda la atmósfera por los vientos en el modelo de Marvel, si se añadieran el límite de turbinas capaz de disipar en ellas más de 1873TW cinéticos, en el conjunto de la atmósfera se estarían disipando más de 4100TW. Como comparación, los modelos GCM de Wang and Prinn y de Keith et al toman 860 y 867TW respectivamente, para esta potencia energética inicial.

Desde el punto de vista termodinámico parece poco intuitivo –por decirlo suavemente- que a un sistema al que se le añade rozamiento reaccione disipando (>4100TW) más que la suma de lo que se disipaba inicialmente (1650TW) y de lo que se extrae nuevo (1873TW). La potencia cinética disipada no se conserva en el sistema climático según este modelo, si bien la energía sí ha de hacerlo para no violar el primer principio de la termodinámica. De hecho, efectivamente, según su figura (1.b) la atmósfera contiene unos 155EJ de energía cinética (Peixoto da ~600EJ, otros autores dan más, con lo que sospechamos que hay un error de un factor 10 en esta gráfica, y en realidad su K=1550EJ), y ésta energía disminuye unas 20 veces según podemos ver en esa gráfica. Esto significa que el tiempo de residencia del viento (definido como la energía media entre la potencia media) disminuye unas 50 veces, es decir, que en realidad al caer tanto el tiempo de residencia del viento, éste dejaría de ser “viento”. En la figura A.1.e, el tiempo de residencia es de unos 11 días (lo que es coherente con que K = 1550EJ y no con K = 155EJ) y este cae a unos 0,2 días (50 veces) cuando se extraen 1873TW por las turbinas. Otra forma de ver esta aparente incongruencia es calculando la distancia promedio (L) que viajaría este viento (tiempo de residencia por la velocidad promedio de los vientos), ya que como la velocidad ha disminuido también (según la gráfica A.1.b de su supplementary material), la L se reduciría en más de 70 veces, pasando de unos 8500Km (Peixoto da del orden de 1000Km) a unos 120Km. Es obvio que un viento que recorre solo esta distancia en promedio es incapaz de hacer ninguna función climática como tratar de rellenar el gradiente de temperaturas entre ecuador y polos. Es decir, no estamos en ninguna condición física realista, por lo que creemos que el modelo debería ser revisado.

Según el texto, por cada incremento de 1W en la KE extraída, se incrementan 0,8 W la KE total disipada en toda la atmósfera, esto significaría que si KEE fuera de aproximadamente 1600TW, la TKE disipada total sería de unos 3250TW, aunque en la gráfica 1.b. vemos que supera los 4100TW, haciendo que, según ella, por cada W extraído se disiparan 1,5W más.

Estos aumentos de disipación significarían además que la atmósfera actual estaría muy alejada del MEP (maximum entropy production) y de la producción máxima de potencia asimilándola a una máquina térmica realista que trabajara a ese régimen, hipótesis bastante extendidas en la literatura (y que confirmaremos también aquí). Es más, como se estaría extrayendo más trabajo útil (energía mecánica disipada en las turbinas) que el trabajo mecánico que hoy hace la atmósfera (energía mecánica disipada), parecería que habríamos inventado una máquina que violaría el primer y segundo principios.

En la figura 1d el poleward atmospheric heat tansport pasa solo de 9PW a 7,5PW (lo que no es creíble si L ha disminuido 70 veces) y de hecho no empieza a declinar hasta que se sobrepasa una KEE de 1600TW cuando KE es de 35EJ (suponemos que en realidad 350EJ), P=4000TW y t residencia promedio 10 veces menor, es decir, que con menor velocidad y mucho menor t sigue llegando el mismo transporte a los polos.

La figura 1.e. implica que la atmósfera reduce su temperatura en unos 10 K cuando KEE es de 1800TW. Esto parece violar el segundo principio, porque se obtiene una máquina de tamaño mundial que sería análoga a tener un refrigerador del que se saca además trabajo útil (la energía eólica en las turbinas).

Se ha dicho que la atmósfera funciona como si fuera una heat engine quizás próxima al rendimiento del ciclo de Carnot. A escala global, la atmósfera tiene en este esquema una Th de 288 K y una Tc de 250 K, con lo que el rendimiento máximo teórico sería de aproximadamente el 13%. Sin embargo, el ciclo de Carnot no extrae potencia en un tiempo finito dado que requiere estados de equilibrio extremadamente lentos.

En realidad, la máquina real que supone la atmósfera, si suponemos que está a su máxima potencia (algo creíble en el ABL dada su rápida dinámica y coherente con argumentos teóricos, datasets y a partir de la hipótesis del MEP –Miller et al dan citas de esto-), trabajaría con un rendimiento respecto al teórico de la mitad a lo sumo. El rendimiento máximo a potencia máxima sería 1-√(Tc/TH) aunque bajo consideraciones más generales, trabajos recientes lo sitúan entre la mitad del rendimiento de Carnot (hC) y hC /(2- hC). Como el rendimiento de Carnot no supera el 13%, resulta que está en todo caso entre 6,5 y 7%. Es decir, que si la atmósfera (o al menos el ABL) trabajan a potencia máxima disipada, estaríamos lejos de los resultados de Marvel, ya que la disipación actual sería muy inferior a la máxima en un factor de aproximadamente 2,5.

Si consideramos el ABL (donde la hipótesis de potencia máxima es más creíble aún), y consideramos que Th = 288 y Tc = 280 , el rendimiento de Carnot sería del 2,78% y el de la “maquina atmosférica” de aproximadamente el 1,4%. Si la potencia total que se disipa en el ABL es <45000 TW (convención ascendente que parte se disipa por encima de la atmósfera), un rendimiento del 1,4% daría que menos de 625TW pueden ser considerados trabajo mecánico. Una parte de este trabajo sería cinético pero otra parte se iría en la disipación de hidrometeoros y en el mantenimiento y ascenso de las nubes. Por tanto, cualquier ABL muy superior a 625TW sería sospechoso de exageración y superior a 1250TW violaría el segundo principio. En el caso de Marvel, si la disipación en toda la atmósfera supera los 4100 TW, entonces, o bien mucho menos de la mitad se disiparían en el ABL (cambiando radicalmente la dinámica atmosférica) y la temperatura Tc baja mucho (ya que Th baja 10 grados tendiendo a reducir la eficiencia, lo que parece contrario a un aumento de la dinámica del ABL), o bien se viola el segundo principio.

Makarieva dice que frecuentemente se utiliza una analogía con una heat engine para aplicarlo a la dinámica de los huracanes, pero que algunos de estos modelos establecen que “by dissipating work within the engine, it is supposed to be posible to increase the per-cycle output of the mechanical work” y tratan de demostrar a partir de principios fundamentales de la termodinámica que esto es una physical misinterpretation of the nature of the Carnot heat engine. “The main feature of the “dissipative heat engine” is the increase in the work produced by the engine per cycle due to internal dissipation compared with the same engine without dissipation”. It is stated that “the fraction of mechanical energy dissipated… increases the heat input to the convective heat engine so that more energy is available to be converted into mechanical energy”, y trata de demostrar que esto es erróneo. Marvel et al llegan de hecho al resultado que Makarieva asegura que viola el segundo principio. Algo que también le ocurre al trabajo de J&A como veremos.

En cualquier caso, aunque tuviera razón Marvel et al., este modelo dice que for the near-surface cases, there is little change in total atmospheric dissipation. Es decir, que la hipótesis inicial de de Castro seguiría siendo aplicable y no acudiría una cantidad importante de energía a la zonas de extracción de los molinos de capas superiores. Por lo que este método que sólo pretende calcular un potencial geofísico teórico, no desmentiría el trabajo de De Castro et al. en ningún caso.

 

El trabajo de J&A es un GCM que simula de forma concreta un número de turbinas con características dadas. Son turbinas de 5MW de potencia nominal, con altura de hub de 100 metros, D = 126m y que siguen la curva de potencia teórica suministrada por el fabricante. Así pues, no se limitan a calcular la potencia cinética extraíble, sino que lo que calculan es la potencia eléctrica que darían distintas disposiciones de esas turbinas.

J&A tratan de asegurar la conservación de la energía a partir de la idea de que convertir KE en electricity termina, en parte, volviendo a energía cinética porque la electricidad finalmente se disipará en forma de calor que regenerará luego algo de energía potencial y posteriormente cinética. Cómo hacer esto sin violar el segundo principio (ver discusión anterior sobre el trabajo de Makarieva) puede ser un problema de su modelo.

J&A introducen un nuevo concepto, el SWPP (saturation wind power potencial), aunque ya se encontraba implícitamente en los razonamientos de Miller et al. y nuestros, lo que no reconocen; según este concepto, la conservación de la energía y el hecho de que las turbinas no pueden extraer más del 59,2% (Betz limit) del viento incidente, hace que en esa saturación, siga soplando viento en la atmósfera. Sus resultados dan 253TW para ese SWPP que podríamos identificar como un límite máximo teórico según nuestra definición. En el caso de aplicarlo sólo sobre suelos (excluyendo la Antártida), ese límite sería de 72TW, y si se añaden coastal ocean (<200m deep) de 80TW (un incremento del 10% más que utilizaremos).

J&A critican nada menos que a autores teóricos consagrados como Lorenz, Gustavson, Peixoto, Sorensen, Li y Stancey porque “are not based on a physical model of energy extraction so cannot give estimates of wind potencial at the height of turbines”. Encuentran que la extracción de energía a una altitud dada not deplete energy at all altitudes above or below it; so an estimate of wind potential in the whole atmosphere does not answer the practical question about wind turbine potential at typical hub height (en cualquier caso esto confirmaría de nuevo que la hipótesis de de Castro es aplicable). Sin embargo, Lorenz, Peixoto y otros autores, ponen un límite máximo a la potencia disipada en la atmósfera, en coherencia, no solo con los data sets, sino con los GCM mayoritariamente empleados, con lo que el límite físico ha de ser mayor en todo caso al límite que calculan J&A.

J&A en cambio no dan la potencia que se disipa en la atmósfera (sin añadir turbinas) que podría dar también su GCM y que se podría comparar así a los trabajos anteriores que critican. Aunque su SWPP es de 253TW como es inferior incluso a las estimaciones de la potencia que se disipa en la ABL (Peixoto da unos 435 TW) podría dar lugar a pensar que son compatibles unos trabajos con otros.

Su GCM is modified to treat wind turbines as an elevated momentum sink, where the KE extracted from the wind is determined from a turbine power curve at the instantaneous model wind speed. Cada turbina ocupa varios layer verticals y se aplica a todo el conjunto de una celda (1,5ºx1,5º mínimo) en vez de forma local, es decir, en cada célula de cálculo colocan N turbinas, calculan la extracción con mucho detalle para un solo molino y luego multiplican por N (lo que convierte a este GCM en una metodología bottom-up en vez de top-down). Computa la energía perdida por el flujo y recalcula la velocidad de la celda tras la extracción. Esto implica que todos los molinos de una celda interceptan exactamente el mismo flujo definido en una malla tipo Arakawa c, y por tanto independientemente de su posición en la granja. Esto es precisamente lo que se denuncia por parte de Milleret al.  y de Castro et al. de la metodología b-u. Además, los experimentos como los trabajos con LES (large eddy simulations) muestran que hay un decaimiento de la energía tras las primeras líneas de molinos hasta valores cercanos al 50% a partir de 6-8 líneas de molinos. Si el proceso fuese lineal y aditivo, podríamos ya decir que esos 253TW quizás habría que reducirlos a la mitad. Johnstone and Coleman recientemente modelan el efecto de un infinity array (al que se le puede aplicar muy bien la ocupación de toda la Tierra de miles de millones de turbinas), y concluyen que “the array efficiency is therefore reduced to aproximatly to 8/27, con lo que incluso podríamos estar hablando de 84TW en vez de 253TW.

Por otro lado, J&A realizan una control simulation (A) que was first run with turbines at 100 m hub height but no momentum extraction from them. In this case, the global capacity factor was about 31% based on instantaneous modelled wind speeds applied to the power curve for a 5MW turbine que al correr el modelo resultan en 1750 TW eléctricos, por lo que la potencia cinética que se disipa en las turbinas ha de ser mayor, al menos en un 40% (Betz limit). 1750 TW es la energía eléctrica convertida tras la interceptación de la energía cinética por la sección de los molinos (que sería de 1750/0,31 = 5730TW y, como no se extrae energía en esta simulación, podemos interpretar que esos 5730TW serían la energía del flujo interceptado en las subcapas entre 63 y 126 metros (donde se encuentran los molinos), por tanto la energía disipada en la capa límite (ABL) debe ser considerablemente mayor pues es solo una franja a la que habría que sumarle la energía de la capa inferior, que es la que presenta mayor grandiente de energía y la energía del resto de la ABL.

Obviamente, si nuestra interpretación es correcta de su simulación control, lo que definitivamente no está basado en un physical model of energy extraction es este modelo.

Un problema añadido general de su modelización es que en el mejor de los casos simulan 5 años cuando Wang señalan que en su modelo hay que esperar 40 años “to reach climatic steady states that approximatly repeat anually alfer that”. Marvel et al. use for all simulation integrations for 100 years y observan que las “simulations approach a stationary states on the timescales of decades”; usan pues “the final 60 years of each simulation were used for analysis”. Miller et al and Gans et al.: “all simulations were conducted for 30 simulated years with the first 10 years discarded from the analysis to exclude spin-up effects”.

 

Aunque pensamos que J&A sobre-estiman los valores de SWPP, se pueden utilizar sus resultados para confirmar que las metodologías b-u han venido sobrevalorando sistemáticamente el potencial técnico del viento.

 

Para poder comparar coherentemente el estudio de J&A con el de De Castro, elaboro la siguiente tabla a partir de la suya:

 

J&A results Number of

turbines (millions)

Density power

occupation (W/m2)

Power generation

(Twe)

Cp %
World 821 11,25 224 4
410 5,62 253 8,8
103 1,41 160 22,5
Land 302 11,25 72 4,8
149 5,62 66,7 8,9
37,4 1,41 39,7 21,2
Fixed on

land

 

4

11,25 1,63 8,1
4 5,62 3,93 19,5
4 1,41 7,5 37,5

 

El “number of turbines” son las turbinas de 5MW que hipotéticamente se instalarían y que se meten en su modelo.

La density power en W/m2 surge de tomar el “spacing” entre molinos de 5MW de potencia y un diámetro de palas D = 126 metros, con una altura de eje de 100 metros. Toman: 28·D2 (equivalente a 11,25 W/m2), 56·D2 (5,62 W/m2) y 224·D2 (1,41 W/m2) para el espacio reservado a cada molino y consideran que los 5 MW son la potencia nominal del generador, no la producida.

La “power generation” es la potencia eléctrica que generarían los molinos que en su modelo sitúan en la superficie terrestre.

Y la Cp es el factor de capacidad que resulta de dividir la potencia obtenida entre la potencia nominal instalada.

La industria eólica ha convencido a los inversores diciendo que sus molinos y parques reales tienen una Cp típica del 30-35% o más, aunque en realidad finalmente en Europa andamos por el 21%, en EEUU por el 25% (Boccard 2009) y a nivel mundial es de 0,22 (elaboración propia a partir de estadísticas internacionales). Podemos concluir que todo Cp por debajo del 20% no interesa, no es viable técnicamente (mirando la tabla se comprueba que la mayoría de las disposiciones no son viables desde el punto de vista técnico).

Bien, en Archer & Jacobson (2005) usando una metodología bottom-up dicen que bastan 99,1 millones de turbinas de 1,5 MW (D = 77metros y altura de eje de 80 metros) con un spacing de 28·D2 para obtener 71,5TWe que, conservadoramente según ellos, sería lo extraíble sobre tierra y en el mar cerca de las costas. El Cp que dan es de 0,48 y lo defienden como posible porque irían solo a las zonas mejores.

En Jacobson & Delucchi (2011) usan 3,8 millones de turbinas de 5MW con espaciado de 28·D2 para obtener 5,75 TWe de unas posibilidades de extracción que dicen que a 100 metros son de 72-170 TW basándose en su estudio de 2005 y otros estudios bottom-up. Podemos deducir siguiendo esta metodología que bastarían 48 millones de turbinas de 5MW para obtener los 72 TWe.

Sin embargo de la tabla vemos que se necesitan 302 millones de turbinas de 5MW con el mismo espaciado (28·D2) que los anteriores estudios para obtener 72 TW,  frente a los 99,1 millones de generadores más pequeños que teóricamente se necesitan en el primer estudio y los 48 millones del segundo estudio. Obviamente, la metodología bottom-up no es correcta porque no se conserva la energía, como decíamos.

Con el espaciado que daban Jacobson & Deluchi en 2011, en teoría conseguían 5,75TWe con 3,8 millones de turbinas, pero en la tabla vemos que 4 millones de esas turbinas con ese espaciado tan solo generaría 1,63 TWe. De nuevo la metodología bottom-up no conserva la energía por ignorar los efectos de sombra entre parques eólicos y dan de nuevo la razón a de Castro et al.

De hecho, la única forma de llegar a superar los 5,75 TWe de producción con esas turbinas sería distribuirlas con un espaciado muy superior, 5 o 10 veces más que lo que hoy se utiliza. Pedir a la industria que adquiera los terrenos y que haga caminos y redes de evacuación eléctrica para esa dispersión de molinos dentro de “parques” harían inviables los proyectos y quedaría fuera de la definición dada de límite técnico.

Para estimar un potencial técnico siguiendo el modelo de Jacobson & Archer 2012, habría que hacer que el sistema de molinos a montar a escala mundial tuviese una Cp superior a 0,20, que el espaciado entre turbinas fuera de 28·D2 y no mucho mayor, quizás el doble (evitaríamos las sombras pero perderíamos eficiencia por razones técnicas ya que para la industria esas altas densidades son “práctica común” de acuerdo a la definición de potencial técnico). Luego habría que descontar al menos un 50% de la potencia teórica obtenida con el modelo por dificultades de acceso geográfico (como hacen los optimistas Jacobson & Deluchi, 2011 aunque pensamos que sería aún más) y luego habría que hacer un balance de energía neta producida eléctrica (como se hacía en de Castro), ya que estamos intentando comparar ambas metodologías.

Si en teoría, con las curvas de potencia de los molinos en la mano, las Cp que calcula la industria y Jacobson son de 0,3 o más, pero las Cp reales en el mundo real hoy no superan en grandes regiones los 0,25 (Boccard 2009), entonces netamente se pierde entre la teoría y la realidad más del 25%. De esta forma nos iríamos aproximando a una evaluación coherente sobre el potencial técnico de la energía eólica…

Bien, pongamos en forma de gráfica la tabla anterior:

 

Se da la potencia generada en escala logarítmica frente a la densidad de potencia, y sobre los puntos que emplea la tabla, las Cp. Consideremos la zona casi triangular en azul que representa la zona donde los Cp superan el 20% (adecuate Cp) y la zona donde la industria se sentiría cómoda con la densidad de potencia a instalar (reallistic spacings) en color granate. La intersección de ambas nos daría una primera idea de por donde podría estar el límite técnico de la eólica: ¡alrededor de 1 TWe! Como nuestro trabajo decía. Puede que menos si consideramos la inaccesibilidad de muchas zonas que habría que utilizar (Sahara, Gobi) y la energía neta que finalmente se obtendría. Pero para confirmarlo habría que hacer un GCM y buscar la saturación con esas dos condiciones (Cp> 20%, density power ~ 8-12 W/m2).

Además, para el 2030, ellos proponen generadores de 5MW cuando la industria hoy tiene instalados un promedio de 1,2MW y un parque reciente (que en España, Dinamarca y Alemania ya han encontrado las mejores zonas) aspira a seguir funcionando con sus molinos al menos 20 años como “práctica común”.

 

Miller et al and Gans et al models.

Miller et al usan tres aproximaciones top-down basadas en 1.- Una estimación gruesa de lo que ellos denominan back-of-the-envelope, 2.- Un simple momentum model with reanalysis data y 3.- Un GCM de mediana complejidad con simulación de las turbinas que explícitamente conserva la energía y el momentum. En los tres casos estiman lo que aquí hemos denominado un potencial teórico.

En el primer caso, parten de la hipótesis de que las turbinas se instalarían en non glaciated land y dentro de la influencia del ABL (alrededor de 113 TW), de esta potencia, razonan que a lo sumo el límite de Betz podría convertirse en electricidad, es decir, 68TWe. Aunque a primera vista son similares a los 72TW encontrados por J&A, estos últimos tienen en cuenta la curva de potencia de las turbinas concretas que emplean (que reduce la potencia nominal al 31% en el caso de no interferencia entre turbinas) y no el límite de Betz, con el cual Miller et. al. habrían encontrado unos 36TW, o la mitad que J&A.

Por otro lado, Miller et al. no reducen con más factores su estimación para llegar a lo que nosotros denominamos aquí potencial técnico, pero en de Castro et al. ya se razonaba que adaptando adecuadamente los factores, ambos trabajos eran coherentes de forma aproximada.

El modelo que se basa en reanalysis data, es más interesante porque a partir de él se obtiene que el ABL disipa 513 TW en toda la superficie de la Tierra de los cuales 89TW es en non glaciated land. Si sobre este valor último, hubieran aplicado su “back-of-the-envelope” con la curva de potencia de J&A, habrían obtenido unos 28TWe para el potencial geográfico teórico, algo más de 1/3 que el valor de la SWPP de J&A, lo que estaría de acuerdo a lo que dijimos antes citando a Johnstone and Coleman. Pero, using the simple momentum balance model and the land-based dissipation of the ECMWF ERA-40 data results encuentran a maximum of 21TWe from the initial 89 TW of dissipation. It shows how an overall increase in momentum removal (drag +extraction) corresponds to a decrease in boundary layer dissipation. Es decir, que usando la conservación del momento, en vez de la conservación de la energía como factor limitante principal, obtienen entre ¼ y 1/5 de la ABL, suponiendo una conversión a electricidad perfecta.

En el caso del GCM que emplean, la potencia total disipada en el ABL la sitúan entre 71,5 y 125TW sobre non-glaciated land. Y los valores máximos de transformación eléctrica estarían entre los 18 y los 34 TWe.

Pero no se pueden emplear estos datos tal cual para estimar un potencial técnico porque esos valores se encuentran suponiendo una distribución equidistante y mundial de turbinas, que resultaría en problemas similares a los encontrados por J&A: un número enorme de turbinas con una bajísima Cp.

 

Gans et al. hacen un estudio más detallado sobre el mismo GCM empleado por Miller et al. cuidando explícitamente tanto la conservación del momentum como la de la energía del viento y lo aplican a turbinas concretas de 2MW de potencia nominal y diámetro D = 61metros a altura de hub de 80 metros.

De sus resultados se extrae que aproximadamente 125TW se disipan en el ABL non glaciated land (sobreestimado en un 40% respecto a los 89TWe que el dataset reanalysis mostraba). Concluyen que esta disipación disminuye (y no aumenta como en los casos de Marvel et al y aparentemente de J&A)  cuando se disipan en las turbinas unos 25TW, ya que el ABL disminuye a unos 115TW (10TW). Es más, si pensamos que al añadir drag con las turbinas parte del viento se irá a otras zonas de menor drag (e.g. océanos), es posible que la potencia global disipada en el ABL permanezca aproximadamente constante, pero en ningún caso parece que ésta aumente.

Para disipar esos 25TW y obtener un máximo de 15TWe teóricos por el límite de Betz, se necesitaría según su modelo una densidad equiespaciada de 10 turbinas por Km2, es decir, si tenemos en cuenta que la non-glaciated land es de unos 134 millones de kilómetros cuadrados, necesitaríamos 1340 millones de turbinas de 2MW, o lo que es lo mismo, instalar una potencia de 2680 TW para obtener menos de 15TWe (una Cp menor del 0,006). Obviamente, bajo este modelo, habría que ir a instalar potencias muchísimo menores a través de una densidad mucho menor para obtener un valor tecnológicamente creíble. Con una densidad 100 veces menor requeriríamos 26,8TW de potencia instalada para obtener menos de 1TWe, aunque subiríamos el CP de manera insuficiente a alrededor de 0,03. En realidad, los GCM al usar celdas muy grandes 1,5ºX1,5º de latidudxlongitud o más, están hallando un promedio sobre toda la celda (que ocuparía cientos de kilómetros de ancho), sin embargo, la industria eólica lógicamente se desarrolla no tomando un promedio así, sino buscando aquellos sitios de velocidad del viento elevadas (clases 4 o más), con lo que la Cp puede subir por encima de los 0,2 requeridos para ser viable tecnológicamente. Por esta razón, si bien, los GCM actuales pueden dar una idea gruesa de cual es el potencial teórico, son inaplicables para estimar los potenciales técnicos de interés para la industria pues para ello se requerirían celdas mucho más pequeñas, inalcanzables para la potencia de cálculo de los ordenadores actuales.

Así pues, para descender a una estimación del potencial técnico, no queda más remedio que hacer una estimación top-down, que parta de modelos GCM o mejor de data-reanalysis, para estimar la potencia del ABL en zonas determinadas donde se consideren geográficamente accesibles y a partir de aquí ir aplicando distintos factores de reducción, de forma análoga a como se planteaba en de Castro et al.

 

4. A top-down (and bottom-up) estimation of the sustainable potential of net wind energy power

 

Top-down: La hipótesis fundamental es que los potenciales técnicos realizables van a ser mucho menores que la disipación actual en el ABL, por tanto, las turbinas van a afectar poco a esta potencia. Una parte de esa disipación se va a producir necesariamente en el suelo y en el futuro cercano, el esperado aumento de infraestructuras humanas (no aerogeneradores), probablemente reduzca el ABL, al menos en las zonas geográficas donde se añada drag, como discute Gans et al y como parece que es la tendencia medida (citas que dimos en de Castro).

Es decir, consideraremos constante la potencia del ABL sobre las zonas geográficas en las que se instalarían las turbinas, aunque probablemente éste se viera reducido (lo que llevaría en todo caso a una sobre-estimación de este potencial).

Que entre 850 y 1200TW se disipan en toda la atmósfera, está muy bien establecido por consideraciones teóricas, GCMs  y datasets reanalysis, y cualquier estudio que se salga claramente de estos límites habría que revisarlo. Lo mismo se puede confirmar para el caso del ABL, donde estudios teóricos lo sitúan en aproximadamente el 50% de la disipación total y tanto los data set reanalysis como los GCM lo sitúan en 450-550TW.

De interés para nosotros es el ABL que se disipa en non-glaciated land, que tomaremos como 89TW siguiendo el trabajo de Miller et al. para, a partir de él, calcular el potencial técnico en suelos.

Podríamos partir de la extensión geográfica total y excluir aquellas zonas que por lejanía o inconveniencia pudiéramos razonablemente evitar: buena parte de los desiertos cálidos (ya que requeriría llevar infraestructuras a sitios muy alejados de las infraestructuras actuales), de los suelos del tipo permafrost (de nuevo la mayoría están muy alejados de urbes y son suelos que exigen pile foundation que profundizan en el suelo alrededor del 50% de la altura de la torre, lo que hoy las convierte en una tecnología en ensayo y muy cara), habría que excluir también las zonas urbanas, carreteras, líneas de alta tensión y sus correspondientes distancias de seguridad a las turbinas, y también bosques.

Si excluimos el 90% de los desiertos cálidos y de los suelos del permafrost (donde se encuentran la mayor parte de la energía en suelos), estaríamos descartando cerca ya de 50 millones de Km2, a ellos habría que añadirle la ocupación de ciudades más una distancia de seguridad, lo que eliminaría otros 7 millones de Km2, los bosques ocupan unos 40 millones de Km2 aunque una parte de ellos están en suelos de permafrost y en las zonas de exclusión de urbes y otras infraestructuras, y las carreteras, líneas de alta tensión y red de ferrocarriles y sus distancias de seguridad añadirían otros 5 millones de Km2 de exclusión. Esto significaría que entre el 50 y el 75% del non-glaciated land se podría excluir como no accesible con las tecnologías actuales.

Otra aproximación que añadiría consideraciones técnicas la podemos hacer suponiendo que respecto a las líneas de alta tensión actuales (aproximadamente 1,4 millones de kilómetros) situamos los parques a una distancia de más de 150 metros y menos de 10 kilómetros de ellas, con esto serían accesibles unos 27,5 millones de Km2 (el 20% del total). Si se duplicaran en el futuro las líneas de alta tensión para transportar principalmente la energía de los aerogeneradores, hablaríamos del 40% de accesibilidad, a la que habría luego que excluir aquellas zonas urbanizadas, bosques etc. que se encontraran dentro de esa franja. Por tanto, bajo este criterio entre el 60 y el 80 o más podría excluirse.

Tomaremos como extremos –generosos- para el factor geográfico accesible = 0,25-0,5 para el criterio de potencial técnico.

Por tanto, la potencia cinética disipada en las zonas de suelos accesibles en la capa del ABL se situaría en 22,25-44,5 TW. Si situamos en estas zonas turbinas, una parte se disiparía en ellas, otra parte se disiparía por debajo de ellas (en el suelo principalmente) y otra parte se seguiría disipando en las zonas más altas del ABL.

En una aproximación, la energía disipada es proporcional a la viscosidad y al cuadrado de la deformación del campo de velocidades: D = viscosidad · (du/dz)2 siendo u la velocidad y z la altura vertical. Como en el suelo la u = 0, du/dz cerca del suelo es > du/dz a cualquier otra altura. En las turbinas du no cambia hasta hacerse cero, sino que como mucho lo hace hasta el 59,2%, por lo que cerca del suelo y bastante por encima de las turbinas, la disipación siempre será mayor que la que se disipe en las turbinas (en turbinas reales no más de 1/3 del ABL podría disiparse en ellas, aún considerando que por arriba o los laterales de la turbina el viento las alimentara). Por tanto, la energía mecánica que puede interceptar cualquier tipo de turbina sería de aproximadamente 1/3 del ABL porque el resto se disiparía mayoritariamente cerca del suelo y fuera de la influencia de las turbinas (recordemos que nuestra hipótesis es que las turbinas no van a modificar apreciablemente la dinámica del ABL regional).

Por tanto, el potencial geográfico accesible a las turbinas quedaría entre: 7,5-15TW.

Para que la Cp no descienda por debajo de 0,25, habría que usar, de las zonas accesibles geográficamente, sólo las zonas de clase 4 o superior, que ocupan según A&J(2005) el 8,5% del territorio y portan el 39% de la potencia. Por tanto, el 60% de la potencia disipada de las zonas accesibles no daría buenas Cp y habría que descontarlo del potencial geográfico accesible. A este factor hay que aplicarle la capacidad de transformar en movimiento de la turbina de la energía con la que interactúan, que como mucho es del 59,2%. Sobre este valor, las turbinas tienen que transformar en electricidad neta (vertida a la red eléctrica) la energía mecánica que han obtenido, y el diseño de las mismas (curva de potencia) hace que el valor final se aproxime más a 1/3 que a ese 59,2%. Además, en parques reales, debido a pérdidas por availability, mantenimiento, sombra entre molinos, etc., se llega a perder a escala regional al menos otro 25%  de ese tercio (Boccard), valor que difícilmente puede aumentar si se disponen millones de turbinas en vez de las 200000 actuales (como se comprueba en los GCM de J&A y Gans et al, las Cp tienden a descender con el número de parques y turbinas). Si finalmente la Cp media se sitúa entre 0,25 y 0,33 en el futuro (hoy es de ~0,22, con lo que 0,33 supondría aumentar la eficiencia actual en un 50% a pesar de añadir mucha más potencia que la actual).

Este conjunto de factores daría finalmente un potencial técnico neto final entre 0,75-2TWe.

Además de suelos, algunos autores tratan de estimar el potencial offshore para profundidades marinas menores de 200 metros  (e.g. J&A, Li et al) llegando a aproximadamente el 10% del potencial onshore. Si esa proporción se mantuviera para nuestra estimación de suelos, encontraríamos finalmente que entre 0,8-2,25 TWe podría ser el límite técnico de la energía eólica.

 

En una hoja Excel posterios, se calcula a partir de los 89TW en suelos, con las mismas hipótesis que antes pero utilizando los datos de vientos de A&J para cada clase de viento y se utiliza una hipótesis de que la Cp aumenta con la clase de viento de 0,22 a 0,28 entre las clases 3 y 7 (siguiendo los datos de Wieser para EEUU pero corregidos a Cp realistas siguiendo a Boccard). Con este ligero cambio metodológico se llega a 0,92-1,84 TWe con un 25 o 50% de ocupación de todas las zonas de buenos vientos en suelos non glaciated.

 

Bottom-up: A pesar de que se ha criticado la metodología bottom-up extensamente en este trabajo, siguiendo el trabajo de Gans et. al, podemos utilizarla con relativa confianza si la potencia nominal a instalar es menor de 20TW (menos de 5-10TWe netos), por tanto, vamos a hacer una estimación con esta metodología ya que esperamos que el potencial técnico siguiendo los razonamientos hechos aquí, resulte en valores coherentes con los encontrados por la metodología t-d, incluso menores.

 

Para hacer una estimación usamos los datos de A&J (ver tabla excel), donde se calcula el porcentaje de territorio y la potencia cinética contenida en él para las distintas clases de vientos. La hipótesis fundamental aquí es utilizar una densidad de turbinas lo suficientemente baja y realista para que no se observen efectos wake que invaliden la metodología a la vez que se usan parques con separaciones de turbinas típicas. Para contrastar, A&J usan para su estimación una densidad de potencia instalada en turbinas de 9W/m2 y ocupan el 100% de todas las zonas de clases 3 o mayor. Nosotros usaremos esas mismas clases, pero suponemos CP realistas y densidades que van de 0,3W/m2 a 0,7W/m2 para las clases 3 a 7 respectivamente. Si restringimos el acceso al 25%-50% el a las zonas de clases 3-7 (50% utilizaron J&D), con estos datos el valor que obtenemos es: 0,5-1 TWe netos (ver tabla S1)

Para justificar por qué usamos unas densidades muy inferiores a los 9W/m2 (equivalentes a 28D2) además de remitirnos a los trabajos de GCM revisados aquí, vamos a hacer dos aproximaciones. La primera aproximación consiste en suponer una estructura de ocupación pseudo fractal; la idea es que para evitar los efectos de sombra, las densidades de turbinas que llevan a los SWPP tanto de J&A como de Gans et al. necesitamos que la densidad sea inferior a 1-3 W/m2, pero las turbinas reales se instalarán siempre en parques concretos con separaciones típicas de 28-56D2, lo que para compatibilizar ambas cosas, la idea sería instalar parques con las típicas densidades actuales pero separar los parques entre sí. Varios autores recomiendan ya separaciones de 56D2 y con parques del orden de 36 (6×6) turbinas dispuestos a hub heights de diferentes alturas (para evitar la pérdida de potencia por sombras). A su vez, si tenemos en cuenta otros trabajos, evitar la sombra entre parques puede hacer que la separación ideal entre parques sea al menos 4Ax4A, siendo A la anchura y longitud de un parque cuadrado. Esto reduciría la potencia a instalar entre 16 y 32 veces respecto a la utilizada en las aproximaciones típicas bottom-up. Es decir, a 0,3-0,6 W/m2. Poner mayor densidad de turbinas y parques supone bajar necesariamente la Cp, lo que haría técnicamente inviables estos parques.

La segunda aproximación, a modo de ejemplo, es estudiar un parque de parques concreto denominado Marquesado (entre las provincias de Almería y Granada de España), compuesto de dos macroparques de turbinas con potencia nominal promedio de 2MW y D=87m, con separaciones dentro de cada parque típicas de 3Dx10D (8,8 W/m2).  Uno de los macro-parques está compuesto de cuatro proyectos (parques) con un total de 100 turbinas y el otro por 7 proyectos totalizando 85 turbinas. La densidad conjunta de los macroparques es de 2,6 MW/Km2. Y el conjunto se encuentra en un “embudo” que capta vientos del suroeste o noreste y que los conducen a un estrechamiento donde ese efecto embudo convierte a la zona en clase 3 o 4 frente a lo que rodea el embudo (clases 1 y 2). Si calculamos la densidad de ocupación de turbinas en todo el embudo resulta en aproximadamente 0,3 W/Km2. Difícilmente se pueden poner más macroparques (quizás uno más) porque o bien tendería a situarse en zonas inadmisibles (urbes, carreteras, parques naturales) o unos parques se harían sombra a otros. Es importante tener en cuenta que una zona de clase superior (digamos 6 o 7) frecuentemente está rodeada geográficamente por zonas de clases muy adecuadas (4 o 5) mucho más extensas. Si la industria puede acceder a las zonas de clase de viento superiores, entonces si en ellas la densidad de parques es elevada (rebajando quizás finalmente la clase efectiva a 5 o 6), podría eliminar, por efecto sombra, una buena parte de las zonas 3, 4 o 5 adyacentes, que la metodología b-u contabiliza, pero que desaparecería en realidad por reconvertirse en zonas 1 o 2.

 

 

 

 

Supplementary material

 

 

Fuente Wikipedia: Alemania: 22300 turbinas con 29075MW instalados (1,3MW/turbina) y Cp = 0,18

Dinamarca tiene una Cp de 0,17

España tiene una Cp de 0,23

 

Fuente EWEA: www.globalwindday.org A finales de 2011 había unas 200000 turbinas, 237669 MW instalados (en 2011 se instalaron 40564MW y decomisionaron 528MW), media actual de las turbinas 1,2MW.

Datos de GWEC sacados de wikipedia: End of 2009 wind power installed 158,9GW. End of 2010 wind power installed 197,6GW, instalado en 2010 38,7MW, si el 50% de esa nueva potencia estuvo funcionando en 2010, entonces la potencia efectiva instalada en 2010 fue de 158,9 + 38,7/2 GW. La producción eléctrica en 2010 fue de 0,0394TW, con lo que la Cp mundial es de aproximadamente 0,22.

 

 

Plano de la disposición del conjunto eólico “Marquesado” con los dos “field farms” de Hueneja y Fiñana (elipses negras) y el efecto embudo que se produce entre el Parque natural de Sierra Nevada (sur) y el Parque natural de la Sierra de Baza (norte). La zona estrecha del embudo tiene una anchura de unos 15 kilómetros y la longitud del embudo entre Tabernas y Guadix es de unos 70Km. El desnivel en el valle por el que circula la autovía Granada-Almería es entre los dos field farms de más de 300 metros. Las flechas azules indican la dirección de los vientos preponderantes que penetran en el embudo. Es una zona apta para los vientos en la que conviven líneas de ferrocarril, carreteras, zonas de cultivo, parques naturales protegidos, pueblos y otras infraestructuras (incluidas campos solares fotovoltaicos y de concentración).

 

Plano más detallado de los dos macrocampos. En total 185 turbinas tienen instalada una potencia nominal de 374,15MW, en el “embudo” la densidad de potencia instalada es de unos 0,3MW/Km2

 

 

Vista aérea de parte del macrocampo Hueneja. En violeta un parque fotovoltaico. La línea verde es una línea de turbinas eólicas de 2MW de potencia dentro de uno de los parques (elipses rojas y azul)

 

 

 

Vista aérea de parte del parque con línea azul de la fotografía anterior. Se aprecian las líneas de turbinas y algunas distancias a la autovía o a infraestructuras anteriores al parque. Las turbinas deben adaptarse con distancias de seguridad a las infraestructuras, sin esas infraestructuras se podrían haber puesto más turbinas en la mayoría de estos parques.

 

 

Esquema del field Hueneja, compuesto de cuatro proyectos o parques cada uno de 25 turbinas de 2MW. Las distancias entre turbinas (en cada línea) son de alrededor de 3D, siendo D el diámetro del aerogenerador. La densidad en cada parque es de alrededor de 9MW/Km2, la densidad en el macroparque Hueneja es de unos 4MW/Km2.

 

 

 

 

Vientos

Vh80 (m/s)

% del territorio

% de potencia contenida

CF

Densidad de turbinas (MW/Km2)

Potencia (TW) (50% accesibilidad)

Clase 1

4

0,759

0,317

Clase 2

6,4

0,115

0,197

clase 3

7,2

0,041

0,100

0,224

0,3

0,185

clase 4

7,8

0,028

0,087

0,231

0,4

0,173

clase 5

8,35

0,016

0,061

0,254

0,5

0,136

clase 6

9

0,016

0,076

0,266

0,6

0,171

clase 7

10

0,025

0,163

0,281

0,7

0,330

Clase >2

0,126

0,487

0,995

 

Tabla S.1. Cálculos para la estimación bottom-up a partir del porcentaje de territorio correspondiente a las distintas clases de viento en non-glaciated land (según A&J 2005). El factor de capacidad asignado, es 2/3 del valor de la recta de ajuste a los valores que da Wiser para proyectos de Estados Unidos de los años 2005-2007 (Wiser da factores de capacidad por encima de 0,35 para estos proyectos, pero la media de EEUU es de 0,25 según Boccard). Se asume una densidad de potencias que aumenta linealmente con la clase de viento de 0,3MW/Km2 (equivalente a la potencia instalada en el macroparque Marquesado) hasta 0,7MW/Km2 para las zonas de clase 7. El cálculo de potencial tecno-económico se estima a partir de estas hipótesis y un factor de accesibilidad del 50% a las zonas de vientos adecuados a escala global. La última fila hace el cálculo para vientos de clase 3 o superior. De la clase 7 una parte de la potencia no sería accesible por “exceso de vientos”, pero no se contabiliza aquí.

tipo de viento

CF realista

% de potencia contenida

TW en ABL on land

TW en molinos (1/3)

Twe en molinos

Twe accesibles (50%)

Twe accesibles (25%)

Clase 1

0,317

28,18

9,39

Clase 2

0,197

17,49

5,83

clase 3

0,224

0,100

8,89

2,96

0,67

0,33

0,17

clase 4

0,231

0,087

7,72

2,57

0,59

0,30

0,15

clase 5

0,254

0,061

5,40

1,80

0,46

0,23

0,11

clase 6

0,266

0,076

6,78

2,26

0,60

0,30

0,15

clase 7

0,281

0,163

14,53

4,84

1,36

0,68

0,34

clase > 2

0,486

89,00

29,67

3,68

1,84

0,92

Tabla S.2. Cálculos para la estimación top-down a partir de la potencia contenida en los vientos (ver tabla S.1) y de la que se disipa en el ABL (suponiendo en total 89TW según datos de Miller). Suponemos que 1/3 sería la disipación máxima en molinos que saturaran la zona, que los factores de capacidad vienen dados según la tabla S.1. y que podemos acceder al 50 y 25% de todos los territorios de diferentes clases de viento.

 

 

 

 

Referencias:

 

García-Olivares et al. muy interesante la discusión de los límites que imponen los materiales; para llegar a los límites con sus restricciones se necesitan cambios extraordinarios en la organización mundial política y económica que se me antojan tan difíciles como superar nuestros límites tecnológicos. En el caso que nos ocupa nosotros encontramos mayores restricciones tecnológicas.

 

Johnstone and Coleman 2012 (los que reducen el array efficiency a 8/27). Citan a Milborrow 1980 (predice el 37%). La energía no se transporta a través del tope del ABL por la fuerza de Coriolis. Se puede modelar las turbinas como un enhanced surface roughness, de acuerdo con Calaf.

 

Meyers Meneveau 2011. aconsejan ampliar el espacing y variar las alturas (>15D porque con 10D se pierde un 20%)

 

Lebronetal2012  about 50% de la energía viene del axial flux y el otro 50% de turbulent fluxes on the periphery (lo que no significa que esa periferia esté fuera del ABL)

 

Meneveau 2012 infinitas turbinas 28D2 pierden entre el 40 y el 50%, con 20D se pierde el 10%. Aconseja 6×6 parques.

 

Wang-Prim. Potential climatic impacts and reliability of very large-scale wind

Farms C. Wang and R. G. Prinn. Atmos. Chem. Phys., 10, 2053–2061, 2010.

Ocupan 6800MHa (land + ocean depth<200m), modelo de 60 años usando los últimos 20., darían 4,4TWe. Toman 860TW. Esta magnitud no cambiará apreciablemente con los molinos, confirmando nuestra hipótesis más “delicada”, presuponen Cp = 0,33 y 13 millones de turbinas de 1MW; densidad de 0,2 MW/Km2

Es correcto lo que hacen, pero están ocupando el 43% de toda la superficie continental, cuando las zonas de clase 3 o más (con Cp > 0,33) no llegan ni al 25%. Si reducimos al 8,5% (clases 4 o mayores capaces de Cp <= 0,33) reduciríamos a 1/3 su valor, aún considerando igual la ocupación que toman de océanos, es decir: 1,36TWe reconfirmando una vez más nuestros resultados. Obtienen que sobre esos 58 MKm2 la temperatura subiría 1ºC, pero que esa subida de temperatura sería muy pequeña por debajo de 1TWe. Las variaciones seasonal up to a factor 1,5-2, esto implica que aunque el límite promedio anual sea de xTWe, finalmente este límite se ve reducido si consideramos mínima disponibilidad, es el problema de la intermitencia que no se suele considerar y que no se complementa con la solar; la razón fundamental estriba en que la mayoría de las zonas emergidas están en el hemisferio norte y que el viento varía su potencia según las estaciones del año. Es decir que si conseguimos llegar al límite de 1TWe, tendríamos durante meses que no llegaríamos a 0,75TWe de producción.

 

Lorenz-Rennó 2002. Se disipa exergía por la fricción de las gotas de lluvia y nieve (2W/m2)(citan a Pauluis 2000 y Renno 2001). Toman Tc = 250K. el trabajo en mantener las nubes 0,15W/m2.

 

Makarieva 2010. La atmósfera no sería una heat engine próxima al rendimiento de Carnot, si no en todo caso próxima al de potencia máxima. The dissipation of work within a heat engine cannot increase the work produced by the engine. Citan a Curzon¬ahlborn, Leff 1987, Rebhan 2002, Van den Broeck 2005, Feidt et al 2007, Jimenez de Cisneros&Calvo Hernández 2008, Izumida&Okuda 2009). Confirma así lo que encuentran los del Max Planck (que al añadir rozamiento con los molinos reduces en vez de mantener o aumentar como encuentran Marvel y Jacobson el trabajo disipado en la zona del ABL: en vez de compensarse con lo que viene de “arriba”. Esto también lo razonábamos en nuestro primer artículo cuando decíamos que lo que se está observando es de hecho que las infraestructuras humanas seguramente están llevando el viento a los océanos).

 

Peixoto. Emitted radiation about 250K. The climate system must be regarded as a highly dissipative system (export entropy 20-30 times it imports). Turbulent and convective processes 37000 TW. Para el cálculo de entropía del frictional heating toma Tc = 280K (el válido para la zona del ABL).

 

 

Curzon Ahlborn 1975. Rendimiento 1-raiz(Tc/Th).

 

 

Pauluis 2000, 2-4W/m2 hydrometeors in the tropics con nubes de 5-10Km de altitude.

 

Wang. Llega a la generalización mínima y maxima de una máquina de potencia máxima. Con ciclo de Carnot y sin más fricciones.

 

Li et al. 2007, tiempos de residencia de aproximadamente 1 semana, energía 710-735 EJ., 1000-1300TW.

 

Marques 2009. Reanalysis y GCM. Concluye que los GCM tienden a dar más potencia en la atmósfera que los datos y sus análisis a la vez que nos ayuda a descartar como exagerados los modelos de Marvel y Jacobson.

 

Keith 2004: 1,7W/m2 870TW (dicen también 850TW).

 

Gans et al. 2012 The problem of the second wind turbine – a note on a common but

flawed wind power estimation method F. Gans, L. M. Miller, and A. Kleidon. Earth Syst. Dynam., 3, 79–86, 2012 Aquí demuestran que las metodologías bottom-up terminan engordando tanto el potencial que violan el primer principio y la conservación del momento cinético.

 

Miller et al. 2011 Estimating maximum global land surface wind power extractability

and associated climatic consequences L. M. Miller,, F. Gans and A. Kleidon. Earth Syst. Dynam., 2, 1–12, 2011 Este artículo se presta a confusión porque algunos lo comparan tal cual con el nuestro. En realidad ellos no pretenden lo mismo que nosotros y su cálculo se refiere más a lo que denominamos potencial teórico, no tecnológico. Me escribí con Axel Kleidon para discutirlo y concluímos ambos que su trabajo es compatible con el nuestro. También « alucinamos » con el empeño en ignorar por parte de Marvel y Jacobson y sus colaboradores respectivos los dos principios de la termodinámica, cosas del tecno-optimismo que hemos confirmado con la fotovoltaica, los biocombustibles y otras energías (renovables o no).

 

J&A : Jacobson and Archer 2012. Saturation wind power potential and its implications for wind energy. PNAS. Este es el artículo que criticamos fuertemente aquí. Su modelo está mal hecho, indirectamente reconocen que el equipo del Max Planck y nosotros teníamos razón pero lejos de reconocerlo, nos critican a nosotros y a muchos otros investigadores, no reconocen que su « nueva » contribución ya estaba implícita en Miller et al. Además « casualmente » siempre les da el mismo potencial de unos 72TWe  desde hace más de un lustro a pesar de cambiar el tipo de molinos (cada vez necesitan más y más grandes para llegar siempre a lo mismo, se aprovechan de que la gente no lee con atención).

 

Archer &J 2005. datos de velocidades, b-u mal hecha que viola el primer principio. Dicen que sus estimaciones de velocidades son probablemente conservadoras, si fuera así, quizás subiera un poco nuestras estimaciones basadas en sus campos de velocidades.

 

J&D. Jacobson y Deluchi 2011. Providing all global energy with wind, water, and solar power, Part I: Technologies, energy resources, quantities and areas of infrastructure,

and materials Mark Z. Jacobson, Mark A. Delucchi. Este artículo fue criticado por Ted Trainer y por García-Olivares y en mi opinión es una alucinación tecno-optimista. Ellos aquí mencionan un factor de ocupación del 50% que empleamos aquí nosotros (aunque nos parece exagerado y por eso también usamos el 25% -por no usar aún menos-). Un factor de ocupación del 100% que la mayoría “usan” cuando proyectan límites “tecnológicos” es sencillamente absurdo, implica que si una zona es de clase 4 y una autovía la atraviesa, la quitaríamos para plantar molinos.

 

Marvel et al. 2012. Geophysical limits to global wind power Kate Marvel, Ben Kravitz

and Ken Caldeira. Nature climate change. 9 SEPTEMBER 2012 | DOI: 10.1038/NCLIMATE1683. Este es el otro artículo que criticamos extensamente aquí. Es llamativo que vinieran casi juntos éste y el de J&A en dos revistas de altísimo prestigio y sin embargo que acumulen errores de bulto tan obvios. En este artículo se ignora nuestro trabajo.

 

 


Georgescu-Roegen y la importancia de los materiales

Recientemente terminé de leer el libro “La bioeconomía de Georgesu-Roegen” de Óscar Carpintero, texto que “constituye la primera biografía intelectual publicada en castellano sobre este autor, y tiene como finalidad resaltar los principales aspectos de su obra económico-ecológica, de su bioeconomía”. Sin embargo, se trata de mucho más que un texto académico, puesto que se adentra en las interacciones entre el proceso de investigación, la personalidad y los (particulares) avatares biográficos en un contexto en el que las ideas exploradas no se corresponden con el paradigma convencional, canónica, del campo de estudio. En el caso concreto de GR, ésto se tradujo durante el mayor tiempo de su vida en una chocante irrelevancia, aunque se puede decir que plantó muchas semillas (entre sus discípulos figura H. Daly, famoso y brillante proponente del “estado estacionario”) y sus ideas se han constituido en pilar de la Economía Ecológica.

Leer a GR resulta en ocasiones una tarea difícil, incluso ardua, puesto que se trata de textos “muy” multidisciplinares con argumentaciones que integran diversas ciencias (economía, estadística, biología, etc.) con la filosofía de la ciencia en una perspectiva histórica de varias décadas en incluso siglos. Por ello, recomiendo este libro escrito de manera clara y didáctica encarecidamente a todo interesado en el pensamiento de GR, en la crítica contundente a las teorías neoclásicas imperantes, en la investigación del papel de las restricciones físicas (termodinámicas) en el proceso económico, así como en la evolución histórica de los diferentes derroteros que ha tomado la economía que se preocupa por el medio ambiente y la sostenibilidad.

Este post no es una reseña del libro, por lo que me limitaré aquí a comentar muy brevemente la interpretación de GR del proceso económico basándose en las leyes de la termodinámica, y que se encuentra resumido en la figura 1 siguiente:

  • 1er principio de conservación de la energía: la energía ni se crea ni se destruye, sólo se transforma.
  • 3er principio o Ley de la entropía: en esa transformación, la energía pierde su calidad y se degrada, disminuyendo sus posbilidades para el aprovechamiento humano.

Figura 1

Para GR, el proceso económico consiste en la transformación de inputs de baja entropía (con alto valor de cambio; materia y energías no renovables), mediante un proceso de transformación también sujeto a límites termodinámicos (como por ejemplo en las tasas de progreso tecnológico o las posibilidades de sustitución), en outputs de alta entropía (bajo valor de cambio; residuos). Así, debido al “carácter irreversible e irrevocable” de la ley de la entropía, su cumplimiento en los procesos de extracción y utilización conlleva un aumento de la escasez” (nótese que la variable precio es aquí irrelevante en la definición de escasez frente a la visión convencional). En efecto, GR interpretaba las leyes de la termodinámica “como limitación física a la expansión del sistema económico” (y este enfoque aplicamos en nuestros modelos).

Asímismo, GR pensaba que “es muy probable que el problema de la escasez aparezca más por parte de los materiales que por el ámbito de la energía, pues siempre nos quedará la opción de apelar –con mayor o menor éxito- al flujo de radiación solar.” En este punto se situó de nuevo a la contra de la mayoría de sus colegas, puesto que (1) los economistas ortodoxos no le atribuían mayor importancia a los inputs energéticos y de material más allá de las coyunturas geopolíticas y de inversión, y (2) aquellos científicos que comenzaban a analizar la importancia de estos inputs se centraban mayoritariamente en el factor energético. Desde luego, en este último punto tuvo especial importancia la crisis energética de los 70. Y GR no ahorró críticas a la denominada corriente del “dogma energético” que postulaba que “los materiales no son ya un problema pues siempre podrían reciclarse por completo por mucho que se disipen. Únicamente haría falta obtener la energía para poder concentrarlos”. Sólo que cuando la tasa de concentración del mineral tiende a cero (como ocurre en los residuos), ¡la energía necesaria para concentrarlos de nuevo tiende a infinito! La obviedad de la imposibilidad de acometer tal tarea de forma práctica llevó a GR a enunciar su 4º ley de la termodinámica, cuya validez no fue sin embargo aceptada de forma teórica. Sin embargo, toda su vida perseveró en recordar que “matter, matters too” (juego de palabras: la materia también importa).

Se puede decir que el factor energético ha continuado concentrando la atención mayoritaria entre los investigadores. Irónicamente, el propio nombre de este grupo de investigación lo demuestra, ¡a pesar de que el aspecto material no es ni mucho menos obviado! (ver por ejemplo el estudio del potencial de la energía solar eléctrica y el post “Sueños tecnológicos contra la pared de la realidad“).

Un análisis del flujo de materiales (incluyendo a los energéticos) a nivel global y de la UE nos pone en la tierra sobre la linealidad de nuestro sistema económico. Pues mientras no seamos capaces de alimentarnos de energía renovable y cerrar los círculos materiales, no habrá sostenibilidad.

 

Figura 2 (Haas et al., 2015): Diagrama de Sankey de los flujos materiales globales (world) y de la UE (EU-27) en 2005. Los números indican la magnitud de los flujos en Gt/yr. EU = Unión Europea; RoW = Resto del mundo.

Iñigo Capellán-Pérez

Referencias

  • Oscar Carpintero. La bioeconomía de Georgescu-Roegen. Montesinos, 2006.
  • La obra fundamental de GR, “La ley de la entropía y el proceso económico”, publicada en 1971, se encuentra desafortunadamente descatalagoda en castellano, aunque se puede descargar en PDF aquí.
  • Presentación de Alicia Valero “Gaia versus Thanatia: El crepúsculo de los recursos de la Tierra” (2014).

’2052′: integrando límites en un “mundo lleno” (2)

Como comentábamos en el post anterior ’2052′: integrando límites en un “mundo lleno”, la ciencia económica convencional ha ignorado durante los siglos XIX y XX el tema de los límites. Más exactamente, no los ha ignorado sino que ha asumido que estos límites no eran significativos, y de existir, podían ser superados por otros factores, típicamente la tecnología. Esta hipótesis, progresivamente asumida hace unos 150-200 años, y entonces justificable y por tanto correcta (la hipótesis del “mundo vacío”), ha dejado sin embargo de ser válida en nuestros días.

Y es que en cualquier ciencia aparecen problemas cuando se deja de contrastar una hipótesis y se asume como principio. La hipótesis se convierte entonces en parte estructural (= incuestionable) del paradigma.

Tras la ola de investigación en torno a la sostenibilidad de los años 70, nos encontramos actualmente ante un nuevo impulso. Mientras hace 4 décadas esta ola se debió más a un esfuerzo de anticipación y planificación, la actual, mayor en magnitud y extensión, parece deberse simplemente a la fuerza que tienen los hechos al revelarse. Es interesante comprobar como aunque se advierten avances en el terreno académico, en el político la impresión es más bien la de retroceso respecto de la Cumbre de Estocolmo (1972) o de Río (1992).

En este contexto, el informe 2052 de J. Randers retoma el tema de la sostenibilidad sistémica (recursos, desigualdad, contaminación, etc.) y por lo tanto incluye el tema de la finitud de los recursos energéticos no renovables. Éstos son integrados en un modelo mundial de forma similar (aunque también con diferencias significativas) al modelo WORLD3 del informe de los “Límites del Crecimiento” – en el que Randers también participó.

Es muy interesante ver cómo, 40 años, después, los modelos siguen apuntando a resultados similares a los obtenidos por el WORLD3 de los años 70. Aunque más interesante aún quizá es constatar cómo éste modelo, opuestamente a la “creencia popular en la academia” ha reproducido muy bien la evolución de los últimos 40 años:

(Turner 2008; 2012). Figura tomada de Scientific American: http://www.scientificamerican.com/article/apocalypse-soon-has-civilization-passed-the-environmental-point-of-no-return/

El informe 2052 prevé que será la variable climática la variable crítica en las próximas décadas, es decir que una colapso sistémico sería causado por una interrelación de variables entre las cuales la primera en superar valores críticos sería la climática. Sin embargo, llama la atención cómo, en el contexto BAU que asume Randers, no considera el alcance de un pico en el GDP mundial como una variable crítica:

 

(Randers 2052)

Simplemente comenta que “la economía mundial en 2050 será mucho menor que lo que la mayoría de la gente cree” (aunque es posible que en el libro le extensión dedicada a este tema sea mayor). Las principales razones de esa saturación en el nivel de actividad económica mundial son consecuencia del efecto combinado del (1) declive de la productividad (como se viene observando en las últimas décadas), y (2) de la integración de la ley de rendimientos decrecientes en el sector energético (vía incremento de la proporción de la inversión sobre el GDP, o lo que es lo mismo, de la reducción del EROEI, como se puede ver en la figura anterior). Es muy significativo que la mayoría de modelos (y especialmente aquellos que son políticamente relevantes como el WEM de la Agencia Internacional de la Energía o aquellos que participan en el proceso del IPCC) obvian aspectos como el EROEI, y al hacerlo sus modelos son incapaces de representar estos procesos.

Otro ejemplo de modelo que integra la limitación de recursos y el EROEI es el GEMBA de M. Dale (Dale 2012). De nuevo, se obtienen techos de producción no-renovable poco antes de 2050 así como una saturación en la actividad económica asociada. Esto también coincide con el BAU del informe “Límites del Crecimiento” desde 1972. Grosso modo, parece que los modelos se ponen de acuerdo.

(Dale 2012). IZQ: Proyección de potencia energética por fuentes de energía; DCHA: Nivel de capital industrial total (EJ) representado en función del capital del sector energético (EJ).

Sin embargo, estos 3 modelos no están preparados para representar los problemas a corto y medio plazo de la energía. Es decir, su modelado asume directamente que éstos no van a existir. En las propias palabras de Randers: “Por lo tanto, no preveo un shock petrolero, ni tampoco ninguna otra crisis relacionada con los recursos en el horizonte. Tan sólo veo una transición de materiales baratos a sustitutos más caros, y con suerte, que la transición se realice a un ritmo suficiente para evitar el tipo de choques que pudieran hacer descarrilar el sistema. Pero, de nuevo, esta previsión optimista es una consecuencia de la ralentización del crecimiento económico que confío que se produzca en los próximos 40 años”.

Es decir, estos modelos nos están hablando de máximos teóricos (inalcanzables por lo tanto), no de fechas más probables. Mucha literatura ha explorado las implicaciones económicas del peakoil. En particular, Gail Tverberg escribió un post en respuesta al informe de “2052” con el franco título: “Por qué no me creo la predicción para 2052 de Randers”, en el que criticaba diversos aspectos del modelado del sector energético, su insuficiente desagregación regional (que obvia particularidades locales que podrían tener implicaciones globales) o la omisión de los precios de la energía.

Pero no debemos olvidar que el modelo perfecto a corto, y largo plazo que incluya “todo” no existe ni existirá nunca por nuestra ignorancia intrínseca y las incertidumbres asociadas, y éstos se deben de usar más bien como “herramientas de orientación” en procesos político-sociales. Algo así como rudimentarios (e imprecisos) aparatos de navegación (brújula, astrolabios) en una nave: la tripulación también debe de valorar los riesgos y participar en el diseño de la ruta más segura.

Iñigo Capellán Pérez

Referencias

(Dale 2012) Dale, M., S. Krumdieck, and P. Bodger. “Global Energy Modelling — A Biophysical Approach (GEMBA) Part 2: Methodology.” Ecological Economics 73 (Enero 2012): 158–67. doi:10.1016/j.ecolecon.2011.10.028.

(Turner 2008) Turner, Graham M. “A Comparison of The Limits to Growth with 30 Years of Reality.” Global Environmental Change 18, no. 3 (Agosto 2008): 397–411. doi:10.1016/j.gloenvcha.2008.05.001.

(Turner 2012) Turner, Graham M. “On the Cusp of Global Collapse? Updated Comparison of The Limits to Growth with Historical Data.” GAIA  – Ecological Perspectives for Science and Society 21, no. 2 (2012): 116–24.


La máquina perfecta y el crecimiento económico

 

“El mayor defecto de la raza humana es nuestra incapacidad para comprender la función exponencial”. A. Allen Bartlett

 

Durante el siglo XX la economía humana se expandió (exponencialmente) 16 veces (Producto Interior Bruto) y el consumo de energía comercial 17 veces.

Esto ha sido posible principalmente gracias al flujo de combustibles fósiles.

Sin embargo, un crecimiento como este (de alrededor del 3% anual) no es posible mantenerlo indefinidamente (y por tanto la economía no puede siempre crecer exponencialmente).

 

Suponed que llevamos al límite las leyes físicas y que creamos hoy una máquina perfecta capaz de convertir la materia en pura energía usable (por ejemplo electricidad) a partir de la conocida expresión de Einstein: E = m·c2.

A partir de expresiones analíticas o apoyándose en una hoja de cálculo, calcule:

1.- Cuánto tiempo tardaríamos en hacer hervir los océanos (bastaría con incrementar unos 36 W/m2 la potencia disipada promedio en toda la superficie de la Tierra).

2.- Cuánto tiempo tardaríamos en consumir la Tierra entera y cuándo necesitaríamos meter en la máquina cada año un planeta como la Tierra.

3.- Cuánto tiempo tardaríamos en consumir nuestro sistema Solar (incluido el Sol).

4.- ¿La velocidad de la luz nos limitaría la expansión?

5.- ¿Cuándo consumiríamos el Universo entero si los viajes fueran instantáneos?

 

En contexto:

Homo Sapiens apareció hace unos 150000 años

El género Homo aparece hace unos 2,5 millones de años

El planeta Tierra tiene unos 4500 millones de años

Solución:

El consumo de energía actual es de unos 570EJ/año que convertido en unidades de potencia es de unos 18TW. Esta energía sufre varias transformaciones hasta que es dispersada en forma de calor en la superficie terrestre. Como la superficie terrestre es de 510 millones de Km2, si repartiéramos esta potencia uniformemente tendríamos 0,035 W/m2. Si la Tierra no aumenta su temperatura por esta potencia disipada, entonces debe radiarla en forma de calor al espacio. Es una potencia despreciable frente al efecto indirecto que causa sobre la atmósfera la quema de combustibles fósiles y otros factores que dan lugar al cambio climático. Hoy este “forzamiento radiativo” (el incremento de potencia por m2) se calcula en 1,5W/m2 y ya ha sido capaz en el último siglo de incrementar la temperatura en 0,8ºC. Un incremento a mayores de 36W/m2 sobre el sistema haría cambiar el clima tanto como para que el incremento de temperatura en la Tierra hiciera “hervir” los océanos (temperatura media de 100ºC). La idea es que al incrementarse la temperatura aumenta la evaporación de los océanos y por tanto la cantidad de agua en la atmósfera. Pero el vapor de agua es un gas de efecto invernadero y se produciría una realimentación positiva (más temperatura, más vapor, más temperatura…).

36W/m2 de disipación energética directa es 1000 veces más que la disipación actual de energía (los 0,035W/m2 que calculábamos antes).

Por tanto, si consumiéramos 1000 veces más energía al año que ahora, evaporaríamos los océanos.

El enunciado nos dice que el consumo aumentó en 100 años 17 veces, si este ritmo se mantuviera 200 años, el consumo aumentaría 289 veces (17 por 17) y en 300 años el consumo sería 4913 veces mayor que el actual (173). Luego en menos de 300 años tendríamos la condición para evaporar los océanos.

Obviamente el caos climático acabaría mucho antes con la Humanidad, como sabemos.

Formalicemos matemáticamente:

 Las necesidades de consumo energéticas anuales en el siglo m serían: E =  (570·1018)·17m Julios.

En el momento presente consumimos al año el equivalente a 6333 Kg de masa a partir de la ecuación de Einstein, por tanto, en el siglo m necesitaríamos 6333·17m Kg de materia a introducir en nuestra “máquina perfecta” cada año.

Como la masa de la Tierra es de unos 6·1024Kg, igualando a 6333·17m Kg y despejando m, obtenemos 17, es decir, en el siglo 17 después del momento presente consumiríamos en un año toda la masa de la Tierra. La Tierra la habríamos consumido antes, ya que durante esos siglos hemos ido metiendo cada año materia en la máquina. Por tanto, el problema es en realidad el de calcular la energía-materia destruida en la máquina a lo largo del tiempo hasta acumular la masa de la Tierra. Es decir, un sumatorio de una función potencial (serie geométrica).

Si formalizamos matemáticamente la función en vez de por siglos por años y tomamos un crecimiento del 3% anual, en el año n consumiríamos 1,03n veces lo que consumimos ahora. Y ese año, habríamos acumulado un consumo del Σ  1,03i con i desde 1 hasta n veces el consumo actual. Ese sumatorio da como resultado: (1,03-1,03n+1)/(1-1,03) o aproximadamente 1,03n+1/0,03. Si ahora esto lo igualamos a las masas de la Tierra, el Sol, etc. podremos calcular el año en que habríamos consumido esas masas:

Tierra: 6·1024 Kg = 6333·1,03n+1/0,03, es decir, aproximadamente n = 1500 años (en menos de 200 años después estaríamos consumiendo 1 Tierra cada año)

Sol: 2·1030 Kg , n = 1950 años

Universo: 1·1053 Kg, n = 3700 años

 

Comentarios varios:

 Es decir, que 3700 años nos bastarían para consumir la masa de nuestro Universo (y en el 3832 d.m.p -después de la “máquina perfecta”- consumiríamos un Universo al año). En realidad, el crecimiento exponencial está limitado por más leyes físicas que la masa del Universo. La velocidad de la luz, por ejemplo, nos limitaría la accesibilidad a las estrellas, si pudiéramos viajar a esta velocidad con nuestra máquina, como mucho en 3700 años habríamos viajado a 3700 años-luz de distancia y por tanto tendríamos “solo” a nuestra disposición las estrellas a esa distancia de la Tierra (unos pocos cientos de millones frente a los más de 100000 millones de estrellas que contiene nuestra Galaxia). Ir a por la galaxia de Andrómeda (la más cercana del tamaño de la Vía Láctea) nos llevaría más de un millón de años.

De las leyes de la termodinámica extraemos también que la luminosidad de nuestra máquina superaría a la de toda nuestra Galaxia antes de consumir nuestro Sol, sería difícil que no se “fundiera” tal máquina (los 15 millones de grados Celsius del centro de nuestro Sol se quedarían pequeñitos al lado de la temperatura de la máquina)…

Por supuesto, además de leyes fundamentales de la física, existen otras leyes (biofísicas, ecológicas, geológicas, etc.) que hacen de factores limitantes al crecimiento exponencial. De hecho, esos factores limitantes están actuando ya desde hace unos años.

La Naturaleza se impone. Es más, si nos paramos a pensar un momento, veremos claro que la ciencia lo que hace, con sus leyes, es imponernos leyes-límites: no hay más energía que la que hay, no podemos superar la velocidad de la luz, etc.

Esto es así pese al sueño de los economistas clásicos (en el que están más del 90% de los economistas) y algunos pseudo-ingenieros que buscan energías libres. Los segundos son minoría y no pasa nada, el problema es que nos “mandan” una mayoría de economistas clásicos.

De hecho, un químico tiene siempre claro que sus leyes deben respetar las leyes de la física, y el biólogo sabe que debe respetar las leyes de la química. Y el sociólogo no debe violar las leyes biológicas.

La ciencia descansa en una pirámide con una base física.

Pero al pensar de algunos (véase la discusión con V. Navarro como ejemplo paradigmático ya), la economía clásicano tiene porqué respetar el resto de las ciencias. Es independiente de ellas. Y en realidad tienen razón, porque no es ciencia y se parece más a la astrología que a la astronomía, y poco más que horóscopos de hecho hace este tipo de economía.

No niego que no exista ciencia económica, la hay y se llama Economía Ecológica. Ésta parte, precisamente, de la idea de que las leyes de la ecología y de la física (concretamente de la termodinámica) son fundamentales y que la economía debe construirse apoyándose en ellas.

Adelantémonos a dos posibles respuestas, que ya me he encontrado, ante la idea de que la economía no puede crecer siempre exponencialmente.

  1. Las leyes de la física son temporales y se han ido cambiando a lo largo de la historia, quizás la velocidad de la luz un día se supere…

Respuesta: ja, ja, ja, ja, ja, ja… En fin, sabemos de dos leyes que son hechos observacionales a estas alturas, no “teorías temporales”: la conservación de la energía (con la que se ha construido la discusión anterior) y la ley de la entropía. Millones de observaciones desde el siglo XIX las confirman, todos los días.

  1. La economía puede crecer siempre exponencialmente si se “desmaterializa” gracias a la tecnología. En nuestro contexto hablaríamos de “desenergizar” la economía.

La respuesta a esta última objeción es el quiz de la controversia desde hace ya décadas de discusión entre economistas y políticos clásicos y los abogados de los límites a cualquier crecimiento exponencial.

Voy a poner de nuevo un ejemplo extremo basado en la conservación de la energía y la necesidad de usar energía para “todo movimiento”. Concedamos que un economista ha desmaterializado “completamente” su economía y que intenta crecer exponencialmente para siempre (unos miles de años).

Una vez al año, nuestro riquísimo economista, “hecho espíritu ya”, quiere saber qué dinero tiene (con precisión de un dólar) en su Banco virtual (todo es virtual claro). Pero resulta que “saber” consume energía, y por mucho que desenergice ese saber, resulta también que la energía está cuantizada (leyes de la física cuántica) y que existe finalmente un cuánto mínimo de energía (principio de incertidumbre de Heisenberg). La energía que necesita para obtener ese “saber” por tanto, crecerá invariablemente de forma exponencial con el tamaño de su dinero virtual y finalmente necesitará la energía de todo un Universo entero sólo para que alguien le transmita la información del número que le dice cuánto dinero tiene.

Y si hemos aprendido la lección de antes no será mucho tiempo después de meter nuestro Universo en la máquina perfecta, porque la constante de Planck (del orden de 10-34) nos la comeríamos en unas decenas de duplicaciones.

Posible réplica: algunos físicos creen que podría haber infinitos Universos. Todos tranquilos pues, la función exponencial con lo único que no puede es con el infinito.

Posible réplica para expertos: Sepamos-vivamos con menos detalle y frecuencia.

Mejor respuesta: El cuento de Isaac Asimov: “La última pregunta”.

Ojalá obligaran a los economistas y políticos a comprender este cuento.

Carlos de Castro Carranza


’2052′: integrando límites en un “mundo lleno”

“Si pudiera persuadirte de sólo una cosa, elegiría la siguiente: el mundo es pequeño y frágil, y la humanidad es enorme, peligrosa y poderosa. Ésta es una total inversión de la perspectiva bíblica sobre la humanidad, y de la lógica que hemos aplicado como especie desde nuestra presencia en la Tierra. Pero ésta es la perspectiva que necesitamos tomar si queremos estar seguros de que la sostenibilidad emerja o, al menos, que el mundo que conocemos sobreviva un par de siglos más.” 

Con estas palabras abre Jorgen Randers un artículo que presenta los resultados principales del estudio2052: Un pronóstico global para los próximos cuarenta años” (2052: A global forecast for the next forty years) del Club de Roma. Para realizar este impresionante estudio, que bate todos los récords de horizontes de predicción temporal usuales, ha utilizado la misma herramienta que viene utilizando desde los años 70 como co-autor de los sucesivos informes sobre “Los Límites del Crecimiento” [Meadows et al,. 1972, 1992, 2004]: la dinámica de sistemas. Publicado en 2012, este estudio parece haber pasado relativamente inadvertido en nuestro país y en la blogosfera en español en general. Es importante subrayar la diferencia entre el ejercicio realizado entre este estudio (predicción-forecast) frente al análisis de escenarios de los anteriores trabajos (por cierto que estos estudios atraviesan una auténtica fase de “recuperación en la Academia”, tras un debate incompleto y sesgado políticamente en el pasado como nos cuenta Jorge Riechmann en su blog).

La idea principal que pretende transmitirnos Randers se puede ilustrar de forma intuitiva y directa:

“]

(En cuanto al impacto de la extracción de los recursos fósiles no convencionales ya se ilustró en la entrada Petropolis)

La siguiente imagen ilustra a la perfección el post anterior Sueños tecnológicos contra la pared de la realidad: el caso de la energía solar eléctrica.

(La degradación del medio ambiente ha sido apuntada como una de las causas del actual conflicto sirio: ver artículo en The Guardian Peak oil, climate change and pipeline geopolitics driving Syria conflict).

Y como ejemplo paradigmático de cambio global, el cambio climático:

(Fuente imágenes: http://climate.nasa.gov/state_of_flux)

(Daly 2005)

Y por último mi preferida:


Los impactos producidos por nuestro actual modelo de desarrollo se pueden explicar así mismo mediante pormenorizados estudios científicos, como por ejemplo los muy interesantes realizados por [Röckstrom et al., 2009]:

(Rockström et al., 2009) Más allá de los límites. El anillo verde representa el umbral seguro propuesto para los 9 límites planetarios identificados (cambio climático, pérdida de biodiversidad, interferencia con los ciclos del nitrógeno y el fósforo, reducción de la capa de ozono, acidificación del océano, uso de agua, cambios en el uso de la tierra, contaminación química y aerosoles atmosféricos. Los niveles en rojo representan la estimación del nivel actual para cada variable. Los límites en 3 de los sistemas (cambio climático, pérdida de biodiversidad, interferencia con el ciclo del nitrógeno) ya han sido sobrepasados.

Forzosamente, la consideración de un “mundo lleno” (full world, en palabras de [Daly 2005]) trastoca las leyes (dominantes) de la ciencia socio-económica moderna que están basadas en el paradigma del “mundo vacío” y son sólo válidas, por lo tanto, en ese contexto. En ciencia es fundamental la escala; magnitudes que son despreciables cuando son muy pequeñas se vuelven fundamentales al crecer en relación al resto.

Involuntariamente esta situación me recuerda a la irrupción de la ley de la relatividad en la física moderna (con los cambios que ésta ha supuesto posteriormente), y a una ecuación en particular: la de la velocidad relativa entre 2 cuerpos. Según la física clásica, la velocidad relativa (u) entre dos cuerpos que circulan a velocidades respectivas v y w sería simplemente u = v +w (nos ahorramos los vectores). Es decir, dos coches que circulan a 50 km/h en sentido contrario “verían” que el otro se desplaza a 100 km/h.

Sin embargo, esta ecuación deja de ser válida cuando la velocidad de esos cuerpos se acerca a la de la velocidad de la luz (c). Es decir, que la relación de escalas cambia, y la ecuación correcta (la anterior era por tanto sólo una aproximación cuando vw << c^2) es:

u={\cfrac  {v+w}{1+{\cfrac  {vw}{c^{2}}}}}

(para aquellos que quieran repasar la física de Bachillerato en wikipedia lo tienen con más detalle)

En los sistemas socio-económicos, esto equivale a “recuperar” el factor tierra, entendido en su sentido amplio como recurso (energía, materiales, agua, suelos, etc.), que desapareció de las ecuaciones hace unos 200 años [Naredo 2010]. Una vez recuperada la noción de límite, el siguiente paso es convenir en que los diferentes límites ([Rockström et al, 2009] identifica hasta 9, entre ellos el cambio climático pero también la pérdida de biodiversidad, la alteración de otros ciclos como el del nitrógeno o el fósforo, la acidificación del océano, etc.) están estrechamente relacionados entre sí, y que el actuar aisladamente sobre uno tan sólo precipita la llegada de otro un poco más tarde.

Así, para intervenir (con éxito) en sistemas complejos se debe actuar de forma sistémica. Este es uno de los pilares de los estudios del Club de Roma; y cuya aplicación hace concluir a Randers en 2052 que, asumiendo que el actual sistema siga funcionando guiado por las mismas dinámicas (que él sintetiza en 2:  cortoplazismo de las políticas y retraso en la toma de decisiones), nos dirigimos a un escenario de tipo overshoot&collapse (sobrepaso y colapso) provocado pricipalmente por nuestra incapacidad de mitigar el cambio climático en una escala suficiente (esto es un escenario tipo 2 de colapso por contaminación de [Meadows et al,. 1972, 1992, 2004]).

Todos estas caracterísitcas están integradas en el report 2052, cuyos interesantes y sugerentes  hipótesis, resultados e implicaciones esperamos analizar en otro post (para aquellos impacientes, abajo en la sección de referencias hay documentación en inglés y castellano).

>> Leer la 2ª parte del post: “’2052′: integrando límites en un “mundo lleno” (2)

Iñigo Capellán Pérez

Referencias

[Daly 2005] Daly, Herman E. “Economics In A Full World.” Scientific American 293, no. 3 (2005): 100–107. doi:10.1038/scientificamerican0905-100.

[Naredo 2010] Naredo Pérez, José Manuel. Raíces Económicas Del Deterioro Ecológico Y Social: Más Allá de Los Dogmas. Segunda edición corregida y aumentada. La primera edición es de 2006. Siglo XXI de España Editores, S.A., 2010.

[Randers 2012] Randers, Jorgan. 2052: A Global Forecast for the next Forty Years. Chelsea Green Publishing Company, 2012.

[Rockström et al,. 2009] Rockström, Johan, Will Steffen, Kevin Noone, Åsa Persson, F. Stuart Chapin, Eric F. Lambin, Timothy M. Lenton, et al. “A Safe Operating Space for Humanity.” Nature 461, no. 7263 (September 23, 2009): 472–475. doi:10.1038/461472a.

Sueños tecnológicos contra la pared de la realidad: el caso de la energía solar eléctrica

Aquellos científicos que tenemos un alma radicularmente ecologista (todo científico que sepa algo de cambio climático, energía a escala global, biodiversidad, etc. es un ecologista de raíz o un inmoral) hemos defendido las energías renovables desde siempre. Había motivos eco-lógicos y politico-lógicos para ello.

Y durante décadas se han desarrollado al calor de sueños lícitos en un mundo real: los pequeños molinos que subían agua del pozo se convirtieron en gigantes de más de 100 metros y el pequeño panel fotovoltaico que alimentaba un ordenador eficiente se convirtió en hectáreas valladas con cientos de paneles dentro. Queríamos energías nuevas y verdes para transformar el mundo y fue al revés.

Y muchos no han despertado de ese sueño y no quieren hacerlo porque bastantes problemas políticos han tenido estas tecnologías precisamente por venir defendidas por anticapitalistas de corazón.

Así que nuestro papel como investigadores es un tanto difícil y paradójico. Sabemos que nuestras estimaciones sobre los límites realistas de las renovables pueden servir de argumento a los que las atacan para defender las fósiles o la nuclear, cuando desde aquí defendemos que la transición energética a las renovables es necesaria (por motivos ecológicos) e inevitable (por motivos geológicos). Pero a la vez sabemos que existen ya grupos de presión en el sector renovable con mentalidad BAU (es decir, hacer lo de siempre con las herramientas de siempre: capitalismo neoliberal, pero con biomasa, viento o fotones, da igual) y grupos ecologistas y científicos tecno-optimistas haciendo su presión también .

Esta es nuestra última estimación recientemente publicada (aquí un borrador en versión no de pago):

 

Global solar electric potential: A review of their technical and sustainable limits. Nuestro primer intento de publicarla fue en Energy Policy (donde publicamos los límites del viento) pero topamos con revisores pro-fotovoltaica duros de convencer y uno de ellos incluso hizo trampas, cegado por su sueño de un mundo 100% renovable ya para el 2030. Tres años después el caso es que hemos publicado el trabajo en una revista de mayor impacto y prestigio, sencillamente porque tuvimos más suerte con los revisores.

Por supuesto que quien se lea el artículo podrá discrepar de nuestras estimaciones para el futuro, pero lo que es más importante es la misma conclusión que sacamos para la energía eólica: se exagera su potencial, el tecno-optimismo nos ciega. Nos tiende a cegar porque en la naturaleza humana, dicen los psicólogos, tendemos a ser optimistas a la hora de pensar en soluciones a nuestros problemas (y aquí sabemos que la energía es un problema de los gordos), y nos ciega porque se pierde la objetividad fácilmente cuando se lleva investigando, algunos décadas, en el desarrollo de una tecnología. Son estas personas las que suelen publicar sobre el potencial de esas tecnologías.

Para el caso del viento tuvo mucho delito: más de dos décadas publicando potenciales eólicos basándose en una metodología que terminaba violando el primer principio de la termodinámica y el principio de conservación de la cantidad de movimiento (si Boltzmann y Newton levantaran la cabeza…). Hoy siguen apareciendo artículos que siguen exagerando su potencial, pero entre líneas el experto se dará cuenta de que ya reconocen que la metodología antigua estaba mal empleada.

Para el caso de la fotovoltaica y la concentración solar el delito quizás no es tan grave: simplemente no se les ha ocurrido a la mayoría confrontar lo que dicen sus papeles y sus cuentas con la simple realidad en una cuestión clave para estas tecnologías: la densidad energética, la energía eléctrica neta que viertes a la red por metro cuadrado de ocupación real de las infraestructuras necesarias. Nuestros resultados son contundentes: la densidad energética real es entre 4 y 7 veces menor que la publicada en revistas científicas en las que luego se basan informes como el de Greenpeace 100% renovables.

Y la cosa no acaba aquí, casi nadie tiene en cuenta que las energías renovables, como siempre dice nuestro amigo Pedro Prieto, son energías que se renuevan captadas con sistemas materiales que no se renuevan. Y nos topamos con límites parecidos a los que tienen las energías fósiles y nucleares: la escasez en un mundo finito con una economía soñando con el crecimiento perpetuo.

Con las tecnologías actuales que estamos aplicando difícilmente hay plata, germanio y otros minerales para producir más de 30Exa-Julios al año (1TWe), cuando consumimos ya en forma eléctrica unas tres veces esa cantidad. Podemos solventarlo empleando menos plata y el abundante silicio en configuraciones que no requieran materiales escasos, sí, así podemos incluso multiplicar por varias veces ese límite, pero curiosamente, a costa de decrecer la densidad de energía (paneles menos eficientes) y por tanto haciendo quizás más cara la energía y sobre todo, requiriendo más espacio en un mundo que cada vez requiere más para otros usos humanos… Así pues, lo haremos mal: usando minerales escasos (como la mayoría de los “thin-film”) con límites a escala global irrisorios de unos 0,1TWe y a la vez usando mucho espacio en competencia no con las dunas del desierto (difíciles de parar por cierto en un mundo además que amplía los desiertos) sino con campos de cultivo o bosques.

Nuestra estimación en todo caso puede no ser muy pesimista en un mundo en transición decrecentista en una economía parecida a la de guerra: un límite para este siglo de 2-4TWe para la solar eléctrica (con macroestructuras para el almacenamiento de una parte de esa energía).

Además, Charles Hall y Pedro Prieto han publicado recientemente la TRE (tasa de retorno energético) de la fotovoltaica y su resultado es muy pobre (menos de 3) en un sistema que vierte en red la electricidad producida sin necesidad de almacenarla, con lo que los desarrollos tecnológicos del futuro a duras penas mejorarán una TRE si se pierde una buena parte en el almacenamiento (almacenar siempre cuesta energía: un tercio para el bombeo hidráulico, más de la mitad para el hidrógeno) y en las infraestructuras necesarias para ese almacenamiento. Puede que no dé de sí sin el apoyo de la energía fósil.

Con lo que personalmente yo me quedaría más con 2 que con 4 TWe.

En todo caso, para un mundo BAU verde es un jarro de agua fría que nos señala que la transición BAU por verde que se quiera hacer es un sueño, una entelequia, una utopía imposible (no deseable además si el BAU verde no se hace además humanamente equitativo, lo que tampoco sería BAU por cierto).

Carlos de Castro Carranza

 


Ya está instalada nuestra exposición

 

Acabamos de instalar la exposición sobre los Límites del Crecimiento en los pasillos de la Escuela de Ingenierías esta mañana. Ha sido el fruto de casi dos años de trabajo que comenzó intentando resumir en 12 paneles el curso del misno nombre  que realizamos en 2011 y con el que comenzó también nuestro grupo de investigación.

Ha contado con la colaboración de Entrepueblos (muy especialmente con el trabajo  y la iniciativa de Manuel Espinilla), de Ecologistas en Acción de Valladolid y con el inmenso trabajo  Jose Luis Garcia Cano de Ecologistas en Acción Madrid que nos ha realizado un fantástico trabajo de diseño gráfico.

La hemos puesto para que sirva de apertura al nuevo curso que comienza la próxima semana y este jueves 19 de septiembre a las 13:00h haremos una visita guiada.  Queda pendiente una presentación oficial de la misma y mucho recorrido por facultades, centros cívicos, asociaciones… Espero que podáis verla y os resulte interesante.


Corto sobre el curso Límites del Crecimiento

Quizá muchos ya sabéis que el pasado mes de septiembre organizamos un curso de verano en la Universidad de Valladolid sobre los límites del crecimiento. Los videos de algunas de las charlas y de las entrevistas a los participantes están saliendo poco a poco a la luz (somos lentos pero seguros).

Además hemos contado con la ayuda de la ONG Entrepueblos que, dentro de un taller que organizó en mayo sobre documentalismo social, nos ha resumido los puntos más interesantes de las entrevistas un corto titulado: El fin de las colonias, los límites del crecimiento.

El corto se puede ver aquí, y las entrevistas están siendo publicadas  en el blog de Valladolid en Transición. Esperamos  que os gusten.

http://www.youtube.com/watch?v=l_meUXVhQik&feature=player_embedded