Implicaciones de la (baja) densidad energética solar eléctrica

Hoy traemos un pequeño ejemplo para ilustrar las implicaciones de la (mucho) menor densidad energética de las energías renovables eléctricas en comparación con las fósiles:

Figura 1: Densidad energética por fuente renovable. Fuente: (Smil 2008), (de Castro et al. 2011, 2013a, 2013b)

Como se aprecia en la figura, las renovables, debido a sus características, son capaces de dar entre 1 y 2 órdenes de magnitud menos de energía eléctrica por superficie. Es importante resaltar que estos números no son especulativos ni teóricos, sino que se trata del resultado de sencillos análisis que toman un parque eólico o una planta solar (fotovoltaica o de concentración) real, y calculan la densidad energética mediante los datos de generación (reales) y de ocupación de superficie (reales también). Como se ve, el rendimiento de los biofuels es desolador.

Dicho ésto, el ejercicio planteado es simple, y responde directamente a la pregunta:

¿Qué superficie sería necesaria para cubrir la demanda actual de energía eléctrica considerando que se cubriera sólo con energía solar por comunidad autónoma en España (asumiendo que cada territorio es autosuficiente)?

 En vez de tomar datos actuales de densidad energética, se toma el intervalo propuesto por (de Castro et al. 2013b) para la evolución probable de diferentes parámetros técnicos en el futuro. Aunque obviamente existe margen para la mejora tecnológica, existen los límites termodinámicos que son infranqueables y de los que la tecnología actual no anda tan lejos: por ejemplo, la Ley de Betz en la eólica (sólo puede convertirse menos del 59 % de la energía cinética en energía mecánica usando un aerogenerador), pero también el principio de conservación de la energía (es decir no se pueden poner los molinos muy cerca pues sino se quitarán el viento el uno al otro), o el llamado Límite de Shockley–Queisser en la tecnología fotovoltaica (para una unión única -la más habitual con diferencia-, el límite absoluto de conversión se encuentra por debajo del 34%).

Además, se ha tenido en cuenta la diferencia irradiancia solar que llega según la geografía, que como se ve varía entre 900 kWh/m2 en la costa cantábrica y 1500 kWh/m2 en el sur de la península:

Figura 2: Irradiancia solar en España. Fuente: http://re.jrc.ec.europa.eu/pvgis/

Simplificaciones:

(1) se asume que toda la potencia se instala sobre suelo. Aunque existe potencial en las áreas urbanas, lo cierto es que estudios detallados han concluído que, con el urbanismo y configuración actual de las ciudades, menos de un 5% de las superficies urbanas estarían disponibles para instalación de placas fotovoltaicas.

(2) No consideración de otras fuentes renovables (eólica, hidroeléctrica, etc.). Se trata de un objetivo teórico de ilustración de las características de la tecnología solar.

 

RESULTADOS:

1. En términos de superficie total

Figura 3

2. como % de la superficie de cada CCAA

Figura 4

Observemos los resultados: en primer lugar, en cuanto a superficie total ocupada, destacan Cataluña, Andalucía, Madrid y Valencia con entre 750 y 2500 km2 de ocupación por territorio. Obviamente, hay una correspondencia entre población y la superficie necesaria pues el consumo de electricidad es proporcional a la población. La figura 4, que relativiza las necesidades de tierra disponble respecto del total de cada CCAA, nos proporciona resultados más interesantes: no tanto por las CCAA en cabeza (se trata de territorios pequeños con mucha población), sino por la magnitud de la ocupación de terreno necesaria. Asi, destacan Madrid, con 10-14% del territorio y País Vasco 7,5-13%. Y a nivel estatal, encontramos entre un 1 y un 2,5% del territorio.

Y aquí viene la pregunta fundamental:

 ¿es ésto mucho, o poco?

Pues depende de lo tecnófilo que uno sea.

Un indicador que nos podría servir de comparación es la Huella Ecológica. En España, según este indicador, las necesidades para ser sostenibles con nuestro consumo actual energético, son casi del triple de la biocapacidad de nuestro territorio. Sólo las necesidades de energía requerirían casi el doble de territorio del que disponemos (principalmente necesidades de bosques para absorber las emisiones de CO2 asociadas al consumo de energía). Así que frente a este indicador, parece que los parques renovables ocuparían relativamente poco. Es verdad que si la energía fotovoltaica en España tiene una tasa de retorno energético (TRE) de menos de 2,5 (Prieto & Hall 2013), significaría que actualmente necesita de las energías fósiles, requiriendo por tanto indirectamente bosques para absorber sus emisiones (las del cemento de los pilares de los paneles, la de los camiones que transportan los materiales, etc.). Así pues, las necesidades de territorio medidas bajo este indicador de la Huella Ecológica, seguirían siendo muy altas, mucho más que ese 2% aproximado que requerirían las infraestructuras solares de forma directa (recordar que al contrario que la eólica, la solar no es tan fácilmente compatible con los dobles usos del terreno).

Por otro lado, las necesidades de energía de España son mucho mayores que las que proporciona la electricidad. Ese 2% aproximado de territorio sería para proveernos del consumo actual de electricidad que es una parte de la energía que necesitamos en España (el 23,4% de la energía final en 2013) y se supone que una parte del consumo eléctrico del futuro. Una electrificación del sector transporte o de otros usos hoy basados en petróleo y gas natural, significaría necesitar aún más territorio.

Un 2% no es tanto, si lo comparamos con las necesidades de territorio que cultivamos. Por ejemplo, nuestras viñas dedicadas al vino ocupan un porcentaje similar del territorio. Pero no son territorios comparables, una cosa es una infraestructura industrial y otra cosa “el campo”. La suma de toda nuestra superficie ya artificializada (carreteras, líneas de tren, industrias, ciudades, pueblos, etc.) ocupan aproximadamente un 4% del territorio español, el resto es “campo”. Así pues de lo que estamos hablando es de aproximadamente incrementar un 50% lo que ya tenemos hecho. Y obviamente seguirían siendo las “Castillas” y Extremadura, las que darían el territorio “productivo” a madrileños, vascos y catalanes, porque si es difícil destinar un 2% del territorio, cuando superamos el 10% hablaríamos de “plaga”, como los invernaderos de Almería.

Iñigo Capellán Pérez y Carlos de Castro Carranza

Referencias

  • (de Castro et al. 2011) De Castro, Carlos, Margarita Mediavilla, Luis Javier Miguel, and Fernando Frechoso. “Global Wind Power Potential: Physical and Technological Limits.” Energy Policy 39, no. 10 (October 2011): 6677–82. doi:10.1016/j.enpol.2011.06.027.
  • (de Castro et al. 2013a) De Castro, Carlos, Óscar Carpintero, Fernando Frechoso, Margarita Mediavilla, and Luis J. de Miguel. “A Top-down Approach to Assess Physical and Ecological Limits of Biofuels.” Energy 64 (Enero 2014): 506–12. doi:10.1016/j.energy.2013.10.049.
  • (de Castro et al. 2013b) De Castro, Carlos, Margarita Mediavilla, Luis Javier Miguel, and Fernando Frechoso. “Global Solar Electric Potential: A Review of Their Technical and Sustainable Limits.” Renewable and Sustainable Energy Reviews 28 (Diciembre 2013): 824–35. doi:10.1016/j.rser.2013.08.040.
  • (Prieto & Hall 2013) Prieto, Pedro A., and Charles A. S. Hall. Spain’s Photovoltaic Revolution: The Energy Return on Investment. 2013th ed. Springer, 2013.
  • (Smil 2008) Smil, Vaclav. Energy in Nature and Society: General Energetics of Complex Systems. MIT Press, 2008.

I+D+i en España: falla la inversión, no el rendimiento

En este caso recuperamos un muy interesante y esclarecedor artículo de junio de 2013 en el que se exponían los resultados de una investigación publicada en Science sobre las inversiones y el rendimiento del sistema de ciencia en España. Muy recomendable para desmontar algunos mitos que se propagan habitualmente.


 

 


Publicación del artículo “¿Más crecimiento? Una solución inviable para superar la crisis energética y climática”

Hace unos días se publicó nuestro último artículo en la revista Sustainability Science, que es de hecho una continuación del trabajo publicado en diciembre en el que se presentaba el modelo WoLiM y su aplicación al set de escenarios habituales en la proyección de escenarios futuros. En este trabajo y según las hipótesis consideradas, todos los escenarios explorados resultaban ser, a la postre, no factibles:

Los resultados muestran que una transición energética dirigida por la demanda y el mercado, como las realizadas en el pasado, no parece posible: si las tendencias de demanda continúan se prevé una fuerte escasez antes de 2020, especialmente para el sector del transporte, mientras que la generación de electricidad es incapaz de cubrir la demanda a partir de 2025-2050. Para poder encontrar escenarios que sean compatibles con las restricciones derivadas de los picos de los combustibles fósiles es preciso aplicar hipótesis que raramente son contempladas por las instituciones internacionales o los estudios de GEA como crecimientos económicos cero o negativos.

Por lo tanto, si estos escenarios eran no factibles, era obligado investigar qué escenarios podrían ser entonces factibles, y cuáles serían sus características principales. Así, hemos encontrado que existen elementos para esbozar 3 situaciones alternativas:

  • Escenario B: Un escenario en el que, frente a los declives del petróleo y gas, se estimula intensamente la extracción de carbón como sustituto principal. Los diferentes bloques económicos tienden a reducir sus intercambios comerciales con una competencia directa (que podría ser también violenta) por el acceso a los recursos en el resto del mundo. En términos macroeconómicos, el crecimiento a nivel global agregado aún podría aumentar a un ritmo de +1% al año hasta 2050, lo que en términos del actual sistema económico, sería insuficiente para generar altos niveles de bienestar. Así, en términos de democracia, bienestar o equidad, en este escenario saldríamos bastante mal parados, con un contexto idóneo para el surgimiento de dictaduras y tecnocracias. Sin embargo este escenario sería sólo válido a corto y medio plazo puesto que las enormes tasas de emisiones de efecto invernadero nos llevarían a una situación de caos climático.
  • Escenario C: En este escenario la adaptación a los límites energéticos se realiza por la vía “dolorosa”, esto es, no se pone en marcha ningún proceso para el cambio de modelo socioeconómico y entonces se produce una recesión generalizada en un contexto de regionalización. Se podrían en marcha dinámicas similares a las del escenario C pero en un contexto económico aún más degradado.
  • Escenario D: Se trata del contrapunto positivo. Así, asumiéndose que se produce un cambio de modelo planificado y consciente hacia un sistema no dependiente del crecimiento, una rápida y decidida transición hacia sistemas renovables y un reparto del consumo de energía a nivel mundial (o sea produciéndose un decrecimiento en el consumo de los países industrializados para que los países del Sur puedan alcanzar niveles de más altos), se esboza un escenario que permite entrever que un futuro más amable es posible con voluntad política y social.
  • (Existen otros 2 escenarios, BAU y A que resultan ser totalmente inviables)

Figura 1: Resultados para el escenario D en términos de consumo de energía primaria (izda) y eléctrica (dcha) por fuentes.

El artículo discute en detalle las implicaciones de la convergencia en consumo energético del escenario D en orden de magnitud: así, aquellas personas que vivimos en países industrializados deberíamos reducir nuestro consumo energético a un ritmo del 3% anual (-70% entre el año 2010 y 2050). Esto permitiría a aquellas personas que viven en el Sur (es decir el 70-75% de la población global), incrementar su consumo per cápita en +30% desde los niveles actuales. El nivel de convergencia (50-60 GJ per capita) se encuentra por debajo del umbral para alcanzar un alto nivel de desarrollo en el actual paradigm socioeconómico (Arto y otros 2015), pero se encuentra por encima del umbral para cubrir las necesidades básicas para una vida digna.

¿Cómo repercutirían en el GDP de los diferentes países estas sendas de consumo energético? Encontramos que, aproximadamente, el nivel de convergencia global se encontraría entorno a 12.000 US$, es decir en un nivel ligeramente superior a la media mundial actual. Algunos países que se encuentran actualmente en estos valores son Brasil, Costa Rica, Montenegro o Tailandia. Esto se traduciría en que los habitantes de los países industrializados deberíamos reducir nuestra renta entorno a 4 veces hasta 2050, lo que permitiría a los habitantes del Sur aumentar la suya unas 3 veces en ese mismo tiempo. Aquí es importante resaltar que existe una abundancia de datos abrumadora que indica que, a partir de un determinado umbral de GDP, los incrementos de éste no se traducen en mejoras de bienestar.

De hecho, si buscamos algunos de estos países que cumplen el doble objetivo de situarse en los niveles de convergencia encontrados de consumo de energía y renta, encontramos países con altos niveles de Índice de Desarrollo Humano (IDH) como Montenegro (IDH=0.791), Uruguay (0.789) o Costa Rica (0.77).

Figura 2: Consumo total de energía primaria (izqda) y PIB per capita (dcha) del mundo dividido en 2 grandes bloques (industrializados, azul y Sur, rojo). Hasta 2010 datos históricos, a partir de ese año y hasta 2050 se proyectan los escenarios de convergencia.

Por supuesto, hay muchos matices que no pueden ser resumidos en esta breve entrada, por ello, aquellos interesados tenéis disponible una copia del texto aquí (de momento en inglés).

 

Figura 3: Emisiones de CO2 por escenario. En esta figura se puede apreciar cómo aquellos escenarios dónde se limita el crecimiento presentan un gran potencial de reducción de emisiones de efecto invernadero, estrategia que ya ha sido propuesta por algunos climatólogos eminentes como Kevin Anderson o Alice Bows-Larkin.

 Iñigo Capellán Pérez


En defensa de un colapso de nuestra Civilización rápido y temprano

Aquellos pocos que llevamos años pensando que el colapso es inevitable y cercano en el tiempo (si no lo tiene claro, este post no le es útil) estamos en disposición de pensar sobre la conveniencia de su profundidad, rapidez y momento en que empiece a ser evidente al menos para una minoría “amplia” (mientras escribía el borrador de este post Ugo Bardi ha escrito algo parecido, me ha resultado curioso).

Defender que el colapso comience pronto es muy fácil y ya se hizo hace tiempo desde “Los límites del crecimiento”: cuanto más se resiste un sistema en crecimiento en caer “más dura resulta la caída” porque va desde más arriba y porque el sobrepasamiento habrá sido mayor y durante más tiempo, por lo que los daños sobre los ecosistemas soporte y sobre las “sociedades y cultura” soportes, son mayores y los nuevos límites terminan más “abajo”. Podemos verlo por cómo están siendo las reacciones de las élites y de la sociedad a la “trinza”: energía-clima-biodiversidad.

Ante la primera gran crisis energética por el pico del petróleo, nos estamos resistiendo a “hincar la rodilla” a base de biocarburantes, carbón, fracking, guerras, exclusión de la tarta económica, etc., medidas que hacen aún más frágil el sistema energético y social y que realimentan el caos climático y la extinción de poblaciones y especies. Mientras nos resistimos, van muriendo las gentes que “saben de todo” (arreglar zapatos, cultivar, construir una casa…) y los jóvenes van convirtiéndose en la generación peor preparada de la historia, sin resistencia ni resiliencia (salvo las que dan la pura juventud).

Perdimos la 1ª oportunidad de colapsar, con cierto orden, en la crisis del 2008-09, aunque creo que la ultima oportunidad de colapso “bueno” la perdimos tras las contrarreformas a las resistencias de Mayo del 68 y las crisis de los 70s del petróleo, que lejos de ser aprovechadas de verdad sufrieron un contraataque de las élites (del Imperio diría un fan de la Guerra de las Galaxias) que tuvo éxito durante las tres décadas siguientes.

Ahora, en 2015-16, tenemos la 2ª oportunidad de colapsar con aún menores probabilidades de hacerlo bien. Sinceramente espero que estos años inicien un bucle de descenso rápido, porque si no, habrá significado que hemos sido capaces de tensar aún más la cuerda, no sé si con una extensión del fracking a escala global o una mezcla de viejas y nuevas locuras. No lo creo y creo que esta vez es “la definitiva” y mi miedo es a que ese colapso relativamente rápido, e insisto, inevitable, comience un poco más tarde o trate de ser frenado por la “tecnología adecuada”.

Los colapsistas tendemos a pensar en cómo hacer para colapsar mejor, en como descender con cierto orden y a un estado que evite las cavernas o los escenarios que denominamos tipo Mad Max. Argumentamos que los no colapsistas –los que nos acusan de catastrofistas cuando se dignan en discutir con nosotros- son los que nos llevan precisamente a las cavernas o incluso a la extinción; son ellos los catastrófilos. Nos empuja un humanismo profundo (o por lo menos a muchos de los que conozco).

Pero muchos de entre nosotros creen que el colapso no debe ser demasiado rápido porque eso lo haría demasiado profundo.

Durán y Reyes lo argumentan bien en el último capítulo de su imprescindible “La espiral de la energía”.

Desde el punto de vista tecnológico el debate no es sencillo: ¿qué hacer con la agricultura ecológica, con las nuevas renovables o la arquitectura bioclimática? ¿Qué si son capaces de mantener más población si lo hacen con mayor impacto que tecnologías mucho más “bajas” tras un relativo fuerte colapso? ¿Y si esas transiciones tecnológicas hacen aguantar más la caída pero la profundizan?

Voy a defender aquí, sin excesivo convencimiento dada la complejidad del tema, la postura de que necesitamos un colapso rápido y bastante profundo para evitar las cavernas o la extinción humana. La apuesta es altísima pues.

La realimentación Caos climático-6ª extinción masiva, puede ser “mortal”. Si el caos climático va a ser más rápido de lo que proyectan nuestros modelos aunque emitamos menos de lo que proyectan esos mismos modelos, los efectos sobre la biodiversidad pueden llevarnos, casi seguro ya, a extinciones mayores del 25% de las especies, incluso superiores al 50% no son descartables (a pesar del pico de las fósiles por motivos geológicos). Esas extinciones suponen una debacle previa de las poblaciones animales y vegetales de más del 50% o de más del 80% (sobre una merma anterior del 50% de poblaciones terrestres), lo que implicaría unas realimentaciones brutales sobre los sistemas humanos que nos llevarían a las cavernas (si no a la extinción) y quizás, durante decenas de miles de años no saldríamos de “civilizaciones tribales” con muy baja población humana y un permanente riesgo de extinción, como en los comienzos del género Homo.

Además, la recuperación de Gaia tardaría algunos millones de años, tiempo en el que la pérdida de control que ésta ejerce sobre el clima prácticamente desaparecería. En realidad habría un disparo de realimentaciones positivas entre:

La catástrofe total podría ocurrir si hacemos una transición “lenta”, o bien porque mantenemos, aunque sea regionalmente, altos consumos, o bien porque la población desciende lentamente mientras sigue depredando bosques, mares, etc. (véase la encrucijada energética, etc.). Es interesante recordar que en la última extinción masiva, que extinguió 2/3 de las especies, la de los dinosaurios, acabó con prácticamente el 100% de las especies terrestres grandes –de más de 45 Kg-, el Homo sapiens no habría sobrevivido de haber estado allí, y el Homo technologicus menos).

La gráfica siguiente  representa dos posibles salidas de un sistema que ha sobrepasado sus límites en función del tiempo (cualquier otra salida posible será una variación de ellas):

Tarde o temprano debe haber un ajuste a través de un colapso (rojo) o una transición/colapso (verde). En la gráfica representamos en rojo (línea continua) un colapso rápido que se queda también rápidamente por debajo de sus límites (línea discontinua roja); el límite tiende a ser erosionado una vez iniciado el sobrepasamiento y su recuperación es lenta a escala humana. En verde representamos una transición/colapso más lentos pero que terminan a largo plazo en un nivel muy inferior o en la extinción del sistema (el cambio de sistema también es muy lento por los mitos culturales que habría que vencer, por lo que el sistema tarda en aprender a ajustarse demasiado tiempo y se sobrepasan puntos de no retorno, sea de clima, sea de extinción, sea de sorpresas desconocidas).

Así, cuando doy unos límites tecnológicos bastante bajos para las energías renovables (a decir de algunos, pues hablamos de unos 4-6 TW eléctricos), de llevarlos a cabo, los modelos tienden a ralentizar el descenso y a alargarlo; si los sobrepasáramos, porque mis estimaciones son erróneas, la cosa iría a largo plazo aún peor, por lo que hoy pienso que lo que fueron unos cálculos desagradables de comunicar se han convertido en mi fuero interno en una buena noticia: las nuevas renovables no jugarán un papel relevante “positivo” en la transición/colapso, al igual que no lo hará la fisión nuclear (en todo caso, será mucho mejor abandonar molinos eólicos que residuos nucleares).

Un descenso rápido implica:

1º Un descenso poblacional rápido (quiebra de sistemas de salud, guerras, epidemias…) pero no necesariamente más profundo.

2º Más riesgo de guerras atómicas o químicas masivas.

3º Menos caos climático y pérdida de biodiversidad y de funciones ecosistémicas (salvo guerras atómicas o químicas masivas).

4º Menos impacto sobre la biomasa (si el descenso es lento nos iremos a deforestar como locos, también si este es rápido, pero durante menos tiempo y con menos población).

5º No sufren tantas generaciones humanas pero será durísimo para las dos siguientes.

6º Menos riesgos de olvidar (la ciencia, la técnica, las razones que nos llevaron al desastre).

 

Carlos de Castro Carranza

 


El zumbido de los escarabajos

En las boñigas de las vacas se libra la batalla contra el cambio climático y el colapso global,  escenario privilegiado de los mejores resultados de captura y secuestro de CO2 del Planeta. Incontables obreros entierran la materia orgánica, capturan el carbono y enriquecen los suelos, preparando la fertilidad que alimentará a nuestros hijos e hijas cuando la agricultura química quiebre debido a la escasez de petróleo.

En el pequeño oasis verde de la ganadería ecológica los escarabajos trabajan en las boñigas. Escarabajos, lombrices, hongos y bacterias: todos proliferan fácilmente cuando los venenos químicos se marchan y colaboran para enriquecer el suelo y alimentar a vacas y humanos. La tierra mesetaria, con fama  de pobre y árida, se llena de un verde fresco y vigoroso en los prados bien pastoreados. Quizá esa fama de meseta dura y estéril era sólo una mentira, un cuento que esconde la incompetencia humana. Quizá no era árida, la hemos hecho así a base de guerras, deforestación, tractores, herbicidas y mercados ávidos de beneficios inmediatos.

También nos habían dicho que sin soja (cultivada a base de deforestar la Amazonía) no era posible producir lo suficiente  a un precio razonable para alimentar a la población humana. Nos habían dicho que hay que  estabular a las vacas y darles antiparasitarios (de esos que matan a los escarabajos). Nos habían dicho que necesitamos sobrexplotar animales, tierras, obreros, aguas y aires. Pero quizá todo eso también es mentira.

En los oasis verdes los habitantes del suelo abonan sin abonos químicos, las tierras que no son aradas producen lo mismo que las  ”convencionales” y, en lugar de erosionarse, cada año son más fértiles. Las vacas producen la mitad de leche pero viven 4 veces más años, y al final es  sólo un 30%  lo que hay que restar frente a la vaca altamente industrializada que necesita piensos traídos del otro lado del Planeta y usa 6 veces más energía fósil.

Mediados de abril en la meseta norte. La tarde fresca y luminosa, sol después de las lluvias. Zumban los escarabajos al anochecer volando hacia los prados, salen los sapos a los caminos, mariquitas y lombrices, canta el mirlo.

La esperanza no se rinde: hay otras formas de vivir en este Planeta. Quien quiere solucionar un problema encuentra un camino (quien no quiere, encuentra una excusa).

Si…ya lo sé, son muy pocos los oasis y muchos los centros comerciales, la transición es inmensa y  llegamos tarde, pero… los oasis existen y es un alivio para el alma visitarlos de vez en cuando.

Marga Mediavilla


Fósiles, fracking, o de cómo construir relatos fantásticos

A partir de nuestros sesgos cognitivos y los mitos culturales que hemos generado en los últimos siglos podemos encontrar las explicaciones psicológicas y sociológicas para entender parte de lo que está pasando con la crisis energética y las “soluciones” tecnológicas.

Hace casi 10 años, cuando por fin me decidí a enfrentarme al tema del pico del petróleo, me pasó lo que a todos los que hemos entrado a este trapo: Tras las primeras lecturas y revisiones críticas vino el asombro. Es asombroso, increíble, que el mundo se esté dejando engañar por esa idea de que hay petróleo casi para siempre. Sabemos que los países de la OPEP nos mintieron en los 1980 con el tema de sus reservas de petróleo y gas, pero ahí siguen en las estadísticas. Sabemos, a poco que razonemos, que los biocarburantes, las arenas asfálticas y las técnicas de fracking no son más que producto de la desesperación, y que nos mintitieron y lo siguen haciendo de forma tan descarada que pareciera que nos llamen estúpidos a la cara.

Nos mintieron o se autoengañaron primero ellos.

O ambas cosas, dependiendo de quien.

Estos días sale la noticia de que en Inglaterra han descubierto 100000 millones de barriles de petróleo (el año pasado se descubrieron en todo el planeta 4000 millones marcando un mínimo que no se conocía desde los albores del petróleo). Los periodistas o no se enteran o no quieren hacerlo. Y la prensa jalea la mentira consciente o no. Incluso en las noticias se esconde que son barriles que para extraerlos hay que usar la técnica del fracking.

Aproximadamente esta sería la zona donde estaría esa “enorme” masa de petróleo (¿haciendo descubrimientos en el Ártico, cómo les pudo pasar desapercibida hasta ahora?):

Parece una broma y ya solo falta que a alguien se le ocurra decir que podrían aprovechar el aeropuerto de Gatwick para sacar el petróleo de allí en avión.

¿Es que los ingleses van a cambiar esto?

 

¿Por esto otro, aunque sea teñido de verde al principio?

La estupidez de la prensa y la gente que la jalea -entreténgase un rato con los comentarios de algunas noticias en internet- no es consciente de ningún detalle. Mostremos uno: En Texas, estado que domina el fracking en EEUU, la densidad de población humana donde se encuentran los pozos es inferior casi siempre a los 10 habitantes por Km2, en la zona de Inglaterra en cuestión hablaríamos de una densidad de población dos órdenes de magnitud superior.

¿Locura o cachondeo?

Otro problema es que las fuentes de información, incluida la pretendida científica, suelen generarla científicos, ingenieros y empresarios que tienen una fuerte relación, por tiempo dedicado y/o contractual, con el recurso en cuestión.

Si no nos creemos lo del fracking inglés, si no nos creemos a las dictaduras árabes cuando nos dan sus datos de reservas, ¿por qué creernos las emisiones de metano que nos dan las industrias (de hecho, estudios independientes, multiplican por diez las emisiones de metano procedentes del fracking respecto a lo que da la EPA -la agencia de protección del medio ambiente americana- y la propia industria, conviertiendo el gas y petróleo del fracking en un emisor mayor  de gases de efecto invernadero que el carbón por unidad de energía que proporcionan) y por qué creernos los cálculos publicados de la Tasa de Retorno Energética de este tipo de tecnologías? Un ligero  escepticismo científico o de principio de precaución lógico nos llevaría a pensar que por manipuladores o autoengañados exageran.

Así podemos sospechar que se exagera TODO (tecno-optimistamente). Así podemos esperar que el colapso no se quiera ver, no se pueda ver.

Carlos de Castro Carranza


“Cambio climático, modelos e IPCC”

“Un análisis de la metodología del IPCC revela luces pero también sombras. Mientras que el diagnóstico del problema resulta notable, las soluciones planteadas para reducir esas emisiones adolecen de importantes sesgos, y están muy condicionadas por el paradigma científico, tecnológico y social imperante. Pero también se ignoran diferentes dinámicas, interacciones y realimentaciones de los sistemas que pueden ser muy relevantes a la hora de agravar el ya dramático problema del cambio climático.”

Artículo completo publicado en el número 84 de la revista El Ecologista (Marzo 2015):

 


El potencial tecnológico de la energía eólica (vuelto a visitar)

A top-down approach to the technical potential of the wind power.

Carlos de Castro Carranza

 

 

  1. Introducción

 

Esto es un borrador hecho hace más de dos años, algunos párrafos no son míos sino producto de mis discusiones con Antonio García-Olivares et al. y la gente de mi grupo. La responsabilidad de lo que hay aquí es mía. Puede ser conveniente leer con atención enteros o al menos tener a mano los trabajos de Marvel et al, de J&A, de Miller et al. y el nuestro: de Castro et al.

Es importante distinguir entre potencia instalada nominal, potencia cinética de los vientos y la potencia promedio neta eléctrica que se vierte al usuario final, las primeras se darán normalmente en TW y la última, que es la que tratamos de calcular aquí, en TWe.

 

2. Definición de potenciales de un recurso energético renovable.

 

El potencial extraíble real de un recurso debería tener en cuenta, además de los límites teóricos de una tecnología (e.g. eficiencia), cuestiones derivadas de restricciones geográficas, de acceso a minerales y de cualquier otra posible limitación que de forma realista y práctica pueda darse sobre la aplicabilidad de esa tecnología, como pueden ser las necesidades de territorio reales y su posible competencia/conveniencia etc. Es decir, hay que pensar en un sentido amplio lo que se entiende por tecnología.

 

Dado que en  el Anexo I del documento “Renewable Energy Sources and Climate Change Mitigation. Special Report of the Intergovernmental Panel on Climate Change” se dan unas definiciones sobre potenciales de recursos energéticos renovables, parece lógico asumir como punto de partida esas definiciones y ampliarlas en dos sentidos.

  • Particularizar dichas definiciones para el caso de la energía eólica.
  • Desarrollar las definiciones con ejemplos, casos y datos que permitan una comprensión mas precisa de las mismas, así como indicar que restricciones o límites llevan de unas a otras definiciones.

Las definiciones recogidas por el IPCC y que nosotros vamos a utilizar son (directamente en inglés para respetar cualquier matiz):

Technical potential is the amount of renewable energy output obtainable by full implementation of demonstrated technologies or practices. No explicit reference to costs, barriers or policies is made. Technical potentials reported in the literature being assessed in this report, however, may have taken into account practical constraints and when explicitly stated there, they are generally indicated in the underlying report.

Theoretical potential is derived from natural and climatic (physical) parameters (e.g., total solar irradiation on a continent’s surface). The theoretical potential can be quantified with reasonable accuracy, but the information is of limited practical relevance. It represents the upper limit of what can be produced from an energy resource based on physical principles and current scientific knowledge. It does not take into account energy losses during the conversion process necessary to make use of the resource, nor any kind of barriers.

En la definición de potencial técnico se tienen en cuenta las “prácticas demostradas” que de alguna manera ya tienen en cuenta cuestiones económicas y de retorno energético (EROEI). Tecnológicamente se puede construir una plataforma gigantesca en plan isla flotante e irse a captar los vientos que circunnavegan el Antártico. Pero sería tan prohibitivamente caro que nadie en la práctica está haciendo eso ni lo hará en un futuro cercano. Incluso, podría pasar que la tasa de retorno energético fuera menor que uno, pero aún así, tecnológicamente sería factible, incluso anecdóticamente realizado, que es lo que se hace en algunos casos con los biocombustibles.

Tecnológicamente se puede poner un molino de viento en una zona de clase 1 o 2 pero no es práctica tecnológica común porque no es rentable económicamente. Los autores que hablan de potenciales técnicos suelen excluir estas clases de viento, aunque no haya razones puramente tecnológicas que excluyan su instalación.

 

A continuación definiremos las restricciones que tendremos en cuenta y que afectan al potencial técnico.

 

Technical and practical constraints. Englobarían a las puramente tecnológicas, que pueden cambiar según varía la tecnología a lo largo del tiempo, y las “prácticas comunes”. Restricciones de este tipo para el caso de la energía eólica son:

  • Geográficas: zonas en las que no es técnicamente factible, debido a su ubicación geográfica, la instalación de generadores de energía eólica con las tecnologías y prácticas actuales, tales como alta montaña u océanos fuera de la plataforma continental. Zonas de viento más allá de la ABL (ver definición más adelante) o por debajo de las clases de viento 3 o 4.
  • Tecnológicas. Rendimiento promedio en la transformación de una cantidad de energía eólica disponible en un lugar delimitado y la energía eléctrica disponible para un consumidor final. Las pérdidas son al menos debidas a no captación en las palas de los aerogeneradores de toda la energía circundante, perdidas mecánicas en la transmisión entre ejes de giro y rozamientos, pérdidas eléctricas en la transformación y pérdidas eléctricas en el transporte, consumo propio del sistema de regulación, pérdidas debidas a pérdida de disponibilidad operacional como consecuencia de averías y mantenimiento y pérdidas debidas a vientos fuera del rango de operación. Se tienen en cuenta que los parques eólicos deben tener un factor de capacidad (Cp) mínimo para ser viables. Se tiene en cuenta también un espaciado entre molinos al uso actual o no mayor del doble.
  • Materiales. No vamos a tener en cuenta esta restricción directamente en nuestro artículo, aunque diversos autores sostienen que no hay cobre en la tierra para montar, del orden de 50TW de potencia eólica (García-Olivares et al.).

3. A critical revision of the wind power potential estimation methodologies.

 

Se han utilizado y propuesto varias metodologías distintas para la estimación de los potenciales teóricos y técnicos (de Castro et al.). Podríamos agruparlas en dos grandes grupos: metodologías bottom-up (b-u) y top-down (t-d). Durante décadas se ha venido utilizando la metodología bottom-up a partir de la configuración de un mapa de las velocidades del viento en el mundo, con este mapa e hipótesis sobre tecnologías concretas y de disposición geográfica de las turbinas, se escala hacia arriba para encontrar los distintos potenciales a escala nacional, regional o global. Recientemente se han añadido metodologías a partir de GCM (modelos de circulación general) enfocadas al impacto climático de distintas disposiciones de molinos; aunque algunas de ellas han trabajado también los límites de su implantación. Éstas metodologías se han enfocado con simulaciones de los efectos de los molinos desde una perspectiva diferente que podríamos denominar top-down, Keith 2004, Miller 2012, Gans 2012, Wang 2010, Marvel 2012, aunque han ido apareciendo modelos GCM que simulan los molinos desde la perspectiva bottom-up (J&A).

Es en base a los estudios tradicionales bottom-up a partir de los cuales se han elaborado estudios, informes o papers que tratan de estimar los distintos potenciales teórico, tecnológico, económico o sostenible que se podría desarrollar con las políticas adecuadas (citas en de Castro et al.). Podemos destacar que el reciente informe del IPCC se basa de nuevo en este tipo de metodologías para dar los potenciales técnicos.

Frente a las metodologías bottom-up, se han propuesto recientemente metodologías top-down que parten de consideraciones teóricas basadas en principios fundamentales de la física y/o consideraciones tecnológicas (de Castro, Miller, Gans) o que se aplican a partir de GCM y Dataset analisis (Miller, Gans).

Como hemos señalado, las metodologías b-u han sido criticadas de forma directa en base a principios fundamentales de la física, porque se puede violar el principio de conservación de la cantidad de movimiento (Gans, Miller) y/o por la violación de la primera y/o segunda ley de la termodinámica (Miller, Gans, de Castro, este trabajo). De forma indirecta la metodología b-u ha sido puesta también en entredicho por los modelos GCM recientes que confirman una saturación de la potencia captable con turbinas eólicas y que concluyen que la metodología b-u tiene un límite de aplicación relativamente bajo (Gans y las revisiones hechas aquí de J&A y Marvel), lo que confirma la inquietud inicial de de Castro y Miller, aunque no se reconocen en J&A y Marvel et al.

A su vez, García-Olivares et al., en una visión top-down de tecnologías renovables, llaman la atención sobre que implantaciones elevadas de tecnologías renovables basadas fundamentalmente en solar y eólica (por ejemplo J&D proponen la producción de 5,75TW+5,75TW respectivamente para el 2030), se encuentran con límites de materiales importantes; según estos García-Olivares et al., se requeriría el 60% de las reservas del cobre del mundo para ello, lo que daría cuenta ya de su imposibilidad práctica en un mundo que aumenta su demanda para otros usos, con lo que potenciales técnicos que superen con mucho los 5TWe son tecnológicamente imposibles si por tecnología incluimos la que debe acceder a recursos materiales finitos, aunque se reciclen los materiales a tasas muy superiores a las actuales.

 

3.1. Top-down methodology of de Castro et al.

La metodogía propuesta por de Castro et al. parte de la conservación de la energía y potencia cinética de la atmósfera para ir detrayendo o excluyendo la energía no accesible por restricciones geográficas y tecnológicas. Este trabajo tiene dos objetivos: denunciar aquellas metodologías bottom-up que dan potenciales muy elevados por violar el primer principio de la termodinámica y proponer una nueva metodología que encuentra que los potenciales técnicos alcanzables (que de Castro et al. consideran realistas) están en el orden de 1TWe.

En esta metodología:

  1. Primeramente se calcula la potencia cinética que podría interactuar con las turbinas eólicas (alrededor de 100TW, que es el orden de magnitud que encuentran los estudios b-u como límite tecnológico para la energía eléctrica producible por molinos)
  2. de esta potencia se estima cuánta está en ubicaciones geográficamente accesibles
  3. de éstas ubicaciones se estiman cuáles ofrecen un potencial energético lo suficientemente grande como para entrar dentro del rango que se usa hoy en día para construir parques eólicos
  4. en las ubicaciones resultantes colocamos los molinos teniendo en cuenta que hay que dejar un mínimo espacio entre ellos para evitar que las estelas mermen la extracción
  5. para esos molinos se estima su factor de carga
  6. y por último, de esa cantidad se estima la eficiencia en que se puede transformar en energía eléctrica.

Es importante señalar que el factor verdaderamente limitante, el que cambia cualitativamente la capacidad de aprovechar la energía, es el primero de todos: la energía disipada en los primeros 200 metros de la atmósfera. Al fin y al cabo, el potencial aprovechable, que estiman en 1TWe, es un 1% de esa cantidad total, lo cual es razonable teniendo en cuenta las limitaciones de accesibilidad, disposición de molinos, clases de viento adecuadas y los factores de capacidad y de conversión. El hecho de que sólo haya ~100TW disponibles en los 200 metros de la atmósfera es lo que explica la gran diferencia entre los enfoques bottom-up y top-down. Los enfoques b-u se basan en la observación de ciertos puntos representativos y en asumir que todo es más o menos igual en una determinada área, independientemente de nuestra actuación sobre el área en concreto (salvo en la zona más próxima de la estela). Esto es solo correcto si los aerogeneradores son pocos y dispersos.

El trabajo de de Castro et al. se ha criticado por parte de J&A aduciendo que no se basa en consideraciones físicas realistas y para ello lo comparan con el resultado de un modelo GCM con simulación bottom-up de los molinos. En realidad, la comparación que se establece no puede ser directa, porque J&A en todo caso tratan de hallar un potencial teórico (según nuestra definición), frente al potencial técnico que persiguen de Castro et al.; y aunque J&A tratan de corregir los factores que diferencian su potencial teórico del potencial técnico, no lo hacen a nuestro juicio correctamente (ver más adelante).

La metodología top-down que proponen de Castro et al. se basa en una hipótesis fundamental: la potencia extraíble está limitada por la potencia disipada en la capa en la que se encuentran los molinos.

Se podría argumentar que la atmósfera no es un fluido compartimentado y que si se va extrayendo energía de la zona de 200 metros desde la superficie puede haber un bombeo desde zonas superiores, con lo que la visión de partir de 100TW accesibles, que hacen de Castro et al. sería errónea; pero debido a la rápida rotación de la Tierra la atmósfera es un fluido bastante estratificado. Esto quiere decir que se forman verdaderas capas en las que el fluido se mueve horizontalmente (perpendicularmente a la gravedad). Por supuesto, la estratificación se rompe en determinadas zonas y/o momentos debido a los movimientos convectivos, pero en la mayoría del fluido y la mayoría del tiempo, la atmósfera está formada por capas. La capa más próxima es la capa límite atmosférica inferior (ABL, atmospheric boundary layer). En esta zona los campos de vientos de la circulación global se adaptan a la rugosidad de la superficie de la tierra hasta llegar a la velocidad límite de cero m/s justo en la propia superficie. La capa límite es altamente turbulenta y con muchos movimientos verticales y está muy mezclada próxima a la superficie; los movimientos se van tornando progresivamente más ordenados, horizontales y conformes con el estado de las capas superiores a medida que nos vamos acercando al extremo superior del ABL y, salvo, en zonas convectivas, la circulación de la ABL está bastante desconectada de las capas superiores y no son de esperar grandes bombeos de energía desde y hacia la capa límite. La altura de esta capa suele ser muy superior a los 200 metros, por lo que los molinos eólicos siempre están dentro de esta capa y encima de ellos normalmente habrá decenas o cientos de metros de capa de ABL. La inmensa mayor parte de la interacción con los molinos será protagonizada por esta zona. Si no fuera así además, los molinos podrían generar grandes modificaciones en la dinámica atmosférica y por tanto fuertes cambios climáticos.

A los efectos del viento, las turbinas son un drag. Si se incrementa mucho el drag en una zona, se conseguirá que el viento esquive el obstáculo; es por lo que es difícil alterar el balance de energía total disipada en la capa de 200 metros, en especial si la disipación de los molinos a disponer es relativamente pequeña a esa energía inicial.

 

Aunque la hipótesis puede ser criticada en base a algunos trabajos y estudios, como los del propio J&A, Meneveau 2012, Baidya, Lebrometal etc. que argumentan que una parte de la disipación en los molinos proviene no de la propia capa donde se encuentran los molinos (axial mean flow) sino de flujos turbulentos de la periferia, especialmente de capas superiores a la altura de las turbinas; como se verá, si la disipación final en los molinos en el límite técnico es relativamente pequeña respecto al potencial de la ABL en donde están situados los molinos, la hipótesis es aplicable y válida, puesto que el error cometido inicial sería finalmente inferior al pequeño porcentaje respecto al potencial de la ABL. Es decir, si, por poner un ejemplo, se captara un 5% del potencial de la capa, aunque la mayor parte de esa energía viniera de fuera de la capa, es como si la fuente de potencia inicial fuera como mucho un 5% mayor y por tanto los cálculos habría que corregirlos al alza en un factor <1.05, nada significativo.

Por otro lado, de Castro et al. utilizó cálculos y estimaciones propias para calcular la potencia que se podría estar disipando en los vientos por debajo de los 200 metros. Esta estimación fue bastante gruesa y se puede refinar a partir de resultados teóricos y de data-analysis de la zona del ABL, donde de forma efectiva sí se puede afirmar con confianza que es la zona de influencia de las turbinas eólicas terrestres (ver epígrafe más adelante).

Se pueden refinar más los trabajos top-down propuestos hasta ahora, a partir de consideraciones estadísticas más realistas que las teóricas propuestas en de Castro et. al y Miller et al. Se hará aquí.

Por último, otra posible crítica al trabajo de de Castro et al. es la asignación de un factor de intercepción del viento por parte de los molinos que no tiene en cuenta de forma explícita el número de líneas de turbinas y la pérdida de potencia que los parques actuales tienen. Se limitan a exponer que el aumento de uno va en detrimento del otro, como se ha confirmado en base a modelos y experimentalmente, pero sin cuantificarlo. En realidad, la metodología top-down podría mejorar si se pudiera usar un GCM a escala de la ocupación de las turbinas o al menos, de las granjas, pero se defiende aquí que los GCM empleados hasta la fecha, con escalas muy grandes comparadas con la de los molinos, si bien pueden ser útiles para discusiones teóricas, son inferiores a la metodología top-down propuesta para estimar potenciales técnicos.

 

3.2. Marvel, J&A and Gans GCM models and estimations

 

Recientemente se han propuesto tres modelos GCM que evalúan o se aproximan a lo que podríamos llamar potenciales teóricos.

La ventaja de la utilización de un GCM es que explícitamente trata la dinámica atmosférica global, y su principal inconveniente es que debe simular el impacto sobre el viento de las turbinas y la escala empleada es muy grande comparada con el tamaño de un parque eólico.

Estos tres modelos pretenden tener en cuenta la conservación de la energía y/o del momentum en sus simulaciones, pero como veremos llegan a conclusiones muy diferentes entre ellos.

 

Marvel et al. utilizan un GCM para hallar un límite teórico encontrando la potencia cinética máxima que se podría disipar en el entorno de las turbinas terrestres o en hipotéticas turbinas en toda la atmósfera. Sus resultados dan más de 428TW cerca del suelo y más de 1873 TW en toda la atmósfera si llenáramos de turbinas todo el planeta. Concluyen con ello que no ven razones geofísicas limitantes para obtener del orden de los 17 TW. En la condición actual (sin turbinas), la atmósfera, según su modelo, y como se aprecia en su figura 1c. disipa  ~1650TW. Este valor es mayor que el más alto de los cinco GCM (la DE más alta de estos GCM resulta en 1235TW) y los tres datasets (con una media de 941TW) que revisa Marques 2009; Marques cree que los GCM tienden a sobre estimar ligeramente esta potencia, con lo que el resultado de Marvel está claramente fuera de rango (Peixoto y Oort, los autores más citados, dan 870TW para este valor aunque la actualización de datos efectivamente puede llevar a un valor de 940TW). Aunque 1650TW es la potencia disipada en toda la atmósfera por los vientos en el modelo de Marvel, si se añadieran el límite de turbinas capaz de disipar en ellas más de 1873TW cinéticos, en el conjunto de la atmósfera se estarían disipando más de 4100TW. Como comparación, los modelos GCM de Wang and Prinn y de Keith et al toman 860 y 867TW respectivamente, para esta potencia energética inicial.

Desde el punto de vista termodinámico parece poco intuitivo –por decirlo suavemente- que a un sistema al que se le añade rozamiento reaccione disipando (>4100TW) más que la suma de lo que se disipaba inicialmente (1650TW) y de lo que se extrae nuevo (1873TW). La potencia cinética disipada no se conserva en el sistema climático según este modelo, si bien la energía sí ha de hacerlo para no violar el primer principio de la termodinámica. De hecho, efectivamente, según su figura (1.b) la atmósfera contiene unos 155EJ de energía cinética (Peixoto da ~600EJ, otros autores dan más, con lo que sospechamos que hay un error de un factor 10 en esta gráfica, y en realidad su K=1550EJ), y ésta energía disminuye unas 20 veces según podemos ver en esa gráfica. Esto significa que el tiempo de residencia del viento (definido como la energía media entre la potencia media) disminuye unas 50 veces, es decir, que en realidad al caer tanto el tiempo de residencia del viento, éste dejaría de ser “viento”. En la figura A.1.e, el tiempo de residencia es de unos 11 días (lo que es coherente con que K = 1550EJ y no con K = 155EJ) y este cae a unos 0,2 días (50 veces) cuando se extraen 1873TW por las turbinas. Otra forma de ver esta aparente incongruencia es calculando la distancia promedio (L) que viajaría este viento (tiempo de residencia por la velocidad promedio de los vientos), ya que como la velocidad ha disminuido también (según la gráfica A.1.b de su supplementary material), la L se reduciría en más de 70 veces, pasando de unos 8500Km (Peixoto da del orden de 1000Km) a unos 120Km. Es obvio que un viento que recorre solo esta distancia en promedio es incapaz de hacer ninguna función climática como tratar de rellenar el gradiente de temperaturas entre ecuador y polos. Es decir, no estamos en ninguna condición física realista, por lo que creemos que el modelo debería ser revisado.

Según el texto, por cada incremento de 1W en la KE extraída, se incrementan 0,8 W la KE total disipada en toda la atmósfera, esto significaría que si KEE fuera de aproximadamente 1600TW, la TKE disipada total sería de unos 3250TW, aunque en la gráfica 1.b. vemos que supera los 4100TW, haciendo que, según ella, por cada W extraído se disiparan 1,5W más.

Estos aumentos de disipación significarían además que la atmósfera actual estaría muy alejada del MEP (maximum entropy production) y de la producción máxima de potencia asimilándola a una máquina térmica realista que trabajara a ese régimen, hipótesis bastante extendidas en la literatura (y que confirmaremos también aquí). Es más, como se estaría extrayendo más trabajo útil (energía mecánica disipada en las turbinas) que el trabajo mecánico que hoy hace la atmósfera (energía mecánica disipada), parecería que habríamos inventado una máquina que violaría el primer y segundo principios.

En la figura 1d el poleward atmospheric heat tansport pasa solo de 9PW a 7,5PW (lo que no es creíble si L ha disminuido 70 veces) y de hecho no empieza a declinar hasta que se sobrepasa una KEE de 1600TW cuando KE es de 35EJ (suponemos que en realidad 350EJ), P=4000TW y t residencia promedio 10 veces menor, es decir, que con menor velocidad y mucho menor t sigue llegando el mismo transporte a los polos.

La figura 1.e. implica que la atmósfera reduce su temperatura en unos 10 K cuando KEE es de 1800TW. Esto parece violar el segundo principio, porque se obtiene una máquina de tamaño mundial que sería análoga a tener un refrigerador del que se saca además trabajo útil (la energía eólica en las turbinas).

Se ha dicho que la atmósfera funciona como si fuera una heat engine quizás próxima al rendimiento del ciclo de Carnot. A escala global, la atmósfera tiene en este esquema una Th de 288 K y una Tc de 250 K, con lo que el rendimiento máximo teórico sería de aproximadamente el 13%. Sin embargo, el ciclo de Carnot no extrae potencia en un tiempo finito dado que requiere estados de equilibrio extremadamente lentos.

En realidad, la máquina real que supone la atmósfera, si suponemos que está a su máxima potencia (algo creíble en el ABL dada su rápida dinámica y coherente con argumentos teóricos, datasets y a partir de la hipótesis del MEP –Miller et al dan citas de esto-), trabajaría con un rendimiento respecto al teórico de la mitad a lo sumo. El rendimiento máximo a potencia máxima sería 1-√(Tc/TH) aunque bajo consideraciones más generales, trabajos recientes lo sitúan entre la mitad del rendimiento de Carnot (hC) y hC /(2- hC). Como el rendimiento de Carnot no supera el 13%, resulta que está en todo caso entre 6,5 y 7%. Es decir, que si la atmósfera (o al menos el ABL) trabajan a potencia máxima disipada, estaríamos lejos de los resultados de Marvel, ya que la disipación actual sería muy inferior a la máxima en un factor de aproximadamente 2,5.

Si consideramos el ABL (donde la hipótesis de potencia máxima es más creíble aún), y consideramos que Th = 288 y Tc = 280 , el rendimiento de Carnot sería del 2,78% y el de la “maquina atmosférica” de aproximadamente el 1,4%. Si la potencia total que se disipa en el ABL es <45000 TW (convención ascendente que parte se disipa por encima de la atmósfera), un rendimiento del 1,4% daría que menos de 625TW pueden ser considerados trabajo mecánico. Una parte de este trabajo sería cinético pero otra parte se iría en la disipación de hidrometeoros y en el mantenimiento y ascenso de las nubes. Por tanto, cualquier ABL muy superior a 625TW sería sospechoso de exageración y superior a 1250TW violaría el segundo principio. En el caso de Marvel, si la disipación en toda la atmósfera supera los 4100 TW, entonces, o bien mucho menos de la mitad se disiparían en el ABL (cambiando radicalmente la dinámica atmosférica) y la temperatura Tc baja mucho (ya que Th baja 10 grados tendiendo a reducir la eficiencia, lo que parece contrario a un aumento de la dinámica del ABL), o bien se viola el segundo principio.

Makarieva dice que frecuentemente se utiliza una analogía con una heat engine para aplicarlo a la dinámica de los huracanes, pero que algunos de estos modelos establecen que “by dissipating work within the engine, it is supposed to be posible to increase the per-cycle output of the mechanical work” y tratan de demostrar a partir de principios fundamentales de la termodinámica que esto es una physical misinterpretation of the nature of the Carnot heat engine. “The main feature of the “dissipative heat engine” is the increase in the work produced by the engine per cycle due to internal dissipation compared with the same engine without dissipation”. It is stated that “the fraction of mechanical energy dissipated… increases the heat input to the convective heat engine so that more energy is available to be converted into mechanical energy”, y trata de demostrar que esto es erróneo. Marvel et al llegan de hecho al resultado que Makarieva asegura que viola el segundo principio. Algo que también le ocurre al trabajo de J&A como veremos.

En cualquier caso, aunque tuviera razón Marvel et al., este modelo dice que for the near-surface cases, there is little change in total atmospheric dissipation. Es decir, que la hipótesis inicial de de Castro seguiría siendo aplicable y no acudiría una cantidad importante de energía a la zonas de extracción de los molinos de capas superiores. Por lo que este método que sólo pretende calcular un potencial geofísico teórico, no desmentiría el trabajo de De Castro et al. en ningún caso.

 

El trabajo de J&A es un GCM que simula de forma concreta un número de turbinas con características dadas. Son turbinas de 5MW de potencia nominal, con altura de hub de 100 metros, D = 126m y que siguen la curva de potencia teórica suministrada por el fabricante. Así pues, no se limitan a calcular la potencia cinética extraíble, sino que lo que calculan es la potencia eléctrica que darían distintas disposiciones de esas turbinas.

J&A tratan de asegurar la conservación de la energía a partir de la idea de que convertir KE en electricity termina, en parte, volviendo a energía cinética porque la electricidad finalmente se disipará en forma de calor que regenerará luego algo de energía potencial y posteriormente cinética. Cómo hacer esto sin violar el segundo principio (ver discusión anterior sobre el trabajo de Makarieva) puede ser un problema de su modelo.

J&A introducen un nuevo concepto, el SWPP (saturation wind power potencial), aunque ya se encontraba implícitamente en los razonamientos de Miller et al. y nuestros, lo que no reconocen; según este concepto, la conservación de la energía y el hecho de que las turbinas no pueden extraer más del 59,2% (Betz limit) del viento incidente, hace que en esa saturación, siga soplando viento en la atmósfera. Sus resultados dan 253TW para ese SWPP que podríamos identificar como un límite máximo teórico según nuestra definición. En el caso de aplicarlo sólo sobre suelos (excluyendo la Antártida), ese límite sería de 72TW, y si se añaden coastal ocean (<200m deep) de 80TW (un incremento del 10% más que utilizaremos).

J&A critican nada menos que a autores teóricos consagrados como Lorenz, Gustavson, Peixoto, Sorensen, Li y Stancey porque “are not based on a physical model of energy extraction so cannot give estimates of wind potencial at the height of turbines”. Encuentran que la extracción de energía a una altitud dada not deplete energy at all altitudes above or below it; so an estimate of wind potential in the whole atmosphere does not answer the practical question about wind turbine potential at typical hub height (en cualquier caso esto confirmaría de nuevo que la hipótesis de de Castro es aplicable). Sin embargo, Lorenz, Peixoto y otros autores, ponen un límite máximo a la potencia disipada en la atmósfera, en coherencia, no solo con los data sets, sino con los GCM mayoritariamente empleados, con lo que el límite físico ha de ser mayor en todo caso al límite que calculan J&A.

J&A en cambio no dan la potencia que se disipa en la atmósfera (sin añadir turbinas) que podría dar también su GCM y que se podría comparar así a los trabajos anteriores que critican. Aunque su SWPP es de 253TW como es inferior incluso a las estimaciones de la potencia que se disipa en la ABL (Peixoto da unos 435 TW) podría dar lugar a pensar que son compatibles unos trabajos con otros.

Su GCM is modified to treat wind turbines as an elevated momentum sink, where the KE extracted from the wind is determined from a turbine power curve at the instantaneous model wind speed. Cada turbina ocupa varios layer verticals y se aplica a todo el conjunto de una celda (1,5ºx1,5º mínimo) en vez de forma local, es decir, en cada célula de cálculo colocan N turbinas, calculan la extracción con mucho detalle para un solo molino y luego multiplican por N (lo que convierte a este GCM en una metodología bottom-up en vez de top-down). Computa la energía perdida por el flujo y recalcula la velocidad de la celda tras la extracción. Esto implica que todos los molinos de una celda interceptan exactamente el mismo flujo definido en una malla tipo Arakawa c, y por tanto independientemente de su posición en la granja. Esto es precisamente lo que se denuncia por parte de Milleret al.  y de Castro et al. de la metodología b-u. Además, los experimentos como los trabajos con LES (large eddy simulations) muestran que hay un decaimiento de la energía tras las primeras líneas de molinos hasta valores cercanos al 50% a partir de 6-8 líneas de molinos. Si el proceso fuese lineal y aditivo, podríamos ya decir que esos 253TW quizás habría que reducirlos a la mitad. Johnstone and Coleman recientemente modelan el efecto de un infinity array (al que se le puede aplicar muy bien la ocupación de toda la Tierra de miles de millones de turbinas), y concluyen que “the array efficiency is therefore reduced to aproximatly to 8/27, con lo que incluso podríamos estar hablando de 84TW en vez de 253TW.

Por otro lado, J&A realizan una control simulation (A) que was first run with turbines at 100 m hub height but no momentum extraction from them. In this case, the global capacity factor was about 31% based on instantaneous modelled wind speeds applied to the power curve for a 5MW turbine que al correr el modelo resultan en 1750 TW eléctricos, por lo que la potencia cinética que se disipa en las turbinas ha de ser mayor, al menos en un 40% (Betz limit). 1750 TW es la energía eléctrica convertida tras la interceptación de la energía cinética por la sección de los molinos (que sería de 1750/0,31 = 5730TW y, como no se extrae energía en esta simulación, podemos interpretar que esos 5730TW serían la energía del flujo interceptado en las subcapas entre 63 y 126 metros (donde se encuentran los molinos), por tanto la energía disipada en la capa límite (ABL) debe ser considerablemente mayor pues es solo una franja a la que habría que sumarle la energía de la capa inferior, que es la que presenta mayor grandiente de energía y la energía del resto de la ABL.

Obviamente, si nuestra interpretación es correcta de su simulación control, lo que definitivamente no está basado en un physical model of energy extraction es este modelo.

Un problema añadido general de su modelización es que en el mejor de los casos simulan 5 años cuando Wang señalan que en su modelo hay que esperar 40 años “to reach climatic steady states that approximatly repeat anually alfer that”. Marvel et al. use for all simulation integrations for 100 years y observan que las “simulations approach a stationary states on the timescales of decades”; usan pues “the final 60 years of each simulation were used for analysis”. Miller et al and Gans et al.: “all simulations were conducted for 30 simulated years with the first 10 years discarded from the analysis to exclude spin-up effects”.

 

Aunque pensamos que J&A sobre-estiman los valores de SWPP, se pueden utilizar sus resultados para confirmar que las metodologías b-u han venido sobrevalorando sistemáticamente el potencial técnico del viento.

 

Para poder comparar coherentemente el estudio de J&A con el de De Castro, elaboro la siguiente tabla a partir de la suya:

 

J&A results Number of

turbines (millions)

Density power

occupation (W/m2)

Power generation

(Twe)

Cp %
World 821 11,25 224 4
410 5,62 253 8,8
103 1,41 160 22,5
Land 302 11,25 72 4,8
149 5,62 66,7 8,9
37,4 1,41 39,7 21,2
Fixed on

land

 

4

11,25 1,63 8,1
4 5,62 3,93 19,5
4 1,41 7,5 37,5

 

El “number of turbines” son las turbinas de 5MW que hipotéticamente se instalarían y que se meten en su modelo.

La density power en W/m2 surge de tomar el “spacing” entre molinos de 5MW de potencia y un diámetro de palas D = 126 metros, con una altura de eje de 100 metros. Toman: 28·D2 (equivalente a 11,25 W/m2), 56·D2 (5,62 W/m2) y 224·D2 (1,41 W/m2) para el espacio reservado a cada molino y consideran que los 5 MW son la potencia nominal del generador, no la producida.

La “power generation” es la potencia eléctrica que generarían los molinos que en su modelo sitúan en la superficie terrestre.

Y la Cp es el factor de capacidad que resulta de dividir la potencia obtenida entre la potencia nominal instalada.

La industria eólica ha convencido a los inversores diciendo que sus molinos y parques reales tienen una Cp típica del 30-35% o más, aunque en realidad finalmente en Europa andamos por el 21%, en EEUU por el 25% (Boccard 2009) y a nivel mundial es de 0,22 (elaboración propia a partir de estadísticas internacionales). Podemos concluir que todo Cp por debajo del 20% no interesa, no es viable técnicamente (mirando la tabla se comprueba que la mayoría de las disposiciones no son viables desde el punto de vista técnico).

Bien, en Archer & Jacobson (2005) usando una metodología bottom-up dicen que bastan 99,1 millones de turbinas de 1,5 MW (D = 77metros y altura de eje de 80 metros) con un spacing de 28·D2 para obtener 71,5TWe que, conservadoramente según ellos, sería lo extraíble sobre tierra y en el mar cerca de las costas. El Cp que dan es de 0,48 y lo defienden como posible porque irían solo a las zonas mejores.

En Jacobson & Delucchi (2011) usan 3,8 millones de turbinas de 5MW con espaciado de 28·D2 para obtener 5,75 TWe de unas posibilidades de extracción que dicen que a 100 metros son de 72-170 TW basándose en su estudio de 2005 y otros estudios bottom-up. Podemos deducir siguiendo esta metodología que bastarían 48 millones de turbinas de 5MW para obtener los 72 TWe.

Sin embargo de la tabla vemos que se necesitan 302 millones de turbinas de 5MW con el mismo espaciado (28·D2) que los anteriores estudios para obtener 72 TW,  frente a los 99,1 millones de generadores más pequeños que teóricamente se necesitan en el primer estudio y los 48 millones del segundo estudio. Obviamente, la metodología bottom-up no es correcta porque no se conserva la energía, como decíamos.

Con el espaciado que daban Jacobson & Deluchi en 2011, en teoría conseguían 5,75TWe con 3,8 millones de turbinas, pero en la tabla vemos que 4 millones de esas turbinas con ese espaciado tan solo generaría 1,63 TWe. De nuevo la metodología bottom-up no conserva la energía por ignorar los efectos de sombra entre parques eólicos y dan de nuevo la razón a de Castro et al.

De hecho, la única forma de llegar a superar los 5,75 TWe de producción con esas turbinas sería distribuirlas con un espaciado muy superior, 5 o 10 veces más que lo que hoy se utiliza. Pedir a la industria que adquiera los terrenos y que haga caminos y redes de evacuación eléctrica para esa dispersión de molinos dentro de “parques” harían inviables los proyectos y quedaría fuera de la definición dada de límite técnico.

Para estimar un potencial técnico siguiendo el modelo de Jacobson & Archer 2012, habría que hacer que el sistema de molinos a montar a escala mundial tuviese una Cp superior a 0,20, que el espaciado entre turbinas fuera de 28·D2 y no mucho mayor, quizás el doble (evitaríamos las sombras pero perderíamos eficiencia por razones técnicas ya que para la industria esas altas densidades son “práctica común” de acuerdo a la definición de potencial técnico). Luego habría que descontar al menos un 50% de la potencia teórica obtenida con el modelo por dificultades de acceso geográfico (como hacen los optimistas Jacobson & Deluchi, 2011 aunque pensamos que sería aún más) y luego habría que hacer un balance de energía neta producida eléctrica (como se hacía en de Castro), ya que estamos intentando comparar ambas metodologías.

Si en teoría, con las curvas de potencia de los molinos en la mano, las Cp que calcula la industria y Jacobson son de 0,3 o más, pero las Cp reales en el mundo real hoy no superan en grandes regiones los 0,25 (Boccard 2009), entonces netamente se pierde entre la teoría y la realidad más del 25%. De esta forma nos iríamos aproximando a una evaluación coherente sobre el potencial técnico de la energía eólica…

Bien, pongamos en forma de gráfica la tabla anterior:

 

Se da la potencia generada en escala logarítmica frente a la densidad de potencia, y sobre los puntos que emplea la tabla, las Cp. Consideremos la zona casi triangular en azul que representa la zona donde los Cp superan el 20% (adecuate Cp) y la zona donde la industria se sentiría cómoda con la densidad de potencia a instalar (reallistic spacings) en color granate. La intersección de ambas nos daría una primera idea de por donde podría estar el límite técnico de la eólica: ¡alrededor de 1 TWe! Como nuestro trabajo decía. Puede que menos si consideramos la inaccesibilidad de muchas zonas que habría que utilizar (Sahara, Gobi) y la energía neta que finalmente se obtendría. Pero para confirmarlo habría que hacer un GCM y buscar la saturación con esas dos condiciones (Cp> 20%, density power ~ 8-12 W/m2).

Además, para el 2030, ellos proponen generadores de 5MW cuando la industria hoy tiene instalados un promedio de 1,2MW y un parque reciente (que en España, Dinamarca y Alemania ya han encontrado las mejores zonas) aspira a seguir funcionando con sus molinos al menos 20 años como “práctica común”.

 

Miller et al and Gans et al models.

Miller et al usan tres aproximaciones top-down basadas en 1.- Una estimación gruesa de lo que ellos denominan back-of-the-envelope, 2.- Un simple momentum model with reanalysis data y 3.- Un GCM de mediana complejidad con simulación de las turbinas que explícitamente conserva la energía y el momentum. En los tres casos estiman lo que aquí hemos denominado un potencial teórico.

En el primer caso, parten de la hipótesis de que las turbinas se instalarían en non glaciated land y dentro de la influencia del ABL (alrededor de 113 TW), de esta potencia, razonan que a lo sumo el límite de Betz podría convertirse en electricidad, es decir, 68TWe. Aunque a primera vista son similares a los 72TW encontrados por J&A, estos últimos tienen en cuenta la curva de potencia de las turbinas concretas que emplean (que reduce la potencia nominal al 31% en el caso de no interferencia entre turbinas) y no el límite de Betz, con el cual Miller et. al. habrían encontrado unos 36TW, o la mitad que J&A.

Por otro lado, Miller et al. no reducen con más factores su estimación para llegar a lo que nosotros denominamos aquí potencial técnico, pero en de Castro et al. ya se razonaba que adaptando adecuadamente los factores, ambos trabajos eran coherentes de forma aproximada.

El modelo que se basa en reanalysis data, es más interesante porque a partir de él se obtiene que el ABL disipa 513 TW en toda la superficie de la Tierra de los cuales 89TW es en non glaciated land. Si sobre este valor último, hubieran aplicado su “back-of-the-envelope” con la curva de potencia de J&A, habrían obtenido unos 28TWe para el potencial geográfico teórico, algo más de 1/3 que el valor de la SWPP de J&A, lo que estaría de acuerdo a lo que dijimos antes citando a Johnstone and Coleman. Pero, using the simple momentum balance model and the land-based dissipation of the ECMWF ERA-40 data results encuentran a maximum of 21TWe from the initial 89 TW of dissipation. It shows how an overall increase in momentum removal (drag +extraction) corresponds to a decrease in boundary layer dissipation. Es decir, que usando la conservación del momento, en vez de la conservación de la energía como factor limitante principal, obtienen entre ¼ y 1/5 de la ABL, suponiendo una conversión a electricidad perfecta.

En el caso del GCM que emplean, la potencia total disipada en el ABL la sitúan entre 71,5 y 125TW sobre non-glaciated land. Y los valores máximos de transformación eléctrica estarían entre los 18 y los 34 TWe.

Pero no se pueden emplear estos datos tal cual para estimar un potencial técnico porque esos valores se encuentran suponiendo una distribución equidistante y mundial de turbinas, que resultaría en problemas similares a los encontrados por J&A: un número enorme de turbinas con una bajísima Cp.

 

Gans et al. hacen un estudio más detallado sobre el mismo GCM empleado por Miller et al. cuidando explícitamente tanto la conservación del momentum como la de la energía del viento y lo aplican a turbinas concretas de 2MW de potencia nominal y diámetro D = 61metros a altura de hub de 80 metros.

De sus resultados se extrae que aproximadamente 125TW se disipan en el ABL non glaciated land (sobreestimado en un 40% respecto a los 89TWe que el dataset reanalysis mostraba). Concluyen que esta disipación disminuye (y no aumenta como en los casos de Marvel et al y aparentemente de J&A)  cuando se disipan en las turbinas unos 25TW, ya que el ABL disminuye a unos 115TW (10TW). Es más, si pensamos que al añadir drag con las turbinas parte del viento se irá a otras zonas de menor drag (e.g. océanos), es posible que la potencia global disipada en el ABL permanezca aproximadamente constante, pero en ningún caso parece que ésta aumente.

Para disipar esos 25TW y obtener un máximo de 15TWe teóricos por el límite de Betz, se necesitaría según su modelo una densidad equiespaciada de 10 turbinas por Km2, es decir, si tenemos en cuenta que la non-glaciated land es de unos 134 millones de kilómetros cuadrados, necesitaríamos 1340 millones de turbinas de 2MW, o lo que es lo mismo, instalar una potencia de 2680 TW para obtener menos de 15TWe (una Cp menor del 0,006). Obviamente, bajo este modelo, habría que ir a instalar potencias muchísimo menores a través de una densidad mucho menor para obtener un valor tecnológicamente creíble. Con una densidad 100 veces menor requeriríamos 26,8TW de potencia instalada para obtener menos de 1TWe, aunque subiríamos el CP de manera insuficiente a alrededor de 0,03. En realidad, los GCM al usar celdas muy grandes 1,5ºX1,5º de latidudxlongitud o más, están hallando un promedio sobre toda la celda (que ocuparía cientos de kilómetros de ancho), sin embargo, la industria eólica lógicamente se desarrolla no tomando un promedio así, sino buscando aquellos sitios de velocidad del viento elevadas (clases 4 o más), con lo que la Cp puede subir por encima de los 0,2 requeridos para ser viable tecnológicamente. Por esta razón, si bien, los GCM actuales pueden dar una idea gruesa de cual es el potencial teórico, son inaplicables para estimar los potenciales técnicos de interés para la industria pues para ello se requerirían celdas mucho más pequeñas, inalcanzables para la potencia de cálculo de los ordenadores actuales.

Así pues, para descender a una estimación del potencial técnico, no queda más remedio que hacer una estimación top-down, que parta de modelos GCM o mejor de data-reanalysis, para estimar la potencia del ABL en zonas determinadas donde se consideren geográficamente accesibles y a partir de aquí ir aplicando distintos factores de reducción, de forma análoga a como se planteaba en de Castro et al.

 

4. A top-down (and bottom-up) estimation of the sustainable potential of net wind energy power

 

Top-down: La hipótesis fundamental es que los potenciales técnicos realizables van a ser mucho menores que la disipación actual en el ABL, por tanto, las turbinas van a afectar poco a esta potencia. Una parte de esa disipación se va a producir necesariamente en el suelo y en el futuro cercano, el esperado aumento de infraestructuras humanas (no aerogeneradores), probablemente reduzca el ABL, al menos en las zonas geográficas donde se añada drag, como discute Gans et al y como parece que es la tendencia medida (citas que dimos en de Castro).

Es decir, consideraremos constante la potencia del ABL sobre las zonas geográficas en las que se instalarían las turbinas, aunque probablemente éste se viera reducido (lo que llevaría en todo caso a una sobre-estimación de este potencial).

Que entre 850 y 1200TW se disipan en toda la atmósfera, está muy bien establecido por consideraciones teóricas, GCMs  y datasets reanalysis, y cualquier estudio que se salga claramente de estos límites habría que revisarlo. Lo mismo se puede confirmar para el caso del ABL, donde estudios teóricos lo sitúan en aproximadamente el 50% de la disipación total y tanto los data set reanalysis como los GCM lo sitúan en 450-550TW.

De interés para nosotros es el ABL que se disipa en non-glaciated land, que tomaremos como 89TW siguiendo el trabajo de Miller et al. para, a partir de él, calcular el potencial técnico en suelos.

Podríamos partir de la extensión geográfica total y excluir aquellas zonas que por lejanía o inconveniencia pudiéramos razonablemente evitar: buena parte de los desiertos cálidos (ya que requeriría llevar infraestructuras a sitios muy alejados de las infraestructuras actuales), de los suelos del tipo permafrost (de nuevo la mayoría están muy alejados de urbes y son suelos que exigen pile foundation que profundizan en el suelo alrededor del 50% de la altura de la torre, lo que hoy las convierte en una tecnología en ensayo y muy cara), habría que excluir también las zonas urbanas, carreteras, líneas de alta tensión y sus correspondientes distancias de seguridad a las turbinas, y también bosques.

Si excluimos el 90% de los desiertos cálidos y de los suelos del permafrost (donde se encuentran la mayor parte de la energía en suelos), estaríamos descartando cerca ya de 50 millones de Km2, a ellos habría que añadirle la ocupación de ciudades más una distancia de seguridad, lo que eliminaría otros 7 millones de Km2, los bosques ocupan unos 40 millones de Km2 aunque una parte de ellos están en suelos de permafrost y en las zonas de exclusión de urbes y otras infraestructuras, y las carreteras, líneas de alta tensión y red de ferrocarriles y sus distancias de seguridad añadirían otros 5 millones de Km2 de exclusión. Esto significaría que entre el 50 y el 75% del non-glaciated land se podría excluir como no accesible con las tecnologías actuales.

Otra aproximación que añadiría consideraciones técnicas la podemos hacer suponiendo que respecto a las líneas de alta tensión actuales (aproximadamente 1,4 millones de kilómetros) situamos los parques a una distancia de más de 150 metros y menos de 10 kilómetros de ellas, con esto serían accesibles unos 27,5 millones de Km2 (el 20% del total). Si se duplicaran en el futuro las líneas de alta tensión para transportar principalmente la energía de los aerogeneradores, hablaríamos del 40% de accesibilidad, a la que habría luego que excluir aquellas zonas urbanizadas, bosques etc. que se encontraran dentro de esa franja. Por tanto, bajo este criterio entre el 60 y el 80 o más podría excluirse.

Tomaremos como extremos –generosos- para el factor geográfico accesible = 0,25-0,5 para el criterio de potencial técnico.

Por tanto, la potencia cinética disipada en las zonas de suelos accesibles en la capa del ABL se situaría en 22,25-44,5 TW. Si situamos en estas zonas turbinas, una parte se disiparía en ellas, otra parte se disiparía por debajo de ellas (en el suelo principalmente) y otra parte se seguiría disipando en las zonas más altas del ABL.

En una aproximación, la energía disipada es proporcional a la viscosidad y al cuadrado de la deformación del campo de velocidades: D = viscosidad · (du/dz)2 siendo u la velocidad y z la altura vertical. Como en el suelo la u = 0, du/dz cerca del suelo es > du/dz a cualquier otra altura. En las turbinas du no cambia hasta hacerse cero, sino que como mucho lo hace hasta el 59,2%, por lo que cerca del suelo y bastante por encima de las turbinas, la disipación siempre será mayor que la que se disipe en las turbinas (en turbinas reales no más de 1/3 del ABL podría disiparse en ellas, aún considerando que por arriba o los laterales de la turbina el viento las alimentara). Por tanto, la energía mecánica que puede interceptar cualquier tipo de turbina sería de aproximadamente 1/3 del ABL porque el resto se disiparía mayoritariamente cerca del suelo y fuera de la influencia de las turbinas (recordemos que nuestra hipótesis es que las turbinas no van a modificar apreciablemente la dinámica del ABL regional).

Por tanto, el potencial geográfico accesible a las turbinas quedaría entre: 7,5-15TW.

Para que la Cp no descienda por debajo de 0,25, habría que usar, de las zonas accesibles geográficamente, sólo las zonas de clase 4 o superior, que ocupan según A&J(2005) el 8,5% del territorio y portan el 39% de la potencia. Por tanto, el 60% de la potencia disipada de las zonas accesibles no daría buenas Cp y habría que descontarlo del potencial geográfico accesible. A este factor hay que aplicarle la capacidad de transformar en movimiento de la turbina de la energía con la que interactúan, que como mucho es del 59,2%. Sobre este valor, las turbinas tienen que transformar en electricidad neta (vertida a la red eléctrica) la energía mecánica que han obtenido, y el diseño de las mismas (curva de potencia) hace que el valor final se aproxime más a 1/3 que a ese 59,2%. Además, en parques reales, debido a pérdidas por availability, mantenimiento, sombra entre molinos, etc., se llega a perder a escala regional al menos otro 25%  de ese tercio (Boccard), valor que difícilmente puede aumentar si se disponen millones de turbinas en vez de las 200000 actuales (como se comprueba en los GCM de J&A y Gans et al, las Cp tienden a descender con el número de parques y turbinas). Si finalmente la Cp media se sitúa entre 0,25 y 0,33 en el futuro (hoy es de ~0,22, con lo que 0,33 supondría aumentar la eficiencia actual en un 50% a pesar de añadir mucha más potencia que la actual).

Este conjunto de factores daría finalmente un potencial técnico neto final entre 0,75-2TWe.

Además de suelos, algunos autores tratan de estimar el potencial offshore para profundidades marinas menores de 200 metros  (e.g. J&A, Li et al) llegando a aproximadamente el 10% del potencial onshore. Si esa proporción se mantuviera para nuestra estimación de suelos, encontraríamos finalmente que entre 0,8-2,25 TWe podría ser el límite técnico de la energía eólica.

 

En una hoja Excel posterios, se calcula a partir de los 89TW en suelos, con las mismas hipótesis que antes pero utilizando los datos de vientos de A&J para cada clase de viento y se utiliza una hipótesis de que la Cp aumenta con la clase de viento de 0,22 a 0,28 entre las clases 3 y 7 (siguiendo los datos de Wieser para EEUU pero corregidos a Cp realistas siguiendo a Boccard). Con este ligero cambio metodológico se llega a 0,92-1,84 TWe con un 25 o 50% de ocupación de todas las zonas de buenos vientos en suelos non glaciated.

 

Bottom-up: A pesar de que se ha criticado la metodología bottom-up extensamente en este trabajo, siguiendo el trabajo de Gans et. al, podemos utilizarla con relativa confianza si la potencia nominal a instalar es menor de 20TW (menos de 5-10TWe netos), por tanto, vamos a hacer una estimación con esta metodología ya que esperamos que el potencial técnico siguiendo los razonamientos hechos aquí, resulte en valores coherentes con los encontrados por la metodología t-d, incluso menores.

 

Para hacer una estimación usamos los datos de A&J (ver tabla excel), donde se calcula el porcentaje de territorio y la potencia cinética contenida en él para las distintas clases de vientos. La hipótesis fundamental aquí es utilizar una densidad de turbinas lo suficientemente baja y realista para que no se observen efectos wake que invaliden la metodología a la vez que se usan parques con separaciones de turbinas típicas. Para contrastar, A&J usan para su estimación una densidad de potencia instalada en turbinas de 9W/m2 y ocupan el 100% de todas las zonas de clases 3 o mayor. Nosotros usaremos esas mismas clases, pero suponemos CP realistas y densidades que van de 0,3W/m2 a 0,7W/m2 para las clases 3 a 7 respectivamente. Si restringimos el acceso al 25%-50% el a las zonas de clases 3-7 (50% utilizaron J&D), con estos datos el valor que obtenemos es: 0,5-1 TWe netos (ver tabla S1)

Para justificar por qué usamos unas densidades muy inferiores a los 9W/m2 (equivalentes a 28D2) además de remitirnos a los trabajos de GCM revisados aquí, vamos a hacer dos aproximaciones. La primera aproximación consiste en suponer una estructura de ocupación pseudo fractal; la idea es que para evitar los efectos de sombra, las densidades de turbinas que llevan a los SWPP tanto de J&A como de Gans et al. necesitamos que la densidad sea inferior a 1-3 W/m2, pero las turbinas reales se instalarán siempre en parques concretos con separaciones típicas de 28-56D2, lo que para compatibilizar ambas cosas, la idea sería instalar parques con las típicas densidades actuales pero separar los parques entre sí. Varios autores recomiendan ya separaciones de 56D2 y con parques del orden de 36 (6×6) turbinas dispuestos a hub heights de diferentes alturas (para evitar la pérdida de potencia por sombras). A su vez, si tenemos en cuenta otros trabajos, evitar la sombra entre parques puede hacer que la separación ideal entre parques sea al menos 4Ax4A, siendo A la anchura y longitud de un parque cuadrado. Esto reduciría la potencia a instalar entre 16 y 32 veces respecto a la utilizada en las aproximaciones típicas bottom-up. Es decir, a 0,3-0,6 W/m2. Poner mayor densidad de turbinas y parques supone bajar necesariamente la Cp, lo que haría técnicamente inviables estos parques.

La segunda aproximación, a modo de ejemplo, es estudiar un parque de parques concreto denominado Marquesado (entre las provincias de Almería y Granada de España), compuesto de dos macroparques de turbinas con potencia nominal promedio de 2MW y D=87m, con separaciones dentro de cada parque típicas de 3Dx10D (8,8 W/m2).  Uno de los macro-parques está compuesto de cuatro proyectos (parques) con un total de 100 turbinas y el otro por 7 proyectos totalizando 85 turbinas. La densidad conjunta de los macroparques es de 2,6 MW/Km2. Y el conjunto se encuentra en un “embudo” que capta vientos del suroeste o noreste y que los conducen a un estrechamiento donde ese efecto embudo convierte a la zona en clase 3 o 4 frente a lo que rodea el embudo (clases 1 y 2). Si calculamos la densidad de ocupación de turbinas en todo el embudo resulta en aproximadamente 0,3 W/Km2. Difícilmente se pueden poner más macroparques (quizás uno más) porque o bien tendería a situarse en zonas inadmisibles (urbes, carreteras, parques naturales) o unos parques se harían sombra a otros. Es importante tener en cuenta que una zona de clase superior (digamos 6 o 7) frecuentemente está rodeada geográficamente por zonas de clases muy adecuadas (4 o 5) mucho más extensas. Si la industria puede acceder a las zonas de clase de viento superiores, entonces si en ellas la densidad de parques es elevada (rebajando quizás finalmente la clase efectiva a 5 o 6), podría eliminar, por efecto sombra, una buena parte de las zonas 3, 4 o 5 adyacentes, que la metodología b-u contabiliza, pero que desaparecería en realidad por reconvertirse en zonas 1 o 2.

 

 

 

 

Supplementary material

 

 

Fuente Wikipedia: Alemania: 22300 turbinas con 29075MW instalados (1,3MW/turbina) y Cp = 0,18

Dinamarca tiene una Cp de 0,17

España tiene una Cp de 0,23

 

Fuente EWEA: www.globalwindday.org A finales de 2011 había unas 200000 turbinas, 237669 MW instalados (en 2011 se instalaron 40564MW y decomisionaron 528MW), media actual de las turbinas 1,2MW.

Datos de GWEC sacados de wikipedia: End of 2009 wind power installed 158,9GW. End of 2010 wind power installed 197,6GW, instalado en 2010 38,7MW, si el 50% de esa nueva potencia estuvo funcionando en 2010, entonces la potencia efectiva instalada en 2010 fue de 158,9 + 38,7/2 GW. La producción eléctrica en 2010 fue de 0,0394TW, con lo que la Cp mundial es de aproximadamente 0,22.

 

 

Plano de la disposición del conjunto eólico “Marquesado” con los dos “field farms” de Hueneja y Fiñana (elipses negras) y el efecto embudo que se produce entre el Parque natural de Sierra Nevada (sur) y el Parque natural de la Sierra de Baza (norte). La zona estrecha del embudo tiene una anchura de unos 15 kilómetros y la longitud del embudo entre Tabernas y Guadix es de unos 70Km. El desnivel en el valle por el que circula la autovía Granada-Almería es entre los dos field farms de más de 300 metros. Las flechas azules indican la dirección de los vientos preponderantes que penetran en el embudo. Es una zona apta para los vientos en la que conviven líneas de ferrocarril, carreteras, zonas de cultivo, parques naturales protegidos, pueblos y otras infraestructuras (incluidas campos solares fotovoltaicos y de concentración).

 

Plano más detallado de los dos macrocampos. En total 185 turbinas tienen instalada una potencia nominal de 374,15MW, en el “embudo” la densidad de potencia instalada es de unos 0,3MW/Km2

 

 

Vista aérea de parte del macrocampo Hueneja. En violeta un parque fotovoltaico. La línea verde es una línea de turbinas eólicas de 2MW de potencia dentro de uno de los parques (elipses rojas y azul)

 

 

 

Vista aérea de parte del parque con línea azul de la fotografía anterior. Se aprecian las líneas de turbinas y algunas distancias a la autovía o a infraestructuras anteriores al parque. Las turbinas deben adaptarse con distancias de seguridad a las infraestructuras, sin esas infraestructuras se podrían haber puesto más turbinas en la mayoría de estos parques.

 

 

Esquema del field Hueneja, compuesto de cuatro proyectos o parques cada uno de 25 turbinas de 2MW. Las distancias entre turbinas (en cada línea) son de alrededor de 3D, siendo D el diámetro del aerogenerador. La densidad en cada parque es de alrededor de 9MW/Km2, la densidad en el macroparque Hueneja es de unos 4MW/Km2.

 

 

 

 

Vientos

Vh80 (m/s)

% del territorio

% de potencia contenida

CF

Densidad de turbinas (MW/Km2)

Potencia (TW) (50% accesibilidad)

Clase 1

4

0,759

0,317

Clase 2

6,4

0,115

0,197

clase 3

7,2

0,041

0,100

0,224

0,3

0,185

clase 4

7,8

0,028

0,087

0,231

0,4

0,173

clase 5

8,35

0,016

0,061

0,254

0,5

0,136

clase 6

9

0,016

0,076

0,266

0,6

0,171

clase 7

10

0,025

0,163

0,281

0,7

0,330

Clase >2

0,126

0,487

0,995

 

Tabla S.1. Cálculos para la estimación bottom-up a partir del porcentaje de territorio correspondiente a las distintas clases de viento en non-glaciated land (según A&J 2005). El factor de capacidad asignado, es 2/3 del valor de la recta de ajuste a los valores que da Wiser para proyectos de Estados Unidos de los años 2005-2007 (Wiser da factores de capacidad por encima de 0,35 para estos proyectos, pero la media de EEUU es de 0,25 según Boccard). Se asume una densidad de potencias que aumenta linealmente con la clase de viento de 0,3MW/Km2 (equivalente a la potencia instalada en el macroparque Marquesado) hasta 0,7MW/Km2 para las zonas de clase 7. El cálculo de potencial tecno-económico se estima a partir de estas hipótesis y un factor de accesibilidad del 50% a las zonas de vientos adecuados a escala global. La última fila hace el cálculo para vientos de clase 3 o superior. De la clase 7 una parte de la potencia no sería accesible por “exceso de vientos”, pero no se contabiliza aquí.

tipo de viento

CF realista

% de potencia contenida

TW en ABL on land

TW en molinos (1/3)

Twe en molinos

Twe accesibles (50%)

Twe accesibles (25%)

Clase 1

0,317

28,18

9,39

Clase 2

0,197

17,49

5,83

clase 3

0,224

0,100

8,89

2,96

0,67

0,33

0,17

clase 4

0,231

0,087

7,72

2,57

0,59

0,30

0,15

clase 5

0,254

0,061

5,40

1,80

0,46

0,23

0,11

clase 6

0,266

0,076

6,78

2,26

0,60

0,30

0,15

clase 7

0,281

0,163

14,53

4,84

1,36

0,68

0,34

clase > 2

0,486

89,00

29,67

3,68

1,84

0,92

Tabla S.2. Cálculos para la estimación top-down a partir de la potencia contenida en los vientos (ver tabla S.1) y de la que se disipa en el ABL (suponiendo en total 89TW según datos de Miller). Suponemos que 1/3 sería la disipación máxima en molinos que saturaran la zona, que los factores de capacidad vienen dados según la tabla S.1. y que podemos acceder al 50 y 25% de todos los territorios de diferentes clases de viento.

 

 

 

 

Referencias:

 

García-Olivares et al. muy interesante la discusión de los límites que imponen los materiales; para llegar a los límites con sus restricciones se necesitan cambios extraordinarios en la organización mundial política y económica que se me antojan tan difíciles como superar nuestros límites tecnológicos. En el caso que nos ocupa nosotros encontramos mayores restricciones tecnológicas.

 

Johnstone and Coleman 2012 (los que reducen el array efficiency a 8/27). Citan a Milborrow 1980 (predice el 37%). La energía no se transporta a través del tope del ABL por la fuerza de Coriolis. Se puede modelar las turbinas como un enhanced surface roughness, de acuerdo con Calaf.

 

Meyers Meneveau 2011. aconsejan ampliar el espacing y variar las alturas (>15D porque con 10D se pierde un 20%)

 

Lebronetal2012  about 50% de la energía viene del axial flux y el otro 50% de turbulent fluxes on the periphery (lo que no significa que esa periferia esté fuera del ABL)

 

Meneveau 2012 infinitas turbinas 28D2 pierden entre el 40 y el 50%, con 20D se pierde el 10%. Aconseja 6×6 parques.

 

Wang-Prim. Potential climatic impacts and reliability of very large-scale wind

Farms C. Wang and R. G. Prinn. Atmos. Chem. Phys., 10, 2053–2061, 2010.

Ocupan 6800MHa (land + ocean depth<200m), modelo de 60 años usando los últimos 20., darían 4,4TWe. Toman 860TW. Esta magnitud no cambiará apreciablemente con los molinos, confirmando nuestra hipótesis más “delicada”, presuponen Cp = 0,33 y 13 millones de turbinas de 1MW; densidad de 0,2 MW/Km2

Es correcto lo que hacen, pero están ocupando el 43% de toda la superficie continental, cuando las zonas de clase 3 o más (con Cp > 0,33) no llegan ni al 25%. Si reducimos al 8,5% (clases 4 o mayores capaces de Cp <= 0,33) reduciríamos a 1/3 su valor, aún considerando igual la ocupación que toman de océanos, es decir: 1,36TWe reconfirmando una vez más nuestros resultados. Obtienen que sobre esos 58 MKm2 la temperatura subiría 1ºC, pero que esa subida de temperatura sería muy pequeña por debajo de 1TWe. Las variaciones seasonal up to a factor 1,5-2, esto implica que aunque el límite promedio anual sea de xTWe, finalmente este límite se ve reducido si consideramos mínima disponibilidad, es el problema de la intermitencia que no se suele considerar y que no se complementa con la solar; la razón fundamental estriba en que la mayoría de las zonas emergidas están en el hemisferio norte y que el viento varía su potencia según las estaciones del año. Es decir que si conseguimos llegar al límite de 1TWe, tendríamos durante meses que no llegaríamos a 0,75TWe de producción.

 

Lorenz-Rennó 2002. Se disipa exergía por la fricción de las gotas de lluvia y nieve (2W/m2)(citan a Pauluis 2000 y Renno 2001). Toman Tc = 250K. el trabajo en mantener las nubes 0,15W/m2.

 

Makarieva 2010. La atmósfera no sería una heat engine próxima al rendimiento de Carnot, si no en todo caso próxima al de potencia máxima. The dissipation of work within a heat engine cannot increase the work produced by the engine. Citan a Curzon¬ahlborn, Leff 1987, Rebhan 2002, Van den Broeck 2005, Feidt et al 2007, Jimenez de Cisneros&Calvo Hernández 2008, Izumida&Okuda 2009). Confirma así lo que encuentran los del Max Planck (que al añadir rozamiento con los molinos reduces en vez de mantener o aumentar como encuentran Marvel y Jacobson el trabajo disipado en la zona del ABL: en vez de compensarse con lo que viene de “arriba”. Esto también lo razonábamos en nuestro primer artículo cuando decíamos que lo que se está observando es de hecho que las infraestructuras humanas seguramente están llevando el viento a los océanos).

 

Peixoto. Emitted radiation about 250K. The climate system must be regarded as a highly dissipative system (export entropy 20-30 times it imports). Turbulent and convective processes 37000 TW. Para el cálculo de entropía del frictional heating toma Tc = 280K (el válido para la zona del ABL).

 

 

Curzon Ahlborn 1975. Rendimiento 1-raiz(Tc/Th).

 

 

Pauluis 2000, 2-4W/m2 hydrometeors in the tropics con nubes de 5-10Km de altitude.

 

Wang. Llega a la generalización mínima y maxima de una máquina de potencia máxima. Con ciclo de Carnot y sin más fricciones.

 

Li et al. 2007, tiempos de residencia de aproximadamente 1 semana, energía 710-735 EJ., 1000-1300TW.

 

Marques 2009. Reanalysis y GCM. Concluye que los GCM tienden a dar más potencia en la atmósfera que los datos y sus análisis a la vez que nos ayuda a descartar como exagerados los modelos de Marvel y Jacobson.

 

Keith 2004: 1,7W/m2 870TW (dicen también 850TW).

 

Gans et al. 2012 The problem of the second wind turbine – a note on a common but

flawed wind power estimation method F. Gans, L. M. Miller, and A. Kleidon. Earth Syst. Dynam., 3, 79–86, 2012 Aquí demuestran que las metodologías bottom-up terminan engordando tanto el potencial que violan el primer principio y la conservación del momento cinético.

 

Miller et al. 2011 Estimating maximum global land surface wind power extractability

and associated climatic consequences L. M. Miller,, F. Gans and A. Kleidon. Earth Syst. Dynam., 2, 1–12, 2011 Este artículo se presta a confusión porque algunos lo comparan tal cual con el nuestro. En realidad ellos no pretenden lo mismo que nosotros y su cálculo se refiere más a lo que denominamos potencial teórico, no tecnológico. Me escribí con Axel Kleidon para discutirlo y concluímos ambos que su trabajo es compatible con el nuestro. También « alucinamos » con el empeño en ignorar por parte de Marvel y Jacobson y sus colaboradores respectivos los dos principios de la termodinámica, cosas del tecno-optimismo que hemos confirmado con la fotovoltaica, los biocombustibles y otras energías (renovables o no).

 

J&A : Jacobson and Archer 2012. Saturation wind power potential and its implications for wind energy. PNAS. Este es el artículo que criticamos fuertemente aquí. Su modelo está mal hecho, indirectamente reconocen que el equipo del Max Planck y nosotros teníamos razón pero lejos de reconocerlo, nos critican a nosotros y a muchos otros investigadores, no reconocen que su « nueva » contribución ya estaba implícita en Miller et al. Además « casualmente » siempre les da el mismo potencial de unos 72TWe  desde hace más de un lustro a pesar de cambiar el tipo de molinos (cada vez necesitan más y más grandes para llegar siempre a lo mismo, se aprovechan de que la gente no lee con atención).

 

Archer &J 2005. datos de velocidades, b-u mal hecha que viola el primer principio. Dicen que sus estimaciones de velocidades son probablemente conservadoras, si fuera así, quizás subiera un poco nuestras estimaciones basadas en sus campos de velocidades.

 

J&D. Jacobson y Deluchi 2011. Providing all global energy with wind, water, and solar power, Part I: Technologies, energy resources, quantities and areas of infrastructure,

and materials Mark Z. Jacobson, Mark A. Delucchi. Este artículo fue criticado por Ted Trainer y por García-Olivares y en mi opinión es una alucinación tecno-optimista. Ellos aquí mencionan un factor de ocupación del 50% que empleamos aquí nosotros (aunque nos parece exagerado y por eso también usamos el 25% -por no usar aún menos-). Un factor de ocupación del 100% que la mayoría “usan” cuando proyectan límites “tecnológicos” es sencillamente absurdo, implica que si una zona es de clase 4 y una autovía la atraviesa, la quitaríamos para plantar molinos.

 

Marvel et al. 2012. Geophysical limits to global wind power Kate Marvel, Ben Kravitz

and Ken Caldeira. Nature climate change. 9 SEPTEMBER 2012 | DOI: 10.1038/NCLIMATE1683. Este es el otro artículo que criticamos extensamente aquí. Es llamativo que vinieran casi juntos éste y el de J&A en dos revistas de altísimo prestigio y sin embargo que acumulen errores de bulto tan obvios. En este artículo se ignora nuestro trabajo.

 

 


Georgescu-Roegen y la importancia de los materiales

Recientemente terminé de leer el libro “La bioeconomía de Georgesu-Roegen” de Óscar Carpintero, texto que “constituye la primera biografía intelectual publicada en castellano sobre este autor, y tiene como finalidad resaltar los principales aspectos de su obra económico-ecológica, de su bioeconomía”. Sin embargo, se trata de mucho más que un texto académico, puesto que se adentra en las interacciones entre el proceso de investigación, la personalidad y los (particulares) avatares biográficos en un contexto en el que las ideas exploradas no se corresponden con el paradigma convencional, canónica, del campo de estudio. En el caso concreto de GR, ésto se tradujo durante el mayor tiempo de su vida en una chocante irrelevancia, aunque se puede decir que plantó muchas semillas (entre sus discípulos figura H. Daly, famoso y brillante proponente del “estado estacionario”) y sus ideas se han constituido en pilar de la Economía Ecológica.

Leer a GR resulta en ocasiones una tarea difícil, incluso ardua, puesto que se trata de textos “muy” multidisciplinares con argumentaciones que integran diversas ciencias (economía, estadística, biología, etc.) con la filosofía de la ciencia en una perspectiva histórica de varias décadas en incluso siglos. Por ello, recomiendo este libro escrito de manera clara y didáctica encarecidamente a todo interesado en el pensamiento de GR, en la crítica contundente a las teorías neoclásicas imperantes, en la investigación del papel de las restricciones físicas (termodinámicas) en el proceso económico, así como en la evolución histórica de los diferentes derroteros que ha tomado la economía que se preocupa por el medio ambiente y la sostenibilidad.

Este post no es una reseña del libro, por lo que me limitaré aquí a comentar muy brevemente la interpretación de GR del proceso económico basándose en las leyes de la termodinámica, y que se encuentra resumido en la figura 1 siguiente:

  • 1er principio de conservación de la energía: la energía ni se crea ni se destruye, sólo se transforma.
  • 3er principio o Ley de la entropía: en esa transformación, la energía pierde su calidad y se degrada, disminuyendo sus posbilidades para el aprovechamiento humano.

Figura 1

Para GR, el proceso económico consiste en la transformación de inputs de baja entropía (con alto valor de cambio; materia y energías no renovables), mediante un proceso de transformación también sujeto a límites termodinámicos (como por ejemplo en las tasas de progreso tecnológico o las posibilidades de sustitución), en outputs de alta entropía (bajo valor de cambio; residuos). Así, debido al “carácter irreversible e irrevocable” de la ley de la entropía, su cumplimiento en los procesos de extracción y utilización conlleva un aumento de la escasez” (nótese que la variable precio es aquí irrelevante en la definición de escasez frente a la visión convencional). En efecto, GR interpretaba las leyes de la termodinámica “como limitación física a la expansión del sistema económico” (y este enfoque aplicamos en nuestros modelos).

Asímismo, GR pensaba que “es muy probable que el problema de la escasez aparezca más por parte de los materiales que por el ámbito de la energía, pues siempre nos quedará la opción de apelar –con mayor o menor éxito- al flujo de radiación solar.” En este punto se situó de nuevo a la contra de la mayoría de sus colegas, puesto que (1) los economistas ortodoxos no le atribuían mayor importancia a los inputs energéticos y de material más allá de las coyunturas geopolíticas y de inversión, y (2) aquellos científicos que comenzaban a analizar la importancia de estos inputs se centraban mayoritariamente en el factor energético. Desde luego, en este último punto tuvo especial importancia la crisis energética de los 70. Y GR no ahorró críticas a la denominada corriente del “dogma energético” que postulaba que “los materiales no son ya un problema pues siempre podrían reciclarse por completo por mucho que se disipen. Únicamente haría falta obtener la energía para poder concentrarlos”. Sólo que cuando la tasa de concentración del mineral tiende a cero (como ocurre en los residuos), ¡la energía necesaria para concentrarlos de nuevo tiende a infinito! La obviedad de la imposibilidad de acometer tal tarea de forma práctica llevó a GR a enunciar su 4º ley de la termodinámica, cuya validez no fue sin embargo aceptada de forma teórica. Sin embargo, toda su vida perseveró en recordar que “matter, matters too” (juego de palabras: la materia también importa).

Se puede decir que el factor energético ha continuado concentrando la atención mayoritaria entre los investigadores. Irónicamente, el propio nombre de este grupo de investigación lo demuestra, ¡a pesar de que el aspecto material no es ni mucho menos obviado! (ver por ejemplo el estudio del potencial de la energía solar eléctrica y el post “Sueños tecnológicos contra la pared de la realidad“).

Un análisis del flujo de materiales (incluyendo a los energéticos) a nivel global y de la UE nos pone en la tierra sobre la linealidad de nuestro sistema económico. Pues mientras no seamos capaces de alimentarnos de energía renovable y cerrar los círculos materiales, no habrá sostenibilidad.

 

Figura 2 (Haas et al., 2015): Diagrama de Sankey de los flujos materiales globales (world) y de la UE (EU-27) en 2005. Los números indican la magnitud de los flujos en Gt/yr. EU = Unión Europea; RoW = Resto del mundo.

Iñigo Capellán-Pérez

Referencias

  • Oscar Carpintero. La bioeconomía de Georgescu-Roegen. Montesinos, 2006.
  • La obra fundamental de GR, “La ley de la entropía y el proceso económico”, publicada en 1971, se encuentra desafortunadamente descatalagoda en castellano, aunque se puede descargar en PDF aquí.
  • Presentación de Alicia Valero “Gaia versus Thanatia: El crepúsculo de los recursos de la Tierra” (2014).

Una medida más de la pobreza del fracking

En la actualidad menos del 1% de las personas que trabajan en el mundo se dedican directa o indirectamente al sector energético de las fósiles (y del resto de energías comerciales). Esto no es poco, pero sobre todo, no es mucho. Aunque vivamos en sociedades con mucho paro estructural, el que la energía fósil requiera pocos trabajadores (como pasó con los agricultores) es lo que nos ha permitido que la mayoría podamos dedicarnos a otros menesteres y con ello a hacer sociedades complejas (aunque frágiles).

El fracking tejano del petróleo ha disparado el empleo directo e indirecto de este estado (y con él el de EEUU). Se han venido a crear aproximadamente algo más de un millón de empleos nuevos por cada millón de nuevos barriles diarios extraídos allí. La creación de puestos de trabajo vende tanto socialemente que ese tipo de trabajos terminan siendo la principal excusa para degradar los ecosistemas y en realidad no es tan bueno en un mundo que está transitando rápidamente su mix energético. Con la proporción de Texas una sociedad montada sobre el fracking requeriría que más del 10% de los trabajadores del mundo se dedicaran a esta forma de vida, limando la compejidad de la sociedad, en especial cuando la cosa energética se vaya acabando. Así sabemos que se avecina un desastre social en Texas mientras viven su breve esplendor porque no es lo mismo crecer rápido que decrecer rápido, ¿cuantos Detroit veremos allí en breve?

En el fondo la elevada necesidad de trabajadores está relacionada con la Tasa de Retorno Energético. Existe una alta correlación (a través de relaciones causales) entre un bajo retorno energético y una alta necesidad de trabajadores. Para el caso de un mundo fotovoltaico se requeriría que más del 20% nos dedicáramos solo a captar esta energía (y también más proporción de agricultores “solares” también para la otra fuente de energía: la alimentación), haciendo imposible cualquier complejidad social. Parece que el fracking no es un caso tan malo en estos términos como la fotovoltaica pero nos indica también hacia dónde nos estamos dirigiendo. Además, el fracking requerirá trabajadores para combatir los desastres ambientales y sanitarios que produce, puestos indirectos que habría que contabilizar porque no se crearían si utilizáramos otras tecnologías menos agresivas como la solar. Al final casi todos nos dedicaremos al sector energético o a paliar sus daños y no nos podremos permitir trabajos “ociosos” como el de profesor de universidad.

Será uno de los síntomas de colapso, y una causa también, el regreso a los sectores productivos (agricultura, minería y energía) y de cuidados (salud, restauración de suelos).

Todo se realimenta.

Carlos de Castro Carranza