El potencial tecnológico de la energía eólica (vuelto a visitar)

A top-down approach to the technical potential of the wind power.

Carlos de Castro Carranza

 

 

  1. Introducción

 

Esto es un borrador hecho hace más de dos años, algunos párrafos no son míos sino producto de mis discusiones con Antonio García-Olivares et al. y la gente de mi grupo. La responsabilidad de lo que hay aquí es mía. Puede ser conveniente leer con atención enteros o al menos tener a mano los trabajos de Marvel et al, de J&A, de Miller et al. y el nuestro: de Castro et al.

Es importante distinguir entre potencia instalada nominal, potencia cinética de los vientos y la potencia promedio neta eléctrica que se vierte al usuario final, las primeras se darán normalmente en TW y la última, que es la que tratamos de calcular aquí, en TWe.

 

2. Definición de potenciales de un recurso energético renovable.

 

El potencial extraíble real de un recurso debería tener en cuenta, además de los límites teóricos de una tecnología (e.g. eficiencia), cuestiones derivadas de restricciones geográficas, de acceso a minerales y de cualquier otra posible limitación que de forma realista y práctica pueda darse sobre la aplicabilidad de esa tecnología, como pueden ser las necesidades de territorio reales y su posible competencia/conveniencia etc. Es decir, hay que pensar en un sentido amplio lo que se entiende por tecnología.

 

Dado que en  el Anexo I del documento “Renewable Energy Sources and Climate Change Mitigation. Special Report of the Intergovernmental Panel on Climate Change” se dan unas definiciones sobre potenciales de recursos energéticos renovables, parece lógico asumir como punto de partida esas definiciones y ampliarlas en dos sentidos.

  • Particularizar dichas definiciones para el caso de la energía eólica.
  • Desarrollar las definiciones con ejemplos, casos y datos que permitan una comprensión mas precisa de las mismas, así como indicar que restricciones o límites llevan de unas a otras definiciones.

Las definiciones recogidas por el IPCC y que nosotros vamos a utilizar son (directamente en inglés para respetar cualquier matiz):

Technical potential is the amount of renewable energy output obtainable by full implementation of demonstrated technologies or practices. No explicit reference to costs, barriers or policies is made. Technical potentials reported in the literature being assessed in this report, however, may have taken into account practical constraints and when explicitly stated there, they are generally indicated in the underlying report.

Theoretical potential is derived from natural and climatic (physical) parameters (e.g., total solar irradiation on a continent’s surface). The theoretical potential can be quantified with reasonable accuracy, but the information is of limited practical relevance. It represents the upper limit of what can be produced from an energy resource based on physical principles and current scientific knowledge. It does not take into account energy losses during the conversion process necessary to make use of the resource, nor any kind of barriers.

En la definición de potencial técnico se tienen en cuenta las “prácticas demostradas” que de alguna manera ya tienen en cuenta cuestiones económicas y de retorno energético (EROEI). Tecnológicamente se puede construir una plataforma gigantesca en plan isla flotante e irse a captar los vientos que circunnavegan el Antártico. Pero sería tan prohibitivamente caro que nadie en la práctica está haciendo eso ni lo hará en un futuro cercano. Incluso, podría pasar que la tasa de retorno energético fuera menor que uno, pero aún así, tecnológicamente sería factible, incluso anecdóticamente realizado, que es lo que se hace en algunos casos con los biocombustibles.

Tecnológicamente se puede poner un molino de viento en una zona de clase 1 o 2 pero no es práctica tecnológica común porque no es rentable económicamente. Los autores que hablan de potenciales técnicos suelen excluir estas clases de viento, aunque no haya razones puramente tecnológicas que excluyan su instalación.

 

A continuación definiremos las restricciones que tendremos en cuenta y que afectan al potencial técnico.

 

Technical and practical constraints. Englobarían a las puramente tecnológicas, que pueden cambiar según varía la tecnología a lo largo del tiempo, y las “prácticas comunes”. Restricciones de este tipo para el caso de la energía eólica son:

  • Geográficas: zonas en las que no es técnicamente factible, debido a su ubicación geográfica, la instalación de generadores de energía eólica con las tecnologías y prácticas actuales, tales como alta montaña u océanos fuera de la plataforma continental. Zonas de viento más allá de la ABL (ver definición más adelante) o por debajo de las clases de viento 3 o 4.
  • Tecnológicas. Rendimiento promedio en la transformación de una cantidad de energía eólica disponible en un lugar delimitado y la energía eléctrica disponible para un consumidor final. Las pérdidas son al menos debidas a no captación en las palas de los aerogeneradores de toda la energía circundante, perdidas mecánicas en la transmisión entre ejes de giro y rozamientos, pérdidas eléctricas en la transformación y pérdidas eléctricas en el transporte, consumo propio del sistema de regulación, pérdidas debidas a pérdida de disponibilidad operacional como consecuencia de averías y mantenimiento y pérdidas debidas a vientos fuera del rango de operación. Se tienen en cuenta que los parques eólicos deben tener un factor de capacidad (Cp) mínimo para ser viables. Se tiene en cuenta también un espaciado entre molinos al uso actual o no mayor del doble.
  • Materiales. No vamos a tener en cuenta esta restricción directamente en nuestro artículo, aunque diversos autores sostienen que no hay cobre en la tierra para montar, del orden de 50TW de potencia eólica (García-Olivares et al.).

3. A critical revision of the wind power potential estimation methodologies.

 

Se han utilizado y propuesto varias metodologías distintas para la estimación de los potenciales teóricos y técnicos (de Castro et al.). Podríamos agruparlas en dos grandes grupos: metodologías bottom-up (b-u) y top-down (t-d). Durante décadas se ha venido utilizando la metodología bottom-up a partir de la configuración de un mapa de las velocidades del viento en el mundo, con este mapa e hipótesis sobre tecnologías concretas y de disposición geográfica de las turbinas, se escala hacia arriba para encontrar los distintos potenciales a escala nacional, regional o global. Recientemente se han añadido metodologías a partir de GCM (modelos de circulación general) enfocadas al impacto climático de distintas disposiciones de molinos; aunque algunas de ellas han trabajado también los límites de su implantación. Éstas metodologías se han enfocado con simulaciones de los efectos de los molinos desde una perspectiva diferente que podríamos denominar top-down, Keith 2004, Miller 2012, Gans 2012, Wang 2010, Marvel 2012, aunque han ido apareciendo modelos GCM que simulan los molinos desde la perspectiva bottom-up (J&A).

Es en base a los estudios tradicionales bottom-up a partir de los cuales se han elaborado estudios, informes o papers que tratan de estimar los distintos potenciales teórico, tecnológico, económico o sostenible que se podría desarrollar con las políticas adecuadas (citas en de Castro et al.). Podemos destacar que el reciente informe del IPCC se basa de nuevo en este tipo de metodologías para dar los potenciales técnicos.

Frente a las metodologías bottom-up, se han propuesto recientemente metodologías top-down que parten de consideraciones teóricas basadas en principios fundamentales de la física y/o consideraciones tecnológicas (de Castro, Miller, Gans) o que se aplican a partir de GCM y Dataset analisis (Miller, Gans).

Como hemos señalado, las metodologías b-u han sido criticadas de forma directa en base a principios fundamentales de la física, porque se puede violar el principio de conservación de la cantidad de movimiento (Gans, Miller) y/o por la violación de la primera y/o segunda ley de la termodinámica (Miller, Gans, de Castro, este trabajo). De forma indirecta la metodología b-u ha sido puesta también en entredicho por los modelos GCM recientes que confirman una saturación de la potencia captable con turbinas eólicas y que concluyen que la metodología b-u tiene un límite de aplicación relativamente bajo (Gans y las revisiones hechas aquí de J&A y Marvel), lo que confirma la inquietud inicial de de Castro y Miller, aunque no se reconocen en J&A y Marvel et al.

A su vez, García-Olivares et al., en una visión top-down de tecnologías renovables, llaman la atención sobre que implantaciones elevadas de tecnologías renovables basadas fundamentalmente en solar y eólica (por ejemplo J&D proponen la producción de 5,75TW+5,75TW respectivamente para el 2030), se encuentran con límites de materiales importantes; según estos García-Olivares et al., se requeriría el 60% de las reservas del cobre del mundo para ello, lo que daría cuenta ya de su imposibilidad práctica en un mundo que aumenta su demanda para otros usos, con lo que potenciales técnicos que superen con mucho los 5TWe son tecnológicamente imposibles si por tecnología incluimos la que debe acceder a recursos materiales finitos, aunque se reciclen los materiales a tasas muy superiores a las actuales.

 

3.1. Top-down methodology of de Castro et al.

La metodogía propuesta por de Castro et al. parte de la conservación de la energía y potencia cinética de la atmósfera para ir detrayendo o excluyendo la energía no accesible por restricciones geográficas y tecnológicas. Este trabajo tiene dos objetivos: denunciar aquellas metodologías bottom-up que dan potenciales muy elevados por violar el primer principio de la termodinámica y proponer una nueva metodología que encuentra que los potenciales técnicos alcanzables (que de Castro et al. consideran realistas) están en el orden de 1TWe.

En esta metodología:

  1. Primeramente se calcula la potencia cinética que podría interactuar con las turbinas eólicas (alrededor de 100TW, que es el orden de magnitud que encuentran los estudios b-u como límite tecnológico para la energía eléctrica producible por molinos)
  2. de esta potencia se estima cuánta está en ubicaciones geográficamente accesibles
  3. de éstas ubicaciones se estiman cuáles ofrecen un potencial energético lo suficientemente grande como para entrar dentro del rango que se usa hoy en día para construir parques eólicos
  4. en las ubicaciones resultantes colocamos los molinos teniendo en cuenta que hay que dejar un mínimo espacio entre ellos para evitar que las estelas mermen la extracción
  5. para esos molinos se estima su factor de carga
  6. y por último, de esa cantidad se estima la eficiencia en que se puede transformar en energía eléctrica.

Es importante señalar que el factor verdaderamente limitante, el que cambia cualitativamente la capacidad de aprovechar la energía, es el primero de todos: la energía disipada en los primeros 200 metros de la atmósfera. Al fin y al cabo, el potencial aprovechable, que estiman en 1TWe, es un 1% de esa cantidad total, lo cual es razonable teniendo en cuenta las limitaciones de accesibilidad, disposición de molinos, clases de viento adecuadas y los factores de capacidad y de conversión. El hecho de que sólo haya ~100TW disponibles en los 200 metros de la atmósfera es lo que explica la gran diferencia entre los enfoques bottom-up y top-down. Los enfoques b-u se basan en la observación de ciertos puntos representativos y en asumir que todo es más o menos igual en una determinada área, independientemente de nuestra actuación sobre el área en concreto (salvo en la zona más próxima de la estela). Esto es solo correcto si los aerogeneradores son pocos y dispersos.

El trabajo de de Castro et al. se ha criticado por parte de J&A aduciendo que no se basa en consideraciones físicas realistas y para ello lo comparan con el resultado de un modelo GCM con simulación bottom-up de los molinos. En realidad, la comparación que se establece no puede ser directa, porque J&A en todo caso tratan de hallar un potencial teórico (según nuestra definición), frente al potencial técnico que persiguen de Castro et al.; y aunque J&A tratan de corregir los factores que diferencian su potencial teórico del potencial técnico, no lo hacen a nuestro juicio correctamente (ver más adelante).

La metodología top-down que proponen de Castro et al. se basa en una hipótesis fundamental: la potencia extraíble está limitada por la potencia disipada en la capa en la que se encuentran los molinos.

Se podría argumentar que la atmósfera no es un fluido compartimentado y que si se va extrayendo energía de la zona de 200 metros desde la superficie puede haber un bombeo desde zonas superiores, con lo que la visión de partir de 100TW accesibles, que hacen de Castro et al. sería errónea; pero debido a la rápida rotación de la Tierra la atmósfera es un fluido bastante estratificado. Esto quiere decir que se forman verdaderas capas en las que el fluido se mueve horizontalmente (perpendicularmente a la gravedad). Por supuesto, la estratificación se rompe en determinadas zonas y/o momentos debido a los movimientos convectivos, pero en la mayoría del fluido y la mayoría del tiempo, la atmósfera está formada por capas. La capa más próxima es la capa límite atmosférica inferior (ABL, atmospheric boundary layer). En esta zona los campos de vientos de la circulación global se adaptan a la rugosidad de la superficie de la tierra hasta llegar a la velocidad límite de cero m/s justo en la propia superficie. La capa límite es altamente turbulenta y con muchos movimientos verticales y está muy mezclada próxima a la superficie; los movimientos se van tornando progresivamente más ordenados, horizontales y conformes con el estado de las capas superiores a medida que nos vamos acercando al extremo superior del ABL y, salvo, en zonas convectivas, la circulación de la ABL está bastante desconectada de las capas superiores y no son de esperar grandes bombeos de energía desde y hacia la capa límite. La altura de esta capa suele ser muy superior a los 200 metros, por lo que los molinos eólicos siempre están dentro de esta capa y encima de ellos normalmente habrá decenas o cientos de metros de capa de ABL. La inmensa mayor parte de la interacción con los molinos será protagonizada por esta zona. Si no fuera así además, los molinos podrían generar grandes modificaciones en la dinámica atmosférica y por tanto fuertes cambios climáticos.

A los efectos del viento, las turbinas son un drag. Si se incrementa mucho el drag en una zona, se conseguirá que el viento esquive el obstáculo; es por lo que es difícil alterar el balance de energía total disipada en la capa de 200 metros, en especial si la disipación de los molinos a disponer es relativamente pequeña a esa energía inicial.

 

Aunque la hipótesis puede ser criticada en base a algunos trabajos y estudios, como los del propio J&A, Meneveau 2012, Baidya, Lebrometal etc. que argumentan que una parte de la disipación en los molinos proviene no de la propia capa donde se encuentran los molinos (axial mean flow) sino de flujos turbulentos de la periferia, especialmente de capas superiores a la altura de las turbinas; como se verá, si la disipación final en los molinos en el límite técnico es relativamente pequeña respecto al potencial de la ABL en donde están situados los molinos, la hipótesis es aplicable y válida, puesto que el error cometido inicial sería finalmente inferior al pequeño porcentaje respecto al potencial de la ABL. Es decir, si, por poner un ejemplo, se captara un 5% del potencial de la capa, aunque la mayor parte de esa energía viniera de fuera de la capa, es como si la fuente de potencia inicial fuera como mucho un 5% mayor y por tanto los cálculos habría que corregirlos al alza en un factor <1.05, nada significativo.

Por otro lado, de Castro et al. utilizó cálculos y estimaciones propias para calcular la potencia que se podría estar disipando en los vientos por debajo de los 200 metros. Esta estimación fue bastante gruesa y se puede refinar a partir de resultados teóricos y de data-analysis de la zona del ABL, donde de forma efectiva sí se puede afirmar con confianza que es la zona de influencia de las turbinas eólicas terrestres (ver epígrafe más adelante).

Se pueden refinar más los trabajos top-down propuestos hasta ahora, a partir de consideraciones estadísticas más realistas que las teóricas propuestas en de Castro et. al y Miller et al. Se hará aquí.

Por último, otra posible crítica al trabajo de de Castro et al. es la asignación de un factor de intercepción del viento por parte de los molinos que no tiene en cuenta de forma explícita el número de líneas de turbinas y la pérdida de potencia que los parques actuales tienen. Se limitan a exponer que el aumento de uno va en detrimento del otro, como se ha confirmado en base a modelos y experimentalmente, pero sin cuantificarlo. En realidad, la metodología top-down podría mejorar si se pudiera usar un GCM a escala de la ocupación de las turbinas o al menos, de las granjas, pero se defiende aquí que los GCM empleados hasta la fecha, con escalas muy grandes comparadas con la de los molinos, si bien pueden ser útiles para discusiones teóricas, son inferiores a la metodología top-down propuesta para estimar potenciales técnicos.

 

3.2. Marvel, J&A and Gans GCM models and estimations

 

Recientemente se han propuesto tres modelos GCM que evalúan o se aproximan a lo que podríamos llamar potenciales teóricos.

La ventaja de la utilización de un GCM es que explícitamente trata la dinámica atmosférica global, y su principal inconveniente es que debe simular el impacto sobre el viento de las turbinas y la escala empleada es muy grande comparada con el tamaño de un parque eólico.

Estos tres modelos pretenden tener en cuenta la conservación de la energía y/o del momentum en sus simulaciones, pero como veremos llegan a conclusiones muy diferentes entre ellos.

 

Marvel et al. utilizan un GCM para hallar un límite teórico encontrando la potencia cinética máxima que se podría disipar en el entorno de las turbinas terrestres o en hipotéticas turbinas en toda la atmósfera. Sus resultados dan más de 428TW cerca del suelo y más de 1873 TW en toda la atmósfera si llenáramos de turbinas todo el planeta. Concluyen con ello que no ven razones geofísicas limitantes para obtener del orden de los 17 TW. En la condición actual (sin turbinas), la atmósfera, según su modelo, y como se aprecia en su figura 1c. disipa  ~1650TW. Este valor es mayor que el más alto de los cinco GCM (la DE más alta de estos GCM resulta en 1235TW) y los tres datasets (con una media de 941TW) que revisa Marques 2009; Marques cree que los GCM tienden a sobre estimar ligeramente esta potencia, con lo que el resultado de Marvel está claramente fuera de rango (Peixoto y Oort, los autores más citados, dan 870TW para este valor aunque la actualización de datos efectivamente puede llevar a un valor de 940TW). Aunque 1650TW es la potencia disipada en toda la atmósfera por los vientos en el modelo de Marvel, si se añadieran el límite de turbinas capaz de disipar en ellas más de 1873TW cinéticos, en el conjunto de la atmósfera se estarían disipando más de 4100TW. Como comparación, los modelos GCM de Wang and Prinn y de Keith et al toman 860 y 867TW respectivamente, para esta potencia energética inicial.

Desde el punto de vista termodinámico parece poco intuitivo –por decirlo suavemente- que a un sistema al que se le añade rozamiento reaccione disipando (>4100TW) más que la suma de lo que se disipaba inicialmente (1650TW) y de lo que se extrae nuevo (1873TW). La potencia cinética disipada no se conserva en el sistema climático según este modelo, si bien la energía sí ha de hacerlo para no violar el primer principio de la termodinámica. De hecho, efectivamente, según su figura (1.b) la atmósfera contiene unos 155EJ de energía cinética (Peixoto da ~600EJ, otros autores dan más, con lo que sospechamos que hay un error de un factor 10 en esta gráfica, y en realidad su K=1550EJ), y ésta energía disminuye unas 20 veces según podemos ver en esa gráfica. Esto significa que el tiempo de residencia del viento (definido como la energía media entre la potencia media) disminuye unas 50 veces, es decir, que en realidad al caer tanto el tiempo de residencia del viento, éste dejaría de ser “viento”. En la figura A.1.e, el tiempo de residencia es de unos 11 días (lo que es coherente con que K = 1550EJ y no con K = 155EJ) y este cae a unos 0,2 días (50 veces) cuando se extraen 1873TW por las turbinas. Otra forma de ver esta aparente incongruencia es calculando la distancia promedio (L) que viajaría este viento (tiempo de residencia por la velocidad promedio de los vientos), ya que como la velocidad ha disminuido también (según la gráfica A.1.b de su supplementary material), la L se reduciría en más de 70 veces, pasando de unos 8500Km (Peixoto da del orden de 1000Km) a unos 120Km. Es obvio que un viento que recorre solo esta distancia en promedio es incapaz de hacer ninguna función climática como tratar de rellenar el gradiente de temperaturas entre ecuador y polos. Es decir, no estamos en ninguna condición física realista, por lo que creemos que el modelo debería ser revisado.

Según el texto, por cada incremento de 1W en la KE extraída, se incrementan 0,8 W la KE total disipada en toda la atmósfera, esto significaría que si KEE fuera de aproximadamente 1600TW, la TKE disipada total sería de unos 3250TW, aunque en la gráfica 1.b. vemos que supera los 4100TW, haciendo que, según ella, por cada W extraído se disiparan 1,5W más.

Estos aumentos de disipación significarían además que la atmósfera actual estaría muy alejada del MEP (maximum entropy production) y de la producción máxima de potencia asimilándola a una máquina térmica realista que trabajara a ese régimen, hipótesis bastante extendidas en la literatura (y que confirmaremos también aquí). Es más, como se estaría extrayendo más trabajo útil (energía mecánica disipada en las turbinas) que el trabajo mecánico que hoy hace la atmósfera (energía mecánica disipada), parecería que habríamos inventado una máquina que violaría el primer y segundo principios.

En la figura 1d el poleward atmospheric heat tansport pasa solo de 9PW a 7,5PW (lo que no es creíble si L ha disminuido 70 veces) y de hecho no empieza a declinar hasta que se sobrepasa una KEE de 1600TW cuando KE es de 35EJ (suponemos que en realidad 350EJ), P=4000TW y t residencia promedio 10 veces menor, es decir, que con menor velocidad y mucho menor t sigue llegando el mismo transporte a los polos.

La figura 1.e. implica que la atmósfera reduce su temperatura en unos 10 K cuando KEE es de 1800TW. Esto parece violar el segundo principio, porque se obtiene una máquina de tamaño mundial que sería análoga a tener un refrigerador del que se saca además trabajo útil (la energía eólica en las turbinas).

Se ha dicho que la atmósfera funciona como si fuera una heat engine quizás próxima al rendimiento del ciclo de Carnot. A escala global, la atmósfera tiene en este esquema una Th de 288 K y una Tc de 250 K, con lo que el rendimiento máximo teórico sería de aproximadamente el 13%. Sin embargo, el ciclo de Carnot no extrae potencia en un tiempo finito dado que requiere estados de equilibrio extremadamente lentos.

En realidad, la máquina real que supone la atmósfera, si suponemos que está a su máxima potencia (algo creíble en el ABL dada su rápida dinámica y coherente con argumentos teóricos, datasets y a partir de la hipótesis del MEP –Miller et al dan citas de esto-), trabajaría con un rendimiento respecto al teórico de la mitad a lo sumo. El rendimiento máximo a potencia máxima sería 1-√(Tc/TH) aunque bajo consideraciones más generales, trabajos recientes lo sitúan entre la mitad del rendimiento de Carnot (hC) y hC /(2- hC). Como el rendimiento de Carnot no supera el 13%, resulta que está en todo caso entre 6,5 y 7%. Es decir, que si la atmósfera (o al menos el ABL) trabajan a potencia máxima disipada, estaríamos lejos de los resultados de Marvel, ya que la disipación actual sería muy inferior a la máxima en un factor de aproximadamente 2,5.

Si consideramos el ABL (donde la hipótesis de potencia máxima es más creíble aún), y consideramos que Th = 288 y Tc = 280 , el rendimiento de Carnot sería del 2,78% y el de la “maquina atmosférica” de aproximadamente el 1,4%. Si la potencia total que se disipa en el ABL es <45000 TW (convención ascendente que parte se disipa por encima de la atmósfera), un rendimiento del 1,4% daría que menos de 625TW pueden ser considerados trabajo mecánico. Una parte de este trabajo sería cinético pero otra parte se iría en la disipación de hidrometeoros y en el mantenimiento y ascenso de las nubes. Por tanto, cualquier ABL muy superior a 625TW sería sospechoso de exageración y superior a 1250TW violaría el segundo principio. En el caso de Marvel, si la disipación en toda la atmósfera supera los 4100 TW, entonces, o bien mucho menos de la mitad se disiparían en el ABL (cambiando radicalmente la dinámica atmosférica) y la temperatura Tc baja mucho (ya que Th baja 10 grados tendiendo a reducir la eficiencia, lo que parece contrario a un aumento de la dinámica del ABL), o bien se viola el segundo principio.

Makarieva dice que frecuentemente se utiliza una analogía con una heat engine para aplicarlo a la dinámica de los huracanes, pero que algunos de estos modelos establecen que “by dissipating work within the engine, it is supposed to be posible to increase the per-cycle output of the mechanical work” y tratan de demostrar a partir de principios fundamentales de la termodinámica que esto es una physical misinterpretation of the nature of the Carnot heat engine. “The main feature of the “dissipative heat engine” is the increase in the work produced by the engine per cycle due to internal dissipation compared with the same engine without dissipation”. It is stated that “the fraction of mechanical energy dissipated… increases the heat input to the convective heat engine so that more energy is available to be converted into mechanical energy”, y trata de demostrar que esto es erróneo. Marvel et al llegan de hecho al resultado que Makarieva asegura que viola el segundo principio. Algo que también le ocurre al trabajo de J&A como veremos.

En cualquier caso, aunque tuviera razón Marvel et al., este modelo dice que for the near-surface cases, there is little change in total atmospheric dissipation. Es decir, que la hipótesis inicial de de Castro seguiría siendo aplicable y no acudiría una cantidad importante de energía a la zonas de extracción de los molinos de capas superiores. Por lo que este método que sólo pretende calcular un potencial geofísico teórico, no desmentiría el trabajo de De Castro et al. en ningún caso.

 

El trabajo de J&A es un GCM que simula de forma concreta un número de turbinas con características dadas. Son turbinas de 5MW de potencia nominal, con altura de hub de 100 metros, D = 126m y que siguen la curva de potencia teórica suministrada por el fabricante. Así pues, no se limitan a calcular la potencia cinética extraíble, sino que lo que calculan es la potencia eléctrica que darían distintas disposiciones de esas turbinas.

J&A tratan de asegurar la conservación de la energía a partir de la idea de que convertir KE en electricity termina, en parte, volviendo a energía cinética porque la electricidad finalmente se disipará en forma de calor que regenerará luego algo de energía potencial y posteriormente cinética. Cómo hacer esto sin violar el segundo principio (ver discusión anterior sobre el trabajo de Makarieva) puede ser un problema de su modelo.

J&A introducen un nuevo concepto, el SWPP (saturation wind power potencial), aunque ya se encontraba implícitamente en los razonamientos de Miller et al. y nuestros, lo que no reconocen; según este concepto, la conservación de la energía y el hecho de que las turbinas no pueden extraer más del 59,2% (Betz limit) del viento incidente, hace que en esa saturación, siga soplando viento en la atmósfera. Sus resultados dan 253TW para ese SWPP que podríamos identificar como un límite máximo teórico según nuestra definición. En el caso de aplicarlo sólo sobre suelos (excluyendo la Antártida), ese límite sería de 72TW, y si se añaden coastal ocean (<200m deep) de 80TW (un incremento del 10% más que utilizaremos).

J&A critican nada menos que a autores teóricos consagrados como Lorenz, Gustavson, Peixoto, Sorensen, Li y Stancey porque “are not based on a physical model of energy extraction so cannot give estimates of wind potencial at the height of turbines”. Encuentran que la extracción de energía a una altitud dada not deplete energy at all altitudes above or below it; so an estimate of wind potential in the whole atmosphere does not answer the practical question about wind turbine potential at typical hub height (en cualquier caso esto confirmaría de nuevo que la hipótesis de de Castro es aplicable). Sin embargo, Lorenz, Peixoto y otros autores, ponen un límite máximo a la potencia disipada en la atmósfera, en coherencia, no solo con los data sets, sino con los GCM mayoritariamente empleados, con lo que el límite físico ha de ser mayor en todo caso al límite que calculan J&A.

J&A en cambio no dan la potencia que se disipa en la atmósfera (sin añadir turbinas) que podría dar también su GCM y que se podría comparar así a los trabajos anteriores que critican. Aunque su SWPP es de 253TW como es inferior incluso a las estimaciones de la potencia que se disipa en la ABL (Peixoto da unos 435 TW) podría dar lugar a pensar que son compatibles unos trabajos con otros.

Su GCM is modified to treat wind turbines as an elevated momentum sink, where the KE extracted from the wind is determined from a turbine power curve at the instantaneous model wind speed. Cada turbina ocupa varios layer verticals y se aplica a todo el conjunto de una celda (1,5ºx1,5º mínimo) en vez de forma local, es decir, en cada célula de cálculo colocan N turbinas, calculan la extracción con mucho detalle para un solo molino y luego multiplican por N (lo que convierte a este GCM en una metodología bottom-up en vez de top-down). Computa la energía perdida por el flujo y recalcula la velocidad de la celda tras la extracción. Esto implica que todos los molinos de una celda interceptan exactamente el mismo flujo definido en una malla tipo Arakawa c, y por tanto independientemente de su posición en la granja. Esto es precisamente lo que se denuncia por parte de Milleret al.  y de Castro et al. de la metodología b-u. Además, los experimentos como los trabajos con LES (large eddy simulations) muestran que hay un decaimiento de la energía tras las primeras líneas de molinos hasta valores cercanos al 50% a partir de 6-8 líneas de molinos. Si el proceso fuese lineal y aditivo, podríamos ya decir que esos 253TW quizás habría que reducirlos a la mitad. Johnstone and Coleman recientemente modelan el efecto de un infinity array (al que se le puede aplicar muy bien la ocupación de toda la Tierra de miles de millones de turbinas), y concluyen que “the array efficiency is therefore reduced to aproximatly to 8/27, con lo que incluso podríamos estar hablando de 84TW en vez de 253TW.

Por otro lado, J&A realizan una control simulation (A) que was first run with turbines at 100 m hub height but no momentum extraction from them. In this case, the global capacity factor was about 31% based on instantaneous modelled wind speeds applied to the power curve for a 5MW turbine que al correr el modelo resultan en 1750 TW eléctricos, por lo que la potencia cinética que se disipa en las turbinas ha de ser mayor, al menos en un 40% (Betz limit). 1750 TW es la energía eléctrica convertida tras la interceptación de la energía cinética por la sección de los molinos (que sería de 1750/0,31 = 5730TW y, como no se extrae energía en esta simulación, podemos interpretar que esos 5730TW serían la energía del flujo interceptado en las subcapas entre 63 y 126 metros (donde se encuentran los molinos), por tanto la energía disipada en la capa límite (ABL) debe ser considerablemente mayor pues es solo una franja a la que habría que sumarle la energía de la capa inferior, que es la que presenta mayor grandiente de energía y la energía del resto de la ABL.

Obviamente, si nuestra interpretación es correcta de su simulación control, lo que definitivamente no está basado en un physical model of energy extraction es este modelo.

Un problema añadido general de su modelización es que en el mejor de los casos simulan 5 años cuando Wang señalan que en su modelo hay que esperar 40 años “to reach climatic steady states that approximatly repeat anually alfer that”. Marvel et al. use for all simulation integrations for 100 years y observan que las “simulations approach a stationary states on the timescales of decades”; usan pues “the final 60 years of each simulation were used for analysis”. Miller et al and Gans et al.: “all simulations were conducted for 30 simulated years with the first 10 years discarded from the analysis to exclude spin-up effects”.

 

Aunque pensamos que J&A sobre-estiman los valores de SWPP, se pueden utilizar sus resultados para confirmar que las metodologías b-u han venido sobrevalorando sistemáticamente el potencial técnico del viento.

 

Para poder comparar coherentemente el estudio de J&A con el de De Castro, elaboro la siguiente tabla a partir de la suya:

 

J&A results Number of

turbines (millions)

Density power

occupation (W/m2)

Power generation

(Twe)

Cp %
World 821 11,25 224 4
410 5,62 253 8,8
103 1,41 160 22,5
Land 302 11,25 72 4,8
149 5,62 66,7 8,9
37,4 1,41 39,7 21,2
Fixed on

land

 

4

11,25 1,63 8,1
4 5,62 3,93 19,5
4 1,41 7,5 37,5

 

El “number of turbines” son las turbinas de 5MW que hipotéticamente se instalarían y que se meten en su modelo.

La density power en W/m2 surge de tomar el “spacing” entre molinos de 5MW de potencia y un diámetro de palas D = 126 metros, con una altura de eje de 100 metros. Toman: 28·D2 (equivalente a 11,25 W/m2), 56·D2 (5,62 W/m2) y 224·D2 (1,41 W/m2) para el espacio reservado a cada molino y consideran que los 5 MW son la potencia nominal del generador, no la producida.

La “power generation” es la potencia eléctrica que generarían los molinos que en su modelo sitúan en la superficie terrestre.

Y la Cp es el factor de capacidad que resulta de dividir la potencia obtenida entre la potencia nominal instalada.

La industria eólica ha convencido a los inversores diciendo que sus molinos y parques reales tienen una Cp típica del 30-35% o más, aunque en realidad finalmente en Europa andamos por el 21%, en EEUU por el 25% (Boccard 2009) y a nivel mundial es de 0,22 (elaboración propia a partir de estadísticas internacionales). Podemos concluir que todo Cp por debajo del 20% no interesa, no es viable técnicamente (mirando la tabla se comprueba que la mayoría de las disposiciones no son viables desde el punto de vista técnico).

Bien, en Archer & Jacobson (2005) usando una metodología bottom-up dicen que bastan 99,1 millones de turbinas de 1,5 MW (D = 77metros y altura de eje de 80 metros) con un spacing de 28·D2 para obtener 71,5TWe que, conservadoramente según ellos, sería lo extraíble sobre tierra y en el mar cerca de las costas. El Cp que dan es de 0,48 y lo defienden como posible porque irían solo a las zonas mejores.

En Jacobson & Delucchi (2011) usan 3,8 millones de turbinas de 5MW con espaciado de 28·D2 para obtener 5,75 TWe de unas posibilidades de extracción que dicen que a 100 metros son de 72-170 TW basándose en su estudio de 2005 y otros estudios bottom-up. Podemos deducir siguiendo esta metodología que bastarían 48 millones de turbinas de 5MW para obtener los 72 TWe.

Sin embargo de la tabla vemos que se necesitan 302 millones de turbinas de 5MW con el mismo espaciado (28·D2) que los anteriores estudios para obtener 72 TW,  frente a los 99,1 millones de generadores más pequeños que teóricamente se necesitan en el primer estudio y los 48 millones del segundo estudio. Obviamente, la metodología bottom-up no es correcta porque no se conserva la energía, como decíamos.

Con el espaciado que daban Jacobson & Deluchi en 2011, en teoría conseguían 5,75TWe con 3,8 millones de turbinas, pero en la tabla vemos que 4 millones de esas turbinas con ese espaciado tan solo generaría 1,63 TWe. De nuevo la metodología bottom-up no conserva la energía por ignorar los efectos de sombra entre parques eólicos y dan de nuevo la razón a de Castro et al.

De hecho, la única forma de llegar a superar los 5,75 TWe de producción con esas turbinas sería distribuirlas con un espaciado muy superior, 5 o 10 veces más que lo que hoy se utiliza. Pedir a la industria que adquiera los terrenos y que haga caminos y redes de evacuación eléctrica para esa dispersión de molinos dentro de “parques” harían inviables los proyectos y quedaría fuera de la definición dada de límite técnico.

Para estimar un potencial técnico siguiendo el modelo de Jacobson & Archer 2012, habría que hacer que el sistema de molinos a montar a escala mundial tuviese una Cp superior a 0,20, que el espaciado entre turbinas fuera de 28·D2 y no mucho mayor, quizás el doble (evitaríamos las sombras pero perderíamos eficiencia por razones técnicas ya que para la industria esas altas densidades son “práctica común” de acuerdo a la definición de potencial técnico). Luego habría que descontar al menos un 50% de la potencia teórica obtenida con el modelo por dificultades de acceso geográfico (como hacen los optimistas Jacobson & Deluchi, 2011 aunque pensamos que sería aún más) y luego habría que hacer un balance de energía neta producida eléctrica (como se hacía en de Castro), ya que estamos intentando comparar ambas metodologías.

Si en teoría, con las curvas de potencia de los molinos en la mano, las Cp que calcula la industria y Jacobson son de 0,3 o más, pero las Cp reales en el mundo real hoy no superan en grandes regiones los 0,25 (Boccard 2009), entonces netamente se pierde entre la teoría y la realidad más del 25%. De esta forma nos iríamos aproximando a una evaluación coherente sobre el potencial técnico de la energía eólica…

Bien, pongamos en forma de gráfica la tabla anterior:

 

Se da la potencia generada en escala logarítmica frente a la densidad de potencia, y sobre los puntos que emplea la tabla, las Cp. Consideremos la zona casi triangular en azul que representa la zona donde los Cp superan el 20% (adecuate Cp) y la zona donde la industria se sentiría cómoda con la densidad de potencia a instalar (reallistic spacings) en color granate. La intersección de ambas nos daría una primera idea de por donde podría estar el límite técnico de la eólica: ¡alrededor de 1 TWe! Como nuestro trabajo decía. Puede que menos si consideramos la inaccesibilidad de muchas zonas que habría que utilizar (Sahara, Gobi) y la energía neta que finalmente se obtendría. Pero para confirmarlo habría que hacer un GCM y buscar la saturación con esas dos condiciones (Cp> 20%, density power ~ 8-12 W/m2).

Además, para el 2030, ellos proponen generadores de 5MW cuando la industria hoy tiene instalados un promedio de 1,2MW y un parque reciente (que en España, Dinamarca y Alemania ya han encontrado las mejores zonas) aspira a seguir funcionando con sus molinos al menos 20 años como “práctica común”.

 

Miller et al and Gans et al models.

Miller et al usan tres aproximaciones top-down basadas en 1.- Una estimación gruesa de lo que ellos denominan back-of-the-envelope, 2.- Un simple momentum model with reanalysis data y 3.- Un GCM de mediana complejidad con simulación de las turbinas que explícitamente conserva la energía y el momentum. En los tres casos estiman lo que aquí hemos denominado un potencial teórico.

En el primer caso, parten de la hipótesis de que las turbinas se instalarían en non glaciated land y dentro de la influencia del ABL (alrededor de 113 TW), de esta potencia, razonan que a lo sumo el límite de Betz podría convertirse en electricidad, es decir, 68TWe. Aunque a primera vista son similares a los 72TW encontrados por J&A, estos últimos tienen en cuenta la curva de potencia de las turbinas concretas que emplean (que reduce la potencia nominal al 31% en el caso de no interferencia entre turbinas) y no el límite de Betz, con el cual Miller et. al. habrían encontrado unos 36TW, o la mitad que J&A.

Por otro lado, Miller et al. no reducen con más factores su estimación para llegar a lo que nosotros denominamos aquí potencial técnico, pero en de Castro et al. ya se razonaba que adaptando adecuadamente los factores, ambos trabajos eran coherentes de forma aproximada.

El modelo que se basa en reanalysis data, es más interesante porque a partir de él se obtiene que el ABL disipa 513 TW en toda la superficie de la Tierra de los cuales 89TW es en non glaciated land. Si sobre este valor último, hubieran aplicado su “back-of-the-envelope” con la curva de potencia de J&A, habrían obtenido unos 28TWe para el potencial geográfico teórico, algo más de 1/3 que el valor de la SWPP de J&A, lo que estaría de acuerdo a lo que dijimos antes citando a Johnstone and Coleman. Pero, using the simple momentum balance model and the land-based dissipation of the ECMWF ERA-40 data results encuentran a maximum of 21TWe from the initial 89 TW of dissipation. It shows how an overall increase in momentum removal (drag +extraction) corresponds to a decrease in boundary layer dissipation. Es decir, que usando la conservación del momento, en vez de la conservación de la energía como factor limitante principal, obtienen entre ¼ y 1/5 de la ABL, suponiendo una conversión a electricidad perfecta.

En el caso del GCM que emplean, la potencia total disipada en el ABL la sitúan entre 71,5 y 125TW sobre non-glaciated land. Y los valores máximos de transformación eléctrica estarían entre los 18 y los 34 TWe.

Pero no se pueden emplear estos datos tal cual para estimar un potencial técnico porque esos valores se encuentran suponiendo una distribución equidistante y mundial de turbinas, que resultaría en problemas similares a los encontrados por J&A: un número enorme de turbinas con una bajísima Cp.

 

Gans et al. hacen un estudio más detallado sobre el mismo GCM empleado por Miller et al. cuidando explícitamente tanto la conservación del momentum como la de la energía del viento y lo aplican a turbinas concretas de 2MW de potencia nominal y diámetro D = 61metros a altura de hub de 80 metros.

De sus resultados se extrae que aproximadamente 125TW se disipan en el ABL non glaciated land (sobreestimado en un 40% respecto a los 89TWe que el dataset reanalysis mostraba). Concluyen que esta disipación disminuye (y no aumenta como en los casos de Marvel et al y aparentemente de J&A)  cuando se disipan en las turbinas unos 25TW, ya que el ABL disminuye a unos 115TW (10TW). Es más, si pensamos que al añadir drag con las turbinas parte del viento se irá a otras zonas de menor drag (e.g. océanos), es posible que la potencia global disipada en el ABL permanezca aproximadamente constante, pero en ningún caso parece que ésta aumente.

Para disipar esos 25TW y obtener un máximo de 15TWe teóricos por el límite de Betz, se necesitaría según su modelo una densidad equiespaciada de 10 turbinas por Km2, es decir, si tenemos en cuenta que la non-glaciated land es de unos 134 millones de kilómetros cuadrados, necesitaríamos 1340 millones de turbinas de 2MW, o lo que es lo mismo, instalar una potencia de 2680 TW para obtener menos de 15TWe (una Cp menor del 0,006). Obviamente, bajo este modelo, habría que ir a instalar potencias muchísimo menores a través de una densidad mucho menor para obtener un valor tecnológicamente creíble. Con una densidad 100 veces menor requeriríamos 26,8TW de potencia instalada para obtener menos de 1TWe, aunque subiríamos el CP de manera insuficiente a alrededor de 0,03. En realidad, los GCM al usar celdas muy grandes 1,5ºX1,5º de latidudxlongitud o más, están hallando un promedio sobre toda la celda (que ocuparía cientos de kilómetros de ancho), sin embargo, la industria eólica lógicamente se desarrolla no tomando un promedio así, sino buscando aquellos sitios de velocidad del viento elevadas (clases 4 o más), con lo que la Cp puede subir por encima de los 0,2 requeridos para ser viable tecnológicamente. Por esta razón, si bien, los GCM actuales pueden dar una idea gruesa de cual es el potencial teórico, son inaplicables para estimar los potenciales técnicos de interés para la industria pues para ello se requerirían celdas mucho más pequeñas, inalcanzables para la potencia de cálculo de los ordenadores actuales.

Así pues, para descender a una estimación del potencial técnico, no queda más remedio que hacer una estimación top-down, que parta de modelos GCM o mejor de data-reanalysis, para estimar la potencia del ABL en zonas determinadas donde se consideren geográficamente accesibles y a partir de aquí ir aplicando distintos factores de reducción, de forma análoga a como se planteaba en de Castro et al.

 

4. A top-down (and bottom-up) estimation of the sustainable potential of net wind energy power

 

Top-down: La hipótesis fundamental es que los potenciales técnicos realizables van a ser mucho menores que la disipación actual en el ABL, por tanto, las turbinas van a afectar poco a esta potencia. Una parte de esa disipación se va a producir necesariamente en el suelo y en el futuro cercano, el esperado aumento de infraestructuras humanas (no aerogeneradores), probablemente reduzca el ABL, al menos en las zonas geográficas donde se añada drag, como discute Gans et al y como parece que es la tendencia medida (citas que dimos en de Castro).

Es decir, consideraremos constante la potencia del ABL sobre las zonas geográficas en las que se instalarían las turbinas, aunque probablemente éste se viera reducido (lo que llevaría en todo caso a una sobre-estimación de este potencial).

Que entre 850 y 1200TW se disipan en toda la atmósfera, está muy bien establecido por consideraciones teóricas, GCMs  y datasets reanalysis, y cualquier estudio que se salga claramente de estos límites habría que revisarlo. Lo mismo se puede confirmar para el caso del ABL, donde estudios teóricos lo sitúan en aproximadamente el 50% de la disipación total y tanto los data set reanalysis como los GCM lo sitúan en 450-550TW.

De interés para nosotros es el ABL que se disipa en non-glaciated land, que tomaremos como 89TW siguiendo el trabajo de Miller et al. para, a partir de él, calcular el potencial técnico en suelos.

Podríamos partir de la extensión geográfica total y excluir aquellas zonas que por lejanía o inconveniencia pudiéramos razonablemente evitar: buena parte de los desiertos cálidos (ya que requeriría llevar infraestructuras a sitios muy alejados de las infraestructuras actuales), de los suelos del tipo permafrost (de nuevo la mayoría están muy alejados de urbes y son suelos que exigen pile foundation que profundizan en el suelo alrededor del 50% de la altura de la torre, lo que hoy las convierte en una tecnología en ensayo y muy cara), habría que excluir también las zonas urbanas, carreteras, líneas de alta tensión y sus correspondientes distancias de seguridad a las turbinas, y también bosques.

Si excluimos el 90% de los desiertos cálidos y de los suelos del permafrost (donde se encuentran la mayor parte de la energía en suelos), estaríamos descartando cerca ya de 50 millones de Km2, a ellos habría que añadirle la ocupación de ciudades más una distancia de seguridad, lo que eliminaría otros 7 millones de Km2, los bosques ocupan unos 40 millones de Km2 aunque una parte de ellos están en suelos de permafrost y en las zonas de exclusión de urbes y otras infraestructuras, y las carreteras, líneas de alta tensión y red de ferrocarriles y sus distancias de seguridad añadirían otros 5 millones de Km2 de exclusión. Esto significaría que entre el 50 y el 75% del non-glaciated land se podría excluir como no accesible con las tecnologías actuales.

Otra aproximación que añadiría consideraciones técnicas la podemos hacer suponiendo que respecto a las líneas de alta tensión actuales (aproximadamente 1,4 millones de kilómetros) situamos los parques a una distancia de más de 150 metros y menos de 10 kilómetros de ellas, con esto serían accesibles unos 27,5 millones de Km2 (el 20% del total). Si se duplicaran en el futuro las líneas de alta tensión para transportar principalmente la energía de los aerogeneradores, hablaríamos del 40% de accesibilidad, a la que habría luego que excluir aquellas zonas urbanizadas, bosques etc. que se encontraran dentro de esa franja. Por tanto, bajo este criterio entre el 60 y el 80 o más podría excluirse.

Tomaremos como extremos –generosos- para el factor geográfico accesible = 0,25-0,5 para el criterio de potencial técnico.

Por tanto, la potencia cinética disipada en las zonas de suelos accesibles en la capa del ABL se situaría en 22,25-44,5 TW. Si situamos en estas zonas turbinas, una parte se disiparía en ellas, otra parte se disiparía por debajo de ellas (en el suelo principalmente) y otra parte se seguiría disipando en las zonas más altas del ABL.

En una aproximación, la energía disipada es proporcional a la viscosidad y al cuadrado de la deformación del campo de velocidades: D = viscosidad · (du/dz)2 siendo u la velocidad y z la altura vertical. Como en el suelo la u = 0, du/dz cerca del suelo es > du/dz a cualquier otra altura. En las turbinas du no cambia hasta hacerse cero, sino que como mucho lo hace hasta el 59,2%, por lo que cerca del suelo y bastante por encima de las turbinas, la disipación siempre será mayor que la que se disipe en las turbinas (en turbinas reales no más de 1/3 del ABL podría disiparse en ellas, aún considerando que por arriba o los laterales de la turbina el viento las alimentara). Por tanto, la energía mecánica que puede interceptar cualquier tipo de turbina sería de aproximadamente 1/3 del ABL porque el resto se disiparía mayoritariamente cerca del suelo y fuera de la influencia de las turbinas (recordemos que nuestra hipótesis es que las turbinas no van a modificar apreciablemente la dinámica del ABL regional).

Por tanto, el potencial geográfico accesible a las turbinas quedaría entre: 7,5-15TW.

Para que la Cp no descienda por debajo de 0,25, habría que usar, de las zonas accesibles geográficamente, sólo las zonas de clase 4 o superior, que ocupan según A&J(2005) el 8,5% del territorio y portan el 39% de la potencia. Por tanto, el 60% de la potencia disipada de las zonas accesibles no daría buenas Cp y habría que descontarlo del potencial geográfico accesible. A este factor hay que aplicarle la capacidad de transformar en movimiento de la turbina de la energía con la que interactúan, que como mucho es del 59,2%. Sobre este valor, las turbinas tienen que transformar en electricidad neta (vertida a la red eléctrica) la energía mecánica que han obtenido, y el diseño de las mismas (curva de potencia) hace que el valor final se aproxime más a 1/3 que a ese 59,2%. Además, en parques reales, debido a pérdidas por availability, mantenimiento, sombra entre molinos, etc., se llega a perder a escala regional al menos otro 25%  de ese tercio (Boccard), valor que difícilmente puede aumentar si se disponen millones de turbinas en vez de las 200000 actuales (como se comprueba en los GCM de J&A y Gans et al, las Cp tienden a descender con el número de parques y turbinas). Si finalmente la Cp media se sitúa entre 0,25 y 0,33 en el futuro (hoy es de ~0,22, con lo que 0,33 supondría aumentar la eficiencia actual en un 50% a pesar de añadir mucha más potencia que la actual).

Este conjunto de factores daría finalmente un potencial técnico neto final entre 0,75-2TWe.

Además de suelos, algunos autores tratan de estimar el potencial offshore para profundidades marinas menores de 200 metros  (e.g. J&A, Li et al) llegando a aproximadamente el 10% del potencial onshore. Si esa proporción se mantuviera para nuestra estimación de suelos, encontraríamos finalmente que entre 0,8-2,25 TWe podría ser el límite técnico de la energía eólica.

 

En una hoja Excel posterios, se calcula a partir de los 89TW en suelos, con las mismas hipótesis que antes pero utilizando los datos de vientos de A&J para cada clase de viento y se utiliza una hipótesis de que la Cp aumenta con la clase de viento de 0,22 a 0,28 entre las clases 3 y 7 (siguiendo los datos de Wieser para EEUU pero corregidos a Cp realistas siguiendo a Boccard). Con este ligero cambio metodológico se llega a 0,92-1,84 TWe con un 25 o 50% de ocupación de todas las zonas de buenos vientos en suelos non glaciated.

 

Bottom-up: A pesar de que se ha criticado la metodología bottom-up extensamente en este trabajo, siguiendo el trabajo de Gans et. al, podemos utilizarla con relativa confianza si la potencia nominal a instalar es menor de 20TW (menos de 5-10TWe netos), por tanto, vamos a hacer una estimación con esta metodología ya que esperamos que el potencial técnico siguiendo los razonamientos hechos aquí, resulte en valores coherentes con los encontrados por la metodología t-d, incluso menores.

 

Para hacer una estimación usamos los datos de A&J (ver tabla excel), donde se calcula el porcentaje de territorio y la potencia cinética contenida en él para las distintas clases de vientos. La hipótesis fundamental aquí es utilizar una densidad de turbinas lo suficientemente baja y realista para que no se observen efectos wake que invaliden la metodología a la vez que se usan parques con separaciones de turbinas típicas. Para contrastar, A&J usan para su estimación una densidad de potencia instalada en turbinas de 9W/m2 y ocupan el 100% de todas las zonas de clases 3 o mayor. Nosotros usaremos esas mismas clases, pero suponemos CP realistas y densidades que van de 0,3W/m2 a 0,7W/m2 para las clases 3 a 7 respectivamente. Si restringimos el acceso al 25%-50% el a las zonas de clases 3-7 (50% utilizaron J&D), con estos datos el valor que obtenemos es: 0,5-1 TWe netos (ver tabla S1)

Para justificar por qué usamos unas densidades muy inferiores a los 9W/m2 (equivalentes a 28D2) además de remitirnos a los trabajos de GCM revisados aquí, vamos a hacer dos aproximaciones. La primera aproximación consiste en suponer una estructura de ocupación pseudo fractal; la idea es que para evitar los efectos de sombra, las densidades de turbinas que llevan a los SWPP tanto de J&A como de Gans et al. necesitamos que la densidad sea inferior a 1-3 W/m2, pero las turbinas reales se instalarán siempre en parques concretos con separaciones típicas de 28-56D2, lo que para compatibilizar ambas cosas, la idea sería instalar parques con las típicas densidades actuales pero separar los parques entre sí. Varios autores recomiendan ya separaciones de 56D2 y con parques del orden de 36 (6×6) turbinas dispuestos a hub heights de diferentes alturas (para evitar la pérdida de potencia por sombras). A su vez, si tenemos en cuenta otros trabajos, evitar la sombra entre parques puede hacer que la separación ideal entre parques sea al menos 4Ax4A, siendo A la anchura y longitud de un parque cuadrado. Esto reduciría la potencia a instalar entre 16 y 32 veces respecto a la utilizada en las aproximaciones típicas bottom-up. Es decir, a 0,3-0,6 W/m2. Poner mayor densidad de turbinas y parques supone bajar necesariamente la Cp, lo que haría técnicamente inviables estos parques.

La segunda aproximación, a modo de ejemplo, es estudiar un parque de parques concreto denominado Marquesado (entre las provincias de Almería y Granada de España), compuesto de dos macroparques de turbinas con potencia nominal promedio de 2MW y D=87m, con separaciones dentro de cada parque típicas de 3Dx10D (8,8 W/m2).  Uno de los macro-parques está compuesto de cuatro proyectos (parques) con un total de 100 turbinas y el otro por 7 proyectos totalizando 85 turbinas. La densidad conjunta de los macroparques es de 2,6 MW/Km2. Y el conjunto se encuentra en un “embudo” que capta vientos del suroeste o noreste y que los conducen a un estrechamiento donde ese efecto embudo convierte a la zona en clase 3 o 4 frente a lo que rodea el embudo (clases 1 y 2). Si calculamos la densidad de ocupación de turbinas en todo el embudo resulta en aproximadamente 0,3 W/Km2. Difícilmente se pueden poner más macroparques (quizás uno más) porque o bien tendería a situarse en zonas inadmisibles (urbes, carreteras, parques naturales) o unos parques se harían sombra a otros. Es importante tener en cuenta que una zona de clase superior (digamos 6 o 7) frecuentemente está rodeada geográficamente por zonas de clases muy adecuadas (4 o 5) mucho más extensas. Si la industria puede acceder a las zonas de clase de viento superiores, entonces si en ellas la densidad de parques es elevada (rebajando quizás finalmente la clase efectiva a 5 o 6), podría eliminar, por efecto sombra, una buena parte de las zonas 3, 4 o 5 adyacentes, que la metodología b-u contabiliza, pero que desaparecería en realidad por reconvertirse en zonas 1 o 2.

 

 

 

 

Supplementary material

 

 

Fuente Wikipedia: Alemania: 22300 turbinas con 29075MW instalados (1,3MW/turbina) y Cp = 0,18

Dinamarca tiene una Cp de 0,17

España tiene una Cp de 0,23

 

Fuente EWEA: www.globalwindday.org A finales de 2011 había unas 200000 turbinas, 237669 MW instalados (en 2011 se instalaron 40564MW y decomisionaron 528MW), media actual de las turbinas 1,2MW.

Datos de GWEC sacados de wikipedia: End of 2009 wind power installed 158,9GW. End of 2010 wind power installed 197,6GW, instalado en 2010 38,7MW, si el 50% de esa nueva potencia estuvo funcionando en 2010, entonces la potencia efectiva instalada en 2010 fue de 158,9 + 38,7/2 GW. La producción eléctrica en 2010 fue de 0,0394TW, con lo que la Cp mundial es de aproximadamente 0,22.

 

 

Plano de la disposición del conjunto eólico “Marquesado” con los dos “field farms” de Hueneja y Fiñana (elipses negras) y el efecto embudo que se produce entre el Parque natural de Sierra Nevada (sur) y el Parque natural de la Sierra de Baza (norte). La zona estrecha del embudo tiene una anchura de unos 15 kilómetros y la longitud del embudo entre Tabernas y Guadix es de unos 70Km. El desnivel en el valle por el que circula la autovía Granada-Almería es entre los dos field farms de más de 300 metros. Las flechas azules indican la dirección de los vientos preponderantes que penetran en el embudo. Es una zona apta para los vientos en la que conviven líneas de ferrocarril, carreteras, zonas de cultivo, parques naturales protegidos, pueblos y otras infraestructuras (incluidas campos solares fotovoltaicos y de concentración).

 

Plano más detallado de los dos macrocampos. En total 185 turbinas tienen instalada una potencia nominal de 374,15MW, en el “embudo” la densidad de potencia instalada es de unos 0,3MW/Km2

 

 

Vista aérea de parte del macrocampo Hueneja. En violeta un parque fotovoltaico. La línea verde es una línea de turbinas eólicas de 2MW de potencia dentro de uno de los parques (elipses rojas y azul)

 

 

 

Vista aérea de parte del parque con línea azul de la fotografía anterior. Se aprecian las líneas de turbinas y algunas distancias a la autovía o a infraestructuras anteriores al parque. Las turbinas deben adaptarse con distancias de seguridad a las infraestructuras, sin esas infraestructuras se podrían haber puesto más turbinas en la mayoría de estos parques.

 

 

Esquema del field Hueneja, compuesto de cuatro proyectos o parques cada uno de 25 turbinas de 2MW. Las distancias entre turbinas (en cada línea) son de alrededor de 3D, siendo D el diámetro del aerogenerador. La densidad en cada parque es de alrededor de 9MW/Km2, la densidad en el macroparque Hueneja es de unos 4MW/Km2.

 

 

 

 

Vientos

Vh80 (m/s)

% del territorio

% de potencia contenida

CF

Densidad de turbinas (MW/Km2)

Potencia (TW) (50% accesibilidad)

Clase 1

4

0,759

0,317

Clase 2

6,4

0,115

0,197

clase 3

7,2

0,041

0,100

0,224

0,3

0,185

clase 4

7,8

0,028

0,087

0,231

0,4

0,173

clase 5

8,35

0,016

0,061

0,254

0,5

0,136

clase 6

9

0,016

0,076

0,266

0,6

0,171

clase 7

10

0,025

0,163

0,281

0,7

0,330

Clase >2

0,126

0,487

0,995

 

Tabla S.1. Cálculos para la estimación bottom-up a partir del porcentaje de territorio correspondiente a las distintas clases de viento en non-glaciated land (según A&J 2005). El factor de capacidad asignado, es 2/3 del valor de la recta de ajuste a los valores que da Wiser para proyectos de Estados Unidos de los años 2005-2007 (Wiser da factores de capacidad por encima de 0,35 para estos proyectos, pero la media de EEUU es de 0,25 según Boccard). Se asume una densidad de potencias que aumenta linealmente con la clase de viento de 0,3MW/Km2 (equivalente a la potencia instalada en el macroparque Marquesado) hasta 0,7MW/Km2 para las zonas de clase 7. El cálculo de potencial tecno-económico se estima a partir de estas hipótesis y un factor de accesibilidad del 50% a las zonas de vientos adecuados a escala global. La última fila hace el cálculo para vientos de clase 3 o superior. De la clase 7 una parte de la potencia no sería accesible por “exceso de vientos”, pero no se contabiliza aquí.

tipo de viento

CF realista

% de potencia contenida

TW en ABL on land

TW en molinos (1/3)

Twe en molinos

Twe accesibles (50%)

Twe accesibles (25%)

Clase 1

0,317

28,18

9,39

Clase 2

0,197

17,49

5,83

clase 3

0,224

0,100

8,89

2,96

0,67

0,33

0,17

clase 4

0,231

0,087

7,72

2,57

0,59

0,30

0,15

clase 5

0,254

0,061

5,40

1,80

0,46

0,23

0,11

clase 6

0,266

0,076

6,78

2,26

0,60

0,30

0,15

clase 7

0,281

0,163

14,53

4,84

1,36

0,68

0,34

clase > 2

0,486

89,00

29,67

3,68

1,84

0,92

Tabla S.2. Cálculos para la estimación top-down a partir de la potencia contenida en los vientos (ver tabla S.1) y de la que se disipa en el ABL (suponiendo en total 89TW según datos de Miller). Suponemos que 1/3 sería la disipación máxima en molinos que saturaran la zona, que los factores de capacidad vienen dados según la tabla S.1. y que podemos acceder al 50 y 25% de todos los territorios de diferentes clases de viento.

 

 

 

 

Referencias:

 

García-Olivares et al. muy interesante la discusión de los límites que imponen los materiales; para llegar a los límites con sus restricciones se necesitan cambios extraordinarios en la organización mundial política y económica que se me antojan tan difíciles como superar nuestros límites tecnológicos. En el caso que nos ocupa nosotros encontramos mayores restricciones tecnológicas.

 

Johnstone and Coleman 2012 (los que reducen el array efficiency a 8/27). Citan a Milborrow 1980 (predice el 37%). La energía no se transporta a través del tope del ABL por la fuerza de Coriolis. Se puede modelar las turbinas como un enhanced surface roughness, de acuerdo con Calaf.

 

Meyers Meneveau 2011. aconsejan ampliar el espacing y variar las alturas (>15D porque con 10D se pierde un 20%)

 

Lebronetal2012  about 50% de la energía viene del axial flux y el otro 50% de turbulent fluxes on the periphery (lo que no significa que esa periferia esté fuera del ABL)

 

Meneveau 2012 infinitas turbinas 28D2 pierden entre el 40 y el 50%, con 20D se pierde el 10%. Aconseja 6×6 parques.

 

Wang-Prim. Potential climatic impacts and reliability of very large-scale wind

Farms C. Wang and R. G. Prinn. Atmos. Chem. Phys., 10, 2053–2061, 2010.

Ocupan 6800MHa (land + ocean depth<200m), modelo de 60 años usando los últimos 20., darían 4,4TWe. Toman 860TW. Esta magnitud no cambiará apreciablemente con los molinos, confirmando nuestra hipótesis más “delicada”, presuponen Cp = 0,33 y 13 millones de turbinas de 1MW; densidad de 0,2 MW/Km2

Es correcto lo que hacen, pero están ocupando el 43% de toda la superficie continental, cuando las zonas de clase 3 o más (con Cp > 0,33) no llegan ni al 25%. Si reducimos al 8,5% (clases 4 o mayores capaces de Cp <= 0,33) reduciríamos a 1/3 su valor, aún considerando igual la ocupación que toman de océanos, es decir: 1,36TWe reconfirmando una vez más nuestros resultados. Obtienen que sobre esos 58 MKm2 la temperatura subiría 1ºC, pero que esa subida de temperatura sería muy pequeña por debajo de 1TWe. Las variaciones seasonal up to a factor 1,5-2, esto implica que aunque el límite promedio anual sea de xTWe, finalmente este límite se ve reducido si consideramos mínima disponibilidad, es el problema de la intermitencia que no se suele considerar y que no se complementa con la solar; la razón fundamental estriba en que la mayoría de las zonas emergidas están en el hemisferio norte y que el viento varía su potencia según las estaciones del año. Es decir que si conseguimos llegar al límite de 1TWe, tendríamos durante meses que no llegaríamos a 0,75TWe de producción.

 

Lorenz-Rennó 2002. Se disipa exergía por la fricción de las gotas de lluvia y nieve (2W/m2)(citan a Pauluis 2000 y Renno 2001). Toman Tc = 250K. el trabajo en mantener las nubes 0,15W/m2.

 

Makarieva 2010. La atmósfera no sería una heat engine próxima al rendimiento de Carnot, si no en todo caso próxima al de potencia máxima. The dissipation of work within a heat engine cannot increase the work produced by the engine. Citan a Curzon¬ahlborn, Leff 1987, Rebhan 2002, Van den Broeck 2005, Feidt et al 2007, Jimenez de Cisneros&Calvo Hernández 2008, Izumida&Okuda 2009). Confirma así lo que encuentran los del Max Planck (que al añadir rozamiento con los molinos reduces en vez de mantener o aumentar como encuentran Marvel y Jacobson el trabajo disipado en la zona del ABL: en vez de compensarse con lo que viene de “arriba”. Esto también lo razonábamos en nuestro primer artículo cuando decíamos que lo que se está observando es de hecho que las infraestructuras humanas seguramente están llevando el viento a los océanos).

 

Peixoto. Emitted radiation about 250K. The climate system must be regarded as a highly dissipative system (export entropy 20-30 times it imports). Turbulent and convective processes 37000 TW. Para el cálculo de entropía del frictional heating toma Tc = 280K (el válido para la zona del ABL).

 

 

Curzon Ahlborn 1975. Rendimiento 1-raiz(Tc/Th).

 

 

Pauluis 2000, 2-4W/m2 hydrometeors in the tropics con nubes de 5-10Km de altitude.

 

Wang. Llega a la generalización mínima y maxima de una máquina de potencia máxima. Con ciclo de Carnot y sin más fricciones.

 

Li et al. 2007, tiempos de residencia de aproximadamente 1 semana, energía 710-735 EJ., 1000-1300TW.

 

Marques 2009. Reanalysis y GCM. Concluye que los GCM tienden a dar más potencia en la atmósfera que los datos y sus análisis a la vez que nos ayuda a descartar como exagerados los modelos de Marvel y Jacobson.

 

Keith 2004: 1,7W/m2 870TW (dicen también 850TW).

 

Gans et al. 2012 The problem of the second wind turbine – a note on a common but

flawed wind power estimation method F. Gans, L. M. Miller, and A. Kleidon. Earth Syst. Dynam., 3, 79–86, 2012 Aquí demuestran que las metodologías bottom-up terminan engordando tanto el potencial que violan el primer principio y la conservación del momento cinético.

 

Miller et al. 2011 Estimating maximum global land surface wind power extractability

and associated climatic consequences L. M. Miller,, F. Gans and A. Kleidon. Earth Syst. Dynam., 2, 1–12, 2011 Este artículo se presta a confusión porque algunos lo comparan tal cual con el nuestro. En realidad ellos no pretenden lo mismo que nosotros y su cálculo se refiere más a lo que denominamos potencial teórico, no tecnológico. Me escribí con Axel Kleidon para discutirlo y concluímos ambos que su trabajo es compatible con el nuestro. También « alucinamos » con el empeño en ignorar por parte de Marvel y Jacobson y sus colaboradores respectivos los dos principios de la termodinámica, cosas del tecno-optimismo que hemos confirmado con la fotovoltaica, los biocombustibles y otras energías (renovables o no).

 

J&A : Jacobson and Archer 2012. Saturation wind power potential and its implications for wind energy. PNAS. Este es el artículo que criticamos fuertemente aquí. Su modelo está mal hecho, indirectamente reconocen que el equipo del Max Planck y nosotros teníamos razón pero lejos de reconocerlo, nos critican a nosotros y a muchos otros investigadores, no reconocen que su « nueva » contribución ya estaba implícita en Miller et al. Además « casualmente » siempre les da el mismo potencial de unos 72TWe  desde hace más de un lustro a pesar de cambiar el tipo de molinos (cada vez necesitan más y más grandes para llegar siempre a lo mismo, se aprovechan de que la gente no lee con atención).

 

Archer &J 2005. datos de velocidades, b-u mal hecha que viola el primer principio. Dicen que sus estimaciones de velocidades son probablemente conservadoras, si fuera así, quizás subiera un poco nuestras estimaciones basadas en sus campos de velocidades.

 

J&D. Jacobson y Deluchi 2011. Providing all global energy with wind, water, and solar power, Part I: Technologies, energy resources, quantities and areas of infrastructure,

and materials Mark Z. Jacobson, Mark A. Delucchi. Este artículo fue criticado por Ted Trainer y por García-Olivares y en mi opinión es una alucinación tecno-optimista. Ellos aquí mencionan un factor de ocupación del 50% que empleamos aquí nosotros (aunque nos parece exagerado y por eso también usamos el 25% -por no usar aún menos-). Un factor de ocupación del 100% que la mayoría “usan” cuando proyectan límites “tecnológicos” es sencillamente absurdo, implica que si una zona es de clase 4 y una autovía la atraviesa, la quitaríamos para plantar molinos.

 

Marvel et al. 2012. Geophysical limits to global wind power Kate Marvel, Ben Kravitz

and Ken Caldeira. Nature climate change. 9 SEPTEMBER 2012 | DOI: 10.1038/NCLIMATE1683. Este es el otro artículo que criticamos extensamente aquí. Es llamativo que vinieran casi juntos éste y el de J&A en dos revistas de altísimo prestigio y sin embargo que acumulen errores de bulto tan obvios. En este artículo se ignora nuestro trabajo.

 

 


Georgescu-Roegen y la importancia de los materiales

Recientemente terminé de leer el libro “La bioeconomía de Georgesu-Roegen” de Óscar Carpintero, texto que “constituye la primera biografía intelectual publicada en castellano sobre este autor, y tiene como finalidad resaltar los principales aspectos de su obra económico-ecológica, de su bioeconomía”. Sin embargo, se trata de mucho más que un texto académico, puesto que se adentra en las interacciones entre el proceso de investigación, la personalidad y los (particulares) avatares biográficos en un contexto en el que las ideas exploradas no se corresponden con el paradigma convencional, canónica, del campo de estudio. En el caso concreto de GR, ésto se tradujo durante el mayor tiempo de su vida en una chocante irrelevancia, aunque se puede decir que plantó muchas semillas (entre sus discípulos figura H. Daly, famoso y brillante proponente del “estado estacionario”) y sus ideas se han constituido en pilar de la Economía Ecológica.

Leer a GR resulta en ocasiones una tarea difícil, incluso ardua, puesto que se trata de textos “muy” multidisciplinares con argumentaciones que integran diversas ciencias (economía, estadística, biología, etc.) con la filosofía de la ciencia en una perspectiva histórica de varias décadas en incluso siglos. Por ello, recomiendo este libro escrito de manera clara y didáctica encarecidamente a todo interesado en el pensamiento de GR, en la crítica contundente a las teorías neoclásicas imperantes, en la investigación del papel de las restricciones físicas (termodinámicas) en el proceso económico, así como en la evolución histórica de los diferentes derroteros que ha tomado la economía que se preocupa por el medio ambiente y la sostenibilidad.

Este post no es una reseña del libro, por lo que me limitaré aquí a comentar muy brevemente la interpretación de GR del proceso económico basándose en las leyes de la termodinámica, y que se encuentra resumido en la figura 1 siguiente:

  • 1er principio de conservación de la energía: la energía ni se crea ni se destruye, sólo se transforma.
  • 3er principio o Ley de la entropía: en esa transformación, la energía pierde su calidad y se degrada, disminuyendo sus posbilidades para el aprovechamiento humano.

Figura 1

Para GR, el proceso económico consiste en la transformación de inputs de baja entropía (con alto valor de cambio; materia y energías no renovables), mediante un proceso de transformación también sujeto a límites termodinámicos (como por ejemplo en las tasas de progreso tecnológico o las posibilidades de sustitución), en outputs de alta entropía (bajo valor de cambio; residuos). Así, debido al “carácter irreversible e irrevocable” de la ley de la entropía, su cumplimiento en los procesos de extracción y utilización conlleva un aumento de la escasez” (nótese que la variable precio es aquí irrelevante en la definición de escasez frente a la visión convencional). En efecto, GR interpretaba las leyes de la termodinámica “como limitación física a la expansión del sistema económico” (y este enfoque aplicamos en nuestros modelos).

Asímismo, GR pensaba que “es muy probable que el problema de la escasez aparezca más por parte de los materiales que por el ámbito de la energía, pues siempre nos quedará la opción de apelar –con mayor o menor éxito- al flujo de radiación solar.” En este punto se situó de nuevo a la contra de la mayoría de sus colegas, puesto que (1) los economistas ortodoxos no le atribuían mayor importancia a los inputs energéticos y de material más allá de las coyunturas geopolíticas y de inversión, y (2) aquellos científicos que comenzaban a analizar la importancia de estos inputs se centraban mayoritariamente en el factor energético. Desde luego, en este último punto tuvo especial importancia la crisis energética de los 70. Y GR no ahorró críticas a la denominada corriente del “dogma energético” que postulaba que “los materiales no son ya un problema pues siempre podrían reciclarse por completo por mucho que se disipen. Únicamente haría falta obtener la energía para poder concentrarlos”. Sólo que cuando la tasa de concentración del mineral tiende a cero (como ocurre en los residuos), ¡la energía necesaria para concentrarlos de nuevo tiende a infinito! La obviedad de la imposibilidad de acometer tal tarea de forma práctica llevó a GR a enunciar su 4º ley de la termodinámica, cuya validez no fue sin embargo aceptada de forma teórica. Sin embargo, toda su vida perseveró en recordar que “matter, matters too” (juego de palabras: la materia también importa).

Se puede decir que el factor energético ha continuado concentrando la atención mayoritaria entre los investigadores. Irónicamente, el propio nombre de este grupo de investigación lo demuestra, ¡a pesar de que el aspecto material no es ni mucho menos obviado! (ver por ejemplo el estudio del potencial de la energía solar eléctrica y el post “Sueños tecnológicos contra la pared de la realidad“).

Un análisis del flujo de materiales (incluyendo a los energéticos) a nivel global y de la UE nos pone en la tierra sobre la linealidad de nuestro sistema económico. Pues mientras no seamos capaces de alimentarnos de energía renovable y cerrar los círculos materiales, no habrá sostenibilidad.

 

Figura 2 (Haas et al., 2015): Diagrama de Sankey de los flujos materiales globales (world) y de la UE (EU-27) en 2005. Los números indican la magnitud de los flujos en Gt/yr. EU = Unión Europea; RoW = Resto del mundo.

Iñigo Capellán-Pérez

Referencias

  • Oscar Carpintero. La bioeconomía de Georgescu-Roegen. Montesinos, 2006.
  • La obra fundamental de GR, “La ley de la entropía y el proceso económico”, publicada en 1971, se encuentra desafortunadamente descatalagoda en castellano, aunque se puede descargar en PDF aquí.
  • Presentación de Alicia Valero “Gaia versus Thanatia: El crepúsculo de los recursos de la Tierra” (2014).

Una medida más de la pobreza del fracking

En la actualidad menos del 1% de las personas que trabajan en el mundo se dedican directa o indirectamente al sector energético de las fósiles (y del resto de energías comerciales). Esto no es poco, pero sobre todo, no es mucho. Aunque vivamos en sociedades con mucho paro estructural, el que la energía fósil requiera pocos trabajadores (como pasó con los agricultores) es lo que nos ha permitido que la mayoría podamos dedicarnos a otros menesteres y con ello a hacer sociedades complejas (aunque frágiles).

El fracking tejano del petróleo ha disparado el empleo directo e indirecto de este estado (y con él el de EEUU). Se han venido a crear aproximadamente algo más de un millón de empleos nuevos por cada millón de nuevos barriles diarios extraídos allí. La creación de puestos de trabajo vende tanto socialemente que ese tipo de trabajos terminan siendo la principal excusa para degradar los ecosistemas y en realidad no es tan bueno en un mundo que está transitando rápidamente su mix energético. Con la proporción de Texas una sociedad montada sobre el fracking requeriría que más del 10% de los trabajadores del mundo se dedicaran a esta forma de vida, limando la compejidad de la sociedad, en especial cuando la cosa energética se vaya acabando. Así sabemos que se avecina un desastre social en Texas mientras viven su breve esplendor porque no es lo mismo crecer rápido que decrecer rápido, ¿cuantos Detroit veremos allí en breve?

En el fondo la elevada necesidad de trabajadores está relacionada con la Tasa de Retorno Energético. Existe una alta correlación (a través de relaciones causales) entre un bajo retorno energético y una alta necesidad de trabajadores. Para el caso de un mundo fotovoltaico se requeriría que más del 20% nos dedicáramos solo a captar esta energía (y también más proporción de agricultores “solares” también para la otra fuente de energía: la alimentación), haciendo imposible cualquier complejidad social. Parece que el fracking no es un caso tan malo en estos términos como la fotovoltaica pero nos indica también hacia dónde nos estamos dirigiendo. Además, el fracking requerirá trabajadores para combatir los desastres ambientales y sanitarios que produce, puestos indirectos que habría que contabilizar porque no se crearían si utilizáramos otras tecnologías menos agresivas como la solar. Al final casi todos nos dedicaremos al sector energético o a paliar sus daños y no nos podremos permitir trabajos “ociosos” como el de profesor de universidad.

Será uno de los síntomas de colapso, y una causa también, el regreso a los sectores productivos (agricultura, minería y energía) y de cuidados (salud, restauración de suelos).

Todo se realimenta.

Carlos de Castro Carranza


“Jugando al Candy Crush al borde del abismo” Jorge Riechmann. Magister dixit

El pasado martes 3 visitó nuestra Escuela de Ingenieros Jorge Riechmann para impartir una conferencia titulada: “El final de las energías fósiles” dentro de un pequeño ciclo de conferencias titulado: “Durmiendo al borde del abismo“.

Me acerqué a escucharle no sólo por ser un amigo y un maestro de la idea y de la palabra, sino porque sinceramente me entusiama que sin tapujos organicemos en Valladolid ciclos con títulos así de claros.

Una de las primeras ideas que nos proporcionó fue precisamente el título de este post. Como genio de la palabra, Riechmann nos proporciona no solo una imagen que nos hace sonreir sino que, aunque nos lleva rápidamente a recordar a la vicepresidenta de las Cortes españolas, enseguida nos lleva a la idea de que estamos distraidos más que dormidos ante lo importante al tiempo que Crush es un término que se emplea para “presión destructiva”, “colisión” o “estrujar”. Así que la imagen que se me vino fue la de una persona adolescente conduciendo un coche descapotable jugando con el móvil mientras cae por un barranco… Vi a la sociedad peor que dormida, estúpida (al dormido se le despierta fácilmente, el estúpido lleva más tiempo).

Y con esa imagen y “jugando” entre la afirmación de que evitar el colapso de la civilización requiere medidas urgentes e inmediatas y la idea de su inevitabilidad Jorge fue capaz de navegar entre dos aguas.

Las dificultades para evitar el colapso las redujo a dos contradicciones fundamentales:

1ª las medidas urgentes e inmediatas que se necesitan no son solo en los aspectos tecnológicos sino especialmente en los aspectos socioeconómicos y políticos, pero estos son de ritmos muy lentos (se necesitan incluso siglos para cambios políticos fundamentales, por ejemplo). Nos proporcionó otra imagen de Weber: “la política es como tatar de perforar una gruesa plancha de acero” (yo añadiría que con un punzón manual).

2ª Nuestras sociedades desean (volver a) la socialdemocracia. Un sueño irrealizable biofísicamente que en cambio tienen partidos vistos como “radicales de izquierdas” como Syriza o Podemos [yo diría que vistos por los políticoss que juegan al Candy Crush figurada y realmente].

Tras estas dos ideas, sobre todo por la primera, Jorge nos mete la idea de que el colapso es ya inevitable, pero vuelve a la duda y se pregunta si “¿Tenemos tiempo?”. Su respuesta vuelve a impactar: Al menos intentemos “colapsar mejor”. Aunque la trayectoria es de colapso, este no es necesariamente apocalipsis. [yo diría que ya no tenemos tiempo para hacernos preguntas sobre si tenemos tiempo].

Jorge, tranquilo, define el colapso (al modo que he leído también a Durán y Reyes en su “La espiral de la energía“) como reducción rápida de la complejidad de la sociedad quizás acompañada de una reducción de la población [yo eliminaría el quizás también aquí].

Y vuelve luego a recordarnos lo mal preparados que estamos para lo que nos viene (dormidos, jugando). [De hecho aunque no lo dice explícitamente, este es un factor de colapso, el más importante porque es el que lo convierte en inevitable]. Jorge nos recuerda la desconexión entre la economía y la realidad física, nuestros sesgos cognitivos (por ejemplo la visión de corto plazo del futuro) y los prejuicios culturales [léase mitos culturales]. Para este caso, en vez de hablar de tecno-optimismo nos regala la palabra que lo atrapa casi todo: “tecnolatría”, y remarca que es uno de los mayores impedimentos para la realización de los cambios hacia colapsar mejor. Esa fe irracional en la tecnología nos la muestra con un ejemplo: el 92% de encuestados españoles piensan que es necesario reducir drásticamente los combustibles fósiles, pero solo el 24% piensa que esa reducción puede generar crisis económica o energética (esa disonancia cognitiva solo se salva por la creencia en que alguien hará lo que sea necesario para impedirlo [aunque ese alguien al mando esté en realidad jugando al Candy Crush] como las renovables, la nuclear o algún milagro tecnológico que intereses oscuros están frenando).

Ante ese panorama de colapso, existe la tentación de tirar la toalla, del carpe diem o del éxodo (me voy al campo a una comuna), pero ninguna de esas salidas son viables ya que no existen ya zonas de refugio (nos pone el ejemplo de las centrales nucleares que pueden convertirse, durante el colapso, todas ellas en “Fukushimas” -[podríamos hablar del caos climático o de la 6ª gran exinción también]-). Además, es moralmente irresponsable -en referencia a los del éxodo- abandonar a la gente (aclarando que si las iniciativas comunales se hacen como semilla sí serían válidas).

Jorge sigue navegando entre dos aguas [se le escapa de vez en cuando "posible colapso" en vez de "inevitable colapso"] hasta que llega al siempre tan esperado “¿Qué hacer?” [para colapsar mejor se entiende].

Y nos regala dos ideas:

1ª quitarnos la venda, despertar ante el abismo, dejar de jugar al Candy Crush [recordemos que la "lucha" no es entre el 1% rico y el 99% restante -que movilizó el 15M o a Podemos- sino entre el 1% despierto y el 98% que hay que despertar]. Esa concienciación que llevamos décadas sino milenios tratando de llevar a cabo.

2ª nuestras estrategias deben ser más complejas; ahondando simultáneamente tres temas:

  • prever y prepararse para oleadas de desencanto (e incluso tendencias a neofascismos) [claramente una lucha imprescindible para poder colapsar mejor] [frente al pesimismo que será inevitable en un mundo en el que hay que des-arraigar los mitos del progreso tecnológico-material, el mito del hombre darwinista-competitivo y la tecnolatría, sustituir esto llevará siglos, por lo tanto ese pesimismo existencial necesitará ir incorporando nuevos mitos y quizás diosas]
  • potenciar vínculos sociales, de cuidados, de cooperación [la Revolución Solidaria, vaya]
  • operar con estrategias duales (varios planes simultáneos porque no aceptaremos todos las anteriores vías)

Precisamente llevo un tiempo dándole vueltas a esta última idea.

Jorge trata de aclararla con la analogía del Titanic [que tanto me gusta y utilizo]. Para Jorge quizás podemos evitar parte del choque -que este no sea tan grave- a la vez que preparamos los botes salvavidas y construimos más botes con la madera de los camarotes. Para Jorge técnicamente se podría evitar el choque pero no social y políticamente (que como mucho evitaría la mayor gravedad del choque o de sus consecuencias). Jorge por tanto, admite las estrategias “socialdemócratas” mientras vamos despertando por una razón fundamental: no es lo mismo colapsar con los liberales en el poder que con los socialdemócratas. No es lo mismo hacerlo con el PP que con Syriza o Podemos. Bien claro y valiente nos lo deja.

Como esa estrategia me genera muchas dudas, en el turno de preguntas doy una opinión y pregunto.

Mi opinión ya se conoce aquí: el colapso es inevitable (incluso lo es técnicamente porque la tecnología no se puede desligar de la sociedad-cultura, separación típica del mito del progreso para así verla como algo neutral en el peor de los casos y en el fondo intrínsecamente buena, la prueba además es que decimos que la tecnología que evitaría el colapso necesita palancas -una máquina- sociales, económicas y políticas muy diferentes a las que tenemos ahora). Aunque no lo digo en la sala, de hecho estoy convencido de que hablar del “posible colapso” en vez de su inevitabilidad, se termina convirtiendo en un clavo ardiendo para mucha gente, impidiendo paradójicamente “colapsar mejor” -mucho más que el problema del desencanto y pesimismo que conlleva en mucha gente saber que vamos a colapsar- (vuelvo luego a esto al final de este post).

Mi pregunta a Jorge fue:

¿Si sabemos que la línea “socialdemocracia” es irrealizable -y sabemos que los Juan Carlos Monedero lo saben-, no es tratar inmaduramente a la sociedad? (Jorge citó a Mondero con su “con un discurso de decrecimiento no se ganan elecciones”).

La respuesta de Jorge estaba cargada de razón: “es que vivimos en una sociedad infantil” (lo que era obvio tras saber que estamos  sonámbulos jugando al Candy Crush). Quizás necesitaba que alguien me lo recordara tan contundentemente. No es una cuestión solo moral, sino una realidad. La madurez social requiere tiempo -que no disponemos-, por tanto, hemos de hacer lo posible por que madure, sí, pero también hemos de tratarla como lo que mientras tanto es (la estrategia dual [realista-utópica] que defiende Jorge).

Pero Jorge nos dio otro ejemplo, esta vez relacionado con Javier Marías, quien dijo que le resultaba difícil tener presente el tema del cambio climático porque reconocía que no iba con él sino con generaciones del futuro.

Este ejemplo abrió un hilo en mi mente que enlazó lo que había venido diciéndonos Jorge con un tema que ando pergeñando desde hace tiempo: Ese egoísmo de Marías en el fondo no es diferente al que sienten los “desencantados”, los que dicen de nosotros, los colapsistas, que somos pesimistas y que trasladamos pesimismo que lleva al tirar la toalla, el carpe diem y el éxodo. Si es así, todos esos que tiran la toalla, carpe diem y emigrantes preparacionistas son el el fondo “Marías”. Y como egoístas les digo que se las apañen con su pesimismo mientras trato de explicarles porqué yo no lo soy y ellos no lo tendrían porqué ser (ni egoístas ni pesimistas).

Pensar en el 2100, algo típico cuando se piensa en el cambio climático (en parte porque los modelos y escenarios del IPCC y de los climatólogos terminan en el 2100 casi todos e incluso en el 2300) ahora significa en realidad empezar a pensar en la construcción de la siguiente civilización. Que la nuestra colapse mejor, no significa para mí que seamos capaces de mantener nuestra civilización transformada y menos compleja con quizás algo menos de población; para mí colapsar mejor es pensar en la siguiente civilización/es, y qué bases y mitos van a tener. Importa menos el drama que vamos a vivir que el futuro de las siguientes generaciones. En la Francia o Polonia invadida por Hitler no pensaban en cómo adaptarse a la ocupación nazi sino en cómo vivir después de la ocupación, aunque oponerse a los nazis en vez de adaptarse-transicionar supusiera un drama a corto plazo mayor -y muriera más gente en ese plazo-. Franceses y polacos lo tenían más fácil, porque tenían esperanza de ser ellos mismos los que volvieran a un estado anterior, algo que ya nos está vedado (y nadie querrá dentro de tres o cuatro generaciones humanas). El no egoísmo ahora es en realidad luchar porque las generaciones que construirán nuevas culturas humanas (dentro de siglos) tengan vidas dignas y adaptadas a la biosfera, pese a que yo, mis hijos e incluso nietos ya no podamos. Luchar ahora significa ir des-arraigando nuestros mitos del desastre, tratar que no se olvide a dónde llevan e ir imaginando en medio del caos qué mitos nos harían sostenibles a la vez que humanos.

Carlos de Castro Carranza.

PD: por supuesto las ideas vertidas aquí son mis interpretaciones y pensamientos inspiradas en la conferencia de Jorge Riechmann, si el lector detecta algo que le parece exagerado, equivocado o una tontería, lo debe achacar a mí y no a Jorge.

 

 

 


Las ciencias blandas del no hacer

El Ebro se desborda y los afectados piden que se haga algo, que se “limpie” el río o que se construya el transvase. Los científicos dicen que no sirve para nada, pero ya veremos si se les hace caso. Cuando en Castilla León hubo plaga de topillos los científicos dijeron que echar veneno no servía para nada, pero la Junta no les hizo caso y echó el inútil y dañino veneno para calmar a los agricultores (matando no sólo a los topillos sino también a sus predadores, sentando las bases para una nueva plaga, como saben bien los ecólogos).

Y es que, aunque vivamos en una sociedad que se dice científica y tecnológica, no siempre hacemos caso a los científicos. Hay como una especie de jerarquía en las ciencias. Admiramos y prestamos gran atención a las ciencias “duras” que halagan nuestro ego humano y nos permiten hacer muchas cosas (energía nuclear, coches de hidrógeno, carrera espacial, aceleradores de partículas, lucha contra el cáncer, biotecnologías…), pero prestamos muy poca atención o directamente ninguneamos a esas ciencias “blandas” que nos hablan de límites a nuestros deseos y de cosas que no podemos o no deberíamos hacer (pérdida de biodiversidad, estudios sobre límites de la energía o los materiales, cambio climático, colapso de pesquerías, construcción sobre zonas inundables…).

Con conocimientos científicos o sin ellos, nos resulta enormemente difícil admitir que la solución no está en nosotros: que no tenemos que “hacer” algo sino más bien “dejar de hacer”. Ese no hacer del que hablaba Fukuoka, -que consiste en observar sin prejuicios la naturaleza, dejar que siga su curso y adaptarnos de forma inteligente- es uno de los grandes retos del ser humano.

El ego, siempre detrás de todas las cosas y de todos nuestros errores. Nada nuevo desde los tiempos de Lao Tsé.

Marga Mediavilla


Cuatro cosas básicas sobre entropía que todo ecologista y/o interesado en el pico del petróleo, los límites del crecimiento y el colapso de la civilización debería conocer

1.- La entropía no es desorden, ni caos, ni muerte. Es dispersión, reparto, multiplicidad [de la energía]

(No hay tendencia natural a Tanathia pues la muerte térmica del Universo no será antes de millones de veces el tiempo que el Universo lleva aquí desde su Big Bang)

La ley de la entropía está basada en una enormemente pequeña fluctuación de la distribución de la energía en los primeros instantes del Big Bang, quizás hiperamplificada por la inflación (no se preocupe si no me sigue ahora; se me ocurrió hace dos décadas que cuando un sistema crece demasiado rápido inevitablemente genera desigualdad…).

La sopa informe y desordenada de energía-materia había nacido con sitios donde había más energía concentrada que en otros.  Aborrecer esa pequeña desigualdad ha generado 13800 millones de años después todo lo que vemos y somos ahora.

La historia del Universo, su presente, y su futuro, es una historia de cómo volver a la equidad en el reparto de esa energía lo más rápidamente posible.

Probablemente esta es la idea más potente de la historia de la humanidad que estamos sólo empezando a explorar (algunos) científicos y filósofos (por favor vuelva a leerla).

El Universo aborrece los gradientes energéticos, la desigualdad. Lo importante no es la meta, lo importante es el largo y creativo camino hacia esa muerte térmica en el lejanísimo futuro  (una vez más física y tao parecen conectar).

Si se ha perdido, pido disculpas. Vuelvo al principio.

Decir que la entropía no es desorden es importante. El genial Maxwell ya lo entendió cuando dijo que “el orden no es una propiedad de las cosas materiales en sí mismas, sino solo una relación para la mente que lo percibe“.

Pero vamos con ejemplos/analogías para entenderlo mejor:

Imagine la habitación de un niño. En un rincón, sobre una estantería está la caja de sus juguetes. A este (micro)estado de la habitación lo vamos a llamar S0.

Media hora después de entrar el niño la habitación ha quedado desordenada (para los padres, para el niño seguramente tiene una lógica y un orden que podría explicar). Decimos que ha aumentado la entropía porque los juguetes están dispersos en un nuevo estado que llamaremos S1.

Sin embargo, en realidad el estado concreto S1 en que se encuentra la habitación es tan improbable como el que caracterizarían sus padres como ordenado (el S0); la prueba es que nunca volveremos a ver exactamente S1.

Al día siguiente y tras el paso de un adulto (y un aumento de la entropía fuera de la habitación), la habitación queda de nuevo en el estado S0, pero ese mismo día el niño vuelve a dispersar los juguetes (está en su naturaleza). Si nos fijamos en los detalles ya no estamos en el estado S1, sino en un nuevo estado S2 (si nos encontráramos de nuevo con S1 pensaríamos que un milagro habría ocurrido o nos asustaríamos recordando la película “El día de la marmota“).

Al cabo de un año, habríamos encontrado 1 estado S0 y 365 estados S1, S2,… S365 (en realidad miles intermedios si miramos cada minuto la habitación).

Si no ordenamos nunca la habitación, nunca aparecería tampoco el estado S0 otra vez. Así pues, sin intervención paterna, tenemos 366 estados de la habitación, 365 con los juguetes dispersos y 1 con los juguetes concentrados en la caja.

La ley de la entropía no es más que un cálculo de probabilidad: existe una tendencia enorme a encontrarnos con estados dispersos sencillamente porque son enormemente más numerosos, y por tanto probables.

El término correcto es dispersión, no desorden (si viéramos instante a instante lo que hace el niño no encontraríamos ese desorden por ningún lado).

Si nuestra mente adulta agrupa en dos el universo-habitación: “juguetes en la caja” (macroestado C0) versus “juguetes dispersos por la habitación” (macroestado C1), entonces concluiremos que exite una tendencia -partiendo de C0- a ir espontánemente a C1, y consideraríamos un milagro el proceso inverso (no es que sea imposible, es que es altísimamente improbable que espontáneamente un niño disperse sus juguetes dentro de la caja).

La entropía ni nos lleva al desorden, ni al caos, ni a la muerte; no es mala. Como mucho es traviesa y, como veremos, creativa como un niño.

2.- La intervención del ser humano en la biosfera no aumenta la entropía que se produce en la Tierra, la disminuye.

La civilización humana, de hecho, cualquier metabolismo, para su mantenimiento requiere intercambios de energía, pues para intercambiar materia e información se necesita previamente intercambios de energía que reduzcan algún gradiente de la misma. Todo cambio requiere intercambio de energía y para que exista intercambio se necesita un gradiente, una concentración de energía que dispersar.

Siempre que hay un intercambio de energía entre el “metabolismo” y su entorno aumentará la entropía del metabolismo + su entorno; normalemtne aumenta sobre todo el del entorno, a veces disminuyendo el del metabolismo; sencillamente porque el entorno es más grande, y por tanto con más estados posibles, y porque el metabolismo se mantiene precisamente generando ese entropía.

Un metabolismo no cristalizado requiere intercambios continuados de energía.

Ahora bien, la civilización humana es un metabolismo montado sobre otro metabolismo mayor, la biosfera o Gaia. El entorno de nuestra civilización es Gaia y por tanto nuestro “metabolismo” genera un aumento de entropía en nuestro entorno. Lo hace también un bosque, aunque con una diferencia: el metabolismo de nuestra civilización funciona como un cáncer en la biosfera y como tal tiende a destruirla, un bosque no.

Como la biosfera-hospedante es mayor (y más compleja), intercambia mucha más energía que la civilización humana, así que es lógico pensar que la creación de entropía de Gaia sobre su entorno será mucho mayor que la que creamos los humanos sobre Gaia.

Como nuestra civilización está degradando fuertemente el metabolismo que la acoje (la desordena, a diferencia de lo que hace un bosque en Gaia, que aumenta la entropía pero no la degrada ni la desordena), es lógico pensar que nuestra creación de entropía sobre Gaia no compensa la creación de entropía de Gaia sobre su entorno. Esa lógica se hace obvia bajo la hipótesis de que Gaia es un organismo complejo -mucho más complejo que la civilización humana que aunque con cierta complejidad y metabolismo, no llega ni de lejos a la complejidad de un organismo, ni siquiera tan “simple” como una bacteria).

La hipótesis Gaia orgánica, que le parece eso lógico y obvio, predice pues que el ser humano y su civilización hacen disminuir y no aumentar (ligeramente) la creación de entropía en el Universo. Nuestra civilización es la improbable y solo temporal en nuestro universo. Ayuda también saber que crear entropía no era “malo”, sino un proceso “creativo”.

Como la predicción se puede demostrar con cálculos biofísicos matemáticos, anotemos un punto para mi teoría, que se hace con una predicción que nadie había formulado antes -que yo sepa- (de hecho se ha venido diciendo la afirmación contraria).

 

3.- La ley de la entropía pone límites, pero la economía-metabolismo de la civilización actual humana es mucho más chapucera y sus límites no los pone la entropía sino otras leyes ecológicas y humanas.

Esta sentencia es fácil visto y comprendido lo anterior.

Puesto que la entropía no limita la complejidad y metabolismo de un sistema como Gaia o un bosque o un termitero, no puede imponer límites teórios a la civilización humana -más sencilla-, los límites son internos (por ejemplo, cuánta desigualdad -antientrópica- y corrupción es capaz de soportar) y ecológicos (flujos energéticos, daños sobre ecosistemas soporte, etc.). En definitiva, un cáncer (el cáncer es nuestra civilización, no los humanos ni otras culturas) tiene límites “naturales” obvios que no tienen que ver directamente con límites de entropía; a un cáncer se le elimina, muta y deja de serlo, o muere matando, su destino es siempre desaparecer relativamente pronto).

Aquí se abre una discusión interesantísima sobre el futuro de nuestra civilización: morir matando -o lo que persigue el BAU y aquellos que se empeñan en mantener tal cual el metabolismo haciendo crecer aún más el cáncer-, mutar -o lo que persiguen los movimientos en transición que en realidad deben tener claro que no es una simple transformación sino una metamorfosis total- o eliminar el metabolismo canceroso (de otra forma, menos traumática, a lo que ya está haciendo de forma acelerada el BAU).

Pero el tema de la entropía-Gaia abre también una habitación de esperanza para próximas civilizaciones humanas (¿en otro post?).

 

4.- La complejidad y la evolución de la vida no luchan contra la entropía, surgen de ella [condición necesaria, ¿suficiente?]

Cuando vemos la entropía como desorden es fácil caer en la idea de que la vida en un milagro, un suceso altísimamente improbable.

Cuando la vemos como dispersión, como mucho caeremos en la idea de que la vida tenderá también a dispersarse -sobre la Tierra, sobre el Universo-.

Cuando vemos la entropía como tendencia al caos o a la muerte es casi natural pensar que los organismos tienden a degenerar y morir por esta ley.

Cuando la vemos como multiplicidad no nos extrañará tanto la extraordinaria (bio)diversidad de organismos, planetas, estrellas o galaxias.

Tanathia no es un futuro prque Gaia es su contraejemplo real y observable. Gaia tampoco es un milagro, como no lo es que el universo “nacido” de una sopa informe y “desordenada” esté, solo 13800 millones de años después, repleto de estructuras dinámicas y complejas (y ordenadas).

Volvamos a la habitación con la caja de juguetes en la estantería. Supongamos que no entra ningún niño pero sí hay intercambios de energía en la habitación de vez en cuando. Con el tiempo veremos algún juguete fuera de la caja, por ejemplo, un día que entró una fuerte corriente de aire, o un codazo de un adulto que derrama algunos juguetes en las cercanías de la estantería. Veremos algunos S1, S2, etc. pero no veremos tantos como cuando entraba el niño en la habitación diariamente. La complejidad del niño hace que el entorno disponga de más posibilidades de generar más estados posibles (más caminos para intercambiar energía). La entropía de la habitación aumenta más rápido con el niño que sin él. Cuando entra el niño en la habitación todo se acelera, la dispersión aumenta más rápido.

No es que el niño busque la dispersión, es que es más probable ver una habitación con juguetes dispersos con niño que sin niño. De hecho, si uno ve una habitación con juguetes dispersos apostará a que un niño ha estado allí, más que pensar en un milagro.

Otra imagen:

Imagínese que contempla una playa en la que flotan agitados por las olas 100 patitos de juguete amarillos y otros 100 azules.

Unas horas después regresa a la playa en un momento de marea baja y se encuentra a esos 200 patos sobre la arena. Pero extrañamente se los encuentra a casi todos ellos perfectamente ordenados: amarillo-azul-amarillo-azul… formando una larga cadena.

Enseguida pensará que un milagro ha ocurrido o que “alguien”, quizás un niño, ha intervenido.

Pero si se fija con atención quizás descubra que las patos amarillos tienen velcro en las alas y los azules el otro lado del velcro… Los intercambios de energía con las olas pueden ayudar a explicar el resto: demasiados golpes rompen los velcros pero al retirarse poco a poco el mar, la energía puede ser la adecuada para mover los patos sueltos y mezclarlos, pero no para rormper los velcros ya formados…

Si ha entendido esta imagen acaba de entender porqué no pensamos que es un milagro que se forme un cristal de sal al evaporarse el agua de mar.

El cristal de sal es estable y contiene energía almacenada y concentrada en los enlaces quimicos formados. El universo, “aprovechando” la formación del cristal ha encontrado un montón de nuevas vías o estados de alta probabilidad, de alta dispersión: las moléculas de agua que estaban “concentradas” en forma líquida, han pasado a la forma gaseosa al intercambiar energía solar; ahora están más repartidas y dispersas, con muchísimos más estados  a su disposición que antes.

Un metabolismo es estable como lo es un cristal de sal porque ayuda a reducir gradientes energéticos y a dispersar la energía, con una “desventaja” y es que requiere de un flujo continuo de energía, de intercambios de la misma, de reducción de gradientes. Pero con ventajas sobre el cristal:

El metabolismo reduce más rápido los gradientes a su escala temporal y espacial precisamente porque su complejidad abre más caminos y posibilidades de reducir esos gradientes, aumentando el tamaño de estados posibles (los Si de nuestro ejemplo infantil).

Cuando se forman las células de Benárd (esa danza de trillones de moléculas que parecieran un milagro de probabilidad cero de ser solo movimientos aleatorios) aceleran de pronto la creación de entropía: el intercambio de energía es más rápido y se dispersa antes la energía con el entorno.

Bajo las condiciones adecuadas -un flujo mínimo pero constante y estable de energía, un mínimo de propiedades de la materia- se forman siempre (probabiliad 1, no cero)-.

¿Podemos imaginar lo que un flujo mínimo y constante y casi estable puede hacer durante miles de millones de años? Sí, las bandas de Júpiter, el vulcanismo de Io, Gaia…

La evolución de la vida no sólo es posible (y probable) sino que está doblemente dirigida, por un lado por la ley de la entropía -que autoestabiliza y autoselecciona los estados recién adquiridos- y por otro lado por ella misma (pero eso es otro post -y mis dos libros sobre Gaia-). (También puede explorar los escritos de Margalef, Odum, Schneider y Dorion Sagan).

La entropía y la vida se realimentan positivamente.

 

Todo se realimenta.

Carlos de Castro Carranza

 


Europa premia el juego-experimento Ecology

El pasado viernes 23 de enero recibí en Barcelona un premio sobre iniciativas docentes con alumnos universitarios en temas relacionados con la sostenibilidad.

Como dije allí: es genial que te premien por jugar con los alumnos.

Pero en realidad el juego esconde un tema muy serio.

Las instrucciones están aquí, y está descrito en un post que realicé para el blog de Antonio Turiel (aquí). Y en inglés la propia organización convocante publica un resumen.

Invito a cualquier docente (universitario o preuniversitario) a jugar con sus alumnos (puedo ayudar a distancia), incluso a cualquier persona a que se anime a jugar con sus amigos (se podría jugar en un blog, facebook, incluso se me ocurre que por whatsapp), solo hace falta un director del juego (para los aficionados al rol: un máster) y gente dispuesta a estar un poco pendiente durante varias semanas.

Mi propuesta recibió un cierto interés, como otras, por parte de los asistentes, en especial de un grupo de alumnos que se habían dejado caer por la ceremonia. A algunos les llamó la atención el juego en sí y a otros les llamó la atención que en mis cinco minutos de exposición hablara sin tapujos de la inevitabilidad del colapso de nuestra civilización.

Un alumno me dijo: “Nadie más rozó el tema entre los premiados [otros seis] y las exposiciones de los organizadores del evento [otras 3 intervenciones]“.

Yo le pregunté si lo que dije le pareció exagerado o descabellado. Y su respuesta fue que lo que quería decir es que echó en falta que alguien más se hubiera acercado al tema.

Yo también lo eché de menos. Y eso que me encontraba muy cómodo entre el tipo de personas que estában allí (no recuerdo ninguna corbata), porque eran gente sinceramente preocupada por los temas de desarrollo humano y la sostenibilidad ambiental: la mayor parte de los otros premiados tenían estupendas y necesarias iniciativas sobre cómo llevar a los alumnos europeos a ampliar su mente y sus emociones ante temas de desarrollo humano; cosas reales y concretas -no juegos teóricos- en contacto con personas empobrecidas sea del Sahara o de Sierra Leona por ejemplo; son los héroes, casi siempre anónimos, de nuestra época.

Todos los que estábamos allí conocemos la gravedad del cambio climático, incluso las conexiones -como los años de sequía tremenda y sin precedentes de  los años previos al colapso de Siria que llevó a protestas fuertemente reprimidas y a la posterior escalada de violencia, o la escasez de agua en la ciudad de Sao Paulo que a más de uno nos asusta-. Todos hemos oído lo de la sexta gran extinción de especies y el colapso de poblaciones y ecosistemas uno tras otro, sabemos de la Huella Ecológica y del Índice del Planeta Vivo y nos preocupa no sólo el impacto sobre los animales sino la imposibilidad de un Desarrollo Humano al modo OCDE porque sencillamente es física y ecológicamente imposible. La mayoría, si no todos, sabemos de la crisis energética y han oído del pico del petróleo e incluso del pico de minerales, de agua dulce y de suelos. Y además conocen ejemplos locales que tratan de curar, frenando a duras penas, la sangría humana y ambiental (el ansia por petróleos que lleva a poner reservas naturales y pueblos indígenas al borde de la extinción, matanzas de ambientalistas en medio mundo, etc.).

Pero no conectamos los puntos… Y conectarlos estoy seguro que nos cambiaría a todos. Pero el ir empezando a conectar los puntos da mucho miedo.

Los alumnos se suelen “desesperar” con el juego Ecology, al ver lo difícil que es la organización social en un juego que saben que es mucho más sencillo y fácil que el mundo real. Creo que a algunos de ellos el juego les ayuda a conectar esos puntos; ese es el tema clave y mérito del juego.

Pero, eso sí, siempre tras un decrecimiento material o incluso colapso poblacional, aprenden y comienzan unas generaciones duras -en las que lo siguen pasando mal por las inercias- tras las cuales la cooperación entre ellos y el verdadero respeto a las leyes ecológicas quedan inscritas en el “hardware” de su nueva civilización. Aprenden tras el golpe.

Y rellenan mi esperanza.

Todo se realimenta.

Carlos de Castro Carranza


Ya somos grupo de investigación oficialmente reconocido por la UVA

A partir de hoy, 28 de enero, ya somos algo más que un grupo de amigos que investigan juntos,  el Consejo de Gobierno de la Universidad de Valladolid, reunido esta mañana,  acepta nuestra solicitud y nos reconoce como Grupo de Investigación Reconocido (GIR) de la Universidad (el Gabinete de Comunicación de la UVa se hace eco de la noticia).

Es un reconocimiento oficial que no cambia  nuestra forma de trabajar pero nos permite un poquito más de reconocimiento y de libertad a la hora de orientar nuestro trabajo.

Además ayer tuvimos otra buena noticia: el programa UVa en Curso ha aceptado nuestra propuesta de curso para el otoño de 2015. Este año estará orientado hacia la tecnología y en él queremos preguntarnos  si es posible desarrollar una civilización industrial después del agotamiento de los combustibles fósiles. Os esperamos para finales de septiembre.

Marga Mediavilla


Los libros azul y naranja de En la Espiral de la Energía

Cuando comencé a leer el libro de Ramón Fernández Durán y Luis González Reyes En la Espiral de la Energía, tenía en mente que iba a ser un buen libro, pero enseguida me di cuenta de que era mucho más que eso. En la Espiral de la Energía es una obra inmensa, que hace algo tan importante como intentar explicar el pasado y el futuro de la humanidad en base a un elemento clave: la energía.

Como bien entienden los autores del libro, hablar de energía no es sólo hablar de tecnología, es también hablar de trabajo humano, esclavitud, posesión de la tierra, comercio, moneda, relaciones de poder, etc. El libro engloba todos estos aspectos integrándolos en un discurso muy bien trabado y consigue el difícil equilibrio de basarse en una enorme y minuciosa documentación y a la vez ser un texto conciso y fácil de leer.

En la Espiral de la Energía sigue la línea de libros como Historia de los Bosques de John Perlin o  Armas Germenes y Acero y Colapso de Jared Diamond, que buscan las causas del éxito y el declive  de las civilizaciones humanas en  los aspectos ecológicos, que, frecuentemente, han sido marginados a la hora de explicar la historia. Sin embargo, En la Espiral de la Energía va unos pasos más lejos que estos libros,  ya que engloba todas las civilizaciones humanas, profundiza en los aspectos socioeconómicos y en las relaciones de poder y no se queda sólo en el análisis de la historia sino que, en el segundo tomo,  analiza el presente y el posible colapso de nuestra propia civilización.

Es, sin duda, una obra que merece tener una gran difusión, y esperemos que el hecho de no venir del mundo anglófono no sea un obstáculo para ello. Esperemos también que el enorme esfuerzo que Ramon Fernández Duran y Luis González Reyes han  realizado para escribir una obra de esta magnitud se vea recompensado y su lectura pueda hacer que no repitamos los peores errores de las civilizaciones del pasado.

Puede comprarse on-line en la página de Ecologistas en Acción y también descargarse gratuitamente en pdf (aunque  merece una sosegada lectura en papel).

Marga Mediavilla


¿De cuánta energía podremos disponer realmente?

El hecho de que el precio del petróleo esté cayendo en los últimos meses no debería hacernos olvidar que la crisis energética sigue avanzando por debajo de las fluctuaciones del mercado. Los cambios tecnológicos y sociales profundos requieren décadas, y desde esa perspectiva deberíamos ver la crisis energética: estudiando el agotamiento de los combustibles fósiles décadas antes de su inicio y buscando alternativas también con décadas de adelanto.

La mejor forma de conocer cuánta energía nos queda realmente es dejar de lado la inmediatez de la prensa y las declaraciones interesadas de las compañías energéticas, y echar un vistazo a las publicaciones científicas. Para ello, el Segundo Congreso sobre el Pico del Petróleo organizado recientemente por la UNED en Barbastro es un escaparate privilegiado que, además, puede consultarse en diferido en los vídeos y documentos de su página web.

En este congreso, el sueco Mikael Höök, uno de los mayores expertos en petróleo y gas del mundo, proporcionaba datos de los 38 estudios científicos de estimaciones de agotamiento del petróleo publicados hasta la fecha en revistas científicas sujetas a revisión por pares, los 18 publicados para el gas natural y los también 18 publicados para el carbón. Los datos se despliegan en diferentes curvas debido a la incertidumbre y la cautela que suelen acompañar los resultados científicos, pero la mayor parte de estas curvas indican el estancamiento y posterior declive de la extracción mundial de petróleo en torno a 2020, sobre 2030 para el gas, y en torno a 2040 para el carbón (figuras 1, 2 y 3).

Se pueden ver ya, además, algunos hechos que confirman estas previsiones. La propia Agencia Internacional de la Energía ha reconocido que el petróleo convencional -es decir, el barato, de buena calidad y fácil extracción-, alcanzó su techo en 2006 y su extracción ha empezado a disminuir. También se puede observar en los datos históricos (figura 1, línea negra) que la producción de petróleo ha sufrido un estancamiento desde esa fecha (que no se debe a la falta de demanda por crisis económica, ya que el consumo de carbón y gas natural siguió creciendo en esas fechas a buen ritmo -figuras 2 y 3) mientras los tímidos aumentos de extracción de petróleo que se han realizado desde 2006 se deben al uso en EEUU y Canadá de la fractura hidráulica y las arenas asfálticas: tecnologías caras, contaminantes y con bajo retorno energético.

Figura 1: Estimaciones de extracción de petróleo de diversos autores aparecidas en revistas científicas revisadas por pares (fuente: M. Höök, II Congreso sobre el Pico del Petróleo, Barbastro 2014).

Figura 2: Estimaciones de extracción de gas natural de diversos autores aparecidas en revistas científicas revisadas por pares (fuente: M. Höök, II Congreso sobre el Pico del Petróleo, Barbastro 2014).

Figura 3: Estimaciones de extracción de carbón de diversos autores aparecidas en revistas científicas revisadas por pares (fuente: M. Höök, II Congreso sobre el Pico del Petróleo, Barbastro 2014).

Ante estos datos, la pregunta que inmediatamente una se hace es si existen energías alternativas que puedan cubrir el hueco que van a dejar los combustibles fósiles. El estudio que presentamos –en este mismo Congreso de Barbastro–aborda esta cuestión y lo hace con un modelo matemático que nos sirve para reunir gran cantidad de datos sobre combustibles agotables y energías renovables. Este estudio utiliza curvas similares a las recopiladas por Höök y además presta especial atención a los ritmos de sustitución. No sólo nos interesa saber, por ejemplo, si una tecnología renovable funciona, sino también si vamos a poder implantarla a tiempo y si va a servir para los usos en los cuales utilizamos ahora el petróleo, el gas o el carbón. Aunque a largo plazo nadie puede saber cómo va a evolucionar la tecnología, a corto plazo sí sabemos que su desarrollo requiere tiempo y su introducción en el mercado también, de forma que podemos estimar hasta qué punto alternativas como la energía fotovoltaica, la eólica, los biocombustibles o los vehículos eléctricos, van a poder cubrir la demanda que requeriría una economía mundial en continuo crecimiento cuando las energías fósiles se vayan agotando.

Las conclusiones que se extraen de nuestro estudio no son demasiado halagüeñas. Una de las cosas que más claramente observamos es que no tenemos tiempo para sustituir el declive del petróleo, especialmente en el sector del transporte. En la actualidad, prácticamente todo el transporte mundial depende de combustibles líquidos extraídos del petróleo y las posibles alternativas como los vehículos eléctricos o de hidrógeno son muy débiles desde el punto de vista tecnológico. En la figura 4 se puede ver el resultado de comparar la energía disponible para el transporte y la demanda que requeriría la economía mundial bajo dos escenarios: el BAU (business as usual, una extrapolación de las tendencias actuales) y el escenario 2, un escenario “tecno-optimista” con fuerte desarrollo de alternativas como los vehículos híbridos, eléctricos y de gas, combustibles líquidos extraídos del gas y el carbón y una fuerte apuesta por la eficiencia. Se puede ver que, incluso en el escenario más optimista, las curvas de energía disponible y demanda para el transporte dejan de coincidir antes de 2020 (figura 4). No llegamos a tiempo de evitar el declive del petróleo en esta década porque las alternativas no están creciendo al ritmo necesario.

También se ve claramente que el papel de la energía nuclear es irrelevante. Por una parte, no es una energía crítica, ya que apenas proporciona el 6% de la energía comercial consumida y sólo se utiliza para el sector que menos problemas tiene (la electricidad). Por otra parte, un desarrollo a gran escala de la actual energía de fisión encontraría pronto el límite del agotamiento de las reservas de uranio; además, tecnologías como la fusión o las llamadas nucleares de cuarta generación no se prevé que puedan estar en el mercado en las próximas décadas y, por ello, no entran dentro de nuestro horizonte temporal del estudio.

El modelo también nos muestra que en el sector de la electricidad los problemas son menos acuciantes, ya que el declive del carbón es un poco más tardío y existen tecnologías renovables con potenciales de desarrollo importante (figura 5). Todavía estaríamos a tiempo de sustituir buena parte del consumo de electricidad mundial con energías renovables, pero para ello deberíamos comenzar a invertir en esta década y, al no ser el eléctrico un sector problemático en estos momentos, corremos el peligro de no realizar las inversiones necesarias.

A pesar de todo ello, el modelo también muestra que el cambio climático no deja de ser un problema. Aunque algunos de los peores escenarios de emisiones previstos por el IPCC no son compatibles con los límites de los combustibles fósiles, sí existen escenarios muy preocupantes que lo son.

Los resultados que hemos obtenido con este modelo dibujan un panorama mucho más sombrío del que suele presentarse en los medios de comunicación y, probablemente, del que la mayor parte de las personas tienen en mente (incluso más pesimista que el que teníamos nosotras/os antes de realizar el estudio). Aunque ningún modelo es un oráculo ni debe ser tomado como tal, los modelos son herramientas muy útiles para mostrar aspectos que quedan ocultos entre la abundancia de datos. Es posible que las fechas y datos concretos que prevemos varíen debido a los errores que todo estudio lleva consigo, pero ello cambia muy poco las conclusiones básicas.

Los datos científicos apuntan a que, en las próximas décadas, el continuo crecimiento del consumo de energía que hemos disfrutado desde mediados del siglo XVIII se va a acabar. Vamos a tener que realizar una gran transición hacia una sociedad que no dependa de los combustibles fósiles y cada vez más científicos/as estamos alertando de que ésta no va a poder basarse únicamente en cambios tecnológicos. En esta misma década, para poder reaccionar frente al pico del petróleo, vamos a tener que emplear herramientas de todo tipo: sociales, económicas, políticas, etc., medidas que casan muy mal con nuestra economía de mercado y que van a requerir importantes niveles de conciencia ciudadana y voluntad política.

La crisis energética es uno de los problemas más importantes a los que nos enfrentamos y no podemos esperar a que la escasez de energía sea evidente para empezar a solucionarlo. Si esperamos unos años hasta estar completamente seguros de que las predicciones de los geólogos se cumplen, nos encontraremos en un escenario de energía escasa, crisis económica y conflictos por los recursos en el cual será muy complicado invertir en tecnología y emprender medidas colectivas. Debemos empezar la transición energética ahora. Al fin y al cabo, si nos adelantamos y realmente hubiera más energía fósil de lo que los científicos decimos, es muy poco lo que perdemos; pero, si llegamos tarde, el resultado será, sin duda, catastrófico.

Marga Mediavilla.

También publicado en Eldiario.es
Figura 4: Estimaciones de la energía de diversas fuentes disponible para el transporte comparadas con la demanda bajo dos escenarios: BAU, que extrapola las tendencias actuales, y escenario 2, con fuerte desarrollo de las alternativas tecnológicas (Fuente: Capellán-Pérez, I. y col. Fossil fuel depletion and socio-economic scenarios: An integrated approach. Energy, Volume 77, 1 December 2014, Pages 641–666 2014).

 

Figura5: Estimaciones de la energía de diversas fuentes para la generación de electricidad comparadas con la demanda bajo dos escenarios: BAU, que extrapola las tendencias actuales, y escenario 2, con fuerte desarrollo de las alternativas tecnológicas (Fuente: Capellán-Pérez, I. y col. Fossil fuel depletion and socio-economic scenarios: An integrated approach. Energy, Volume 77, 1 December 2014, Pages 641–666 2014).