Queridos lectores,
Este post, último de este año, está dedicado al blog en sí, analizando su pasado, su presente y su futuro, para delimitar cuál fue, es y será su misión.
Pasado:
El blog nació 24 de Enero de 2010, todavía no hace un año, y fue un hijo no deseado. Yo no quería hacerlo. Quim me insistía mucho en que resultaba muy conveniente hacer un cuaderno de bitácora como éste, en donde explicar el problema del Peak Oil y de sus ramificaciones; pero yo lo veía como una soberana pérdida de tiempo. En primer lugar, por la redundancia: hay muchas páginas sobre el Peak Oil en la red, e incluso en español hay unas cuantas de gran calidad. En segundo lugar, el medio en sí tampoco me parecía el mejor para difundir un mensaje complejo con multitud de detalles técnicos; si yo escribía como quería escribir, el blog lo iban a leer cuatro gatos, y un mensaje más divulgativo y digerible gente con mayor conocimiento y experiencia que yo ya lo estaba haciendo. En tercer y último lugar, no quería que el blog me quitase tiempo para otras ocupaciones importantes. Sin embargo, al final le encontré una utilidad posible al blog: ser un centro documental donde ir enlazando y ordenando la información que compilaba, analizada de una manera lo más objetiva posible para poder usarla después cuando la necesitaba. Fruto de esta filosofía primigenia del blog, aún hoy, cuando encuentro una noticia interesante relacionada con un tema tratado la añado como comentario del post en cuestión.
Al principio el blog estaba alojado en blogspot.es, en la dirección oilcrash.blogspot.es, donde las primeras entradas aún languidecen. Sin embargo, la falta de prestaciones, la poca calidad técnica del sitio y las dificultades para importar los contenidos en la web de nuestro Oil Crash Observatory (OCO) me convencieron de la conveniencia de migrar el blog a su ubicación actual, la presente, cosa que finalmente hice el 13 de Junio, a fuerza de copiar todos los mensajes (consignando incluso la fecha y hora de escritura originales) e incluso los comentarios (suerte que entonces no comentaba tanta gente).
Uniendo los datos de los dos blogs, The Oil Crash ha tenido un volumen total de páginas vistas (hasta el día 30 de Diciembre) de 56.590, siendo el número total de visitantes de algo menos de la mitad (la mayoría son repetidos, por supuesto). Han entrado personas de 66 países, aunque si atendemos a aquellos casos en los que la entrada no ha sido por accidente (y por tanto la permanencia media es sensiblemente superior a un segundo) el número se reduce a 52 países. La mayoría de las visitas (aproximadamente el 85% del total) provienen de España, aunque hay una presencia significativa (0.5%+) de visitas desde Argentina, México, Venezuela, Chile, Uruguay, EE.UU., Francia, Colombia y Reino Unido. El post más leído es "Digamos alto y claro: esta crisis no acabará nunca", seguido por "El peor escenario posible" y "El final de la economía".
Presente:
Gracias sobre todo al enlace desde otras páginas que son de referencia (burbuja.info, www.cenit-del-petroleo.info , Crisis Energética, Véspera de Nada,...) y a algún enlace afortunado en algún diario (especialmente en el blog EcoLab de El País), en la actualidad entran cada día una media ligeramente inferior a las 400 personas, de las cuales el 60% o así son recurrentes (personas que vuelven a visitar el sitio). Dado que no hay limitaciones para escribir comentarios, en la actualidad el blog se ha vuelto un foro bastante abierto donde se van discutiendo detalles de los aspectos tratados, y el volumen de comentarios va creciendo rápidamente. De ser un blog de mera compilación personal de información más o menos erudita para mí y los pocos que les pudiera interesar, ha pasado a ser un ámbito de discusión más genérica. Los errores reportados, que los ha habido y los habrá, permiten ir depurando el discurso y mejorar el sentido de lo que se quiere hacer. En ese sentido, tener todas las cartas a la luz permite ir mejorando y clarificando la posición, con la generosa y desinteresada ayuda de los lectores. En ese sentido, el blog ha ido bastante más lejos de lo que me imaginaba.
Futuro:
Respecto a la temática, en diversas ocasiones se ha comentado que el objetivo final del blog es ir abandonando el análisis técnico de las diferentes alternativas energéticas, con actualizaciones puntuales de las entradas hechas cuando fuera preciso, e irse centrando en el diseño de la transición. Estoy bastante lejos de ese objetivo, principalmente por ignorancia técnica y por falta de suficiente mentalización personal: sigo con mi vida A, ocupándome de las cosas que siempre me han interesado y sin decidirme a embarcarme demasiado y demasiado pronto en la vida B. Mantengo la puerta abierta pero no doy ningún paso personal en esa dirección, aparte del de hacer militancia activa en la diseminación de esta problemática, seguir dando conferencias y participar en tertulias radiofónicas; también, en menor medida, seguir contactando instancias políticas, intentando tensar el hilo. Como The Oil Crash es, por el momento, un esfuerzo personal, esta falta de transición personal mía se refleja en una escasa evolución del blog hacia esos menesteres. Posiblemente esto irá cambiando con el tiempo, tanto por la necesidad que se me pueda plantear de ir pasando a la vida B como porque otros autores diferentes de mi contribuyan en este blog.
En ocasiones se me acusa de regodearme en el pesimismo con este blog, y que no pretendo otra cosa más que el inútil autocompadecimiento. Es curioso, ya que suelo repetir que el futuro no está escrito y que no caminamos hacia un desastre necesario; que en nosotros está cambiar el rumbo y manejar una situación con unos riesgos cada vez más claros y mejor identificados. Justamente, para evitar los peores resultados, para desactivar las disonancias cognitivas más fuertes que pueden acarrear una explosión social cuando las cosas se tuerzan más, es importante no tomar un punto de vista acríticamente optimista, sino valorar el riesgo y no esconder la cabeza debajo del ala, por más repulsivo que nos resulte. Pedirle a la gente que sea adulta y encare sus miedos es, al sentir de algunos que por aquí comentan, pedir demasiado y resulta ineficaz. Yo creo que no, y no creo que nadie tenga derecho a adoptar la postura ilustrada del "todo para el pueblo pero sin el pueblo" que tanto daño ha hecho en el pasado. Al contrario, creo que la información objetiva y la capacidad de elegir revelarían unos ciudadanos dispuestos a afrontar el reto de nuestras vidas. En todo caso, de momento no sabemos el efecto de la información veraz sobre la población ya que la información no fluye libremente, como discutíamos hace poco.
Así pues, y por resumir, la misión actual de este blog es no sólo la compilación tan rigurosa como se pueda de la información, sino su difusión en el ámbito que corresponda y la promoción de las medidas necesarias del cambio. Esencialmente, los mismos objetivos del OCO, que acaba de presentar su solicitud de inscripción como organización sin ánimo de lucro. Posiblemente, los fines imprescindibles en el momento que vivimos.
Que tengan una feliz entrada del nuevo año. Salu2,
Antonio
viernes, 31 de diciembre de 2010
miércoles, 29 de diciembre de 2010
¿Un mar de gas natural?
Estos días muchos lectores me han consultado sobre una noticia recientemente aparecida en el diario El País, que reza como sigue:
Los nuevos hallazgos disparan las reservas y cambian las reglas de mercado
Leyendo la noticia tiene uno la impresión de que un hallazgo completamente inesperado de grandísimas bolsas de gas en determinadas formaciones no convencionales (es decir, que no tienen la geología de los yacimientos explotados hasta ahora o convencionales) y que hasta ahora eran inaccesibles, han pasado a ser abiertas gracias a nuevas técnicas, cambiando así completamente el panorama: EE.UU. pasa de ser un importador a ser un exportador de gas, hay muy buenas perspectivas en Europa (con lo que Rusia pierde peso geopolítico en el Viejo Continente), otros países como Argentina conseguirán resolver sus problemas de dependencia exterior... En suma, una muy positiva revolución.
La noticia tiene tres implicaciones principales:
- La producción de gas aumenta enormemente, con lo que se aleja el fantasma de la carestía de gas (el redactor de El País habla incluso de cuatro décadas).
- El precio del gas se mantendrá estable durante ese período.
- Aunque la noticia no lo comenta, el aumento de gas es una pieza clave para compensar el ya declarado declive de producción de petróleo convencional, puesto que una buena parte del petróleo no convencional futuro tiene que provenir de la conversión gases a líquidos.
En realidad, nada es tan bonito como aparece, como ya se ha comentado en este blog, sobre todo en algunos apartados de un post de Julio, "El pico del gas", y en algunos comentarios dispersos de otros posts. El gas no convencional procede fundamentalmente de tres tipos de terreno: pizarras (o esquistos), lechos de carbón y arenas compactas. De acuerdo con el último World Energy Outlook de la Agencia Internacional de la Energía (AIE), las arenas compactas tienen un potencial limitado, el metano de lecho de carbón es, principalmente, la gran baza China y en menor medida de los EE.UU., y la opción más al alcance de los EE.UU. y de Europa, y la que explica la abundancia actual en Norteamérica es el gas de pizarra. Sin embargo, hay multitud de peros, en réplica de las implicaciones citadas más arriba:
- No es evidente que se esté produciendo una abundancia tan grande de gas en EE.UU., ya que las cifras están un tanto manipuladas, como denuncia Dave Cohen. Teniendo en cuenta que las curvas de producción de gas decaen más rápidamente de lo modelado (exponencial en vez hiperbólico), en algunos casos dejando de ser explotables económicamente en sólo dos años, algunos geólogos afirman que las reservas están infladas. De hecho, las compañías que explotan estas reservas tienen todos los incentivos para inflar sus reservas porque así su valor bursátil aumenta, a la espera de ser compradas por compañías más grandes. La propia AIE ha moderado su optimismo sobre la producción de gas no convencional, que mientras en el WEO 2009 ocupaba un lugar central, en el WEO 2010 se reconoce que la abundancia de gas comenzará a declinar después de 2011.
- El gas se vende por pies cúbicos o por unidades térmicas británicas, BTU (grosso modo 1.000 pies cúbicos de gas natural equivalen a un millón de BTUs, MBTU). A día de hoy, el precio mínimo por MBTU para que salga rentable explotar el gas de pizarra es de 8$, mientras que actualmente se está pagando a unos 4$; por tanto, el precio del gas debería subir, y mucho, para poder explotar esta fuente a una escala apreciable. A mayor abundamiento, dados los enormes costes ambientales de explotar el gas de pizarra (discutidos en "El pico del gas") es posible que el gas de pizarra no sea una fuente neta de energía, sino un sumidero, con lo que en el largo plazo se tiene que ver que no es económico explotar este gas.
- La abundancia de gas actual, que si no se producen nuevos avances técnicos tiene todos los visos de durar pocos años, tampoco podrá usarse para transformar a gran escala gas en sucedáneo del petróleo por falta de infraestructura de licuefación, que requiere de un gran capital y tiempo para su desarrollo.
Si se fijan, la mayoría de los enlaces que doy en este post tienen muchos meses de antigüedad, y podría incluso enlazar artículos de hace dos o tres años, siguiendo la discusión en The Oil Drum sobre el tema. Es un tema que se discute activamente, que el año pasado tuvo un gran realce gracias al WEO 2009... Y ahora El País anuncia la buena nueva. ¿Por qué? Quizá hagan falta inversores, o bien creer en milagros...
Salu2,
AMT
domingo, 26 de diciembre de 2010
Perspectivas para el 2011
Queridos lectores,
Ahora que acaba el año 2010, es el momento de recapitular y en hacer un tanto de previsión sobre lo que nos puede deparar el 2011. Este 2010 ha sido, sin lugar a dudas, un año infausto, en el que las malas noticias económicas, la crisis que no cesa y los crecientes recortes han aumentado la sensación de precariedad y angustia; sin duda, 2010 ha sido peor que 2009, que a su vez fue peor que 2008 (recuerdo que en las navidades de 2008 circulaba un SMS que decía: "Feliz 2010 (porque seguro que 2009 será una mierda)". Y, ahora mismo, no parece que 2011 vaya a ser mucho mejor. En el caso particular de España, hace pocos días el presidente Rodríguez Zapatero reconocía que quedan por lo menos cinco años más de crisis; en otros países más o menos abiertamente se están dando unas perspectivas similares. Por supuesto yo creo que aún esa mala proyección de futuro es optimista: como ya hemos comentado, sin un cambio radical de rumbo esta crisis no acabará nunca. La tendencia a medio y largo plazo es clara: mientras no se modifique sensiblemente nuestro sistema productivo y económico sufriremos un decrecimiento forzoso; en algunos momentos esporádicos la actividad económica mejorará o no empeorará; pero esos breves trimestres de no-decrecimiento se verán seguidos de muchos trimestres de fuerte contracción. Peor aún, la posibilidad de que la depauperada clase media vaya siendo destruida y cada vez más gente se vea arrojada a la indigencia aumentará la inestabilidad social, la tentación autoritaria y, en un caso extremo, incluso el colapso de la sociedad. El futuro no está escrito, no es inexorable, y en nuestras manos está cambiar nuestro rumbo. La vocación actual de este blog, que nació como una bitácora más o menos personal, va evolucionando hacia ser un altavoz de ese cambio necesario. El hecho de que se empiece a plantear, tímidamente, en algunos medios de comunicación la necesidad de cambiar el PIB por otros índices como objetivo de las políticas, indica que se empieza a tener conciencia de que el crecimiento económico no será ya posible; es un paso más, posiblemente pequeño pero en todo caso significativo, para reconocer que necesitamos cambiar.
¿Qué nos depara el 2011? Imposible es de saber. Las perspectivas no son nada halagüeñas, pero la sociedad humana es un sistema muy complejo en el que intervienen multitud de variables y su comportamiento es impredictible, con cierta propensión a las transiciones de fase, en algunos casos positivas aunque, predominantemente, las transiciones de fase espontáneas serán negativas (porque aumentan el caos del sistema). En ausencia de una bola de cristal que nos diga qué va a pasar exactamente, hay ciertas cosas que tienen una probabilidad significativa de suceder. He aquí un breve compendio, con un apunte particular para el caso de España que puede acabar teniendo consecuencias globales.
- Aparentemente, hay un tensión nada despreciable en el mercado del petróleo. Goldman Sachs alerta que desde Mayo hay un déficit de casi un millón de barriles diarios, que los países de la OCDE estarían detrayendo de sus reservas estratégicas para evitar que el precio del petróleo suba mucho. (Cautela: Goldman Sachs no es alguien de quien te puedas fiar mucho, y mucho menos si se tiene en cuenta que llevan desde principios de año apostando por un barril a 100$ para principios de 2011). Dado que las reservas estratégicas de la OCDE cubren tres meses de su consumo, que es de unos 40 millones de barriles diarios, quiere decirse que contienen unos 4.800 millones de barriles, así que el déficit actual acabaría por beberse las reservas en algo más de 13 años. El problema a corto plazo no viene, por tanto, en que se agoten ya las reservas estratégicas, sino que el déficit comentado, si es real, tiende a crecer; además, por ley los países de la OCDE no pueden permitir que sus reservas estratégicas bajen por debajo de los dos meses o dos meses y medio; y en cualquier caso el objetivo último de las reservas no es el de amortiguar las fluctuaciones de precios del mercado (aunque en parte se usen así), sino el de garantizar el suministro en caso de interrupciones repentinas. La demanda creciente de China, India, Rusia, Brasil y otros países emergentes impulsan el precio al alza, así que es previsible que en los próximos dos meses veamos el barril por encima de los 100$, eventualmente los 110$. Cuando acabe el invierno del hemisferio norte (época junto al verano de mayor consumo) los precios se volverán a relajar, y si los altos precios invernales no han desencadenado una nueva fase recesiva (cosa de la que creo que nos daremos cuenta en el día a día) que arrastre los precios a la baja de forma prolongada, el precio del barril bajará y se mantendrá en torno a los 90-100$, hasta el verano. Si el siguiente pico de precios no ha tenido lugar antes, el verano de 2011 será, probablemente, el momento del siguiente pico de precios; en esta ocasión, con las economías occidentales más debilitadas, quizá un precio de 120$/barril será suficiente para inducir una ola recesiva global. Por tanto, la tendencia que apunto para el precio del petróleo es de causar una nueva ola recesiva antes de que pasen 7 u 8 meses.
- Para mayor agravamiento, China está importando diésel en grandes cantidades para cubrir un déficit estructural de refinado que tiene. Respecto a otros países tenemos el caso de Irán, quien a pesar de ser el cuarto exportador mundial de petróleo está importando grandes cantidades de gasolina porque el petróleo que produce últimamente es muy sulfuroso y no lo pueden refinar en el país. Todo lo cual mete una presión adicional sobre los productos refinados (diésel y gasolina sobre todo), que están subiendo más deprisa que lo que subió el petróleo en el bienio 2007-2008. Para terminarlo de agravar, Irán disminuye los subsidios a la gasolina doméstica para evitar la sangría que le supone comprarla en el mercado internacional, y esto aumenta la inestabilidad en la calle. Un conflicto interno en Irán, o en otros países productores de petróleo con dificultades internas, podría causar una disrupción catastrófica del flujo de petróleo, con precios por las nubes y una recesión de grandes proporciones a escala global. Al margen de eso, es de esperar que los precios de los carburantes se mantengan más elevados de lo que les correspondería de acuerdo con el escenario 2007-2008.
- La tensión en el mercado de alimentos probablemente persistirá durante los próximos meses, llevando a revueltas por alimentos en muchos países como ya pasó en 2008. Los precios suben en parte por las malas cosechas registradas (según dicen, aunque hace meses se preveían que fueran récord), por el encarecimiento causado por la subida de los carburantes y su repercusión en las actividades de cultivo, cría de animales, transporte y procesamiento; y por el desvío de grano para la producción de bioetanol, más competitivo ahora que el petróleo está tan caro. Éste último factor no se reconoce abiertamente y es difícil de evaluar su impacto, pero probablemente es bastante significativo. Pero, sobre esta tendencia de corto plazo, hay otra de más largo plazo: el acaparamiento de tierras de cultivo, sobre todo en África, por parte de los países occidentales y de China, en ocasiones echando a los pueblos que las han cultivado durante generaciones inmemoriales. En algunos casos el objetivo es utilizar estos alimentos en el Primer Mundo, aunque sea a costa de deprivar de alimento al mucho más necesitado Tercer Mundo; en otros, las tierras compradas son simplemente una inversión y se dejan sin cultivar. Sea como sea, esa tendencia de más largo plazo tenderá a agravar los problemas alimentarios a escala mundial. En el Primer y Segundo Mundo, los márgenes impuestos por los grandes distribuidores desincentivan a los pequeños agricultores y ganaderos, que ven cómo el precio al cual se les pagan sus productos apenas cubren costes, si es que los cubren. En Europa la denominada Política Agraria Común (PAC), y en otros países más industrializados otros esquemas de subvención permiten mantener esta situación insostenible, aunque es difícil de saber por cuánto tiempo, en una época de recortes presupuestarios.
- España está a punto de sufrir un segundo crash inmobiliario. Esto es algo conocido, aunque nadie tiene el valor de decirlo en voz demasiado alta. Con una tasa de paro oficial de en torno del 20% y una tendencia a la baja en los salarios, es evidente que la capacidad de consumo de los españoles ha quedado muy disminuida. Sin embargo, el precio de la vivienda, que en España llegó a precios estratosféricos (3.000 €/metro cuadrado construido en las zonas residenciales de ciudades medianas y grandes, y más del doble en las grandes ciudades), no ha sufrido un ajuste tan brusco como en otros países; así, mientras en EE.UU. se estima que el precio de la vivienda se ha desplomado de un 50% respecto a sus máximos, en España algunos analistas estiman que ha sido sólo de un 20% (otros dicen que menos); en cualquier caso, queda bastante recorrido, como ilustra este gráfico que compara la burbuja inmobiliaria japonesa y la española.
- El caso es que en el caso de España no se ha permitido que el precio de la vivienda se desplome, ya que los bancos tienen una enorme exposición al sector (se estima que la deuda de promotores e inmobiliarias con los bancos se acerca al medio billón de euros, eso es, como la mitad del PIB de España). Los bancos españoles han aceptado que algunas de las deudas inmobiliarias vencidas fueran pagadas con inmuebles, contabilizándolos como activos y no como pasivos al valor del mercado; por eso mismo, los bancos españoles han sido los primeros interesados en que el precio de la vivienda no bajase. Este hecho ha sido denunciado repetidamente desde el inicio de la crisis desde fuera de España como una distorsión del mercado. El caso es que finalmente el Banco de España se decidió a actuar en Mayo de este año, y desde entonces obliga a los bancos a provisionar un 10% del valor de los inmuebles que acepte como pago, subiendo al 20% si la vivienda sigue en su poder al cabo de 12 meses y al 30% si llega a los 24 meses. Eso hace que ahora mismo los ladrillos quemen en las manos de los bancos españoles, que se encuentran en el difícil brete de querer deshacerse de ellos a toda costa mientras que no puede permitir que bajen demasiado. Todo un dilema. Al tiempo, la anulación de la desgravación por la compra de primera vivienda salvo para las rentas muy bajas disminuye el incentivo de comprar para el ciudadano de a pie, con lo que introduce presión adicional para reducir el precio. Por tanto, es previsible que durante el año que viene el precio de la vivienda en España experimente una bajada importante. Pero eso puede poner en grave riesgo de quebrar a muchos bancos españoles, acercando una vez más el fantasma del rescate financiero de España. Sólo que dado el tamaño de la economía española (más del doble que la de Grecia, Irlanda y Portugal juntas) un rescate español resulta muy difícil. Así pues, la caída del precio inmobiliario español puede llevar a la caída del euro. Esperemos que no sea así; supuestamente mucha gente inteligente conoce este problema y estará tomando medidas para evitarlo. Si somos optimistas.
- Por acabar, el fantasma de la hiperinflación continúa acechando. Cada nueva ronda de alivio quantitativo de los EE.UU. (ahora hay una cada comienzo de mes, de unos 60.000 millones de dólares cada una) hace subir todas las materias primas, petróleo incluido. Si en algún momento se producirá un fenómeno de huida en masa de los inversores, alejándose de los bonos del tesoro americano y acaparando materias primas, es bastante incierto. Pero podría pasar durante este año 2011. Esperemos, nuevamente, que no sea el caso.
Eso es todo, más o menos. Seguramente en los comentarios sugerirán otros temas también relevantes para este año que comienza.
Salu2,
AMT
miércoles, 22 de diciembre de 2010
Preparando la transición: ingeniería
Queridos lectores,
Hace unos días la televisión pública autonómica TV3 emitió un documental de factura propia titulado "Comprar, tirar, comprar", del cual se hacía eco un Quim redivivo en la web del OCO. En ese interesante filme se explica el concepto de la obsolescencia programada. El principio de la obsolescencia programada consiste en diseñar los productos con una vida útil limitada, inferior a la que las capacidades de diseño permiten, de modo que el consumidor se vea obligado a comprar uno nuevo "antes de tiempo". En algunos casos se boicotea deliberadamente el producto para que falle en un plazo preciso prefijado, ya que interesa que el producto esté al máximo rendimiento (para así poder avalar su calidad) hasta que llegue su hora; en el documental se muestra el ejemplo de una impresora que tiene un contador interno del número de impresiones hechas para, superadas las 18.000, dejar de funcionar. En otros casos, el producto no falla, pero mediante la publicidad y con nuevos diseños se consigue convencer al consumidor de que necesita cambiarlo.
La primera cosa que se ha de entender es que la obsolescencia programada es una necesidad de un sistema económico como el nuestro. Aunque sobre este punto seguro que algunos comentaristas querrán introducir matizaciones, la realidad es que todos los analistas convencionales hablan de crecimiento porcentual (y, por tanto, exponencial) del Producto Interior Bruto (PIB) como base de una economía sana. Y para aquellos empresarios que comercian con mercancías físicas, eso implica que sus mercancías, o bien aumentan de valor añadido o bien se aumenta el número de mercancías vendidas (aunque también se pueden bajar los salarios). En todo caso, lo que nunca va a ser aceptable es que el número de mercancías vendidas disminuya, cosa que inevitablemente sucederá si nuestros productos son demasiado duraderos y el mercado se satura. Por tanto, la obsolescencia programada es una necesidad de nuestro sistema económico. Otra cosa muy diferente es si la obsolescencia programada es conveniente para el mantenimiento del hábitat de nuestro planeta y para la gestión de los recursos naturales. La respuesta es, obviamente, no, dado que ni el respeto al medio ambiente ni la escasez de recursos son variables tenidas en cuento en este diseño. Aparte del mencionado "Comprar, tirar, comprar" (disponible en la web sólo hasta el 31 de Diciembre), hay varios documentales interesantes sobre la inviabilidad de nuestro sistema productivo, como "The Story of Stuff" (doblaje al castellano).
Poco importa lo que haya pasado en el pasado; ahora lo que importa es qué hacemos con el futuro. Y lo primero que tenemos que pensar de cara al futuro es que necesitamos cambiar nuestros diseños, con tres objetivos en mente, sobre los que suelo insistir en las charlas que doy:
- Se han de optimizar los diseños: Los productos se tienen que fabricar para durar tanto como se pueda, consumiendo tan poca energía y tan pocas materias primas como se pueda. Este cambio es muy radical, porque implica que las fábricas han de planificar cuidadosamente su producción, ya que después de una fase expansiva se llegará forzosamente a un estado estacionario. Para poder conseguir este cambio, seguramente sería conveniente que los productos tengan un precio muy superior al actual, ya que han de incluir los costes implicados por usar recursos escasos - contando material de minería y reciclado (es decir, el precio ha de cubrir el coste de oportunidad de usar estos recursos escasos para este y no otro fin) y por los costes ambientales y de otro tipo hasta ahora externalizados (es decir, el precio ha de cubrir los costes de reciclaje). Piénsese que si se incluyese solamente la externalización medioambiental se estima que un teléfono móvil sencillito (no un modelo último grito tipo smartphone) podría costar más de 1.000 euros, y posiblemente llegando a los 2.000. Contando con el coste de oportunidad de agotar los recursos, el precio de ese móvil básico podría fácilmente estar en el entorno de los 3.000 euros. Pero, evidentemente, a 3.000 euros la unidad poca gente tendría móviles. Eso implica un cambio, como decimos, radical de la manera de concebir el mercado. Por lógica se ha de comenzar por cubrir las necesidades más básicas y luego, si hay recursos para ello, otras menos prioritarias. Queda la candente cuestión si de debe permitir usos que sean muy elitistas (el móvil en este nuevo orden lo sería), pero ése es ya un tema para el Acorazado Aurora.
- El diseño debe favorecer la reparación: El actual modelo de "usar y tirar" no tiene sentido en un ambiente de recursos escasos. Si una cosa se estropea debe de repararse. La capacidad de ser reparado es más importante que las prestaciones, y éstas últimas deben estar supeditadas a la primera.
- El diseño debe favorecer el reciclaje: Por los mismos motivos ya expuestos, se debe asegurar que los objetos sean reciclables en grado sumo, con el objetivo de que lleguen a serlo al 100%. Objetos no reciclables, incluso parcialmente, no deben ser producidos. Como en el punto anterior, esta exigencia debe pasar por delante de las prestaciones.
Lo que estoy contando, por supuesto, no es nada nuevo: básicamente son las tres R aplicadas al contexto de escasez de recursos. Ahora bien, ¿qué implica todo esto de una manera práctica, en nuestro día a día? ¿Qué debemos hacer para preparar la transición, que es el leit motiv de esta serie de posts? No todo el mundo podrá hacer algunas de las cosas que ahora propondré, pero es importante que quien pueda se tome la molestia de considerarlo, no sólo por su bien, sino por el bien de su comunidad:
- Aprender a reparar aquellos objetos más esenciales: Conocer su mecánica básica y los fallos más comunes. Asegurarse de tener recambios para repararlos. Intentar buscar sustitutos con materiales más comunes y abundantes para algunas de las piezas, haciendo pequeñas chapucillas si es preciso. Aprender a montar una herramienta básica sustitutiva a partir de piezas fundamentales, diseñadas por uno mismo si puede ser. Preferir la madera al plástico, y en caso de usar plástico aprender a reciclarlo/reutilizarlo. Si la capacidad de reparación se puede implementar a gran escala, mejor que mejor.
- En procesos industriales, recuperar los diseños más robustos: Ahora hay tiempo, energía y capital para intentar compilar la información sobre los diseños industriales más robustos: si en realidad sabemos hacer, como se muestra en el documental, bombillas que duran décadas, medias de nylon prácticamente irrompibles o impresoras con una vida extendida, intentemos que ese conocimiento no se pierda. Aquellos que tengan conocimiento para hacerlo deberían poner a disposición de la comunidad manuales que enseñan a hackear aparatos básicos, explicando como sustituir piezas para alargar su vida.
- En los procesos industriales, investigar cuáles son los diseños más robustos: Ya no paga el principio de la obsolescencia programada, puesto que en el medio plazo no va a haber un gran mercado para los productos por falta de recursos y de capacidad de consumo. Aún hay tiempo y capital para poder dedicar esfuerzo y energía a estudiar ciertos procesos para hacerlos más resistentes y menos dependientes en materiales escasos, más resilientes. Aquellos que tengan visión de futuro y que entiendan que las manufacturas del futuro son muy diferentes de las de hoy en día ganarán la partida.
- Entender qué es lo que tendrá demanda y a qué nivel: Por ejemplo, quizá habrá ordenadores, pero serán comunitarios y a una escala mucho más pequeña; en ese sentido, posiblemente apostar por la vía de los productos más tecnológicos no es la más provechosa, al menos no para todo el mundo. Seguramente tiene más interés, para empezar, centrarse en mecanismos clave: bombear agua, purificarla, irrigar los campos, fabricar tractores, picos, palas, poleas, gatos hidráulicos, grúas, excavadoras, ... Es difícil saber qué será lo más útil; más aún, que máquinas tendrán la suficiente demanda como para pagar su precio real. Algunas, incluso, tendrán que ser versiones reducidas, con menor capacidad que las actuales, para adecuarse a la demanda futura. Todo un cambio de mentalidad.
En suma, si hemos de repensar la manera de diseñar los objetos que usamos para las diversas tareas que tendremos que seguir ejecutando, es importante que ahora que podemos hagamos una reflexión profunda sobre este asunto en particular, y compartamos la información sobre los diseños básicos, fundamentales, que ayuden a todas las comunidades a salir adelante con el menor esfuerzo posible. Sería interesante crear un directorio de diseños básicos, robustos, reparables y reciclables, que fueran patrimonio de la Humanidad y que todo el mundo pudiera usar fácilmente. La globalización de las ideas, más allá de la del capital.
Salu2,
Antonio
viernes, 17 de diciembre de 2010
Precaución y garantía
Queridos lectores,
Después de haber aclarado en el post anterior que la incertidumbre es algo intrínseco a la ciencia, aunque eso no impide que tenga carácter predictivo (no determinista, sí difuso) querría discutir por fin sobre los principios de precaución (bien delimitado) y de garantía (más difuso), dado que son la pieza clave en la discusión de los problemas de gestión de riesgos en general, del riesgo medioambiental en particular, y también son aplicables y explican parte de la polemización en torno al Peak Oil.
El principio de precaución, tal y como viene recogido en la Wikipedia, respalda que se tomen medidas destinadas a proteger el medio ambiente (o el interés público en general, como se recoge en la entrada en inglés) si existe controversia científica sobre los posibles efectos de una determinada acción. Como se explica mejor en el wikipédico artículo en inglés (ya suele pasar), aplicando este principio en caso de que no haya consenso científico la carga de la prueba se ha de poner en demostrar que no hay un efecto nocivo de la acción en discusión. La Unión Europea ha incorporado en cierta manera este principio en su legislación, a partir de una vaga referencia en el tratado de Lisboa. El objetivo del principio de precaución es el de evitar preventivamente que se puedan causar daños al medio ambiente, o incluso al interés público en general, cuando haya una cierta sospecha de que así se pueda producir. El principio de precaución, por tanto, se encuadra dentro de una gestión de riesgos conservadora, según la cual ante la amenaza de un riesgo detectado se decide evitarlo completamente, en espera de que se demuestre que tal riesgo no existe. De una manera más amplia, cuando se tienen indicios de un riesgo inevitable (como sería el cambio climático) el principio de precaución puede entenderse como la toma de medidas destinadas a mitigar los efectos de ese riesgo, aún cuando no haya consenso científico sobre cuál es el alcance real de ese riesgo (lo cual, por cierto, no es el caso del cambio climático antropogénico, ya que el 99% de los científicos que trabajan en el campo están de acuerdo en sus orígenes y en buena parte de sus efectos - para los puristas: en temas científicos es imposible tener un acuerdo del 100%, con lo que tomando la palabra consenso sensu estricto nunca lo habría).
En cuanto a la garantía, el concepto es más amplio y viene recogido de diversas maneras en múltiples aspectos de la ordenación jurídica. Esencialmente, con una garantía un actor pretende asegurar que una determinada acción tendrá lugar de una manera concreta, y en caso contrario él será compensado de algún modo. En un sentido más cercano a lo que se quiere discutir aquí, se espera que en la toma de decisiones públicas las Administraciones aporten las suficientes garantías de que sus acciones no perjudican los intereses legítimos de diversos actores. Se ha de decir, sin embargo, que no hay un principio de garantía general recogido en la ordenación, al estilo del principio de precaución, entre otras cosas porque delante de cualquier decisión administrativa siempre habrá beneficiados y perjudicados. La garantía exigible a la Administración es el respeto a la seguridad jurídica, lo cual esencialmente implica que no se tomen decisiones arbitrariamente y que las decisiones se tomen con arreglo a las leyes. Se ha de decir, sin embargo, que un principio común a las leyes del Estado es la protección del interés común, con lo que a priori una decisión no arbitraria que aplique el principio de precaución no debería contradecir la garantía de seguridad jurídica, si se implementa de la manera adecuada y siempre buscando minimizar los efectos adversos.
Dejando al margen la palabrería jurídica (tema muy resbaladizo para mí), y hablando en los términos más concretos de este blog, tenemos la amenaza del Peak Oil. Estamos hablando de un riesgo concreto y real. Todo el mundo acepta la cantidad de petróleo en el planeta Tierra es finita (dejando del lado la descabellada y conspiratoria teoría abiótica). Es evidente que en algún momento se llegará al cenit de producción y eso supondrá un desafío al actual modelo económico, puesto que en su diseño no está contenido que una materia fundamental y no sustituible pueda volverse escasa (una de las premisas de la teoría económica capitalista vigente es la infinita sustitutibilidad: el mercado encontrará sustitutos para cualquier bien si el precio es lo suficientemente alto). Este desafío, en sí, no es irremontable: algunas personas opinan que la sustitución del petróleo sí que es posible, aunque puede llevar algo de tiempo; otras, que aunque no sea sustituible el sistema puede progresivamente irse modificando - cambiando hábitos, desplazando al consumo como el motor del crecimiento económico, etc- de manera no traumática; otros, en cambio, opinan que un colapso de la sociedad industrial es inevitable. En fin, hay controversia en lo que se refiere a las consecuencias, aunque lo que parece que está claro es que si hay solución requiere cierto tiempo y, a tenor del oil spike de 2008 (cuando el precio llegó a casi 150$ por barril) y de los altos precios actuales, no acaba de ser evidente que el libre mercado y la libre actuación de los agentes económicos puedan organizar espontáneamente esa transición, sobre todo en el tiempo que podría ser necesario. Porque otro punto de controversia es en qué momento exacto se producirá el Peak Oil (aunque eso parece que cada vez está más claro) y cuál será el ritmo de declive de la producción pasado ese punto (aunque también parece que para nosotros, como parte de la OCDE, el declive forzado de nuestro consumo ya ha comenzado, y todo apunta que se agravará más que significativamente cuando empiece el declive geológico).
Por resumir, tenemos que hay indicios fundados científicamente de que el Peak Oil podría producirse pronto, de que el declive de nuestro consumo de petróleo puede ser rápido, y de que sustituir el petróleo es difícil y requerirá drásticos ajustes, que si no se hacen puede causar una situación económica dramática, incluso el colapso. Todas estas afirmaciones son controvertidas, es decir, no hay un consenso, ni siquiera una clara mayoría de opinión al respecto. Sin embargo, no hay duda alguna de que estamos delante de una situación en que el interés común está en riesgo. Sería, por tanto, una clara situación de aplicación del principio de precaución, de no ser por un motivo: no hay una acción a prevenir. En realidad, se trataría de que los Poderes Públicos actuasen en primer lugar. Pero, como ya hemos comentado, a los Poderes Públicos se les debe exigir que actúen respetando las garantía jurídicas necesarias, y en particular que sus actuaciones no perjudiquen innecesariamente a otros actores. Por tanto, ante la dificultad de trabar un plan de prevención, mitigación o combate del Oil Crash (esto es, los efectos el Peak Oil) que no perjudique los legítimos intereses económicos de las empresas y los particulares, los Poderes Públicos son incapaces de hacer nada particularmente útil (sí, una fotovoltaica por aquí, unas bombillitas eficientes por allá... poca cosa). Esta sería nuestra situación, ¿verdad?
Pues no. No lo es, porque no se ha respetado otra garantía fundamental en la gestión de la cosa pública: la transparencia. No ha habido, ni está habiendo, un debate público sobre el Peak Oil. Yo no pretendo que se implementen una u otras medidas concretas para combatir este problema; yo puedo tener mi opinión particular sobre qué es lo que va a pasar y qué se tendría que hacer - la tengo, qué duda cabe- pero no me corresponde a mí tomar esa decisión, ni tengo suficientes conocimientos sobre cómo hacerlo, ni es tampoco mi función. Lo único que pretendo es mostrar el riesgo, demostrar que hay una probabilidad nada desdeñable de que el riesgo sea muy elevado, y promover un debate público y abierto sobre la cuestión, más que nada porque si al final se decide promover políticas activas de mitigación la población deberá ser informada para que entienda su necesidad.
Un tema recurrente cuando se comenta la necesidad de la transparencia sobre el Peak Oil es que eso podría causar la alarma en la sociedad. Más aún, que como los indicios disponibles no son incuestionables este alarmismo podría estar injustificado, y podría tener consecuencias muy nocivas. Quien dice esto no debe tener mucha fe en la democracia, y debe creer que es legítimo aplicar el principio del despotismo ilustrado ("Todo para el pueblo, pero sin el pueblo"). Sin embargo, esa posición es, justamente, ilegítima: va contra nuestras propias leyes. Tener conocimiento de un peligro y no alertar sobre él y no poner los medios para su mitigación es, según diversos puntos de vista, un delito (y quien sea entendido en leyes que lea estas líneas seguramente encontrará varias categorías penales para encuadrar lo que describo). Por supuesto que yo no digo que se deba salir a decir: "¡Vamos todos a morir!" (cosa cierta, aunque lo que es improbable es que lo vayamos a hacer todos a la vez), pero sí explicar que hay ciertos problemas graves y que se tendrán que tomar medidas. Quizá, antes de eso, empezar a debatir y a reflexionar. Sin embargo, la actitud generalizada de los Gobiernos es la de la opacidad, cuando no directamente la ocultación. Todo lo cual lleva a pensar que el interés principal de los Gobiernos es preservar el BAU, sea o no posible. Y esa no parece ni la mejor estrategia ni, desde luego, una posición legítima.
Salu2,
AMT
jueves, 16 de diciembre de 2010
El azar y la necesidad
Queridos lectores,
Antes de lanzarme a hacer el post sobre el rango de aplicación de los principios de precaución y de garantía, querría explicar algunas cuestiones previas que tienen que ver con la modelización del mundo real y las incertidumbres que ésta comporta. Este artículo será un poco técnico, pero creo que es necesario para comprender algunos conceptos a ser discutidos posteriormente.
En la enseñanza de la Física hay dos conceptos clave que a mí me gusta destacar a mis estudiantes: el cálculo de errores y la importancia relativa de una magnitud. Ambos conceptos son determinantes para poder aproximarnos con algo de ventura a la realidad, para poder describir los procesos que tienen lugar en el mundo a pesar de que nuestro conocimiento de ellos sea imperfecto.
Con respecto al cálculo de errores, una de las primeras cosas que te enseñan cuando entras por primera vez en un laboratorio es que la medición perfecta no existe. No existe porque ningún instrumento tiene una precisión absoluta, cosa que todos los estudiantes más o menos saben. De lo que se suele ser menos consciente es de otra fuente de error, causada porque el propio observador tiene sus limitaciones, y aunque crea haber hecho el experimento de una manera perfectamente cuidadosa siempre introduce una variabilidad indeseada. Y de lo que los profanos no son conscientes en absoluto, y que los estudiantes suelen ignorar también, es que hay una tercera fuente de variabilidad, de error, que viene dada por nuestro conocimiento imperfecto de las leyes que gobiernan los procesos físicos. Dados los espectaculares progresos de las ciencias en general, y de la Física en particular, durante el siglo XX, el común de los mortales tiene tendencia a creer que las leyes de la Física son perfectas, acabadas e inmutables. Pues bien, no lo son; como cualquier otra verdad humana son provisionales, y justamente el método científico nos permite ir perfeccionando los principios, las leyes y las hipótesis con las que describimos, siempre aproximadamente, la realidad. Podría poner innumerables ejemplos del carácter inacabado e imperfecto de la Física, incluso sobre aquellas leyes de las que mucha gente cree que la Física ha dicho ya su última palabra. Por tanto, hemos de aceptar que en nuestra experimentación habrá un margen para el error, una incertidumbre residual que no podremos controlar ni explicar. En suma, una aleatoriedad.
Lo que acabo de afirmar parecería ir en contra del carácter predictivo de la Física. En realidad, lo único que contradice es una visión predictiva perfectamente determinista, al estilo de la que nos ofrecen las Matemáticas. Sin embargo, toda vez que uno es capaz de asignar un intervalo de variabilidad a su predicción, una barra de error, nuestra imperfecta predicción tiene aún valor para hacer cosas útiles en nuestro mundo. De hecho, nosotros hacemos ese tipo de predicciones imperfectas cada día de forma natural: cuando estamos yendo a un lugar y avisamos a la persona que nos espera de que llegaremos allí en 10 minutos, nuestro correspondiente sabe que tan bien podemos tardar 5 como 20 minutos en llegar, pero que en todo caso es previsible que llegaremos en un lapso breve y que no tiene sentido que se embarque en tareas que requieran mucho tiempo si al cabo de poco tendrá que dejarlas con nuestra llegada. En suma, nuestra estimación imperfecta no le permite hacer un ajuste preciso, pero igualmente le aporta suficiente información como para tomar decisiones útiles. Uno de los objetivos principales de la Física es reducir tanto como sea posible ese margen de incertidumbre (aunque, como sabemos, en el mundo cuántico habrá siempre una cierta incertidumbre insoslayable).
Las técnicas de propagación de errores que se enseñan en los primeros cursos de Física te permiten hacer una estimación de cómo los diferentes errores en los diversos parámetros que se usan para construir una predicción afectan a la predicción en sí misma, de modo que al final se puede construir una barra de error, o rango de variabilidad, para la propia predicción. Una cosa importante a entender es que muchas veces la variabilidad de las predicciones pueden tener rangos muy grandes, con lo que nuestra medida de barra de error nos describe sólo la variabilidad habitual, que puede comprender el 90 o el 99% de los casos; de vez en cuando, sin embargo, se presenta un evento completamente fuera de los márgenes esperados (cisne negro). Conocer la probabilidad de esos eventos inesperados es importante, especialmente cuando pueden tener un gran impacto en un sistema (eventualmente con consecuencias catastróficas) y eso nos lleva al segundo concepto básico que enumeraba más arriba.
En el mundo físico, una determinada cantidad no es grande o pequeña en sí, sino por comparación con otra. Por ejemplo, un vaso de agua es una cantidad razonable para una persona, enormemente grande para una bacteria y más bien pequeña para un elefante. La importancia de las magnitudes, y por ende de sus errores, no es absoluta, sino que depende de a qué contexto se aplica. Yo me encuentro con esta cuestión cada día; por ejemplo, en la determinación de la concentración de clorofila en un cierto volumen de agua de mar (medida indirecta de la abundancia de algas verdes en ese volumen) a través de datos de teledetección (satélites por lo general) es habitual cometer errores de uno o dos órdenes de magnitud (es decir, subestimar o sobreestimar la cantidad con un valor entre 10 y 100 veces más grande o más pequeño que el real), debido a que la concentración de algas varía mucho y muy rápidamente tanto en el espacio como en el tiempo (intermitencia). Errores de esa magnitud son excesivos para intentar asimilar esos datos dentro de un modelo numérico del océano, ya que los fuertes gradientes espurios inducidos por esa variabilidad aleatoria crean efectos no lineales que acaban por hacer explotar la simulación. Por el otro lado, esas medidas son perfectamente útiles a los biólogos marinos, de cara a determinar cuáles son las zonas de mayor productividad primaria, cosa que también resulta útil a los barcos pesqueros (con excesiva eficacia, se ha de decir). Por tanto, nunca se puede afirmar de manera absoluta que un margen de incertidumbre, e incluso un error, es excesivamente grande (inmenso, incluso) sin mirar primero cómo se está propagando dentro del cálculo en el que se aplica y con qué se pretende comparar.
Bien, hasta aquí la discusión teórica; vayamos ahora a un caso práctico.
Hace unas semanas, al hilo de una discusión en la web de Crisis Energética, Alb sacó a colación la siguiente gráfica:
Las diferentes líneas finas representan los 20 mejores escenarios de depleción de petróleo en un momento determinado (en este caso, finales de 2010), en tanto que la línea azul oscuro representa el promedio de todos ellos. Esta información es compilada mensualmente en la web TrendLines, con una clara vocación desmitificadora de los problemas que puede causar el Peak Oil (tiene también un apartado contra los "alarmistas del Cambio Climático" que haría las delicias de muchos colegas míos). Todos los "errores de previsión" de cuándo se produciría el Peak Oil son recordados en la web, comenzando por la "gran cagada" de Campbell y Lahèrre anunciando el Peak Oil en 1989, de tan sólo 66 millones de barriles diarios (Mb/d), mientras que en la actualidad nos encontramos en torno a los 85 Mb/d y el Peak Oil habrá sido, como mínimo, 19 años después (y para que no se nos olvide viene estampado en la gráfica). Es significativo que el problema fundamental, en los primeros intentos por fijar la fecha del Peak Oil, fue tener datos fiables sobre las Reservas Finalmente Recuperables (URR en inglés) de petróleo, que son complicados de obtener si no estás dentro de esta industria, y esto explica tanto los errores de bulto de las primeras estimaciones como la dispersión actual de las distintas previsiones (como anécdota interesante, la previsión de Hubbert en 1956 sobre los EE.UU. subestimaba las URR de los EE.UU., pero también subestimaba el ritmo de crecimiento de la producción, con lo que al final la fecha del pico fue la de su escenario más optimista, 1970, aunque no acertó el valor del pico). Se tiene que decir que con el método de linearización de Hubbert, que el geólogo americano desarrolló más tarde, y con otros más sofisticados no es necesario conocer las URR y son por tanto más robustos; el problema de esos métodos es que la producción tiene que estar ya en un estadio bastante maduro, típicamente muy cerca del Peak Oil.
Como se observa en la gráfica, la curva correspondiente a la media se puede parametrizar como una curva de tipo logístico con unas URR de 3.8 terabarriles (Tb, billones -españoles- de barriles) y con un decaimiento de la producción del 0.7% anual. Aunque la fecha que esta estimación da para el Peak Oil tampoco es muy alentadora (2022), si se mira la serie histórica de estos gráficos (sólo unos seis años) se ve una ligera tendencia a postponerse con el tiempo; además, la baja tasa de declive hace pensar en que la transición será lo suficientemente lenta como para que un adaptación sea no sólo posible sino además probable. Sin embargo, este tratamiento adolece de un par de errores fundamentales.
Al calcular "la curva media de los 20 mejores modelos" (hay también un sesgo de elección implícito en cuáles son esos modelos, ver más abajo) se están entendiendo de alguna manera que la curva promedio representa la mejor estimación de la verdadera curva de depleción. Si asumimos que no hay sesgos metodológicos en los 20 modelos usados, es lógico suponer que la variabilidad de los resultados es producto de la variabilidad natural y observacional de sus parámetros. Estos resultados, por tanto, se distribuirán alrededor del resultado más probable (nota técnica: asumiendo unimodalidad de la distribución de resultados), y su dispersión entorno a ese valor de máxima verosimilitud nos da una idea de la variabilidad de los resultados. Hay dos dificultades con esa hipótesis: la primera, que la relación entre observación y resultados no es lineal (y por tanto hacer la media es una propagación de errores incorrecta); la segunda, que en algunos de esos modelos se están incorporando recursos cuya explotación a la escala que se presupone es más que discutible. La segunda cuestión es perpendicular al problema que se discute hoy, y ya será abordada en otro momento: tiene que ver con los límites para aumentar la producción de las arenas bituminosas del Canadá, entre otros recursos. La primera, por el contrario, es un ejercicio de lo que se ha discutido hoy en el post.
Durante la discusión en Crisis Energética yo destaqué que si la transformación que lleva de observaciones (URR, tasas de declive) a resultados (curva de producción) no es lineal; por tanto, no se puede hacer simplemente un promedio de los resultados y decir que esa curva es la más verosímil o siquiera la central. Temo que mi comentario no fue entendido, y ahora lo explicaré con algo de detalle. Supongamos para simplificar que todas las curvas sean, con cierta aproximación, curvas logísticas, como las resultantes de la derivación original de Hubbert, y que vienen definidas por los dos parámetros "observacionales", es decir, URR y tasa de declive. Para determinar cuál es la curva de producción más probable se tiene que tomar cuál es la URR más probable y cuál es la tasa de declive más probable, y la curva asociada será realmente la curva de producción más probable, alrededor de la cual se ha de tomar el rango de variabilidad. Lo que sucede en este problema es que el rango de variabilidad es asimétrico, es decir, el intervalo que se ha de tomar por arriba es mayor que por abajo; cosa que sin una propagación de errores correctamente efectuada pasa completamente desapercibida: en efecto, al promediar, de alguna manera estamos asumiendo una distribución simétrica respecto a su moda o valor más probable (cosa que suele pasar habitualmente ya que gracias al Teorema Central del Límite los promedios de variables tienden a comportarse como distribuciones normales, que son unimodales simétricas). Pero en este caso, al ser la distribución asimétrica, con una cola más larga hacia los valores mayores que hacia los valores menores, la media es superior a la moda, y eso explica porqué la URR de la media es de casi de 4Tb, muy por encima de lo comúnmente aceptado por los especialistas (todo y haber hasta 8 Tb de reservas potenciales si se pudieran aprovechar todas las arenas bituminosas - ya veremos que eso no es posible) y porqué su tasa de declive, del 0.7% anual, es tan baja. Si tuviera los datos originales podría hacer una estimación de cuál es, realmente, la curva de producción central, aunque sería deseable tener más de 20 curvas para evitar fluctuaciones.
Hay otra cuestión importante, y es que no se puede asignar la misma probabilidad a cada una de las 20 curvas seleccionadas. El criterio de selección invocado (desvío de una cierto porcentaje de la producción estimada vs la observada) favorece que todas las previsiones tomadas sean muy recientes, indiferentemente de su mérito metodológico. Esto establece un sesgo de selección sobre aquellas curvas que son renovadas con mayor frecuencia (ya que igualmente se tomarán sólo 20). Un análisis estadístico riguroso debería partir de todas las previsiones hechas, preferiblemente en una misma fecha. Como igualmente hay pocas, se debe hacer un estudio de sensibilidad asignando una probabilidad a cada estudio para compensar los efectos asociados al número pequeño de eventos considerado. Es todo un trabajo de estadística, que llevaría varias semanas elaborar.
En fin, eso es todo para comenzar. Hay unas cuantas cuestiones técnicas que he obviado para no hacer más farragosa la discusión, pero si alguien tiene interés se puede profundizar durante los comentarios.
Salu2,
AMT
Antes de lanzarme a hacer el post sobre el rango de aplicación de los principios de precaución y de garantía, querría explicar algunas cuestiones previas que tienen que ver con la modelización del mundo real y las incertidumbres que ésta comporta. Este artículo será un poco técnico, pero creo que es necesario para comprender algunos conceptos a ser discutidos posteriormente.
En la enseñanza de la Física hay dos conceptos clave que a mí me gusta destacar a mis estudiantes: el cálculo de errores y la importancia relativa de una magnitud. Ambos conceptos son determinantes para poder aproximarnos con algo de ventura a la realidad, para poder describir los procesos que tienen lugar en el mundo a pesar de que nuestro conocimiento de ellos sea imperfecto.
Con respecto al cálculo de errores, una de las primeras cosas que te enseñan cuando entras por primera vez en un laboratorio es que la medición perfecta no existe. No existe porque ningún instrumento tiene una precisión absoluta, cosa que todos los estudiantes más o menos saben. De lo que se suele ser menos consciente es de otra fuente de error, causada porque el propio observador tiene sus limitaciones, y aunque crea haber hecho el experimento de una manera perfectamente cuidadosa siempre introduce una variabilidad indeseada. Y de lo que los profanos no son conscientes en absoluto, y que los estudiantes suelen ignorar también, es que hay una tercera fuente de variabilidad, de error, que viene dada por nuestro conocimiento imperfecto de las leyes que gobiernan los procesos físicos. Dados los espectaculares progresos de las ciencias en general, y de la Física en particular, durante el siglo XX, el común de los mortales tiene tendencia a creer que las leyes de la Física son perfectas, acabadas e inmutables. Pues bien, no lo son; como cualquier otra verdad humana son provisionales, y justamente el método científico nos permite ir perfeccionando los principios, las leyes y las hipótesis con las que describimos, siempre aproximadamente, la realidad. Podría poner innumerables ejemplos del carácter inacabado e imperfecto de la Física, incluso sobre aquellas leyes de las que mucha gente cree que la Física ha dicho ya su última palabra. Por tanto, hemos de aceptar que en nuestra experimentación habrá un margen para el error, una incertidumbre residual que no podremos controlar ni explicar. En suma, una aleatoriedad.
Lo que acabo de afirmar parecería ir en contra del carácter predictivo de la Física. En realidad, lo único que contradice es una visión predictiva perfectamente determinista, al estilo de la que nos ofrecen las Matemáticas. Sin embargo, toda vez que uno es capaz de asignar un intervalo de variabilidad a su predicción, una barra de error, nuestra imperfecta predicción tiene aún valor para hacer cosas útiles en nuestro mundo. De hecho, nosotros hacemos ese tipo de predicciones imperfectas cada día de forma natural: cuando estamos yendo a un lugar y avisamos a la persona que nos espera de que llegaremos allí en 10 minutos, nuestro correspondiente sabe que tan bien podemos tardar 5 como 20 minutos en llegar, pero que en todo caso es previsible que llegaremos en un lapso breve y que no tiene sentido que se embarque en tareas que requieran mucho tiempo si al cabo de poco tendrá que dejarlas con nuestra llegada. En suma, nuestra estimación imperfecta no le permite hacer un ajuste preciso, pero igualmente le aporta suficiente información como para tomar decisiones útiles. Uno de los objetivos principales de la Física es reducir tanto como sea posible ese margen de incertidumbre (aunque, como sabemos, en el mundo cuántico habrá siempre una cierta incertidumbre insoslayable).
Las técnicas de propagación de errores que se enseñan en los primeros cursos de Física te permiten hacer una estimación de cómo los diferentes errores en los diversos parámetros que se usan para construir una predicción afectan a la predicción en sí misma, de modo que al final se puede construir una barra de error, o rango de variabilidad, para la propia predicción. Una cosa importante a entender es que muchas veces la variabilidad de las predicciones pueden tener rangos muy grandes, con lo que nuestra medida de barra de error nos describe sólo la variabilidad habitual, que puede comprender el 90 o el 99% de los casos; de vez en cuando, sin embargo, se presenta un evento completamente fuera de los márgenes esperados (cisne negro). Conocer la probabilidad de esos eventos inesperados es importante, especialmente cuando pueden tener un gran impacto en un sistema (eventualmente con consecuencias catastróficas) y eso nos lleva al segundo concepto básico que enumeraba más arriba.
En el mundo físico, una determinada cantidad no es grande o pequeña en sí, sino por comparación con otra. Por ejemplo, un vaso de agua es una cantidad razonable para una persona, enormemente grande para una bacteria y más bien pequeña para un elefante. La importancia de las magnitudes, y por ende de sus errores, no es absoluta, sino que depende de a qué contexto se aplica. Yo me encuentro con esta cuestión cada día; por ejemplo, en la determinación de la concentración de clorofila en un cierto volumen de agua de mar (medida indirecta de la abundancia de algas verdes en ese volumen) a través de datos de teledetección (satélites por lo general) es habitual cometer errores de uno o dos órdenes de magnitud (es decir, subestimar o sobreestimar la cantidad con un valor entre 10 y 100 veces más grande o más pequeño que el real), debido a que la concentración de algas varía mucho y muy rápidamente tanto en el espacio como en el tiempo (intermitencia). Errores de esa magnitud son excesivos para intentar asimilar esos datos dentro de un modelo numérico del océano, ya que los fuertes gradientes espurios inducidos por esa variabilidad aleatoria crean efectos no lineales que acaban por hacer explotar la simulación. Por el otro lado, esas medidas son perfectamente útiles a los biólogos marinos, de cara a determinar cuáles son las zonas de mayor productividad primaria, cosa que también resulta útil a los barcos pesqueros (con excesiva eficacia, se ha de decir). Por tanto, nunca se puede afirmar de manera absoluta que un margen de incertidumbre, e incluso un error, es excesivamente grande (inmenso, incluso) sin mirar primero cómo se está propagando dentro del cálculo en el que se aplica y con qué se pretende comparar.
Bien, hasta aquí la discusión teórica; vayamos ahora a un caso práctico.
Hace unas semanas, al hilo de una discusión en la web de Crisis Energética, Alb sacó a colación la siguiente gráfica:
Las diferentes líneas finas representan los 20 mejores escenarios de depleción de petróleo en un momento determinado (en este caso, finales de 2010), en tanto que la línea azul oscuro representa el promedio de todos ellos. Esta información es compilada mensualmente en la web TrendLines, con una clara vocación desmitificadora de los problemas que puede causar el Peak Oil (tiene también un apartado contra los "alarmistas del Cambio Climático" que haría las delicias de muchos colegas míos). Todos los "errores de previsión" de cuándo se produciría el Peak Oil son recordados en la web, comenzando por la "gran cagada" de Campbell y Lahèrre anunciando el Peak Oil en 1989, de tan sólo 66 millones de barriles diarios (Mb/d), mientras que en la actualidad nos encontramos en torno a los 85 Mb/d y el Peak Oil habrá sido, como mínimo, 19 años después (y para que no se nos olvide viene estampado en la gráfica). Es significativo que el problema fundamental, en los primeros intentos por fijar la fecha del Peak Oil, fue tener datos fiables sobre las Reservas Finalmente Recuperables (URR en inglés) de petróleo, que son complicados de obtener si no estás dentro de esta industria, y esto explica tanto los errores de bulto de las primeras estimaciones como la dispersión actual de las distintas previsiones (como anécdota interesante, la previsión de Hubbert en 1956 sobre los EE.UU. subestimaba las URR de los EE.UU., pero también subestimaba el ritmo de crecimiento de la producción, con lo que al final la fecha del pico fue la de su escenario más optimista, 1970, aunque no acertó el valor del pico). Se tiene que decir que con el método de linearización de Hubbert, que el geólogo americano desarrolló más tarde, y con otros más sofisticados no es necesario conocer las URR y son por tanto más robustos; el problema de esos métodos es que la producción tiene que estar ya en un estadio bastante maduro, típicamente muy cerca del Peak Oil.
Como se observa en la gráfica, la curva correspondiente a la media se puede parametrizar como una curva de tipo logístico con unas URR de 3.8 terabarriles (Tb, billones -españoles- de barriles) y con un decaimiento de la producción del 0.7% anual. Aunque la fecha que esta estimación da para el Peak Oil tampoco es muy alentadora (2022), si se mira la serie histórica de estos gráficos (sólo unos seis años) se ve una ligera tendencia a postponerse con el tiempo; además, la baja tasa de declive hace pensar en que la transición será lo suficientemente lenta como para que un adaptación sea no sólo posible sino además probable. Sin embargo, este tratamiento adolece de un par de errores fundamentales.
Al calcular "la curva media de los 20 mejores modelos" (hay también un sesgo de elección implícito en cuáles son esos modelos, ver más abajo) se están entendiendo de alguna manera que la curva promedio representa la mejor estimación de la verdadera curva de depleción. Si asumimos que no hay sesgos metodológicos en los 20 modelos usados, es lógico suponer que la variabilidad de los resultados es producto de la variabilidad natural y observacional de sus parámetros. Estos resultados, por tanto, se distribuirán alrededor del resultado más probable (nota técnica: asumiendo unimodalidad de la distribución de resultados), y su dispersión entorno a ese valor de máxima verosimilitud nos da una idea de la variabilidad de los resultados. Hay dos dificultades con esa hipótesis: la primera, que la relación entre observación y resultados no es lineal (y por tanto hacer la media es una propagación de errores incorrecta); la segunda, que en algunos de esos modelos se están incorporando recursos cuya explotación a la escala que se presupone es más que discutible. La segunda cuestión es perpendicular al problema que se discute hoy, y ya será abordada en otro momento: tiene que ver con los límites para aumentar la producción de las arenas bituminosas del Canadá, entre otros recursos. La primera, por el contrario, es un ejercicio de lo que se ha discutido hoy en el post.
Durante la discusión en Crisis Energética yo destaqué que si la transformación que lleva de observaciones (URR, tasas de declive) a resultados (curva de producción) no es lineal; por tanto, no se puede hacer simplemente un promedio de los resultados y decir que esa curva es la más verosímil o siquiera la central. Temo que mi comentario no fue entendido, y ahora lo explicaré con algo de detalle. Supongamos para simplificar que todas las curvas sean, con cierta aproximación, curvas logísticas, como las resultantes de la derivación original de Hubbert, y que vienen definidas por los dos parámetros "observacionales", es decir, URR y tasa de declive. Para determinar cuál es la curva de producción más probable se tiene que tomar cuál es la URR más probable y cuál es la tasa de declive más probable, y la curva asociada será realmente la curva de producción más probable, alrededor de la cual se ha de tomar el rango de variabilidad. Lo que sucede en este problema es que el rango de variabilidad es asimétrico, es decir, el intervalo que se ha de tomar por arriba es mayor que por abajo; cosa que sin una propagación de errores correctamente efectuada pasa completamente desapercibida: en efecto, al promediar, de alguna manera estamos asumiendo una distribución simétrica respecto a su moda o valor más probable (cosa que suele pasar habitualmente ya que gracias al Teorema Central del Límite los promedios de variables tienden a comportarse como distribuciones normales, que son unimodales simétricas). Pero en este caso, al ser la distribución asimétrica, con una cola más larga hacia los valores mayores que hacia los valores menores, la media es superior a la moda, y eso explica porqué la URR de la media es de casi de 4Tb, muy por encima de lo comúnmente aceptado por los especialistas (todo y haber hasta 8 Tb de reservas potenciales si se pudieran aprovechar todas las arenas bituminosas - ya veremos que eso no es posible) y porqué su tasa de declive, del 0.7% anual, es tan baja. Si tuviera los datos originales podría hacer una estimación de cuál es, realmente, la curva de producción central, aunque sería deseable tener más de 20 curvas para evitar fluctuaciones.
Hay otra cuestión importante, y es que no se puede asignar la misma probabilidad a cada una de las 20 curvas seleccionadas. El criterio de selección invocado (desvío de una cierto porcentaje de la producción estimada vs la observada) favorece que todas las previsiones tomadas sean muy recientes, indiferentemente de su mérito metodológico. Esto establece un sesgo de selección sobre aquellas curvas que son renovadas con mayor frecuencia (ya que igualmente se tomarán sólo 20). Un análisis estadístico riguroso debería partir de todas las previsiones hechas, preferiblemente en una misma fecha. Como igualmente hay pocas, se debe hacer un estudio de sensibilidad asignando una probabilidad a cada estudio para compensar los efectos asociados al número pequeño de eventos considerado. Es todo un trabajo de estadística, que llevaría varias semanas elaborar.
En fin, eso es todo para comenzar. Hay unas cuantas cuestiones técnicas que he obviado para no hacer más farragosa la discusión, pero si alguien tiene interés se puede profundizar durante los comentarios.
Salu2,
AMT
lunes, 13 de diciembre de 2010
Corespondencia con los lectores: el coche eléctrico es un grave error.
Queridos lectores,
El comentarista Alb, llegado desde la web de Crisis Energética, ha levantado recientemente cierta polémica referente a las estimaciones que en su día hice sobre el coche eléctrico; en particular me reprocha que mis afirmaciones son gravemente erróneas. Dado que toda la discusión me parece bastante del interés de los lectores de este blog, he creído interesante darle cierto realce. No reproduzco aquellos comentarios de Alb que ya he respondido en aquel post ("El coche eléctrico, un grave error"), los cuales también son muy interesantes y por eso a ellos remito a los lectores. Me centraré sólo en los dos últimos, los cuales reproduzco verbatim en lo que sigue (las faltas de ortografía son todas suyas):
Me he leido el articulo de Jack Lifton y he visto que tiene enormes errores que has pasado por alto ya que apoyan tus prejuicios.
En el articulo Jacka Lifton afirma:
"At that meeting the technical managers of both companies agreed that a figure of 1 kilogram of lithium, calculated, as I recall, as metallic weight equivalent of lithium, per kilowatt hour of battery storage capacity was correct, in general and on average, for the production of RSBs for the electrification of vehicles. Therefore it is obvious that the battery pack for the Chevrolet Volt, extended range, plug-in hybrid, which has been announced to utilize a 16 kWh lithium-ion technology RSB will require 16 kg of lithium to build."
Tu recoges este dato sin cuestionarlo:
"la cantidad de litio que se necesita para un coche semi-eléctrico como el Chevrolet Volt (que es de 16 kilogramos)"
Siento que mis mensajes se vuelvan pesados con tantas citas, pero espero evitar que me acuses de atribuirte afirmaciones que no haces.
Bien... la relacion 1Kwh-1Kg litio es incorrecta.
Veamos, la bateria del Chevrolet Volt, pesa 170Kg y tiene una capacidad 16kwh.
Es del tipo LiFePO4. Lo que significa que el catodo esta formado entre otras cosas por este compuesto.
Suponiendo que toda la bateria fuese el catodo,(no hubiera carcasa, electrolitos, anodo, conectores etc),la cantidad total de Litio seria de 6,7Kg. Es decir el maximo teorico es de 1kwh-0,42kg
Pero como no toda la bateria es catodo, la cantidad de litio es menor.
En el informe "The Trouble With Lithium " https://selectra.co.uk/sites/default/files/pdf/lithium_shortage.pdf se da la cifra de 0,3Kg litio/kwh.
Por otra parte Nissan afirma que la bateria de su Nissan Leaf EV,de 24Kwh contiene solamente 4 kg de litio. Es decir 0,17kg Litio/kwh.
Aunque teoricamente es posible, no creo que sea cierto.
Volviendo al Chevrolet volt tiene como mucho 5kg de litio metalico o 30kg de carbonato de litio.
En el 2003 la demanda de litio era la mitad de la actual, y el precio de carbonato de litio estaba entorno a 1,5$/kg. A este precio y con tan poca demanda las reservas economicamente explotables eran muy pocas.
En la actualidad el precio se ha disparado hasta los 6$/kg lo que ha aumentado enormemente las reservas economicamente rentables. A este precio ya es rentable explotar las reservas de Bolivia y otras muchas.
A 6$/kg, el precio del Litio del Chevrolet Volt es de 180€.
==============================================
"Si yo te afirmara categóricamente que las cosas serán inexorablemente de una tal manera u otra, entonces sería un dogmático. No lo soy; soy un científico."
El titulo de esta entra es:
"El coche electrico, un grave error"
Y en el afirmas:
"De hecho, en la discusión de las políticas de la UE se plantean producciones de decenas de millones de coches anualmente para poder remplazar la flota actual en un plazo razonable, pero sabemos que eso no pasará en ningún caso."
Afirmas categoricamente que no es posible el desarrollo del coche electrico.
¿Como puedes estas tan seguro que no pasará en nigun caso?
En unico argumento que dar en este articulo, es que no hay litio suficiente y luego dices que no puedes hacer predicciones sobre cual será la produccion de litio.
Si no sabes cual será la produccion de litio, ¿Como puedes afirmar categoricamente que no es pasará en ningun caso?
Ademas, te recuerdo que el litio no es el unico metal empleado en bateria, tambien Zinc, Niquel, Covalto, etc... no se puede concluir la imposibilidad del desarrollo del coche electrico basandose solamente en el Litio.
Yo no se si el coche electrico va a tener exito. Y no he entrado en el debate sobre si es conveniento o no apoyar el desarrollo del coche electrico.
Solamente digo, que el litio no supone una limitación al desarrollo del coche electrico.
El litio es un metal muy abundante en la tierra, es muy sencillo de extraer y existen enormes reservas que apenas se han explotado porque hasta ahora tenia muy pocas aplicaciones.
==============================================
Analizando sus comentarios, encuentro que lo que dice en el primero tiene algunos elementos razonables; sin embargo, el segundo es completamente falaz. Veamos por qué:
En el primer comentario, se hace un silogismo sofista: "Lifton comete graves errores, yo uso datos de Lifton, luego yo cometo graves errores". A ver.
Hay una diferencia abismal entre lo que uno proyecta y prueba en un laboratorio, y lo que luego funciona a escala industrial. Seguramente en un prototipo de laboratorio uno puede conseguir densidades energéticas de 0.17 Kg por cada Kwh, y no discuto que el potencial teórico de una batería de litio con cátodo de LiFePO4 sea de 0.3 kg/Kwh. Sin embargo, en un coche real los requerimientos generalmente implican bastante más. Quizá no, no lo sé; es igual, quedémonos con esos 0.3 kg/kwh. A Alb esta diferencia cuantitativa le parece "un grave error", por subestimar la densidad energética de las baterías de litio en un factor 3.3. Sin embargo, eso cambia muy poquito las cosas.
En el post original se ha usado el contenido de litio del Volt, estimado en 16 Kg, para calcular que se pueden producir como 1.5 millones de coches al año, acaparando toda la producción actual de litio. De acuerdo con el argumento bastante razonable de Alb resulta que, en realidad, con 5 Kg la cosa va que chuta, con lo que se podrían llegar a producir unos 5 millones de Chevrolet Volts al año. Cantidad en todo caso que se queda bastante lejos de las decenas de millones de coches que se producen cada año en el mundo, con lo que el cuello de botella persiste hasta que no se aumente, y mucho, la producción de litio. Por otro lado, si las reservas se agotaran técnicamente en 10 años, esto daría lugar a 50 millones de coches, en vez de los 15 de los que se hablaba en el post. Comparado con los casi 1.000 millones de coches que hay en el mundo esta cantidad continúa siendo ridícula (es sólo el 5%). El "grave error" que Alb considera que se ha cometido es, simplemente, una diferencia cuantitativa, que no cambia el resultado cualitativo. He de decir, con todo, que es importante ser lo más preciso posible, y en ese sentido le agradezco a Alb que me destaque este error en la densidad energética de la batería del Chevrolet Volt.
Volviendo sobre la cuestión de los "prejuicios que yo tengo" (en otro momento discutiremos sobre el tono de los comentarios de Alb), tengo que decir que veo razonable que la densidad energética de las baterías de litio experimenten una mejora durante los próximos años. Me parece bastante probable que esta densidad se pueda duplicar, si la sociedad no colapsa antes, en los próximos 5 a 10 años, y que incluso se pudiera llegar a triplicar. Los expertos consideran difícil ir más allá de eso (no lo digo yo, lo dijo Rafael Moliner en esa charla a la que asistí; pero a Alb no le gustan ese tipo de eventos). Así pues, cuando las baterías de litio alcancen esas densidades energéticas en 10 años se podría cubrir con Chevrolets Volt hasta el 15% del parque automovilístico mundial (aún insuficientes coches para la OCDE), a un ritmo de 15 millones de coches, o el 1.5%, cada año. Si, por otro lado, en la línea de las discusiones previas y tomando las previsiones más optimistas de la USGS (que al menos saben distinguir reservas de recursos), las reservas económicamente recuperables (descontando las de Bolivia) son 10 veces superiores a las que se daban en el post, y por tanto se podría conseguir el sueño de abastecer el mercado mundial de coches con Chevrolets Volt. Hasta aquí las buenas noticias.
Sin embargo, las cosas no son tan sencillas, ni tan bonitas. En primer lugar, se ha de hacer notar que el Chevrolet Volt no es un coche puramente eléctrico, como se indica en el post. Este coche lleva un pequeño motor de explosión, que funciona con combustible convencional, y que entra en funcionamiento a su par óptimo, 2500 rpm; de esa manera, se consiguen consumos muy bajos, de alrededor de 1 litro a los 100 Km bajo condiciones de conducción óptima. Esto no evita que el Volt sea más bien un coche híbrido, y encima con pocas prestaciones respecto a los coches actuales (escasa autonomía, menor aún si usas el A/C o la calefacción). Reducir el consumo de combustible en un factor 4 o 5 respecto al actual está bastante bien: los coches privados consumen el 25% de todo el petróleo, esto es, unos 20 millones de barriles diarios; si pudiéramos substituir de golpe todos los coches por Volts (cosa imposible) ahorraríamos hasta 16 millones de barriles diarios, más que el desfase de oferta-demanda previsto por Sweetnam o el Ejército Americano para 2015. El problema es convencer a los usuarios de que se compren un coche mucho más caro y con menos prestaciones. Simplemente, esto no va a suceder, incluso aunque se produjeran muchos Volts, por una razón fácil de entender: cuando los precios de los combustibles suban, todo subirá, las familias dispondrán de menos renta (ya pasa ahora) y no se podrán permitir comprar un coche que, además, percibirán como bastante peor que el que ya tienen, salvo por el consumo. El comentario de Alb sobre el precio del litio metálico es bastante irrelevante, puesto que no es este precio el que hace caras las baterías, sino su fabricación casi artesanal.
Por otra parte, aunque esos futuribles Volts de última generación (con baterías, no olvidemos, 3 veces mas densas energéticamente que las actuales) podrían compensar el bache de producción de petróleo de aquí a 2015, si pudiéramos producir los 1.000 millones de coches necesarios en 5 años, sin embargo no lo harían de 2015 a 2020, con lo que en el plazo de otro lustro se debería pasar a un coche completamente eléctrico. Aquí, las necesidades de litio sin duda se dispararían; dejo a beneficio del lector estimar de cuánto. Yo me malicio que, dada la enorme diferencia de densidad energética de la gasolina respecto a la de la batería de litio, el litio extra necesario podría ser fácilmente un orden de magnitud superior. Sin embargo, hay un límite a la cantidad máxima de peso de las baterías para que las cosas sean prácticas: los coches ya se hacen muy ligeros, y se tendrían que volver a los diseños de los primeros coches eléctricos (incluyendo sus velocidades punta y aceleraciones), allá por los albores de la industria automovilística, si se quiere que el peso del vehículo sea razonable. Otrosí, fíjese el lector que se habla siempre del coche eléctrico, pero nunca del camión eléctrico, la excavadora eléctrica o el coche de bomberos eléctrico. Simplemente, porque es imposible propulsar estos vehículos con esta tecnología; no lo es ahora, ni lo será nunca al decir de los expertos (de nuevo, Rafael Moliner dixit).
Antes de pasar a discutir la cuestión de la producción, quiero sacar a colación la cuestión clave de la histéresis, de la cual se habla muy poco. Las baterías del coche eléctrico, como cualquier otra batería, sufren un proceso de degradación con los ciclos de carga y descarga, de manera que la capacidad de la batería va disminuyendo progresivamente. Dependiendo del dispositivo, puede admitir entre 500 y 2.000 ciclos de carga/descarga completos antes de que la batería se vuelva completamente inutilizable, aunque en la práctica antes de la mitad de esos ciclos la capacidad habrá disminuido tanto que el dispositivo ya no se usará (como los móviles) o se usará conectado permanentemente (como los portátiles). En el caso de los coches eléctricos, se estima que pueden perder entre un 20 y un 50% de su capacidad de carga (según el tipo de utilización que se le dé) solamente durante el primer año de uso. Hasta ahora, la lentitud de las recargas evitaba que el coche fuese frecuentemente recargado, limitando a una al día las cargas totales; sin embargo, la introducción de puestos de media tensión, que aseguran la carga completa en pocos minutos, y eventualmente el uso de grafeno en las baterías para mejorar espectacularmente la velocidad de carga incluso con tensiones domésticas, favorecerá que se hagan varios ciclos de carga en un mismo día, acelerando la histéresis. Haber pagado un montón de dinero para que al cabo de un año la autonomía de tu coche sea sólo la mitad no parece un gran negocio. Es por ello que el modelo de negocio que Renault intenta implantar es el del alquiler de las baterías (con una módica cuota mensual), y que incluso en algunas electrolineras el coche se deshaga de su batería y se le monte una nueva. No es mala idea, ya que así se favorece el necesario reciclaje del litio; el problema es que el proceso de recuperación de litio para hacer nuevas baterías es energéticamente muy costoso, y eso de nuevo casa mal con un ambiente de poca energía disponible. Para terminarlo de agravar todo, el modelo de smart grid basado en coches eléctricos supone externalizar el coste de las baterías necesarias para estabilizar la red a los propietarios de los coches, que verán cómo sus baterías sufren mayor histéresis. Es muy dudoso que este modelo de gestión de la red eléctrica pueda funcionar.
Vayamos ya con el segundo comentario de Alb. En primer lugar, toma el título de mi post como una indicación de afirmación categórica. Bien, el coche eléctrico es, y sigue siendo, un grave error. Lo es desde el momento que los esfuerzos de la sociedad están dirigidos a mantener un modelo de movilidad insostenible y costoso, cuya viabilidad está comprometida por la carencia de energía. Porque, al margen de las objeciones técnicas planteadas en el post original más la revisión de las mismas que acabo de hacer ahora, hay un punto que nadie aclara, y nadie quiere aclarar: ¿de dónde saldrá tanta energía? La energía para fabricar tanto coche, la energía para cargarlos y la energía para el imprescindible reciclaje. Decir que vendrá de las renovables es hacer un brindis al sol, ya que una mera evaluación del potencial renovable doméstico te indica que tal cosa no es posible; y un despliegue mundial para aprovechar las ubicaciones energéticamente más provechosas requiere un grado de concertación política difícil de conseguir. Está, además, la cuestión de los plazos: en un mundo en crisis económica el capital para las inversiones necesarias de hace escaso, y a medida que la crisis se agrava se hace más escaso aún.
Respecto a mi frase:
"De hecho, en la discusión de las políticas de la UE se plantean producciones de decenas de millones de coches anualmente para poder remplazar la flota actual en un plazo razonable, pero sabemos que eso no pasará en ningún caso."
lo que significa es que en ningún caso se producirán decenas de millones de coches anualmente, no que no se pueda seguir desarrollando el coche eléctrico, como Alb parece entender. No se producirán porque la producción de litio está actualmente constreñida, y aunque es previsible que de las 27.000 toneladas de litio metálico anuales actuales se pueda pasar a 30.000 o 35.000 durante el próximo lustro, ésto es aún insuficiente para permitir un aumento del parque automovilístico del orden de magnitud deseado, de tanto más que el litio es necesario para las baterías de otros dispositivos (ordenadores, móvies, i-Pads y toda la gadgeteria electrónica) y la competencia por él será dura. Referente a uno de tus comentarios, no hace falta saber exactamente cuál será la producción de litio dentro de los próximo años para saber que una cosa es imposible, de la misma manera que no hace falta saber cuál es la autonomía exacta de un coche de gasolina actual para saber que con un litro no podrá recorrer mil kilómetros. Volviendo a la discusión de los usos de litio, de hecho, y viendo cómo evolucionan las ventas de coches en Europa, creo que está claro que la caída del consumo por culpa de la recesión hace inviable económicamente el despliegue masivo del coche eléctrico en este momento. Como esta crisis no acabará nunca, las condiciones actuales son un natural killer para el coche eléctrico e incluso para la industria automovilística; si no hay un cambio de rumbo rápido yo esperaría ver algunas grandes automovilísticas cerrar todas sus fábricas (o casi) durante los próximos dos años.
Respecto al uso de otros metales para las baterías, ya se ha comentado en otro momento, y no quiero extender más por hoy. En todo caso, de nuevo Rafael Moliner tenía claro que es o litio o nada. Las baterías de Zinc-Aire podrían tener cierto sentido, aunque eso es usar el Zinc como combustible, no lo olvidemos.
Y llegamos a la última frase, que dice:
El litio es un metal muy abundante en la tierra, es muy sencillo de extraer y existen enormes reservas que apenas se han explotado porque hasta ahora tenia muy pocas aplicaciones.
Bien, en realidad este razonamiento es bastante erróneo. El litio tiene cierta abundancia, pero no es muy abundante en la corteza terrestre; mayoritariamente proviene de colisiones de meteoritos, y su concentración es muy difusa. No es sencillo de extraer, ya que típicamente se tiene que hacer precipitación de salmueras, y eso lleva mucho tiempo. No hay enormes reservas sin explotar; puede haber recursos, pero no tanto reservas, como también se ha comentado arriba. No sé si Alb entiende la diferencia, ya que en un comentario anterior le hice ver que en una referencia que me daba el autor calculaba los recursos, y no las reservas, y no contestó a mi comentario. En cuanto a que hasta ahora no se había explotado apenas, la tecnología de ión-litio lleva unos diez años en comercialización, y bastante más en desarrollo, y eso ha hecho que las explotaciones estén bastante desarrollados. La industria extractiva del litio no ha llegado a su madurez, bien es cierto, pero de ahí a decir que "apenas se ha explotado" media un abismo.
Por acabar este post tan largo (me ha cundido el viaje de hoy en el tren) destacar una cuestión vital que subyace en mis cada vez más frecuentes discusiones con Alb, y que explica la falta de entendimiento entre él y yo: en la gestión de las crisis el principio que conviene es el de precaución, no el de garantía. El próximo post irá de eso.
Salu2,
AMT
El comentarista Alb, llegado desde la web de Crisis Energética, ha levantado recientemente cierta polémica referente a las estimaciones que en su día hice sobre el coche eléctrico; en particular me reprocha que mis afirmaciones son gravemente erróneas. Dado que toda la discusión me parece bastante del interés de los lectores de este blog, he creído interesante darle cierto realce. No reproduzco aquellos comentarios de Alb que ya he respondido en aquel post ("El coche eléctrico, un grave error"), los cuales también son muy interesantes y por eso a ellos remito a los lectores. Me centraré sólo en los dos últimos, los cuales reproduzco verbatim en lo que sigue (las faltas de ortografía son todas suyas):
Me he leido el articulo de Jack Lifton y he visto que tiene enormes errores que has pasado por alto ya que apoyan tus prejuicios.
En el articulo Jacka Lifton afirma:
"At that meeting the technical managers of both companies agreed that a figure of 1 kilogram of lithium, calculated, as I recall, as metallic weight equivalent of lithium, per kilowatt hour of battery storage capacity was correct, in general and on average, for the production of RSBs for the electrification of vehicles. Therefore it is obvious that the battery pack for the Chevrolet Volt, extended range, plug-in hybrid, which has been announced to utilize a 16 kWh lithium-ion technology RSB will require 16 kg of lithium to build."
Tu recoges este dato sin cuestionarlo:
"la cantidad de litio que se necesita para un coche semi-eléctrico como el Chevrolet Volt (que es de 16 kilogramos)"
Siento que mis mensajes se vuelvan pesados con tantas citas, pero espero evitar que me acuses de atribuirte afirmaciones que no haces.
Bien... la relacion 1Kwh-1Kg litio es incorrecta.
Veamos, la bateria del Chevrolet Volt, pesa 170Kg y tiene una capacidad 16kwh.
Es del tipo LiFePO4. Lo que significa que el catodo esta formado entre otras cosas por este compuesto.
Suponiendo que toda la bateria fuese el catodo,(no hubiera carcasa, electrolitos, anodo, conectores etc),la cantidad total de Litio seria de 6,7Kg. Es decir el maximo teorico es de 1kwh-0,42kg
Pero como no toda la bateria es catodo, la cantidad de litio es menor.
En el informe "The Trouble With Lithium " https://selectra.co.uk/sites/default/files/pdf/lithium_shortage.pdf se da la cifra de 0,3Kg litio/kwh.
Por otra parte Nissan afirma que la bateria de su Nissan Leaf EV,de 24Kwh contiene solamente 4 kg de litio. Es decir 0,17kg Litio/kwh.
Aunque teoricamente es posible, no creo que sea cierto.
Volviendo al Chevrolet volt tiene como mucho 5kg de litio metalico o 30kg de carbonato de litio.
En el 2003 la demanda de litio era la mitad de la actual, y el precio de carbonato de litio estaba entorno a 1,5$/kg. A este precio y con tan poca demanda las reservas economicamente explotables eran muy pocas.
En la actualidad el precio se ha disparado hasta los 6$/kg lo que ha aumentado enormemente las reservas economicamente rentables. A este precio ya es rentable explotar las reservas de Bolivia y otras muchas.
A 6$/kg, el precio del Litio del Chevrolet Volt es de 180€.
==============================================
"Si yo te afirmara categóricamente que las cosas serán inexorablemente de una tal manera u otra, entonces sería un dogmático. No lo soy; soy un científico."
El titulo de esta entra es:
"El coche electrico, un grave error"
Y en el afirmas:
"De hecho, en la discusión de las políticas de la UE se plantean producciones de decenas de millones de coches anualmente para poder remplazar la flota actual en un plazo razonable, pero sabemos que eso no pasará en ningún caso."
Afirmas categoricamente que no es posible el desarrollo del coche electrico.
¿Como puedes estas tan seguro que no pasará en nigun caso?
En unico argumento que dar en este articulo, es que no hay litio suficiente y luego dices que no puedes hacer predicciones sobre cual será la produccion de litio.
Si no sabes cual será la produccion de litio, ¿Como puedes afirmar categoricamente que no es pasará en ningun caso?
Ademas, te recuerdo que el litio no es el unico metal empleado en bateria, tambien Zinc, Niquel, Covalto, etc... no se puede concluir la imposibilidad del desarrollo del coche electrico basandose solamente en el Litio.
Yo no se si el coche electrico va a tener exito. Y no he entrado en el debate sobre si es conveniento o no apoyar el desarrollo del coche electrico.
Solamente digo, que el litio no supone una limitación al desarrollo del coche electrico.
El litio es un metal muy abundante en la tierra, es muy sencillo de extraer y existen enormes reservas que apenas se han explotado porque hasta ahora tenia muy pocas aplicaciones.
==============================================
Analizando sus comentarios, encuentro que lo que dice en el primero tiene algunos elementos razonables; sin embargo, el segundo es completamente falaz. Veamos por qué:
En el primer comentario, se hace un silogismo sofista: "Lifton comete graves errores, yo uso datos de Lifton, luego yo cometo graves errores". A ver.
Hay una diferencia abismal entre lo que uno proyecta y prueba en un laboratorio, y lo que luego funciona a escala industrial. Seguramente en un prototipo de laboratorio uno puede conseguir densidades energéticas de 0.17 Kg por cada Kwh, y no discuto que el potencial teórico de una batería de litio con cátodo de LiFePO4 sea de 0.3 kg/Kwh. Sin embargo, en un coche real los requerimientos generalmente implican bastante más. Quizá no, no lo sé; es igual, quedémonos con esos 0.3 kg/kwh. A Alb esta diferencia cuantitativa le parece "un grave error", por subestimar la densidad energética de las baterías de litio en un factor 3.3. Sin embargo, eso cambia muy poquito las cosas.
En el post original se ha usado el contenido de litio del Volt, estimado en 16 Kg, para calcular que se pueden producir como 1.5 millones de coches al año, acaparando toda la producción actual de litio. De acuerdo con el argumento bastante razonable de Alb resulta que, en realidad, con 5 Kg la cosa va que chuta, con lo que se podrían llegar a producir unos 5 millones de Chevrolet Volts al año. Cantidad en todo caso que se queda bastante lejos de las decenas de millones de coches que se producen cada año en el mundo, con lo que el cuello de botella persiste hasta que no se aumente, y mucho, la producción de litio. Por otro lado, si las reservas se agotaran técnicamente en 10 años, esto daría lugar a 50 millones de coches, en vez de los 15 de los que se hablaba en el post. Comparado con los casi 1.000 millones de coches que hay en el mundo esta cantidad continúa siendo ridícula (es sólo el 5%). El "grave error" que Alb considera que se ha cometido es, simplemente, una diferencia cuantitativa, que no cambia el resultado cualitativo. He de decir, con todo, que es importante ser lo más preciso posible, y en ese sentido le agradezco a Alb que me destaque este error en la densidad energética de la batería del Chevrolet Volt.
Volviendo sobre la cuestión de los "prejuicios que yo tengo" (en otro momento discutiremos sobre el tono de los comentarios de Alb), tengo que decir que veo razonable que la densidad energética de las baterías de litio experimenten una mejora durante los próximos años. Me parece bastante probable que esta densidad se pueda duplicar, si la sociedad no colapsa antes, en los próximos 5 a 10 años, y que incluso se pudiera llegar a triplicar. Los expertos consideran difícil ir más allá de eso (no lo digo yo, lo dijo Rafael Moliner en esa charla a la que asistí; pero a Alb no le gustan ese tipo de eventos). Así pues, cuando las baterías de litio alcancen esas densidades energéticas en 10 años se podría cubrir con Chevrolets Volt hasta el 15% del parque automovilístico mundial (aún insuficientes coches para la OCDE), a un ritmo de 15 millones de coches, o el 1.5%, cada año. Si, por otro lado, en la línea de las discusiones previas y tomando las previsiones más optimistas de la USGS (que al menos saben distinguir reservas de recursos), las reservas económicamente recuperables (descontando las de Bolivia) son 10 veces superiores a las que se daban en el post, y por tanto se podría conseguir el sueño de abastecer el mercado mundial de coches con Chevrolets Volt. Hasta aquí las buenas noticias.
Sin embargo, las cosas no son tan sencillas, ni tan bonitas. En primer lugar, se ha de hacer notar que el Chevrolet Volt no es un coche puramente eléctrico, como se indica en el post. Este coche lleva un pequeño motor de explosión, que funciona con combustible convencional, y que entra en funcionamiento a su par óptimo, 2500 rpm; de esa manera, se consiguen consumos muy bajos, de alrededor de 1 litro a los 100 Km bajo condiciones de conducción óptima. Esto no evita que el Volt sea más bien un coche híbrido, y encima con pocas prestaciones respecto a los coches actuales (escasa autonomía, menor aún si usas el A/C o la calefacción). Reducir el consumo de combustible en un factor 4 o 5 respecto al actual está bastante bien: los coches privados consumen el 25% de todo el petróleo, esto es, unos 20 millones de barriles diarios; si pudiéramos substituir de golpe todos los coches por Volts (cosa imposible) ahorraríamos hasta 16 millones de barriles diarios, más que el desfase de oferta-demanda previsto por Sweetnam o el Ejército Americano para 2015. El problema es convencer a los usuarios de que se compren un coche mucho más caro y con menos prestaciones. Simplemente, esto no va a suceder, incluso aunque se produjeran muchos Volts, por una razón fácil de entender: cuando los precios de los combustibles suban, todo subirá, las familias dispondrán de menos renta (ya pasa ahora) y no se podrán permitir comprar un coche que, además, percibirán como bastante peor que el que ya tienen, salvo por el consumo. El comentario de Alb sobre el precio del litio metálico es bastante irrelevante, puesto que no es este precio el que hace caras las baterías, sino su fabricación casi artesanal.
Por otra parte, aunque esos futuribles Volts de última generación (con baterías, no olvidemos, 3 veces mas densas energéticamente que las actuales) podrían compensar el bache de producción de petróleo de aquí a 2015, si pudiéramos producir los 1.000 millones de coches necesarios en 5 años, sin embargo no lo harían de 2015 a 2020, con lo que en el plazo de otro lustro se debería pasar a un coche completamente eléctrico. Aquí, las necesidades de litio sin duda se dispararían; dejo a beneficio del lector estimar de cuánto. Yo me malicio que, dada la enorme diferencia de densidad energética de la gasolina respecto a la de la batería de litio, el litio extra necesario podría ser fácilmente un orden de magnitud superior. Sin embargo, hay un límite a la cantidad máxima de peso de las baterías para que las cosas sean prácticas: los coches ya se hacen muy ligeros, y se tendrían que volver a los diseños de los primeros coches eléctricos (incluyendo sus velocidades punta y aceleraciones), allá por los albores de la industria automovilística, si se quiere que el peso del vehículo sea razonable. Otrosí, fíjese el lector que se habla siempre del coche eléctrico, pero nunca del camión eléctrico, la excavadora eléctrica o el coche de bomberos eléctrico. Simplemente, porque es imposible propulsar estos vehículos con esta tecnología; no lo es ahora, ni lo será nunca al decir de los expertos (de nuevo, Rafael Moliner dixit).
Antes de pasar a discutir la cuestión de la producción, quiero sacar a colación la cuestión clave de la histéresis, de la cual se habla muy poco. Las baterías del coche eléctrico, como cualquier otra batería, sufren un proceso de degradación con los ciclos de carga y descarga, de manera que la capacidad de la batería va disminuyendo progresivamente. Dependiendo del dispositivo, puede admitir entre 500 y 2.000 ciclos de carga/descarga completos antes de que la batería se vuelva completamente inutilizable, aunque en la práctica antes de la mitad de esos ciclos la capacidad habrá disminuido tanto que el dispositivo ya no se usará (como los móviles) o se usará conectado permanentemente (como los portátiles). En el caso de los coches eléctricos, se estima que pueden perder entre un 20 y un 50% de su capacidad de carga (según el tipo de utilización que se le dé) solamente durante el primer año de uso. Hasta ahora, la lentitud de las recargas evitaba que el coche fuese frecuentemente recargado, limitando a una al día las cargas totales; sin embargo, la introducción de puestos de media tensión, que aseguran la carga completa en pocos minutos, y eventualmente el uso de grafeno en las baterías para mejorar espectacularmente la velocidad de carga incluso con tensiones domésticas, favorecerá que se hagan varios ciclos de carga en un mismo día, acelerando la histéresis. Haber pagado un montón de dinero para que al cabo de un año la autonomía de tu coche sea sólo la mitad no parece un gran negocio. Es por ello que el modelo de negocio que Renault intenta implantar es el del alquiler de las baterías (con una módica cuota mensual), y que incluso en algunas electrolineras el coche se deshaga de su batería y se le monte una nueva. No es mala idea, ya que así se favorece el necesario reciclaje del litio; el problema es que el proceso de recuperación de litio para hacer nuevas baterías es energéticamente muy costoso, y eso de nuevo casa mal con un ambiente de poca energía disponible. Para terminarlo de agravar todo, el modelo de smart grid basado en coches eléctricos supone externalizar el coste de las baterías necesarias para estabilizar la red a los propietarios de los coches, que verán cómo sus baterías sufren mayor histéresis. Es muy dudoso que este modelo de gestión de la red eléctrica pueda funcionar.
Vayamos ya con el segundo comentario de Alb. En primer lugar, toma el título de mi post como una indicación de afirmación categórica. Bien, el coche eléctrico es, y sigue siendo, un grave error. Lo es desde el momento que los esfuerzos de la sociedad están dirigidos a mantener un modelo de movilidad insostenible y costoso, cuya viabilidad está comprometida por la carencia de energía. Porque, al margen de las objeciones técnicas planteadas en el post original más la revisión de las mismas que acabo de hacer ahora, hay un punto que nadie aclara, y nadie quiere aclarar: ¿de dónde saldrá tanta energía? La energía para fabricar tanto coche, la energía para cargarlos y la energía para el imprescindible reciclaje. Decir que vendrá de las renovables es hacer un brindis al sol, ya que una mera evaluación del potencial renovable doméstico te indica que tal cosa no es posible; y un despliegue mundial para aprovechar las ubicaciones energéticamente más provechosas requiere un grado de concertación política difícil de conseguir. Está, además, la cuestión de los plazos: en un mundo en crisis económica el capital para las inversiones necesarias de hace escaso, y a medida que la crisis se agrava se hace más escaso aún.
Respecto a mi frase:
"De hecho, en la discusión de las políticas de la UE se plantean producciones de decenas de millones de coches anualmente para poder remplazar la flota actual en un plazo razonable, pero sabemos que eso no pasará en ningún caso."
lo que significa es que en ningún caso se producirán decenas de millones de coches anualmente, no que no se pueda seguir desarrollando el coche eléctrico, como Alb parece entender. No se producirán porque la producción de litio está actualmente constreñida, y aunque es previsible que de las 27.000 toneladas de litio metálico anuales actuales se pueda pasar a 30.000 o 35.000 durante el próximo lustro, ésto es aún insuficiente para permitir un aumento del parque automovilístico del orden de magnitud deseado, de tanto más que el litio es necesario para las baterías de otros dispositivos (ordenadores, móvies, i-Pads y toda la gadgeteria electrónica) y la competencia por él será dura. Referente a uno de tus comentarios, no hace falta saber exactamente cuál será la producción de litio dentro de los próximo años para saber que una cosa es imposible, de la misma manera que no hace falta saber cuál es la autonomía exacta de un coche de gasolina actual para saber que con un litro no podrá recorrer mil kilómetros. Volviendo a la discusión de los usos de litio, de hecho, y viendo cómo evolucionan las ventas de coches en Europa, creo que está claro que la caída del consumo por culpa de la recesión hace inviable económicamente el despliegue masivo del coche eléctrico en este momento. Como esta crisis no acabará nunca, las condiciones actuales son un natural killer para el coche eléctrico e incluso para la industria automovilística; si no hay un cambio de rumbo rápido yo esperaría ver algunas grandes automovilísticas cerrar todas sus fábricas (o casi) durante los próximos dos años.
Respecto al uso de otros metales para las baterías, ya se ha comentado en otro momento, y no quiero extender más por hoy. En todo caso, de nuevo Rafael Moliner tenía claro que es o litio o nada. Las baterías de Zinc-Aire podrían tener cierto sentido, aunque eso es usar el Zinc como combustible, no lo olvidemos.
Y llegamos a la última frase, que dice:
El litio es un metal muy abundante en la tierra, es muy sencillo de extraer y existen enormes reservas que apenas se han explotado porque hasta ahora tenia muy pocas aplicaciones.
Bien, en realidad este razonamiento es bastante erróneo. El litio tiene cierta abundancia, pero no es muy abundante en la corteza terrestre; mayoritariamente proviene de colisiones de meteoritos, y su concentración es muy difusa. No es sencillo de extraer, ya que típicamente se tiene que hacer precipitación de salmueras, y eso lleva mucho tiempo. No hay enormes reservas sin explotar; puede haber recursos, pero no tanto reservas, como también se ha comentado arriba. No sé si Alb entiende la diferencia, ya que en un comentario anterior le hice ver que en una referencia que me daba el autor calculaba los recursos, y no las reservas, y no contestó a mi comentario. En cuanto a que hasta ahora no se había explotado apenas, la tecnología de ión-litio lleva unos diez años en comercialización, y bastante más en desarrollo, y eso ha hecho que las explotaciones estén bastante desarrollados. La industria extractiva del litio no ha llegado a su madurez, bien es cierto, pero de ahí a decir que "apenas se ha explotado" media un abismo.
Por acabar este post tan largo (me ha cundido el viaje de hoy en el tren) destacar una cuestión vital que subyace en mis cada vez más frecuentes discusiones con Alb, y que explica la falta de entendimiento entre él y yo: en la gestión de las crisis el principio que conviene es el de precaución, no el de garantía. El próximo post irá de eso.
Salu2,
AMT