07 gennaio, 2022

All’alba del secondo ventennio del XXI secolo

 


I progressi nelle aspettative di inizio millennio

di Sergio Corso (*)


Premessa

Queste brevi considerazioni hanno lo scopo di aggiornare le previsioni sulla attuale condizione umana, ipotizzate un decennio fa,  in due discipline cardine, di cui la nostra specie si interessa, per necessità e per curiosità, e di stimarne le i possibili sviluppi e i potenziali impatti alla luce delle conoscenze all’alba del secondo millennio.

In conclusione vengono riviste le congetture sul nostro futuro, che partono dalla necessità di superare i nostri attuali limiti, che mai in passato erano stati così simili a punti di non ritorno,  e scopriremo che molte si sono confermate, alcune no o in misura molto minore, e un’altra sembra aver dispiegato con chiarezza il suo potenziale distruttivo: il cambiamento climatico. 


     Economia

Di seguito una sintesi svolta a suo tempo, sullo stato dell’economia mondiale e degli ‘alert’ formulati a suo tempo:

Forse non tutti si ricordano che il 9 e 10 Agosto 2007 la Civiltà , così come noi la conosciamo, è stata sul punto di scomparire, per la nostra incapacità a comprendere dei fenomeni macroeconomici che si sono verificati e, solo parzialmente, come conseguenza di errate politiche di controllo da parte delle Banche Centrali nei confronti della politica e della pressione delle lobbies.

 L’origine del problema risaliva intorno al 2002, dopo la crisi seguita all’attentato alle Torri Gemelle, quando le Banche Centrali, la Fed per prima, decisero di abbassare i tassi di interesse per alcuni anni a seguire, fino al 2006, ben oltre quanto fosse giustificato da una semplice regola adottata normalmente, detta “Regola di Taylor”, che indica i tassi di sconto delle Banche Centrali in funzione dell’inflazione e del Prodotto Interno Lordo.

 La Regola di Taylor chiede di tenere i tassi di sconto alla somma di : 1+ 1,5 volte l’inflazione + 0,5 volte lo scostamento del PIL dal trend usuale.

In questo modo si hanno buone probabilità di stabilizzare i fenomeni macroeconomici, evitando crescite accelerate e conseguenti ricadute disastrose.

Per esempio, la Regola applicata agli Stati Uniti per l’anno 2004, dava un tasso di sconto che avrebbe dovuto essere almeno pari al 4% circa, mentre la Fed decise di tenere l’un per cento circa: ben tre punti percentuali di differenza, un abisso se si pensa che un semplice 0,25% di variazione del tasso di sconto (“quarto di punto”) della Fed fa muovere le Borse di tutto il mondo.

 Perché una semplice, banale, Regola di stabilità è disattesa?

Politica, ovviamente; l’economia andava “pompata” dopo l’11 Settembre, per ridare fiducia agli Americani, e, naturalmente, conservare il consenso al Governo.

Interessi di lobby, ovviamente; in questo modo le Borse si ripresero velocemente e, in generale, il commercio beneficiò del basso costo del denaro, perché era piu’ facile indebitarsi per, ad esempio, comprare case.

Appunto, comprare case; chiunque in quegli anni comprò immobili, anche indebitandosi e senza fornire garanzie “piene” a fronte del prestito: parliamo dei così detti “mutui subprime”, cioè mutui non completamente coperti da garanzie, ma, per le banche, accettabili, specie in un momento dove i prezzi delle case schizzavano in orbita, per cui già l’anno successivo al mutuo ci si aspettava che il valore dell’immobile fosse cresciuto abbastanza da garantire interamente il prestito.

 Ovviamente, come tutte le bolle speculative, anche questa non poteva continuare e nel 2006 la Fed portò precipitosamente il tasso di sconto in linea con la Regola di Taylor, ma era già troppo tardi, troppi miliardi di dollari erano ormai impegnati in mutui subprime e in strumenti finanziari “derivati” da questi , e diffusi nei titoli obbligazionari in tutto il globo.

 Semplicemente, il “mercato” se ne accorse tra il 10 e l’11 Agosto 2007, perché, in una malattia,  c’è sempre un primo momento in cui la febbre sale altissima.

Il termometro che la misurava era fatto dalla differenza tra i tassi di interesse dei prestiti interbancari americani a tre mesi (“LIBOR”) e quello degli stessi prestiti, ma “spot”, ossia per il giorno dopo (“OIS”, “overnight index swap”).

Infatti per decenni la differenza tra questi due tassi di interesse è stata praticamente zero (circa 0,1%), improvvisamente salì fino all’1%.

Nessuno capi’ bene perché, ma era qualcosa, pensarono le Banche Centrali del mondo, che doveva avere a che fare con la mancanza di denaro liquido disponibile per emettere i prestiti da parte delle Banche; purtroppo si continuo’ a non capire il fenomeno per diversi mesi, e nel frattempo, gradualmente, la finanza globale, i commerci mondiali e il valore del barile di greggio scesero a picco.

Per brevità, dopo un anno di sofferenze e di errate diagnosi del fenomeno, nel Settembre  2008, l’anno successivo, gli US lasciarono fallire la banca d’affari Lehman Brothers, ritenendosi ancora in grado di controllare quanto stava capitando, e immettendo una grande massa di denaro liquido sul mercato, sempre certi che si stesse trattando di un problema di “liquidità”, ossia di mancanza di denaro in circolo che le Banche potevano utilizzare per prestarsi denaro tra loro e alle Imprese.

 E qui siamo a un momento di grande importanza: dopo il primo errore, e cioè aver tenuto artificialmente bassi i tassi di sconto e causato una bolla inflattiva sui prezzi delle case, le banche Centrali commisero il secondo: si convinsero che bastasse immettere liquidità sul mercato.

La differenza LIBOR-OIS, il nostro termometro, schizzò al 3,5%, l’equivalente umano di febbre oltre i 42 gradi!

Seguì la paralisi pressoché completa dell’erogazione da parte delle Banche, il crollo dei prezzi delle case e il conseguente fallimento di tutti i compratori che avevano sperato di coprire il debito con l’aumento dei prezzi stessi.

Infine si scoprì una enorme massa di obbligazioni che contenevano i prodotti finanziari derivati dai mutui subprime, la cui entità sorprende ancora oggi per dimensione e diffusione sul pianeta.

Insomma gli americani si ritrovarono senza casa, o case il cui valore era crollato, azioni dal valore in caduta libera, non in grado di onorare i propri debiti, e con le Banche d’affari di tutto il mondo in preda al panico per paura di seguire la sorte di Lehman: un passo dal baratro.

Oltre agli US, i Paesi che piu’ ne soffrirono furono quelli che avevano accelerato persino oltre gli stessi US nelle politica inflazionistica dello sviluppo immobiliare e nella “finanza creativa” dei prodotti derivati : l’Islanda in pratica è fallita, e Spagna e Irlanda sono sprofondate in una crisi mai vista negli ultimi cento anni, mentre l’Unione Europea teneva leggermente meglio, grazie alla politica conservatrice della ECB, ma sempre perdendo diversi punti di PIL e con grave innalzamento del tasso di disoccupazione.

 Finalmente, un paio di mesi dopo il fallimento di Lehman, i Governi e le Banche Centrali capirono che il problema non era di liquidità ma di “rischio controparte”.

 Vale a dire che, non essendo noto a nessuno quanti prodotti derivati non piu’ solvibili (“tossici”) erano nei portafogli delle banche e ne costituivano le fondamenta stesse, nessuno si fidava piu’ a prestare soldi a “controparti” che, come Lehman, avrebbero potuto fallire in un giorno.

Furono quindi fatte le uniche azioni possibili a quel punto: interventi senza precedenti di capitali pubblici in Istituti di Credito, di fatto trasferendo il rischio sui Paesi sovrani.

A conti fatti, oggi, constatiamo che mai, in tempi di pace, si è avuto un indebitamento pubblico globale di tali enormi dimensioni (nell’ordine dei milioni di miliardi di euro).

 In conclusione, ripassando questa estrema sintesi della crisi ancora in corso, considerandola insieme alla sequenza delle crisi dei Paesi Emergenti subito prima e dopo l’11 Settembre 2001, è difficile non giungere alla conclusione che il Sistema sia al suo limite, a causa (i) della mancanza di regole chiare sulla trasparenza bancaria (ricordate il rischio controparte!) (ii) dell’ingerenza della Politica sui sani principi di stabilità macroeconomica (iii) dell’attuale stato senza precedenti di indebitamento pubblico mondiale (iv) della complessità dei sistemi accresciuta dalla globalizzazione, che li rende meno comprensibili, e quindi controllabili, su scala mondiale.

 Vediamo nuove frontiere oltre il limite o la prossima grande instabilità, con l’attuale indebitamento, ci spazzerà via tutti indietro alla Civiltà dei Baratti su scala di piccole comunità?

Solo uno sforzo come quello che è stato prodotto appena in tempo, con gran parte dei Governi mondiali coesi e uniti nelle azioni di prevenzione, ma esercitato con continuità, nella normalità e non nell’emergenza, potrebbe darci una frontiera nuova: ma troveremo politici illuminati al punto da rinunciare a parte della loro sovranità, e a parte delle loro probabilità di rielezione, che accettino di riformare l’economia a livello globale, trovando i necessari equilibri tra i diversi Paesi, in stato di “normalità” e non di emergenza?

__________________________________




Questo, quanto analizzato oltre un decennio fa subito dopo la Crisi. Purtroppo occorre notare che i quattro punti di criticità piu’ sopra indicati da (i) a (iv) non sono in pratica mutati; dopo uno sforzo iniziale per migliorare la trasparenza bancaria si è presto ricaduti nella consueta opacità, in particolare sui crediti inesigibili, che oggi ne sono il vulnus principale.

In aggiunta, a causa della pandemia, una gigantesca ulteriore iniezione di liquidità da parte degli Stati Sovrani, nessuno escluso, ha aumentato l’indebitamento mondiale a livelli mai visti prima e ben peggiori dei tempi della crisi di Lehman.

E’ palese come questa enorme massa di debito non sia garantito da alcunchè, non sia riducibile a livelli accettabili se non in molte decadi a venire, e se null’altro accade, il che è molto improbabile come vedremo a seguire.

Di fatto oggi siamo immersi in un gigantesco schema di Ponzi, dove è essenziale che non venga meno la fiducia dei finanziatori del debito (cioè tutti noi, in una forma o un’altra), cosa che invece avrebbe molti razionali per accadere.

Guarda caso, nessun economista di livello mondiale osa oggi esporsi, e in generale il mantra ‘state sereni, aumenteremo la crescita e il debito si ridurrà’ è l’unico possibile per i Governi di tutto il mondo.

Concludo formulando una previsione: l’unico modo per stabilizzare il debito e di drenare risorse private, che sono di ammontare notevole e capiente per lo scopo di ridurre il debito, tramite le uniche due leve possibili: a) accelerare la crescita con investimenti ad alta produttività e b) lasciare che l’inflazione resti alta, perché questo consente la svalutazione del debito.

Ovviamente tutto cio’ impoverirà tutti noi e aumenterà le differenze sociali, i ricchi saranno (forse) un po’ meno ricchi, ma la fascia dei poveri arriverà, in un ventennio, a occupare la cosiddetta classe media.

Possiamo salvarci in qualche modo da questo scenario? Molto difficile, e la migliore chance passa per l’utilizzo di una forma di energia universale, sostenibile, e che costi poco così da tenere bassa l’inflazione. Occorre pensare che soltanto la fusione nucleare posso realmente servire allo scopo.

 

Fisica dell’infinitamente grande e infinitamente piccolo

 

Riprendo, per il lettore non esperto in materia, quanto scritto oltre un decennio fa:

 ‘ Da molti decenni ormai le nostre conoscenze ci permettono di descrivere il mondo, ma considerando quasi come realtà distinte i fenomeni del “molto grande”, da qualche milionesimo di millimetro fino alle distanze intergalattiche, dove l’unica legge utile è in pratica ancora la gravitazione nella sua descrizione relativistica di Einstein, e i fenomeni del “molto piccolo” , fino alle dimensioni dei subcomponenti del nucleo atomico, e cioè i quark, dove l’unica teoria in grado di spiegare perfettamente tutti i fenomeni del nostro mondo è l’elettromagnetismo nella sua descrizione quantistica (“elettrodinamica quantistica”) che fu formalizzata agli inizi del secolo scorso dalla Scuola di Copenhaghen, e trova in Bohr, Dirac e Eisenberg i principali esponenti.

Se a questo aggiungiamo la piu’ recente teoria che permette di predire i fenomeni all’interno del nucleo atomico, relativi ai quark, detta “cromodinamica quantistica”, consolidatasi negli anni 80, abbiamo concluso con tutto cio’ che ci serve per descrivere l’Universo dai quark alle galassie piu’ grandi.

 Per qualunque fine pratico è tutto, siamo quindi ancora arrivati ad un limite. Al fine della nostre sete di conoscenza dell’Universo, invece, è ancora nulla.

 Infatti la teoria della gravitazione relativistica e le teorie quantistiche non si parlano minimamente tra loro, anzi sembrano descrivere due Universi totalmente diversi, deterministico il primo, dove ogni cosa puo’ essere calcolata, probabilistico il secondo, dove l’unica cosa reale non sono gli oggetti fisici, ma i quadrati delle loro probabilità di esistere.

 Superfluo dire che da quasi un secolo il Sacro Graal della fisica è trovare l’unica teoria che le unifichi, che è stata chiamata in tutti i modi, da “teoria quantistica a loop”, a “teoria del tutto”, “teoria M”, e così via.

Peccato che non ci sia ancora riuscito nessuno e che i nomi che ho prima citato appartengano tutti a fisici defunti, mentre dei contemporanei gli unici giganti della mente sono stati Feynman, Wheeler e Hawking, che hanno tutti fornito formidabili contributi, l’ultimo in particolare con la sua teoria sui buchi neri, ma nessuno che abbia radicalmente cambiato la nostra concezione dell’Universo, come fecero Einstein e Eisenberg.

 Eppure è stato provato di tutto, e fino a pochi anni fa si era anche pensato di avere un ottimo candidato per la teoria del tutto, mentre oggi ci rendiamo conto che le cose sono piu’ complicate di quanto pensiamo.

Per una ventina d’anni e piu’ i fisici hanno lavorato su una serie di teorie dette “delle stringhe”, con varianti di tutti i generi, quali le superstringhe, la supersimmetria, e cosi’ via, ma basate sull’idea chiave che l’unità fondamentale dell’Universo non è il quark (ovviamente, ma vediamo dopo perché) ma infinitesime particelle appena piu’ grandi delle dimensioni “di Planck”, 10 -33 cm., la distanza piu’ piccola di cui abbia senso parlare.

Tali particelle sono simili a sottilissime corde, quindi sono bidimensionali, e hanno la caratteristica di vibrare; per ogni “suono” che producono esprimono un diverso tipo di particella, quark, elettrone, eccetera.

Per essere consistente, la teoria delle stringhe ci dice che tali corde generano una realtà a undici dimensioni, di cui sono visibili le tre a noi note, oltre al tempo, mentre le altre sono “arrotolate” a dimensioni talmente minuscole da essere irrintracciabili, con i mezzi a nostra disposizione.

Perché una teoria così fuori dal senso comune ha attratto così tanto i fisici?

Perché è bella.

Qualora non lo sapeste, i fisici delle particelle sono sostanzialmente degli esteti, e si orientano tra le migliaia di teorie possibili a seconda di come queste risolvono i loro problemi in modo veloce, matematicamente elegante, ed “economico” (cioè richiedendo il minor numero di ipotesi possibile) – e queste sono le caratteristiche della bellezza nel mondo, come quelle, ad esempio, di un predatore, che insegue e uccide la preda in modo veloce, elegante ed economico.

 Il bello delle stringhe è che se si usano per calcolare alcuni parametri utili, come ad esempio l’entropia del buco nero (non mi addentro nei dettagli…), forniscono in pochi passaggi la risposta esatta, nota e verificabile per altra via.

E’ come incontrare qualcuno per strada che non conosci ma che dice di essere un mago, chiedergli qual è il numero di telefono di una tua lontana zia, e sentirglielo dire perfettamente; come non credere che sia davvero un mago?

 Eppure non è la teoria giusta, dopo decenni di ricerca sono ormai note tali incongruenze che buona parte dei fisici sta a malincuore abbandonando l’idea.

Sicuramente qualche frammento di teoria sarà corretto, ma andrebbe incorporato in una piu’ vasta teoria del tutto, di cui abbiamo alcuni pezzi , quali la relatività e la quantistica, ma vaghiamo nelle nebbie di questo puzzle cosmico per trovare i pezzi mancanti del mosaico.

 Li troveremo mai? Personalmente ho seri dubbi, per due motivi.

 Il primo è che i progressi della fisica nel secolo scorso sono andati di pari passo con lo sviluppo dei grandi acceleratori di particelle, perché questi , riproducendo all’interno le collisioni dei tempi del Big Bang, hanno consentito di rivelare nuove particelle che indicavano quale teoria tenere buona e quale scartare.

La fisica non puo’ prescindere dalla conferma sperimentale delle proprie ipotesi, e visti i limiti a cui ci siamo spinti occorrerebbero acceleratori lunghi quanto il sistema solare!

L’ultima grande scoperta sperimentale avverrà nel corso del 2010 (scommetto contro chiunque) e consisterà nella scoperta, nell’acceleratore del CERN di Ginevra, dell’ultima delle particelle “scopribili”, peraltro molto importante, ipotizzata sotto il nome di “bosone di Higgs”, la cui esistenza permette di conferire agli oggetti la proprietà chiamata “massa”; senza questo bosone, avremmo un Universo privo di massa, ben diverso da quello che conosciamo.

Questa scoperta, che frutterà il Nobel a qualcuno, come la scoperta della particella W lo frutto’ a Rubbia, non cambierà pero’ la nostra visione dell’Universo, ma confermerà soltanto che quel “pezzetto” di teoria del tutto, noto sotto il nome di “teoria standard delle particelle”, è corretto nel suo ambito di applicazione.

Per la particella successiva, l’energia necessaria richiederebbe acceleratori lunghi, come ho detto, quanto il sistema solare.

 Il secondo motivo è che  lo spazio si estende da lunghezza infinitesime a scala di Planck (10-33 cm) sino a miliardi di anni luce, e via via che abbiamo esplorato sono emerse sempre nuove strutture: dalle molecole (millesimo di millimetro, o 10-4 cm) agli atomi (miliardesimo di millimetro o 10-12 cm), ai protoni (millesimo di miliardesimo di millimetro, o 10-15 cm), ai quark (miliardesimo di miliardesimo di millimetro, o 10-18 cm).

Ora, da 10 -20 cm, dove piu’ o meno vediamo oggi con l’acceleratore piu’ potente,  alla lunghezza di Planck, vi sono ancora oltre 13 ordini di grandezza (si scende fino al millesimo di miliardesimo di miliardesimo di miliardesimo di millimetro!), che potrebbero contenere quindi almeno tre o quattro tipi di strutture diverse, e già di parla di sottocomponenti di quark, quali tipi di corde, grandi cento volte meno dei quark stessi.

Visto che mai gli acceleratori potranno portarci su questi livelli inesplorati, e che alla lunghezza di Planck lo spazio tempo quantistico sembra dissolversi in una spuma dove lo stesso rapporto causa-effetto perde senso, come potranno mai i fisici orientarsi nella selezione di una teoria invece che un’altra?

 

La liminalità nella fisica è quindi profonda: una teoria del tutto cercata per decenni da migliaia di menti brillanti come quella di Einstein e non ancora trovata, la mancanza di riscontri sperimentali, almeno sul pianeta Terra, possibili soluzioni da cercare in ambienti logici distanti anni luce dal comune buon senso, in realtà a dimensioni multiple e dove non sono reali gli oggetti ma “soltanto” le loro probabilità di esistere, ed infine una realtà che si sviluppa su una scala di lunghezza in cui la prima metà della scala è probabilmente inesplorabile.

 __________________


Cosi’ concludevamo oltre un decennio fa, ed occorre notare che entrambe le predizioni sono risultate vere:


1. Abbiamo scoperto finalmente il Bosone di Higgs, e chiarito molto bene il meccanismo per cui ogni particella di questo Universo è dotata di massa (tranne il fotone, che ha massa zero).

2. Non abbiamo fatto molti progressi nell’Unificazione di relatività e teoria dei quanti, per cui la “Teoria del Tutto” è ancora lontana. Inoltre si sono aggiunti nuovi misteri sulla via: sembra che buona parte della materia dell’Universo sia costituita dalla cosiddetta materia oscura, che sfugge quasi completamente ad ogni interazione con noi, ma contribuisce alla gravità delle galassie. Ogni teoria che la spieghi non ha finora avuto riscontro, e a fine 2021 gli esperimenti giapponesi non hanno confermato l’esito di quelli italiani, che sembravano aver trovato una particella “WIMP” che, se esistente, spiegherebbe molto della materia oscura.

 

      Infine, le misurazioni sull’ accelerazione verso l’esterno di stelle e galassie sembra rivelarsi enormemente accelerata, cosa che sarebbe possibile soltanto se esistesse qualche forma di “”energia oscura” che agisce in direzione opposta alla gravità, e allontana tutto da tutti con una velocità che la gravità non puo’ neanche lontanamente contrastare.

     A questo punto occorre una Teoria del Tutto che non solo unifichi meccanica quantistica (infinitamente picccolo) e gravità (infinitamente grande) ma che preveda anche l’esistenza di materia oscura ed energia oscura, di qualunque cosa si tratti.

     Gli anni ’20 di questo secolo partono con la comunità dei fisici piu’ disorientata di quanto voglia ammettere, e piu’ lontana che mai da risposte definitive.

         Pessimismo confermato quindi? Si, ma…c’è un ma!

     Con la scoperta delle onde gravitazionali, della materia ed energia oscura, degli strani comportamenti del neutrino, è anche vero che molti nuovi elementi sono apparsi che potrebbero, ad una mente geniale, sia essa umana o artificiale, apparire in una schema nuovo e sorprendente, avviandoci verso la comprensione del Tutto. Attendiamo fiduciosi.

 

     Oltre il limite: le possibili grandi discontinuità


    Rispetto a quanto abbiamo valutato oltre un decennio fa, un elemento piu’ di altri sembra prevalere, per gravità e per assenza di azioni volte a contenerlo: il cambiamento climatico globale.

Questo sembra essere il secolo entro il quale, se non modifichiamo i comportamenti, andremo incontro a catastrofi mai viste, con vaste zone di terra sommerse dalle acque, grandi tornado tropicali nelle zone temperate, profonda desertificazione e scarsità di acqua dolce.

Dicevamo illo tempore:

‘Anche il fattore ambientale richiederebbe una gestione illuminata, ma, per gli stessi motivi di cui soffre la gestione planetaria dell’economia, questa non sembra praticabile: riconciliare gli interessi di Cina, India, Stati Uniti ed Europa, in un contesto di “democrazie con mandati a breve termine” e di formidabile pressione delle lobby sui profitti a breve termine non è reale.’

Purtroppo avevamo indovinato in pieno, e abbiamo perso altri due decenni, l’obiettivo di un contenimento entro anche soltanto i 2 gradi centigradi appare utopistico.

 Piaccia o meno, ricordiamo gli scenari a suo tempo identificati:

 ‘Gli scenari oltre limite , o “ultraliminali”, si possono classificare in tre grandi classi:

 

Scenario “as is”, dove non interviene alcuna dirompente discontinuità, né tecnologica né geopolitica e gli Stati continuano a gestire con l’attuale, insufficiente, livello di dialogo; in questo scenario la nostra Civiltà, come la conosciamo, cesserà rapidamente di esistere, prima per il crollo del sistema finanziario globale, seguito da una rottura della struttura della globalizzazione e ritorno a economie di sussistenza su scala locale; se a quel tempo il deterioramento ambientale non sarà ancora irreversibile, dopo un lungo nuovo Medioevo si potrebbe avere una illuminata ripresa, guidata da gruppi o realtà su scala locale che siano in grado di conservare il “core know how” di Homo e prendere la leadership in una seconda fase, su una scala dei tempi nell’ordine dei Secoli.

Se invece interviene il deterioramento ambientale, piu’ probabilmente a causa del tentativo di Cina e India di continuare lo sviluppo industriale anche in una situazione di crisi finanziaria globale, allora le probabilità di sopravvivenza saranno molto basse, e andremo verso un mondo simile a quello delle visioni di F Dick, poi sceneggiate nel celebre ‘Blade Runner’, con l’aggravante che nessuno aiuto potrà essere trovato nell’esplorazione di altri Mondi, dato che la tecnologia non è lontanamente pronta ad affrontare questa sfida.

 

Scenario “breakthrough”, dove lo sviluppo tecnologico ci viene in soccorso. Esistono molte linee di ricerca, alcuni attive ormai da decenni, che hanno dato molti meno frutti di quanto si sperasse. Sarebbe sufficiente che alcune di queste raggiungano un dirompente successo, o “breakthrough”, per consentire uno sviluppo sostenibile anche conservando l’attuale struttura geopolitica; ne cito alcuni, ad esempio, ed accanto un tempo di possibile risposta secondo le vedute odierne:

- fusione nucleare su scala industriale            30-40 anni

- batterie per auto elettriche competitive e di lunga durata con sostituzione delle attuali infrastrutture di distribuzione basate sull’uso di idrocarburi                       10-20 anni

- nanotecnologie per produzione di energia e materiali “intelligenti”                        20-30 anni

- nano e biotecnologie per esplorazione spaziale di tipo cyborg                   40-50 anni

- tecnologie di microgenerazione competitive (es. vernici fotovoltaiche) 10-20 anni

 

    In questo scenario, dove i breakthrough avvengono prima dei tempi indicati, e comunque prima di intervenienti distruttivi, si riesce a riparare il danno ambientale globale e ridurre il costo dell’energia, che consente di mitigare le instabilità finanziarie; questo innescherebbe un ‘circolo virtuoso’ liberando risorse preziose e tempo per ulteriori avanzamenti tecnologici e ambientali.

    Un nuovo Rinascimento di Homo.

 

    Scenario “wargames”, dove non intervengono grandi progressi tecnologici in tempo utile prima di intervenienti distruttivi ma, a differenza del primo scenario, viene utilizzato il potenziale bellico e politico per incentivare il rallentamento dello sviluppo di Cina e India e viene mantenuto un basso livello di sviluppo globale.


    In questo scenario è oltremodo difficile vedere “oltre il limite”, in quanto occorrerebbe valutare eventuali escalation belliche a seguire dopo il primo conflitto, che , con molte probabilità, sarebbe di tipo nucleare-locale tra India e Pakistan, indotto da agenti esterni a questi Paesi.


    In teoria, se l’escalation non producesse danni globali ambientali irreversibili, il rallentamento della crescita globale , e quindi il tempo a nostra disposizione, ne sarebbe accresciuto, aumentando le probabilità di accadimento di uno scenario di tipo “breakthrough”.

        

        Una scommessa rischiosa.

  

___________________

 

Oggi, purtroppo,  il tre scenari sono più che mai validi, e tralasciando il terzo, che rappresenta di fatto il puro caos, dobbiamo sperare che si verifichi il secondo, e che una importante nuova serie di  scoperte ci porti in territorio sicuro: avevamo correttamente previsto l’esplosione della tecnologia delle auto elettriche e di tecnologie avanzate per lo sfruttamento dell’energia solare.

Ma non basta, la scommessa piu’ grande, che davamo a 30-40 anni dall’ inizio del secolo, è quella della fusione nucleare, che, secondo alcune dichiarazioni, potrebbe apparire a scala commerciale tra il 2040 ed il 2050. Anche questa ha i suoi detrattori, con alcuni motivi validi, ma ad oggi sarebbe l’unica tecnologia per la ripoduzione di grandissime potenze e politicamente sviluppabile da tutti i principali Paesi del mondo.

Questa dovrà essere accompagnata dallo sviluppo di tecnologie che consentano ancora di viaggiare sui velivoli, di disporre di detergenti in misura sufficiente, e altre componenti essenziali della nostra vita che oggi si producono quasi esclusivamente a partire da fonti fossili.

Questo è cio’ che noi uttti possiamo e dobbiamo fare, sperando che basti, perché le “bombe” successive saranno la crescita demografica, non accettabile, e il problema dell’agricoltura e degli allevamenti, che da sola produce oltre il 50% della CO2 del pianeta.

 In conclusione, le sfide che ci si presentavano a inizio millennio sembrano piu’ presenti e forti che mai, e alcune questioni estremamente delicate come la sovra popolazione andranno prima o poi afforntate, con buona pace del politically correct.

 Abbiamo sempre di più bisogno di mettere i cervelli migliori di cui disponiamo in condizioni di operare con le massime risorse e il massimo livello di creatività possibili, per la ricerca di soluzioni fuori dall’ordinario.

 In fondo, siamo giunti ad un antico leit-motiv: le forze si moltiplicano in presenza di una seria minaccia alla sopravvivenza.         

Per un Nuovo Rinascimento, che forse deve passare da una Nuova Rivoluzione.



_____________________

(*) Ingegnere elettrotecnico. Dirigente d'azienda. Socio PRUA

https://www.associazioneprua.it/socio-sergio-corso/


 

2 commenti:

  1. Un portolano aggiornato con competenza professionale e precisione scientifica per affrontare le nuove rotte dove non mancano secche e scogli, alla ricerca di nuovi approdi. Grazie Sergio !

    RispondiElimina
  2. Ad assistere allo scenario breakthrough saranno forse i nostri figli e, meglio, i nostri nipoti; intanto non sarebbe male a prepararsi ad un futuro da Waterworld o da Mad Max. Io esco poco la sera, compreso quando è festa, e ho già messo dei sacchi di sabbia vicino alla finestra...
    La Storia può essere prevista: dovremmo cominciare a imparare a memoria la Bibbia. Ci servirà quando tutti i libri saranno bruciati per mancanza di petrolio o per ordine di un folle. Speriamo arrivi Sheldon Cooper e ci salvi.
    Dimenticavo: al cospetto di tante questioni, Madoff con il suo schema Ponzi è un dilettante. I veri professionisti, oggi, si chiamano Draghi, Lagarde, Powell. O sbaglio?
    Comunque, Sergio, si vede lontano un miglio che sei ingegnere [ed è un complimento].

    RispondiElimina