Capitolo Terzo

“Scienza e tecnologia dal 1581 ai nostri giorni”

 

“È verso la fine del 1500 che entrava in scena con le sue scoperte il più importante protagonista della rivoluzione scientifica: Galileo Galilei. La sua storia si può dire che incominci una domenica in chiesa  ascoltando la messa. Era la cattedrale di Pisa e Galilei aveva appena 17 anni. Le distrazioni erano facili. Ma ad attirare la sua attenzione era un lampadario che oscillava spinto dalle correnti d’aria. Egli osservava il movimento a pendolo del lampadario e misurandolo contando i battiti del polso scopriva che il tempo impiegato nel percorrere archi grandi o piccoli era uguale. Tornato a casa e costruiti due pendoli uguali che faceva oscillare con ampiezze diverse verificava la scoperta rendendosi conto che aveva ragione. Era il 1581 e otto anni dopo compiva un altro importante esperimento per valutare questa volta la velocità di caduta dei corpi. Adottando un piano inclinato lungo il quale faceva scivolare delle palle riusciva a stabilire che esse conquistavano velocità con un’accelerazione costante e se erano abbastanza pesanti da non essere disturbate dalla resistenza dell’aria, viaggiavano alla stessa velocità.

Con questi esperimenti (i quali tra l’altro eliminavano la presenza degli angeli inventati dagli antichi per mantenere sempre in movimento i pianeti, perché secondo Aristotele i corpi per muoversi avevano bisogno di una spinta costante) Galileo fondava la scienza sperimentale.”[1]

Dopo l’invenzione del telescopio da parte dell’olandese Lipperschey, agli inizi del Seicento, Galilei utilizzo il nuovo strumento tecnologico in modo efficace e già nel marzo del 1610 poté annunciare delle scoperte clamorose, almeno per quei tempi. In un libricino intitolato Sidereus Nuncius egli descrisse “la Luna come ricca di valli e monti simili alla Terra e provò l’esistenza di quattro lune attorno al pianeta Giove, che Galileo denominò in onore ai suoi protettori Medicea Sidera, scoperte che confermavano la validità del sistema copernicano. Tuttavia “è la Via Lattea che gli rivela il campo di stelle più meravigliose. Glie ne appaiono non più a dozzine ma a migliaia. Gli uomini si interrogano da millenni su questa fascia debolmente luminosa che attraversa il cielo. Basta un’occhiata nel suo cannocchiale per risolvere il mistero: sono stelle, migliaia e migliaia di stelle raggruppate fra loro. Egli stesso lo descrive in questo modo: “Quel che fu da noi in terzo luogo osservato, è l’essenza, ossia la materia, della stessa Via Lattea […]. È infatti la Galassia nient’altro che una congerie di innumerevoli stelle, disseminate a mucchi.”[2]

Si avviò a quel punto  una sorta di cooperazione internazionale tra geni, nella fattispecie tra Galilei ed il grande astronomo Johannes Kepler (Keplero).

“I dubbi degli scettici sulle scoperte di Galileo erano fugati  da un altro grande contemporaneo: Johannes Kepler, Giovanni Keplero. Lo scienziato pisano aveva mandato una copia del Sidereus nuncius anche a Keplero che era succeduto alla cattedra di Tycho Brahe di cui era stato assistente negli ultimi anni. Egli rispondeva con una lettera aperta pubblicata a Praga nella quale aderiva entusiasticamente alle recenti scoperte e un anno dopo, effettuate una serie di osservazioni, pubblicava i risultati a Francoforte confermando definitivamente quanto aveva prima affermato. Con l’appoggio del mathematicus imperiale anche gli ultimi critici cambiarono atteggiamento e poco dopo l’astronomo tedesco Simon Mayr pubblicava anche le tavole con i calcoli dei satelliti medicei che battezzava con i nomi tuttora in uso: Io, Europa, Ganimede e Callisto.

Galileo, continuando le sue osservazioni, scoprirà anche la presenza degli anelli di Saturno ma non distinguendoli come tali e rivelerà le macchie solari. Il contributo scientifico più importante del genio pisano era tuttavia considerato lo studio del moto da cui nasceva la meccanica moderna. Oltre all’esame della caduta dei gravi, si aggiungeva la composizione dei moti e il principio di relatività che sarà battezzato “relatività galileiana”, dalla quale Einstein prenderà le mosse per lo sviluppo della “sua” relatività.

Ma oltre alla scoperta e all’adozione del “metodo sperimentale galileiano” che nasceva dall’unione del ragionamento matematico con l’osservazione aiutata dagli strumenti, si aggiungeva poi l’opera di diffusione della razionalità scientifica. Da questo discendeva la scelta di scrivere non con il latino dei dotti, ma in volgare e con uno stile che non fosse riservato solo agli specialisti ma potesse essere affrontato dal maggior numero possibile di persone. Con questa logica nasceva il Dialogo di Galileo Galilei Linceo, dove ne i congressi di quattro giornate si discorre sopra i due massimi sistemi del mondo, tolemaico e copernicano pubblicato nel 1632 inizialmente con l’imprimatur delle autorità ecclesiastiche ma poi causa di condanna da parte del Sant’Uffizio.”[3]

Durante il Diciassettesimo secolo, l’azione innovativa in campo astronomico di Galileo e Keplero (le orbite ellittiche e le tre leggi di Keplero) venne continuata e sviluppata da G. D. Cassini (studio della superficie di Giove e calcolo delle orbite dei satelliti medicei) e da C. Huggens (costruzione di un telescopio più raffinato e scoperta di Titano, il più grande satellite di Saturno); in campo matematico R. Descartes inventava il metodo delle coordinate cartesiane, P. Fermat la teoria del numero, B. Pascal la teoria delle probabilità, Newton e Leibniz il calcolo infinitesimale, E. Torricelli costruiva il primo barometro scoprendo parallelamente la pressione atmosferica, B. Pascal la prima macchina meccanica; W. Harvey accertava la circolazione del sangue, M. Malpighi i capillari, J. Swammerdan i globuli rossi, A. Kircher i batteri nel latte e R. Hooke la cellula (grazie al nuovo strumento del microscopio); R. Boyle scopriva a sua volta sia la comprimibilità dell’aria che la legge della proporzionalità inversa tra pressione e volume del gas.

E sempre nel Diciottesimo secolo I. Newton pubblicò i suoi “Principia mathematica” (1687) nei quali si esponeva la celeberrima legge di gravitazione universale, utilizzando in parte teorie esposte da R. Hooke in precedenza.

“Tra gli elementi più importanti del libro ci sono quelle dei pianeti????    Nel quale oggi vengono chiamate ???? le tre leggi di Newton.

Queste tre leggi della natura riguardano il movimento e gli oggetti. Newton non aveva fatto tanti esperimenti quanti ne aveva fatti Galileo, ma aveva letto i suoi libri con molta attenzione. E tutto ciò che aveva letto gli aveva dato la convinzione che quelle leggi dovevano essere giuste. La prima legge di Newton dice che un oggetto immobile continuerà a restare immobile. Newton affermava che tutti gli oggetti sono dotati di inerzia, una specie di resistenza a qualsiasi mutamento. Per indurre un oggetto a muoversi, c’è bisogno di una forza. Pensa, per esempio, al disco da hockey sul ghiaccio, fermo in mezzo alla pista. Se vuoi che si muova, devi colpirlo con la mazza. È la forza impressa dalla mazza che lo fa muovere. La seconda legge di Newton spiega dettagliatamente come funzionano le forze. Dice infatti che quando un oggetto in movimento aumenta o diminuisce la sua velocità, tale aumento o diminuzione (cioè l’accelerazione o la decelerazione) sono proporzionali all’intensità della forza che viene applicata a esso. Se colpisci il disco da hockey con una forza doppia rispetto al solito, anche l’accelerazione sarà doppia. La legge dice inoltre che l’accelerazione di un corpo aumenta tanto più quanto maggiore è il tempo per cui gli si applica una forza. La seconda legge di Newton si scrive spesso come formula matematica, ed è una di quella più usata dai fisici. La terza legge di  Newton ci dice che a ogni forza corrisponde una forza contraria. Se premi la mano contro il muro, sentirai una spinta contro il palmo della tua mano. Sembra quasi che il muro ti restituisca la spinta. Questa è la forza contraria di cui parla Newton. Quando colpisci il disco da hockey con la mazza, è la forza impressa dalla mazza a far muovere il disco. Tuttavia, nello istante in cui la mazza colpisce, la mazza stessa riceve un contraccolpo. È la forza contraria trasmessa dal disco.”[4]

Grazie ed attraverso tali leggi, Newton riuscì a calcolare la forza con cui si attraggono la Terra e la Luna affermando che ciò valeva anche per gli altri corpi celesti: nasceva la legge di gravitazione universale, di fondamentale importanza per l’astronomia perché spiegava il meccanismo che regola l’Universo e dando pure concretezza alle leggi sul movimento dei pianeti annunciate da Keplero.

Si verificò, in ultima analisi, un grande salto di qualità complessivo e venne alla luce la prima rivoluzione scientifica nella storia del genere umano, abbandonando un vecchio “paradigma” di concezione della Natura ed introducendone invece un altro, come ha rilevato Kuhn, nel quale il “linguaggio quantitativo e matematico” assume un ruolo centrale.”[5]

Come si è in parte già notato nella prefazione, i suoi assi fondamentali furono soprattutto metodologico-universale, derivati principalmente dall’opera di Galilei (e di F. Bacon) ed imperniati su:

–            il rifiuto del principio di autorità, dell’infallibilità di grandi pensatori del passato quali Platone, Aristotele o Tolomeo;

–            la riduzione della natura d oggetto di ricerca, svincolandola totalmente da ipoteche di carattere metafisico;

–            la concezione della natura come ordine oggettivo e causalmente strutturato di relazioni governate da leggi universali;

–            la concezione della scienza come sapere sperimentale-matematico, avente lo scopo di ampliare progressivamente le conoscenze dell’uomo e di dominarle a vantaggio dell’uomo stesso con una precisa misurazione dei fenomeni naturali;

–            l’impiego del calcolo matematico per tale processo di misurazione.

Si  passò da un’immagine rinascimentale legata alla magia ed alla “elezione”, quale presupposto per l’accesso a tale sapere, per passare ad una visione moderna della scienza quale presupposto di conoscenza sistematica e trasmessa. Il passaggio dall’una all’altra immagine ha inevitabilmente avuto un lunghissimo corso, ma il punto rilevante di questo cambio di rotta è avvenuto grazie alla concezione di un sapere basato su metodi e risultati che siano trasmissibili e che non richieda alcun viaggio d’iniziazione e che possano essere soprattutto accessibili a tutti, attuando una sorta di “democratizzazione” della scienza.

Il salto di qualità scientifico ebbe origine da una basilare pre-condizione e da un presupposto di carattere economico-sociale, e cioè la parallela e simultanea affermazione egemonica in Gran Bretagna ed Olanda della borghesia manifatturiera e commerciale già nel corso del Seicento: prova al contrario di tale tesi è che dove mancò e fu assente tale processo di acquisizione del dominio politico e socioproduttivo da parte della nuova classe sfruttatrice, come avvenne nell’Italia in via di decadenza a partire dalla fine del Cinquecento, anche una scuola iperprestigiosa come quella toscana (Galilei, Torricelli, ecc.) dovette subire un rapido tracollo.

Ma paradossalmente l’epocale rivoluzione scientifica,  sul piano dei suoi risultati immediati, creò un lungo periodo di separazione della scienza rispetto al progresso tecnologico, che non esisteva nella protoscienza paleolitica e neolitica-calcolitica e che venne colmato progressivamente solo all’inizio dell’Ottocento: la scienza del 1550/1780 ovviamente utilizzò con efficacia alcuni fondamentali ed indispensabili risultati tecnologici di quel periodo, a partire dal telescopio e dal cannocchiale, ma per un lungo e plurisecolare periodo essa non restituì il favore al suo “cugino” direttamente ed in relazione allo sviluppo delle forze produttive sociali. Sotto questo aspetto è diventato un luogo comune, pieno di verità, l’affermazione che la scienza termodinamica “dare alla macchina a vapore molto più di quanto la macchina a vapore dovette ma alla termodinamica.”[6]

Invece il contributo principale della prima rivoluzione scientifica sotto questo profilo risultò di carattere metodologico, spazzando via sia il vecchio principio di autorità che il paradigma aristotelico-tolemaico e creandone parallelamente uno nuovo, originale e produttivo: un metodo oggettivo e di valore universale, applicabile ed utilizzabile da tutte le diverse classi sociali e da tutte le variegate formazioni economico-sociali, classiste o collettiviste, come del resto le leggi oggettive ed universali scoperte via via con tale decisivo strumento di analisi.

Il valore centrale dell’esperienza, dell’esperimento galileiano e del calcolo matematico che lo sorregge formarono in sostanza un criterio generale di operatività e praxis che tracimò e si diffuse quasi subito dal campo scientifico a quello tecnologico, aiutando quest’ultimo a compiere tutta una serie di progressi qualitativi che, tra il 1650 ed il 1760, culminarono in seguito nel salto qualitativo della Rivoluzione industriale.

Il “metodo matematico” ed il “metodo dell’esperimento” pertanto aiutarono sensibilmente la creazione di nuovi strumenti di produzione, seppur nel lungo periodo e partendo proprio dal (decisivo e fondamentale) processo di produzione della macchina a vapore, via via stimolato da Della Porta, de Caus Lapin, Newcomen per arrivare infine al salto di qualità decisivo compiuto da James Watt.

In campo tecnologico a partire dall’inizio del Seicento e fino al 1762 si accumularono tutta una serie di progressi quantitativi di notevole valore. Le macchine a vapore di Emne vennero riscoperte grazie alla pubblicazione a fine Cinquecento dei libri elaborati dal geniale inventore alessandrino, oltre che all’opera del napoletano Giovanni Battista Porta: egli nel 1606 riuscì ad estrarre la potenza del vapore con un apparecchio molto semplice, che faceva uscire dell’acqua dal suo contenitore con la sola pressione del vapore, e proprio con questo sistema gli “ingegneri di Cosimo de Medici, Granduca di Toscana, riuscirono a pompare dell’acqua da una miniera posta a 50 piedi sotto terra.

Dopo che l’ingegnere francese S. de Caus effettuò nel 1615 esperimenti analoghi, ulteriori applicazioni del vapore si possono far risalire agli esperimenti di Denis Papin ed alla sua pentola pressione del 1679, da cui partì per concepire idee su come sviluppare l’utilizzo del vapore le successive applicazioni si sono avute all’inizio del XVIII secolo, soprattutto per il pompaggio dell’acqua dalle miniere, con il sistema ideato nel 1698 da Thomas Savery utilizzando il vuoto creato dalla condensazione del vapore immesso in un recipiente (che permetteva di sollevare acqua fino a circa 10 m di altezza), e in seguito, grazie all’invenzione del sistema cilindro-pistone (probabilmente dovuta a Denis Papin), convertendo in movimento meccanico in grado di generare lavoro, l’energia del vapore. Il primo esempio di applicazione industriale di questo concetto è la macchina di Newcomen, del 1705, che era però grande, poco potente e costosa, quindi anch’essa veniva in genere usata  per l’estrazione di acqua dalle miniere, come nella Toscana degli inizi del Seicento.

In ogni caso si trattò di scoperte tecnologiche significative, che aprirono la strada alla geniale innovazione successiva di James Watt.

Nello stesso periodo la creazione del telescopio e del microscopio, le invenzioni del pendolo e del barometro, della macchina calcolatrice di Pascal e del termometro ad alcool/mercurio (G. D. Fahrenheit, 1711) e della “bottiglia di leida” capace di condensare elettricità (P. Musschenbroek, 1746) e del parafulmine (B. Franklin, 1751) costruirono degli ulteriori pezzi del nuovo “mosaico” tecnologico che si stava lentamente accumulando nell’Europa (America settentrionale) del diciassettesimo e diciottesimo secolo.[7]

E nel 1763/65, dopo più di cinque millenni dalla splendida civiltà Ubaid, finalmente iniziò a svilupparsi la quarta grande rivoluzione tecnologica dell’umanità, comunemente denominata come prima fase della Rivoluzione Industriale, e che diventò allo stesso tempo la terza rivoluzione energetica della nostra specie.

Con il termine di (prima) rivoluzione industriale si intende il processo di sviluppo economico-tecnologico che, da un sistema principalmente agricolo artigianale e solo in parte basato sulle manifatture, portò alla formazione di una struttura socioproduttiva contraddistinta dall’utilizzo generalizzato di macchine utensili azionate da energia meccanica a vapore, oltre che dall’egemonia sociopolitica della borghesia industriale; il suo arco temporale viene di regola compreso tra  il 1760 ed il ???1830???, mentre il suo luogo privilegiato di genesi/sviluppo è stata la Gran Bretagna.

In una lettera ad Engels datata 28 gennaio 1863, Marx spiegò correttamente che “la macchina operatrice (ad esempio, la macchina da cucire) è la sola decisiva” per comprendere il salto di qualità tecnologico allora raggiunto, ma è altresì vero che fu proprio la combinazione tra macchina – nel senso marxiano del termine – ed utilizzò generalizzato del vapore che rappresentò il fulcro del nuovo e gigantesco balzo in avanti delle forze produttive sociali.[8]

Si ruppe infatti il “vincolo energetico” alla dinamica di quest’ultima, che gravava da quasi sei millenni sulle spalle dell’umanità. In questa fase plurimillenaria, infatti, il genere umano si trovò a disporre soltanto dell’energia meccanica offerta dal lavoro di uomini e animali, e questo non dava la possibilità di incrementare la produzione essendo essa legata al lavoro manuale. La progressiva introduzione, a partire dal Medioevo, del mulino ad acqua e del mulino a vento rappresentò la prima innovazione di rilievo: ma l’energia abbondante offerta dalla macchina a vapore venne applicata alle lavorazioni tessili, rendendo possibile una più efficiente organizzazione della produzione grazie alla divisione del lavoro e allo spostamento delle lavorazioni all’interno di fabbriche appositamente costruite, nonché alle estrazioni minerarie e ai trasporti. Le attività  minerarie beneficiarono della forza delle macchine a vapore nella fase di estrazione dell’acqua dalle miniere, permettendo di scavare a maggiore profondità, come anche nel trasporto del minerale estratto: i primi vagoni su rotaia a loro volta servivano a portar fuori dalle miniere il minerale, poi a portarlo a destinazione.

La macchina a vapore non nacque certo in Inghilterra nel 1763/65 e si giovò del “lavoro universale” via via prodotto da Erone, G. B. Porta, Papin e Newcomen in precedenza, ma il suo decisivo salto di produttività e di potenzialità tecnologica risulta sicuramente dovuta dallo scozzese James Watt.

Egli fu nominato nel 1767 “fabbricante di strumenti di precisione” all’università di Glasgow e, nel fatidico 1763 fu incaricato di riparare un modello ridotto della macchina a vapore di Newcomen, che non funzionava se non per periodi ristretti.

Dopo un attento e prolungato studio, fatto di “esperimenti e misurazioni” di galileiana memoria, Watt comprese infine che il modellino non solo era troppo piccolo, ma consumava anche più vapore di quello che la caldaia produceva. Watt si rese anche conto che l’enorme consumo era dovuto al continuo raffreddamento del cilindro, ed egli scrisse “mi venne in mente che, se si apriva una comunicazione tra il cilindro contenente vapore e un recipiente dal quale l’aria e altri fluidi fossero stati tolti, allora il vapore, quale fluido elastico, sarebbe penetrato immediatamente nel recipiente vuoto fino a quando non si fosse raggiunto l’equilibrio. Se il recipiente fosse stato tenuto molto freddo con un’iniezione o altro vapore si sarebbe condensato”.

Watt pertanto costruì un primo modellino rudimentale e decise di far entrare il vapore sopra il pistone, chiudendo il cilindro con un coperchio dotato di premistoppa per il passaggio della biella: il vapore aiutava così la pressione atmosferica a spingere il pistone in basso. Nel 1769 Watt chiese e ottenne il brevetto per “un nuovo metodo per diminuire il consumo di vapore e combustibile nelle macchine a vapore”: iniziava la grande Rivoluzione Industriale.”[9]

Un altro segmento, almeno altrettanto importante, di innovazioni tecnologiche coinvolsero in quel periodo le macchine utensili, le industrie tessili e l’industria pesante (metallurgia e meccanica): quest’ultima divenne determinante nella metà del XIX secolo, in concomitanza con lo sviluppo delle ferrovie.

La produzione domestica di tessuti era particolarmente lenta nella fase della filatura, poiché occorrevano cinque filatori per alimentare un solo telaio a mano: lo squilibrio si accentuò intorno alla metà del XVIII secolo, quando i tempi della tessitura furono ulteriormente ridotti dalla diffusione della spoletta volante (brevettata nel 1733 da John Kay). Nella seconda metà del secolo, due importanti invenzioni modificarono ancor di più il panorama della tecnologia tessile: James Hargreaves inventò , nel 1765, la giannetta (o Spinning Jenny), mentre Richard Arkwright, nel 1767, il filatoio idraulico (o Water frame): la prima accelerava la filatura da 6 a 24 volte, il secondo addirittura di alcune centinaia di volte. Tutto ciò rese evidentemente obsoleti i telai a mano. Nel 1787 Edmund Cartwright inventò il telaio meccanico, che fu perfezionato e adottato nei decenni successivi: intorno al 1825, un solo operaio, sorvegliando due telai meccanici, poteva sbrigare un lavoro che con i telai a mano avrebbe richiesto l’opera di una quindicina di persone. Mentre in India per tessere a mano numero cento libbre di cotone occorrevano oltre 100 mila ore di lavoro, in Gran Bretagna con le nuove macchine erano sufficienti circa 135 ore,  il che aumentava anche la competitività. L’aumento della produzione di tessuti stimolò lo sviluppo dell’industria chimica, per rendere competitive le fasi di candeggiatura, tintura e stampa. Ben presto l’industria chimica divenne fondamentale per tutti i rami della produzione, sia industriale, sia agricola.

All’inizio del XVIII secolo, un progresso decisivo nel campo della siderurgia, ancora nella sua fase  pre-industriale, era stato conseguito da Abraham Darby, che per la lavorazione dei minerali ferrosi aveva iniziato ad usare, anziché il carbone di legna, il coke, ossia l’antracite distillata a secco per eliminarne le sostanze che avrebbero inquinato i processi di fusione. Senza tale innovazione, la siderurgia avrebbe presto incontrato “i limiti dello sviluppo”, perché l’uso tradizionale del carbone di legna avrebbe in breve tempo comportato la distruzione delle foreste. Poiché la combustione del coke negli altiforni doveva essere ravvivata da correnti d’aria assai più intense di quelle ottenibili dai vecchi mantici azionati dai mulini, fu necessario utilizzare a questo scopo proprio la macchina a vapore, che quindi trovò la sua prima applicazione in una fonderia. Tra il 1783 e il 1784 Henry Cort introdusse nella siderurgia la laminazione e il puddellaggio. Quest’ultimo consisteva nella purificazione dei minerali ferrosi mediante rimescolamento ad altissime temperature in presenza di sostanze ossidanti. La laminazione purificava ulteriormente il ferro e lo sagomava secondo le forme richieste, facendolo passare a forza attraverso i rulli di un laminatoio, che sostituiva il vecchio metodo di percussione sotto maglio e accorciava i tempi di ben 15 volte. Per ottenere barre, rotaie o travi bastava modificare la forma dei rulli.[10]

Oltre al decisivo collegamento creatosi tra macchine utensili e forza motrice del vapore, un altro settore importante della prima Rivoluzione Industriale venne costituito dal formidabile di salto di qualità ottenuto nei trasporti: dopo la domesticazione degli animali da trasporto (buoi, asini e cavalli in Eurasia, lama in America latina) e la creazione dei primi battelli/navi a vela, essi erano rimasti sul piano qualitativo in uno stato di semi-stagnazione tecnologica per alcuni millenni, ma tutto ciò cambiò con le scoperte di Trevithick/Stephenson e di Symington/Fulton.

George Stephenson (1781/1848) fu il secondo “padre delle ferrovie”. Dopo aver lavorato come ingegnere nel settore minerario ed aver acquisito un’esperienza raffinata sul funzionamento delle macchine a vapore, egli progettò la sua prima locomotiva a vapore nel 1814, anche utilizzando la precedente e notevole pratica tecnologica espressa a R. Trevithick fina dal 1800/1804.

La prima locomotiva di Stephenson era un motore semovente destinato al trasporto di carbone in una miniera inglese. Soprannominata Blucher, poteva rimorchiare 30 tonnellate di materiale in un solo carico, e fu la prima locomotiva con un sistema di adesione alle rotaie facilitato da ruote flangiate veramente funzionante: questo sistema serviva a non far perdere contatto alle ruote stesse sulle rotaie, e la trazione dipendeva proprio dal contatto stesso. Nei seguenti 5 anni, costruì altre 16 locomotive.

La sua locomotiva fu il primo esempio di questa tecnologia, e Stephenson è giustamente riconosciuto, fu un grande esempio di applicazione diligente e di desiderio di miglioramento o scartamento ferroviario da lui utilizzato, con la misura 1435 mm, in origine definito appunto “scartamento Stephenson”, divenne in seguito lo standard per la maggior parte delle ferrovie mondiali.

Avendo lavorato nelle miniere di carbone, era molto cosciente dell’alto numero di incidenti causati dai gas e così la sua ingegnosità trovava anche altri sbocchi; nel 1885 sviluppò un progetto, che rimase comunque controverso nell’attribuzione, di una lampada di sicurezza per minatori, chiamata Geordie lamp, dal nome del suo inventore appunto.

In seguito all’aumento della sua fama, Stephenson venne assunto per la progettazione di una linea ferroviaria di circa 13 km: nel risultato finale, la locomotiva veniva utilizzata come forza motrice nei tratti pianeggianti o in salita, mentre per i tratti in discesa si sfruttava l’inerzia. Fu un grande passo per la tecnica ferroviaria, in quanto fu il primo percorso in cui non venisse utilizzata in nessun modo la trazione animale.

Nel 1821 si cominciò a progettare la ferrovia tra Stockton e Darlington: il progetto originario era quello di utilizzare dei cavalli per trainare i carrelli contenenti il carbone poggiandoli/facendoli correre su binari in metallo, ma dopo un incontro con Stephenson, il direttore della compagnia Edward Pease decise di modificarlo. I lavori presero il via nel ’22 e nel settembre del 1825 Stephenson aveva completato la prima locomotiva per la nuova linea ferroviaria; inizialmente battezzata Active, il nome definitivo fu Locomotion. Il giorno dell’inaugurazione la locomotiva percorse, con Stephenson stesso alla guida, 15 km con un carico di 80 tonnellate di carbone e farina all’eccezionale velocità di 39 km/h. contrariamente a quanto potrebbe essere il pensiero comune, i primi treni venivano spinti, e non trainati, dalle locomotive, e la locomotion spingeva il primo servizio ferroviario che potremmo definire commerciale, di cui, cioè, fossero stati venduti i biglietti, anche se per posti in piedi su carri merci, con l’esclusione di alcuni notabili del tempo, che occupavano una primitiva carrozza passeggeri, l’Experiment.[11]

La locomotiva del 1825, migliorata sensibilmente da Stephenson già nel 1828 (quattro ruote accoppiato) rappresentò l’inizio dell’era delle ferrovie (e costruzioni di rete ferroviarie) a vapore, che si prolungò per quasi un secolo nello stesso mondo occidentale.

Nel campo dei trasporti navali, dopo i successi ottenuti dall’inglese William Syminton nel collegare il motore a vapore alla ruota a pale (1802), venne il turno dello statunitense “R. Fulton che, riuscendo a superare notevoli difficoltà d’ordine finanziario, costruì, il primo prototipo di sommergibile e soprattutto un funzionante battello a vapore “di nuovo tipo, dotato di motore Watt e Boulton, anch’esso costruito su sue indicazioni. La potenza era di 18 cavalli vapore e muoveva una ruota a pale di 457 metri di diametro. Prima lo battezzava “The Steamboat” e poi “Clermont” e con questo nome fece il suo viaggio inaugurale il 17 agosto 1808 sul fiume Hudson percorrendo le 150 miglia in 32 ore invece delle 170 fino ad allora impiegate con la navigazione a vela”.[12]

Nel campo dell’elettricità fu A. Volta: anche utilizzando l’esperienza di Galvani (la corrente che stimolava gli arti delle rane) e quella condensata nella “bottiglia di leida”, egli espose l’invenzione della pila elettrica in una sua memoria del 20 marzo 1800.

Verso la fine del Settecento egli si mise a “studiare la reazione di diversi metalli quando venivano immersi nell’acqua salata. Preparò dei sottili dischi di rame e stagno, alternandoli tra di loro e con dei dischetti di carta per separarli, fino a formare una pila piuttosto alta. Infilò poi i dischi in un tubo di vetro, e ci versò sopra l’acqua salata. Volta si accorse che i dischi metallici sprigionavano scintille. Era evidente che tra i dischi si era sviluppata una forma di elettricità.

Volta collegò un filo di rame ai dischi, e scoprì che nel filo passava l’elettricità che, a differenza di quella contenuta in un pezzo d’ambra, non scompariva istantaneamente, ma durava a lungo. Volta capì che l’elettricità non era un qualcosa che restava immobile in una nuvola temporalesca o in un pezzo d’ambra: l’elettricità poteva essere generata e poteva spostarsi lungo un filo. Si comportava più o meno come l’acqua corrente, e per questo ebbe il nome di corrente elettrica. Quando oggi parliamo di “elettricità” oppure di “corrente”, intendiamo in realtà la corrente elettrica.

L’apparecchio di Volta a dischi metallici era stato il primo mezzo efficace per produrre una quantità considerevole di energia elettrica. Oggi apparecchi come quello di Volta si chiamano batterie o pile, e sappiamo che sono le reazioni chimiche nelle batterie a generare la corrente. Costruire una pila era piuttosto facile, e presto in tutta Europa si cominciarono a fare e sperimenti sull’elettricità.”[13]

Grazie alla pila di Volta, si schiusero le porte per un nuovo salto di qualità, rivoluzionario in campo tecnologico e nella produzione di energia, avente per oggetto l’elettricità e la benzina, che giunse a compimento – combinato con altre scoperte e balzi in avanti – dopo il 1860 formando uno degli assi della “seconda Rivoluzione Industriale”.

La “seconda Rivoluzione Industriale” prese il via approssimativamente nel secondo terzo del Diciannovesimo secolo, avendo la sua punta avanzata questa volta negli Stati Uniti e nella Germania.

Dal 1860 fino al 1914, si ebbe in ogni caso in Europa e negli Stati Uniti uno sviluppo tecnologico senza precedenti, che assicurò ai paesi occidentali la supremazia tecnica in tutto il mondo: la caratteristica che differenzia maggiormente la seconda rivoluzione industriale dalla precedente sta nel fatto che le innovazioni tecnologiche non furono frutto di scoperte occasionali ed individuali, bensì di ricerche specializzate in laboratori scientifici e università, finanziate dagli imprenditori e dallo stato per il miglioramento dell’apparato produttivo e per favorire il processo di accumulazione capitalistico.

I prodromi della seconda Rivoluzione Industriale furono l’invenzione del telegrafo (1844) e della fotografia (1837) e del fucile ad ago e della nitroglicerina (1845/47), ma soprattutto del primo (seppur per alcuni decenni ancora poco conveniente e scarsamente versatile) generatore elettrico/motore elettrico, creati da M. Faraday e J. Henry nel 1831.

Agli inizi degli anni Venti Faraday seguì gli studi del danese Oersted sugli effetti magnetici provocati dalla corrente elettrica, con l’obbiettivo di verificare se poteva essere vero anche il contrario:cioè se un magnete poteva indurre una corrente elettrica.

Nell’autunno del 1831, Faraday “prese un anello di ferro e si avvolse parecchie spire di un filo di rame. Ogni estremità del filo di rame era collegata a un semplice misuratore di corrente. Faraday fece passare un magnete attraverso l’anello di ferro, e vide che il misuratore di corrente registrava qualcosa: quando il magnete veniva introdotto in mezzo all’anello di ferro nel filo passava elettricità. La sua intuizione era esatta: un magnete era in grado di dare origine a una corrente elettrica in un cavo, ma solo fino a che il magnete o il cavo erano in movimento. Se entrambi restavano fermi, la corrente cessava subito.

Si trattava di un modo completamente nuovo di creare una corrente elettrica. A questo punto Faraday si mise a riflettere sulla possibilità di fare la stessa cosa in modo più semplice. Mise a punto un apparecchio nel quale un disco di rame girava fra i due poli di un potente magnete. Finché il disco ruotava, attraverso di esso passava elettricità. Il disco si muoveva in rapporto ai magneti, e ciò bastava per dare origine a una corrente.

Michael Faraday non fece soltanto una grande scoperta, ma inventò anche la prima macchina capace di applicarla praticamente. Oggi questo tipo di macchina si chiama dinamo, e se hai una dinamo sulla tua bicicletta è probabile che assomigli a quella di Faraday. La dinamo era facile da costruire, e produceva una grande quantità di corrente. Maggiori erano le dimensioni della dinamo, più elettricità veniva prodotta. Collegando una potente macchina a vapore a una grande dinamo (che si chiama generatore), era possibile produrre tutta la corrente che si voleva.”[14]

A sua volta l’americano J. Henry, nello stesso periodo, costruì l’esatto contrario del generatore elettrico. Egli notò che se una ruota, muovendosi in campo magnetico, produceva elettricità, con una corrente sarebbe risultato possibile far girare a sua volta una ruota: lavorando su una macchina che metteva in pratica questo concetto, egli riuscì così a inventare il motore elettrico la cui importanza nella tecnologia si sarebbe rivelata incalcolabile. La sfida a distanza Faraday-Henry si concludeva con una rivoluzione nel mondo dell’elettricità.

Tuttavia, fino a circa il 1870, i nuovi generatori e motori elettrici non risultarono ancora competitivi rispetto all’energia a vapore, e solo dopo tale data riuscirono progressivamente a battere la concorrenza dei loro “cugini” inventati e costruiti da Watt un secolo prima, innescando finalmente un salto di qualità epocale in campo energetico e tecnologico,con la creazione delle prime centrali termoelettriche a carbone ed idroelettriche.

Sempre attorno al 1870, nel settore metallurgico giocarono un ruolo fondamentale la realizzazione del convertitore Bessemer e del forno Martin-Siemens: essi permisero la realizzazione di macchine e utensili più robusti e resistenti del ferro, che causava problemi per la sua tendenza ad usurarsi rapidamente.

Nel 1878 con l’adozione del “Thomas” poterono essere inoltre utilizzati materiali di ferro con alta percentuale di fosforo: fu proprio questo metodo di defosforazione che consentì alla Germania ricca di questi minerali di trasformarsi da paese agricolo a industriale fino a superare, con uno sfruttamento più organizzato delle miniere dell’Alsazia e della Lorena e del bacino carbonifero della Ruhr, la produzione delle acciaierie inglesi. L’acciaio permise inoltre nuove soluzioni nel campo della meccanica e, nel 1870, l’utilizzo di cemento armato in quello delle costruzioni.

A sua volta nel 1860, dopo il primo pozzo petrolifero trivellato con successo da E. L. Drake nel 1859, “una nuova tecnologia propulsiva che avrebbe poi determinato il gigantesco sviluppo dei trasporti sulla terraferma prendeva forma in Belgio per iniziativa dell’inventore Jean-Joseph-Etienne Lenoir. Egli riusciva a far funzionare il primo motore a combustione interna che utilizzava l’aria e il combustibile in una camera di combustione e dai quali nasceva uno scoppio che azionava direttamente il pistone. Così si poteva mandare in pensione il vecchio ingombrante sistema a vapore. Ma perché ciò accadesse, data la bassa efficienza del motore di Lenoir, bisognava aspettare quasi vent’anni quando nel 1876 l’ingegnera tedesco Nikolaus August Otto inventava il motore a “quattro tempi”. Esso era capace, con un movimento alternato, dei pistoni di aspirare una miscela di aria e combustibile, di comprimerla, quindi di accenderla con una scintilla spingendo il pistone che forniva l’energia per il movimento. Poi c’era l’espulsione dei gas. Il “motore a ciclo Otto”, come era anche chiamato dal nome del suo ideatore, offriva contrariamente al predecessore un buon rendimento, diventando quindi il progenitore dei motori che abbiamo oggi installati sulle nostre auto.

L’opera era finalmente completata nel 1885 quando un altro tedesco, l’ingegnere Karl Friedrich Benz costruiva la prima automobile che era un po’ diversa da come la vediamo oggi. Aveva tre ruote molto simili a quelle di una bicicletta (una davanti e due dietro) e poteva raggiungere la velocità di 5 chilometri orari. All’auto era arrivato quando riusciva a costruire nel 1878 il motore con il combustibile giusto, la benzina, che era ricavata dal petrolio: le sue molecole erano più piccole, la combustione più rapida e il rendimento più efficace. Così incominciava la storia delle quattro ruote, che all’inizio erano invece tre. Ma nel 1891 aggiungeva subito la quarta.”[15]

Visto che già nel 1891 C. Goodyear aveva creato la vulcanizzazione della gomma (processo multiuso ed applicabile alle gomme per i veicoli da motore), l’era della benzina/auto si aggiungeva pertanto a quella dell’elettricità e del cemento armato. Altre innovazioni importanti nel periodo in esame furono le invenzioni:

–            della dinamite (1867);

–            del telefono (1877), del fonografo e della lampadina elettrica (1879);

–            della produzione su larga scala dei concimi chimici (superfosfato di calcio, fosforo, ecc.) per l’agricoltura;

–            dei grattacieli (1892);

–            dei raggi X (1895);

–            del cinema (1895);

–            della radio (1895);

–            dell’aeroplano (fratelli Wright, 11903);

–            della radioattività (1898);

–            dei raggi catodici (1897, con la ricaduta decisiva della scoperta dell’elettrone);

–            del frigorifero (su piroscafo, nel 1876; ad uso domestico, nel 1913).

Proprio nel periodo in esame, il geniale scienziato di origine serba N. Tesla aveva contribuito a rivoluzionare il mondo tecnologico con invenzioni quali il motore elettrico a induzione, la corrente alternata (AC), la radiotelegrafia, il radiocomando a distanza, le lampade a fluorescenza ed altre meraviglie scientifiche; inoltre sempre Tesla scoprì agli inizi del Novecento i raggi cosmici e fu il primo a sviluppare i raggi-X, il tubo a raggi catodici e altri tipi di valvole, all’inizio del Ventesimo secolo.

Per quanto riguarda il settore dei trasporti, la costruzione di ferrovie a raggio transcontinentale – la ferrovia New York-San Francisco (1862-1869), la trans andina tra il Cile e l’Argentina (1910), la transiberiana (1891-1904) Mosca-Vladivostok sul Pacifico, ebbe un enorme influenza nello scambio delle merci poiché si ridussero notevolmente i costi sino ad allora molto alti per il trasporto via terra: inoltre in alcune delle più importanti città Europee ed Americane si ebbe la costruzione delle prime metropolitane, fra le quali quelle di Londra e Parigi,  che permetteva di spostarsi facilmente all’interno delle arre urbane, enormemente accresciutesi già dopo la prima rivoluzione industriale.

Per quanto riguarda il sistema navale, grazie alo sviluppo della metallurgia e all’introduzione dell’elica, si poterono costruire i primi scafi in ferro e successivamente in acciaio, che permisero la costruzione dei robustissimi transatlantici: lentamente le navi a vela vennero soppiantate da quelle a vapore grazie anche all’avvento dei motori compound.

Per i trasporti marittimi fu di enorme importanza la costruzione di canali come nel 1869 quello di Suez che in poco tempo determinò spostamento dei traffici tra l’Atlantico  settentrionale e l’oceano Indiano, lungo la rotta del Capo di Buona Speranza sostituita con quella molto più breve del Mediterraneo e del Mar Rosso, ripristinando così l’importanza della navigazione nel bacino mediterraneo come tramite tra l’Occidente e l’Oriente.

Leggermente sfasata ed in anticipo rispetto alla seconda Rivoluzione Industriale, a partire approssimativamente dal 1820 cominciò a svilupparsi anche la seconda Rivoluzione Scientifica.

F. Engels, nella sua opera “Dialettica della Natura”, ha saputo individuare alcuni degli assi principali attorno ai quali è ruotato il salto di qualità avvenuto in campo scientifico, durante il periodo compreso tra il 1820 ed il 1880. Egli notò che a partire dalla fine del Settecento “la scienza empirica della natura prese un tale impulso e raggiunse risultati così splendidi, da rendere possibile non solo un completo superamento della unilateralità meccanica del XVIII secolo, ma da trasformare la scienza naturale – con la dimostrazione dei nessi dei diversi campi di ricerca (meccanica, fisica, chimica, biologia ecc.) esistenti nella natura stessa – da una scienza empirica in una scienza teorica, e, con la sintesi dei risultati, in un sistema di conoscenza materialistica della natura. La meccanica dei gas; la chimica organica allora creata, che toglieva l’ultimo resto di incomprensibilità ai cosiddetti composti organici uno dopo l’altro, fabbricandoli con materiale inorganico; l’embriologia scientifica, che si può far datare dal 1818; la geologia e a paleontologia; l’anatomia comparata delle piante e degli animali, ecco altrettante scienze che tutte fornirono nuovo materiale in quantità fino ad allora inaudita. Di importanza decisiva furono però tre grandi scoperte.

La prima fu la dimostrazione della convertibilità dell’energia, che discendeva dalla scoperta dell’equivalente meccanico del calore (ad opera di Robert Mayer, Joule e Colding). Si è dimostrato ora che tutte le innumerevoli cause operanti  nella natura, che finora conducevano un’esistenza misteriosa, inspiegata, sotto il nome di forze – forza meccanica, calore, irradiazione (luce e calore raggiante), elettricità, magnetismo, forza chimica di combinazione e dissociazione – sono particolari forme,  modi di essere di un’unica e medesima energia, cioè movimento; noi possiamo non soltanto dimostrare la loro conversione da una forma all’latra, che ha sempre luogo nella natura, ma possiamo compiere noi stessi questa conversione nel laboratorio o nella industria, e precisamente in modo tale, che a una data quantità di energia in una forma corrispondente sempre una determinata quantità di energia nell’una o nell’altra forma. Noi possiamo quindi esprimere le calorie in chilogrammetri, e le unità di una qualsivoglia quantità di energia chimica o elettrica a loro volta in calorie e viceversa; noi possiamo ugualmente misurare il consumo di energia e gli apporti di energia di un organismo vivente, ed esprimerli in un’unità scelta a piacere, per es. in calorie. L’unità di ogni movimento nella natura non è più un’affermazione filosofica, ma un fatto scientifico.

La seconda scoperta – cronologicamente la prima – è la scoperta della cellula organica ad opera di Schwenn e Schleiden, della cellula come unità, dalla quale hanno origine e sii sviluppano, per moltiplicazione e differenziazione, tutti gli organismi ad eccezione dei più bassi. Solo con questa scoperta lo studio dei prodotti naturali organici, viventi – tanto l’anatomia e la fisiologia comparata quanto l’embriologia – ha conquistato una solida base.  Veniva cancellato il  mistero che avvolgeva l’origine, la crescita e la struttura degli organismi; il miracolo fino ad allora incomprensibile si era risolto in un processo che si compiva secondo una legge essenzialmente identica per tutti gli organismi pluricellulari.

Ma rimaneva ancora una lacuna essenziale. Se tutti gli organismi pluricellulari – sia piante che animali, uomo compreso – si sviluppano a partire da una cellula secondo la legge della scissione cellulare, donde allora l’infinita differenza di questi organismi? A questo interrogativo diede risposta la terza grande scoperta, la teoria dell’evoluzione, che Darwin per primo espose e fondò in modo organico. Per quante trasformazioni possa ancora subire questa teoria nei particolari, essa risolve già oggi nelle grandi linee il problema, in modo più che soddisfacente. È dimostrata nelle sue linee fondamentali la serie evolutiva degli organismi, dai più semplici ai sempre più vari complicati, quali quelli che noi vediamo davanti a noi, e su su fino all’uomo; e resa così come non solo possibile la spiegazione del vario materiale di prodotti organici naturali che abbiamo davanti a noi, ma sono offerte anche le basi per la preistoria dell’umanità, per seguire le tracce dei diversi stadi di sviluppo dal protoplasma semplice privo di struttura, ma sensibile alle eccitazioni, degli organismi più bassi, fino al cervello umano pensante. Senza questa preistoria, invece, l’esistenza del cervello pensante dell’uomo rimane un miracolo.

Con queste tre grandi scoperte i processi naturali fondamentali sono spiegati, sono ridotti a cause naturali. Resta qui da fare soltanto una cosa: spiegare l’origine della vita dalla natura inorganica. Ciò non significa altro, allo stadio attuale della scienza che: preparare sostanze albuminose (proteiche) da materiale inorganico. La chimica si va avvicinando sempre di più a questo compito. È ancora lontana da esso. Se poi però riflettiamo sul fatto che solo nel 1829 fu preparata da   Wohler, a partire da materiale inorganico, la prima sostanza organica, l’urea, e che adesso innumerevoli composti organici vengono preparati artificialmente, senza usare alcuna sostanza organica, noi non vorremmo intimare l’alt! alla chimica di fronte all’albume.”[16]

Trasformazione (conservazione) dell’energia, scoperta della cellula e della legge darwiniana della selezione naturale  e delle trasformazioni della specie; ma anche le leggi dell’ereditarietà, l’unificazione di elettricità, magnetismo e luce, la scoperta del secondo e terzo principio della termodinamica fanno parte del mosaico principale della seconda rivoluzione scientifica.[17]

Nell’arco temporale in via d’esame, infatti, la scienza genetica iniziò a prendere forma grazie all’azione del monaco austriaco Gregor Mendel. “Gregor Mendel sapeva che molti scienziati stavano cercando di capire come venissero trasmessi i caratteri ereditari, e gli venne un’idea: se esisteva qualche legge di natura che determinava in che modo la prole ereditasse i caratteri dei genitori, le piante potevano fornire l’ambito ideale per studiare il fenomeno. Nel 1854 Mendel cominciò a verificare se la sua idea fosse giusta. Fece come la maggior parte dei floricoltori: spennellò il polline prodotto dagli stami di una pianta di piselli sullo stigma di un’altra pianta. Poi attese che si sviluppassero dei semi, che seminò e coltivò facendo nascere nuove piantine.

In seguito Mendel fece riprodurre queste piantine, in modo da disporre di un maggior numero di semi. E fu studiando le piante “nipoti” delle piante di piselli originarie che cominciò a trovare risultati interessanti. Un aspetto riguardava in modo particolare l’altezza delle piante. Se quelle originarie erano un’alta e una bassa, tutte le piante “figlie” risultavano alte. Sembrava che il carattere che rendeva basse le piante originarie scomparisse nel nulla. Però, una volta che le”figlie” si riproducevano dando vita alle “nipoti”, la caratteristica saltava fuori di nuovo! Su quattro piante nipoti, tre risultavano alte, e una bassa.

Mendel osservò un meccanismo simile studiando i colori dei fiori di pisello, e la forma e il colore dei semi. Sebbene fosse piuttosto complicato farsi un’idea esatta del modo in cui diversi caratteri si trasmettono da una pianta all’altra, Mendel riuscì a individuare una sorta di sistema che regolava l’intera faccenda.

Mendel si occupò di piselli per più di dieci anni, ma le sue fatiche portarono a dei risultati. In effetti le sue piante davano origine alla prole seguendo regole determinate. L’altezza delle piante, il colore dei fiori e il colore dei semi non si distribuivano in modo casuale, ma venivano trasmessi dalle piante originarie alla discendenza  secondo regole ben precise. Mendel scrisse queste regole, conosciute ai nostri giorni come le leggi di Mendel.”[18]

Anche il contributo fornito alla fisica da J. C. Maxwell è stato essenziale, come ha notato giustamente Caprara, dato che lo scienziato scozzese intorno al 1865 elaborò “un gruppo di equazioni che portavano il suo nome. Grazie a esse e muovendo dalle conclusioni che, prima di lui, aveva tratto Faraday, Maxwell metteva ordine nel campo delle forze elettriche e magnetiche riuscendo soprattutto a unificarle. Le due, dimostrava, altro non erano che due espressioni diverse di un’unica forza elettromagnetica. Il risultato era straordinario e a esso aggiungeva due spiegazioni fondamentali che venivano dimostrate sperimentalmente. La prima sosteneva che un campo elettromagnetico si generava dall’oscillazione di una carica elettrica e che una volta sprigionato si diffondeva con la velocità costante che era quella della luce. La seconda spiegazione riguardava la stessa luce la quale era anch’essa una radiazione elettromagnetica con lunghezze d’onda diverse andando dall’infrarosso all’ultravioletto. A questo punto nella sua unificazione, oltre al magnetismo e all’elettricità rientrava anche la luce. Un lavoro da giganti che continuava quello compiuto da Newton per le forze gravitazionali e che sarà seguito solo più tardi nel secolo successivo, a prezzo di grandi sforzi.”[19]

Per quanto riguarda,il secondo principio della termodinamica, nel 1855 Clausius introdusse la sua disuguaglianza per riconoscere sia processi reversibili da quelli irreversibili che la fusione di stato di entropia, secondo il quale “è impossibile realizzare una macchina ciclica che abbia come unico risultato il trasferimento di calore da un corpo freddo a uno caldo” (enunciato di Clausius); il disordine, l’entropia totale di un sistema isolato rimane invariata quando si svolge una trasformazione reversibile ed aumenta quando si svolge una trasformazione irreversibile.

Il terzo principio, strettamente legato al secondo, può essere enunciato dicendo che “è impossibile raggiungere lo zero assoluto con un numero finito di trasformazione” e fornisce una precisa definizione della grandezza chiamata entropia: esso afferma inoltre che l’entropia per un solido perfettamente cristallino, alla temperatura di 0 kelvin è pari a zero.

Nel settore medico, a sua volta, le fondamentali scoperte di Louis Pasteur, Gerhard Henrik Hansen e Robert Koch (tra gli altri) in campo epidemiologico portarono nel corso del XIX secolo a trovare una difesa contro antichi flagelli come la tubercolosi, la difterite, l’antrace, la peste, la lebbra, la rabbia e la malaria.

Anche la scienza chimica riporta due grandi conquiste tra il 1810 ed il 1860 Dalton, Arogadro e Cannizzaro elaborarono e dimostrarono la teoria atomica con la distinzione tra atomi e molecole, mentre D. I. Rondeleev espose nel 1869 la sua tabella periodica degli elementi chimici.

Dopo circa un paio di decenni di accumulazione quantitativa di nuove ricerche scientifiche, partendo almeno dal fatidico 1905 (prima Rivoluzione russa…) si sviluppò in un tempo relativamente rapido la terza rivoluzione scientifica a cui seguì, dopo circa un ventennio ed in reciproca e profonda interconnessione, la terza rivoluzione industriale: esse si stimolarono a vicenda e continuarono il loro percorso fino alla fine degli anni Quaranta, quando avvenne la grande scoperta del transistor (23 dicembre 1947).

In campo scientifico il nuovo salto qualitativo prese il via grazie al genio di Einstein,  con la sua elaborazione prima della teoria della relatività ristretta (1905) ed in seguito della relatività generale (1916).

Con un articolo dal titolo “Sull’elettrodinamica dei corpi in movimento”, pubblicato nel 1905, l’allora sconosciuto impiegato dell’Ufficio Brevetti di Berna gettò le basi per un nuovo paradigma scientifico (Kuhn). Einstein “nell’articolo annunciava la teoria della relatività ristretta, così detta perché si applicava soltanto ai corpi che si muovevano con una velocità costante. Einstein stabiliva che la luce nel vuoto viaggiava a una velocità di 300 mila chilometri al secondo ed era un limite invalicabile. Da questo si poteva dedurre che le lunghezze si contraevano, che la massa aumentava con la velocità e che il tempo rallentava man mano che la stessa velocità cresceva. La teoria era chiamata della relatività perché tutto, dalla velocità allo spazio, al tempo, aveva significato solo relativamente a un osservatore non necessariamente fermo.

Questo significava che Newton aveva ragione solo quando le velocità erano basse e le distanze brevi: negli spazi immensi e a velocità elevate governavano le idee di Einstein. Ma si trattava solo dell’inizio del lavoro del grande tedesco naturalizzato svizzero. Egli poi spiegava l’equivalenza tra l’energia e la massa la quale era da considerare come una forma di energia concentrata. Il concetto era tradotto in una formula diventata notissima nella quale l’energia “E” era uguale al prodotto della massa “m” per la velocità della luce “c” elevata al quadrato.

Nello stesso anno, il 1905, Einstein scopriva e spiegava anche l’effetto fotoelettrico. Qui lo scienziato approfondiva la teoria dei quanti di Planck sostenendo che la luce era formata da corpuscoli, cioè da quanti di energia. E quando essi colpivano una superficie metallica l’energia dei quanti di luce era capace di far uscire gli elettroni dal metallo. Questo era appunto l’effetto fotoelettrico.

Ma il 1905 non era ancora finito, quando il grande scienziato dava chiarezza definitiva ai movimenti tra le molecole, i cosiddetti moti browniani, perché scoperti dal botanico britannico Robert Brown studiando con il microscopio alcuni granelli di polline mischiati nell’acqua. Einstein formulava un’equazione capace di descrivere  questi movimenti che riguardavano in generale anche la teoria atomistica chiudendo una disputa sulla materia che andava avanti dall’epoca di Democrito.

Tre importanti scoperte maturate in un solo anno all’età di 26 anni, e che davano la dimensione del genio, degno successore di Newton. Ma la sua storia scientifica non era ancora conclusa, anzi. Passavano dieci anni e nel 1916 riprendeva ed estendeva la teoria della relatività. Ora si staccava dal riferimento di un osservatore che si muoveva a velocità costante per occuparsi di sistemi in movimento anche accelerato uno rispetto all’altro: nasceva la teoria della relatività generale con la quale ridisegnava il mondo.

Prima di allora valevano le intuizioni di Euclide che aveva immaginato un Universo secondo tre dimensioni tradizionali. Einstein modificava radicalmente questa geometria rendendosi conto della sua insufficienza. E per farlo si avvalse di uno strumento matematico formidabile messo a punto dal grande tedesco Georg Friedrich Bernhard Riemann, che descriveva matematicamente le idee che Einstein aveva in mente da un punto di vista fisico. Così da una geometria a tre dimensioni si passò alla geometria del campo gravitazionale con uno spazio che assumeva curvature determinate dalla materia, o meglio dalla forza gravitazionale sprigionata dalla sua massa. L’Universo, dunque, mutava la sua immagine e non appariva più omogeneo in tutti i suoi punti; cioè non era più isotropo come dicono gli scienziati. In questo modo la teoria della relatività generale curvava lo spazio.[20]

Confermata sperimentalmente e sul campo dai risultati ottenuti osservando un’eclisse solare (maggio 1919), la teoria della relatività venne  affiancata da una serie di nuova  scoperte scientifiche di portata epocale.

Tra il 1901 ed il 1927, infatti, i tedeschi M. Born e W. Heisenberg, il danese N. Bohr, l’austriaco E. Schrodinger e lo stesso Einstein (teoria Bose-Einstein del 1924) riuscirono progressivamente ad elaborare la meccanica quantistica. Uno schema teorico generale del movimento che, pur adottando alcuni principi della meccanica classica, si dimostrò in grado di riflettere  e riprodurre in larga parte (con il “limite” del principio di indeterminazione, scoperto da Heisenberg) il comportamento e la dinamica delle particelle sub-atomiche. In seguito la scoperta della meccanica quantistica vennero applicate anche alla sfera macroscopica, fornendo la chiave di interpretazione per le tecnologie del laser, dei transistor e della ???superconduttività??? di alcuni materiali a basse temperature.[21]

Passando invece ai campi delle particelle atomiche/sub-atomiche e dell’astrofisico, nel 1911 E. Rutheford riuscì a descrivere la struttura dell’atomo scoprendo sia il protone che il neutrone, mentre nel corso del 1918 venne scoperta la prima galassia (la Nebulosa di Andromeda) fuori dalla Via Lattea. Nel 1929 F. E. Hubble enucleò la legge sulla “fuga” delle galassie e G. Gamow ipotizzò che l’energia delle stelle fosse derivata dalla trasformazione dei nuclei di idrogeni in nuclei di elio; nel marzo del 1930 P. Lowell dimostrò l’esistenza di Plutone e sempre nello stesso anno venne scoperta l’esistenza delle antiparticelle e dell’antimateria; nel corso del 1930 W. ???Pauli??? e Fermi scoprirono una particella con carica elettrica nulla, il neutrino, mentre nel 1935 H. Yubaka scopriva il mesone, il collant tra protoni e neutroni.

Nel settore biogenetico, fu il ricercatore O. T. Avery ad avviare una grande rivoluzione scientifica. Nel 1914,  assieme a McLeod e McCarty, riuscì a “dimostrare l’esistenza di un costituente chimico dei  microrganismi che era identico all’acido desossiribonucleico DNA: ed era appunto il DNA l’agente chimico che induceva un cambiamento ereditario in un organismo vivente, visto che si riuscì dimostrare che la scoperta cambiò radicalmente gli studi di genetica. Già si sapeva dagli inizi del Novecento che i cromosomi erano dotati di materiale genetico e che ospitavano delle molecole proteiche assieme ad altre molecole di acido desossiribonucleico. Ma fino ad allora queste ultime erano state considerate sostanze biologicamente inerti. Invece si dimostrava che il DNA era presente in tutti gli organismi e che  esso condizionava la trasmissione ereditaria.

Nell’aprile del 1953 il fisico inglese F. Crick ed il biochimico  americano James Watson fornirono un modello realistico del DNA, che mostrava come la molecola di esso fosse costituita da “due catene molecolari a forma di elica, collegate l’una all’altra. In un certo senso la molecola del DNA ricorda una scala a chiocciola, nella quale le molecole sono i gradini tra le due spirali. Si tratta di una lunghissima scala a chiocciola, dotata di milioni di gradini.

L’aspetto geniale di tutto questo non è facilissimo da capire, a meno che tu non sia un esperto di chimica. Comunque, tenterò di spiegarlo. Come ricorderai, era molto difficile capire in che modo una molecola potesse dare origine a una copia di se stessa. Eppure era proprio ciò che accadeva ogni volta che una cellula si divideva in due, e la nuova cellula risultava contenere lo stesso numero di cromosomi di quella originaria.

Dato che la molecola del DNA è composta da due eliche collegate l’una all’altra (essa è nota in effetti anche come doppia elica), la molecola può dividersi nel senso della lunghezza, in modo che una delle due eliche si separi dall’altra. E la molecola è fatta in modo talee che ciascuna delle due metà del DNA riesce a dare origine a una nuova metà, ricostruendo per mezzo di piccoli frammenti di molecole che si aggirano nella cellula. In breve tempo si hanno dunque due eliche doppie di DNA complete, che vanno a finire ciascuna nella propria cellula.”[22]

Sul piano geologico, nel corso del 1912 il tedesco A. L. Wegener scoprì la deriva dei continenti ed il lontano super continente Pangea, esistito fino a 200 milioni di anni fa, mentre nel 1914 l’americano B. Gutemberg ipotizzò giustamente che il nucleo della Terra fosse composto di nichel e (soprattutto) ferro allo stato liquido.

Nel settore medico, infine, la casuale scoperta della penicillina da parte di A. Fleming nel 1928 aprì la strada alla produzione su larga scala dopo il 1939 dei fondamentali antibiotici.

Sul fronte tecnologico a partire dal 1926 prese il via un nuovo salto qualitativo, quasi sempre connesso con quello in via di sviluppo nel settore scientifico. Per fare due soli esempi, se da un lato la bomba atomica di Los Alamos/Hiroshima era la figlia diretta dell’equazione E=mc2 di Einstein, oltre che della scoperta del neutrone e di altre particelle sub-atomiche, a loro volta le scoperte astronomiche del 1929/1935 costituivano il sottoprodotto della costruzione di enormi telescopi, come quello inaugurato sul Monte Palomar nel 1928, mentre le scoperte scientifiche nel campo atomico e sub-atomico vennero enormemente favorite dai primi acceleratori di particelle che vennero “costruiti soltanto dopo il 1930”.[23]

La pleiade composta dalle principali scoperte tecnologiche avvenute nel 1926/1947 può essere sintetizzata in breve ricordando i risultati più rilevanti, e cioè:

–            il primo razzo spaziale (1926, costruito da R. H. Goddard) lontano antecedente dal V-2 nazista dell’ottobre 1942;

–            la prima scissione dell’atomo di uranio, ottenuta da O. Kahn e F. Strassmann nel 1938 e perfezionata da L. Meitner l’anno successivo;

–            la costruzione del radar in Gran Bretagna, tra il 1935 ed il 1938;

–            la creazione del primo elicottero, nel settembre 1939, e del primo jet con motore a getto (agosto 1939);

–            la pila atomica di Chicago per la realizzazione della prima reazione nucleare controllata (E. Fermi, 2 dicembre 1942) e della bomba nucleare (16 luglio 1945, Alamogorda???);

–            il primo computer e tecnologia elettronica (Germania del 1936, inventore K. Zuse; Mark-1/”Bessie” statunitense del 1944);

–            il primo computer a valvole elettroniche (l’ENIAC statunitense del febbraio 1946);

–            la creazione del transistor (cristalli semiconduttori di silicio e germanio) ad opera di W. Shockley, J. Bardeen e J. Brattain nel dicembre del 1947.

Ormai erano entrati in funzione settori produttivi prima sconosciuti che assunsero un ruolo sempre crescente nella società, quali l’elettronica, il settore atomico bellico e quello spaziale-militare.

Preparate da grandi risultati ottenuti in campo spaziale (Sputnik, 1957; Gagarin, 1961; atterraggio sulla Luna della navicella Apollo 11, 1969) dopo quasi due decenni di progressiva maturazione, attorno al 1965 si aprì una nuova fase rivoluzionaria ancora in corso con la creazione ex-novo dell’informatica e micro elettronica, di Internet, della biogenetica delle nanotecnologie e dell’automazione/robotica, delle telecomunicazioni e del settore spaziale-civile, della meccanica quantistica, dell’optoelettronica e della super conduttività (1968, H. K. Ones).

La “quarta rivoluzione” industriale/post-industriale, il nuovo balzo in avanti in campo scientifico e tecnologico si fonda innanzitutto sul processo graduale di transizione del petrolio alle fonti energetiche atomiche (fissione/fusione) e a quelle rinnovabili (solare, eolica).

Una data storica in questo senso è il 5 marzo 1974, quando il premier francese Pierre Messmer annunciò un vasto programma elettronucleare che prevede la costruzione di un numero considerevole di reattori: cinque vennero messi in servizio nel 1982, fino ad arrivare al parco attuale del 2000 di 58 reattori nucleari in grado di soddisfare il 78,2% del fabbisogno francese di energia elettrica per una potenza complessiva di 61,5 gigawatt.[24]

Grazie al Tokamak sovietico ed al Jet britannico, vennero inoltre testati con successo tra il 1970 ed il 1985 i primi reattori a sintesi termonucleare, con reazioni nucleari (controllate) simili a quelle che avvengono da miliardi di anni nel Sole ed in tutte le stelle dell’Universo e, potenzialmente capaci di produrre  un’energia illimitata (litio e deuterio, i materiali per la fusione nucleare, possono durare almeno per venti milioni di anni), quasi pulita ed assolutamente sicura: entro il 2015 è prevista la costruzione, a Cadarache (Francia), del prototipo di reattore a fusione capace, nel corso di alcuni anni, di produrre elettricità commerciale dalla sintesi termonucleare. Il sole in un sito creato e controllato dall’uomo.

A partire dal 1973, anche il settore delle telecomunicazioni è uscito dall’infanzia.

La conquista economico-tecnologica dello spazio ha un ruolo fondamentale nella nuova economia, perché le reti satellitari costituiscono e costituiranno sempre più l’ossatura dell’industria dell’informazione: la televisione (Eutelsat), le telecomunicazioni (Cospas/Sarsat), la meteorologia (Meteosat), la ricerca scientifica (Hubble, Envisat, Landsat), ed alcuni servizi di telefonia (Mss, Fss) dipendano oggi dai satelliti geostazionari.

Un altro indice che misura i progressi qualitativi raggiunti dalla nuova rivoluzione scientifico tecnologico consiste nell’emergere, a partire dagli anni Settanta, dell’automazione e dell’intelligenza artificiale e il loro uso su vasta scala nei processi produttivi, aspetto già segnalato nel 1959 da Charles P. Snow nel famoso saggio Le due culture e la rivoluzione scientifica.

Sempre a partire dagli anni Settanta giunse ad una sua prima maturazione anche “l’era biotecnologica, ossia l’era della comprensione profonda e della trasformazione industriale del vivente. Fanno la loro apparizione i primi trapianti d’organo, i primi bambini nati in provetta, i primi organismi geneticamente modificati, i primi anticoncezionali chimici, i primi farmaci psico-neurotropici, e molte altre invenzioni tecniche che intervengono direttamente sulla struttura fisica e psichica dell’essere umano e degli altri esseri viventi. Si registra perciò la nascita e lo sviluppo rapido di una nuova disciplina accademica, la bioetica, che cerca di dare risposte ai nuovi interrogativi morali generati dalla comparsa delle nuove scoperte e invenzioni scientifico-tecnologiche. Un’altra data simbolo è infatti il 25 luglio 1978, il giorno in cui nasce Louise Brown – primo essere umano concepito in provetta. Da all’ora milioni di bambini sono stati prodotti in laboratorio, tramite fecondazione artificiale. Questa data, non distante dal fatidico 1974, anno del nucleare e dell’automazione, sembra quindi confermare la peculiarità dell’ultimo quarto del XX secolo. Si aggiunga che il primo OGM fu ottenuto nel 1973 da Stanley Cohen e Herbert Boyer e non si ebbe un’immediata diffusione del prodotto soltanto perché, proprio nel 1974, la comunità scientifica si autoimpose una moratoria internazionale sull’uso della tecnica del DNA ricombinante.”[25]

Per quanto riguarda le biotecnologie, già all’inizio del secondo decennio del Duemila sono state via via “identificate centinaia di malattie trasmesse geneticamente che una diagnosi prenatale può prevenire, come la distrofia muscolare, la fibrosi cistica o la corea di Huntington e altre. Abbiamo imparato ormai da 30 anni a trasferire geni dal Dna di un essere vivente a un altro e ora molti farmaci sono prodotti con il trasferimento genico (insulina, ormoni della crescita, eritropoietina). Con la terapia genica in alcuni casi, rari per ora, possiamo correggere nelle cellule le anomalie del suo genoma, responsabili di malattie gravi, spesso incurabili.

La cultura del Dna è poi applicata all’ambiente, all’agricoltura, agli oceani: abbiamo imparato a produrre piante e cibi biotech, migliorando la quantità e la qualità dell’alimentazione. E in futuro? Sul tavolo della riflessione non solo scientifica, ma soprattutto etica, c’è da una parte la vita sintetica, di cui parlerà a Venezia Craig Venter: è lui che nel 2007 ha inserito un cromosoma sintetico in un essere vivente, lanciando l’ipotesi propria della vita artificiale.

Dall’altre parte c’è la clonazione, già applicata agli animali e tecnicamente possibile nell’uomo. Sono prospettive che affascinano e inquietano, ma non dovrebbero spaventarci per un semplice motivo: non servono e la scienza non ha interesse in ciò che non è utile all’uomo. Il Dna artificiale non serve, perché possiamo ottenere ogni tipo di Dna, o quasi, con il trasferimento genetico e la capacità di scomporre e rimettere insieme i geni. La clonazione, poi, non serve, perché sono sufficienti i metodi naturali e la fecondazione assistita. Vedo piuttosto profilarsi una nuova rivoluzione scientifica che rappresenta lo sviluppo di quella del Dna: la nanotecnologia.”[26]

Le nanotecnologie, appunto: un altro settore di punta della “quarta rivoluzione industriale” che ha preso slancio dagli anni  Ottanta assieme alla superconduttività.

Le nanotecnologie sono appunto tecnologie che permettono la costruzione di semplici (per ora) macchine di dimensioni di nanometri (milionesimi di millimetro).

Per ora si tratta principalmente di micromotori o micropompe: bracci ed ingranaggi non possono però ovviamente essere realizzati, a causa delle dimensioni, né per lavorazione tramite asportazione, né per sintetizzazione; vengono pertanto usati altri metodi, come l’elettrodeposizione o la crescita epiteliale.

Questi metodi costruiti sono mutuati direttamente da quelli usati nella produzione di componenti elettronici come i microprocessori.[27]

???Sono solo gli inizi di probabili ed eccezionali progressi in questo settore, interconnesso con quello delle  biotecnologie: già ora, in ogni caso ???leghe con memoria di forma, ceramiche ???piezoelettriche, fluidicelettroreologici, materiali astro assemblati costituiscono alcune dei primi sottoprodotti dell’era delle nanotecnologie e della super conduttività a basse temperature.

A partire dal 1971, inoltre, la scienza e tecnologia informatica ha fatto tutta una serie di incredibili balzi in avanti: la “rivoluzione elettronica” è iniziata appunto con i transistor ed i circuiti integrati (1958 J. Kilby) ma ha avuto il suo vero salto di qualità con l’invenzione nel 1971 dei microprocessori (Jntel 4004) e la nascita di Internet (1972). Eventi fondamentali a cui è seguita la creazione e produzione prima dei minicomputer e microcomputer (gennaio 1975, Altair 8000) ed in seguito del primo personal computer (Apple II, 1977), dei primi supercomputer (Cray I, 1976) e del software con interfaccia grafica (Microsoft, 1984), della stampante laser e dei fax, delle mille applicazioni concrete della rivoluzione elettronica (grafica, e-mail e commercio in Internet, ecc.).[28]

Si è arrivati al punto che se nel giugno del 2008 il supercomputer “Roadrunner” dell’IBM era in grado di effettuare 1600 miliardi di trilioni di operazioni al secondo, nel 2010 il Blue Gene/P ha già raggiunto la velocità di calcolo di 3 migliaia di miliardi di calcolo al secondo, mentre solo nel 1985 e due decenni prima 10 miliardi di operazioni al secondo costituivano una soglia raggiunta da pochi supercomputer statunitensi: e si tratta della cosiddetta “legge di Moore”, del raddoppio delle prestazioni  dei computer ogni 18 mesi.

E già ora sta avanzando l’era del computer quantistico, e cioè un dispositivo per il trattamento ed elaborazione delle informazioni che per eseguire le classiche operazioni sui dati utilizza i fenomeni tipici della meccanica quantistica, come la sovrapposizione degli effetti e l’entanglement.

In un computer classico, la quantità di dati viene misurata in bit, mentre in un computer quantico l’unità di misura è il qubit: il principio che sta alla base del computer quantico è che le proprietà quantistiche delle particelle possono essere utilizzate per rappresentare strutture di dati, mentre il complesso meccanismo della meccanica quantistica può essere sfruttato per eseguire operazioni su tali dati.

La prima idea di computer quantico venne a M. Gell-Mann (1982) e fu esposta da Richard Feynman nel 1982, pensandolo sulla base della sovrapposizione di stati delle particelle elementari. Nel 1985 David Deutsch ne dimostrò la validità, mentre nel 1994 Peter Shaor dimostrò che così sarebbe stato possibile fattorizzare qualsiasi numero a grandi velocità.

Nel 1998 il fisico Bruce Kane propone la costruzione di un elaboratore quantistico su atomi di fosforo disposti su uno stato di silicio di 25 nanometri: venne chiamato  computer quantistico di Kane.

Ultimamente si susseguono di continuo molte scoperte e innovazioni che possono aiutare nella costruzione di un computer quantistico: i campi di studio per  arrivare ad applicazioni pratiche sono la nanotecnologia (nano elettronica, optoelettronica e elettronica molecolare, nanochimica, fotonica, fisica delle particelle), la spintronica oltre che all’informatica, alla criptografia e alla logica quantistica.[29]

A sua volta la scienza (momentaneamente) “pura”, non ancora capace di determinare mutamenti tecnologici ha ottenuto una messe di successi. Basti ricordare, tra i principali:

–            nel 1961 M. Gell-Mann dimostrava l’esistenza dei quark, sei tipologie di particelle subatomiche che costruiscono i (micro) mattoni della materia e che a loro volta formavano gli adroni (protoni, neutroni, ecc.), mentre nel 1994 veniva scoperta l’ultima “classe” di quark, il Quark Top;

–            nel 1963 venivano scoperti i quasar (oggetti “quasi” stellari), nel 1967 le pulsar e nel 1964 la radiazione di fondo che circonda il nostro Universo;

–            nel 1998 veniva misurata la massa del neutrino;

–            nel luglio del 2012 la conferma dell’esistenza del bosone di Higgs, e cioè della particella che conferisce massa a tutte le altre particelle.

–            Un lungo viaggio, dalla protoscienza del fuoco e della trasformazione del movimento meccanico in calore avvenuta nel lontano paleolitico.

 

 



[1] G. Caprara, op. cit., pp. 73-74

[2] Jean-Pierre Maury, “Galileo messaggero delle stelle”, p. 67, Electa-Gallimard

[3] Caprara, op. cit., pp. 77-78

[4] E. Newth “Breve storia della scienza”, pp. 144-145, ed. Salam

[5] Kuhn, op. cit., p. 137; A. R. Hall, op. cit., p. 190

[6] C. D. Conner, op. cit., p. 401

[7] Caprara, op. cit., pp. 83-84 e 100-101

[8] K. Marx, lettera a F. Engels del 28 gennaio 1863

[9] ?????????????????

[10] Wikipedia, “Rivoluzione Industriale”, in it.Wikipedia.org

[11] Wikipedia, op. cit.

[12] Caprara, op. cit., p. 127

[13] Newth, op. cit., pp 168-169

[14] Newth, op. cit., pp. 172-173

[15] Op. cit., pp. 157-158

[16] F. Engels, “Dialettica della Natura”, pp. 210-211-212, ed. Riuniti

[17] A. R. Hall, op. cit., pp. 298-299 e 340-364

[18]Newth, op.cit., pp. 302-303

[19] Op. cit., pp. 163-164

[20] Caprara, op. cit., pp. 195-197

[21] Boas, op. cit., pp. 412-422

[22] Newth, op. cit., pp. 312-313

[23] Boas, op. cit., p. 413

[24] R. Campa, “Considerazioni sulla Terza Rivoluzione Industriale”, 2007, in www.caei.com.ar

[25] A. Campa, op. cit.

[26] U. Veronesi, “L’era del DNA. Il bello viene adesso”, 17 settembre 2009, in www.venetonanotech.it

[27] Autori Vari, “Vincere il nuovo con il nuovo”, p. 16, ed. ???????

[28] Caprara, op. cit., pp. 242-243

[29] “Computer quantistico”, in wikipedia.it


Warning: Division by zero in /home/webdes90/public_html/Domini/robertosidoli.net/wp-includes/comment-template.php on line 1381