You are on page 1of 183

Engines of Creation

The coming era of Nanotechnology

di K. Eric Drexler
Prefazione di Marvin Minsky

Prima Edizione in Lingua Originale: Anchor Books - 1986


Copyright: K. Eric Drexler

Traduzione italiana a cura di Vincenzo Battista


Indice

Introduzione alla versione web........................................................................................................ 3


Prefazione, di Marvin Minsky........................................................................................................... 4
Ringraziamenti................................................................................................................................... 6

Parte Prima: I FONDAMENTI DELLA PREVISIONE

Capitolo 1: Motori di Costruzione....................................................................................................... 7


Capitolo 2: I Principi del Cambiamento.............................................................................................. 18
Capitolo 3: Prevedere e Progettare.................................................................................................... 29

Parte Seconda: I PROFILI DEL POSSIBILE

Capitolo 4: Motori di Abbondanza...................................................................................................... 37


Capitolo 5: Macchine Pensanti........................................................................................................... 44
Capitolo 6: Il Mondo Oltre la Terra..................................................................................................... 55
Capitolo 7: Motori di Guarigione......................................................................................................... 65
Capitolo 8: Longevità in un Mondo Aperto......................................................................................... 76
Capitolo 9: Una Porta sul Futuro........................................................................................................ 84
Capitolo 10: I Limiti dello Sviluppo..................................................................................................... 95

Parte Terza: PERICOLI E SPERANZE

Capitolo 11: Motori di Distruzione...................................................................................................... 108


Capitolo 12: Strategie e Sopravvivenza............................................................................................. 120
Capitolo 13: Scoprire i Fatti................................................................................................................ 127
Capitolo 14: La Rete della Conoscenza............................................................................................. 136
Capitolo 15: Abbondanza di Mondi e Tempo..................................................................................... 145

Postfazione, 1985.............................................................................................................................. 151


Postfazione, 1990.............................................................................................................................. 152
Postfazione, 1996.............................................................................................................................. 154

Glossario............................................................................................................................................ 155

Riferimenti e Note.............................................................................................................................. 159


Introduzione alla versione web
di K. Eric Drexler

I dieci anni da quando Motori di Creazione fu pubblicato per la prima volta ci hanno portato molto avanti
sulla strada che conduce allo sviluppo della nanotecnologia molecolare e della fabbricazione molecolare. I
progressi sono stati più rapidi di quanto mi aspettassi. Anche i concetti di base sono stati accolti in maniera
più polemica e controversa di quanto mi fossi atteso. Persino adesso, dopo (per esempio) che lo US Science
Advisor, il Consiglio Statunitense per la Scienza, si è pronunciato positivamente sulla plausibilità della
fabbricazione molecolare, alcuni segmenti del mondo scientifico hanno ancora qualche difficoltà con alcune
idee piuttosto semplici.

Appare ovvio tuttavia che conquistare il preciso controllo della materia a livello molecolare permetterà
avanzamenti tecnologici importantissimi, e che alcuni nostri progressi verso l'acquisizione di questa capacità
sono altrettanto evidenti. Il macchinario molecolare che troviamo già in natura costituisce la dimostrazione
esistente di capacità enormi. Progressi ottenuti nella ricerca per la costruzione di tali macchine vengono
costantemente riportati dalle pubblicazioni scientifiche ogni settimana. Forse il fatto che l'orizzonte temporale
sia spesso limitato al breve termine, tendenza comune alla scienza Europea ed a quella Statunitense,
fornisce la scusa per trascurare le conseguenze di ciò che già ora sappiamo essere possibile.

Motori di Creazione faceva alcune proiezioni sullo sviluppo dei sistemi di pubblicazione ipertestuale; ora ne
è quanto meno apparso uno. Sebbene il Web manchi di diverse importanti caratteristiche, fornisce
comunque molti dei benefici descritti in Motori di Creazione. È gratificante vedere Motori di Creazione
disponibile in questo media. I miei ringraziamenti a Russell Whitaker per la conversione del libro in html, ed a
Jim Lewis per aver scansionato elettronicamente il testo per una precedente versione destinata al sistema
ipertestuale HyperCard.

[NOTA: Una seria omissione è stata commessa in una precedente versione dei ringraziamenti per la
conversione elettronica del testo originale. Ringraziamenti aggiuntivi dovrebbero essere rivolti a John L.
Quel, da condividere con The Boeing Company e con John Cramer della University of Washington. Tutti loro
hanno contribuito vari anni fa, poco dopo la pubblicazione del libro, alla scansione elettronica a
riconoscimento di caratteri (OCR) del testo originale, in un tempo in cui questo tipo di scansione era una
sfida di notevole impegno tecnico. Grazie al Dottor Jim Lewis per aver portato alla mia attenzione questa
omissione. - Russell Whitaker]

Non c'è molto che cambierei se riscrivessi oggi Motori di Creazione (non farei altro che perdemi nei dettagli
rendendolo neno leggibile e cambierei ben poco della sostanza). Il lavoro tecnologico si mantiene in
evoluzione, e si espande in portata così come nei dettagli analitici, ma i concetti di base sono sopravvissuti
ad un esame critico sia sulla rete che altrove.

Per tenervi informati sugli sviluppi nella nanotecnologia, potete contattare il Foresight Institute o visionare il
Sito Web del Foresight (http://www.foresight.org), nonché il sito dell'Institute for Molecular Manufacturing
attualmente in costruzione.

Eric Drexler, Research Fellow


Institute for Molecular Manufacturing
Palo Alto, California - Aprile 1996

3
Prefazione
di Marvin Minsky

Engines of Creation (Motori di Creazione) di K. Eric Drexler è un libro enormemente originale che riguarda
le conseguenze di nuove tecnologie. È ambizioso ed immaginativo, e cosa migliore di tutte, le sue riflessioni
sono tecnicamente fondate.

Ma come si potrebbe prevedere dove ci condurranno scienza e tecnologia? Nonostante molti scienziati e
tecnici abbiano provato a farlo, non c'è forse da stupirsi che i tentativi più riusciti siano quelli degli scrittori di
fantascienza come Jules Verne e H. G. Wells, Frederik Pohl, Robert Heinlein, Isaac Asimov, e Arthur C.
Clarke? È certo che alcuni di questi scrittori conoscevano parecchio sulla scienza dei loro tempi. Ma forse il
motivo più importante del loro successo è stato che si sono occupati in egual misura anche delle pressioni e
delle scelte che immaginavano emergere dalle loro società. Malgrado ciò, come Clarke stesso ha
sottolineato con enfasi, è virtualmente impossibile prevedere i dettagli delle future tecnologie su periodi più
lunghi di un secolo in avanti, o forse persino su periodi più brevi. Per prima cosa, è virtualmente impossibile
prevedere in dettaglio quali alternative diverranno tecnicamente realizzabili su un intervallo di tempo di
qualsiasi lunghezza. Perché? Semplicemente perché se si potesse prevedere tutto con chiarezza,
probabilmente si riuscirebbe a raggiungere quelle stesse cose in molto meno tempo, ammesso che ci sia la
volontà di farlo. Un secondo problema è che risulta ugualmente difficile fare supposizioni sul carattere dei
cambiamenti sociali che hanno maggiori probabilità di accadere. Considerate tali incertezze, guardare avanti
è come costruire una torre di ragionamenti molto alta e sottile. Tutto quello che sappiamo con certezza è che
una tale costruzione è inaffidabile.

Come si potrebbe costruire con maggiore buon senso? Anzitutto le fondamenta devono essere ben stabili, e
Drexler ha costruito sulle aree più fondate della conoscenza odierna. Per proseguire, si dovrebbe supportare
ogni passo che giunga ad una conclusione importante arrivando a questa lungo più di una strada, prima di
intraprendere il passo successivo. E questo perché, in mancanza di un tale modo di procedere ed a causa
delle così tante incognite, nessun singolo ragionamento potrebbe essere sufficientemente robusto da
sostenersi in piedi da sé. In conformità a questo criterio, Drexler fornisce supporti molteplici per ogni
argomento importante. In definitiva non si fida mai completamente del suo giudizio personale su tali
argomenti poiché tutti noi abbiamo, senza esserne consapevoli, desideri e timori che condizionano il modo in
cui pensiamo.

Ma a differenza della maggior parte degli iconoclasti, per molti anni Drexler ha esposto queste idee, con
coraggio ed apertamente, sia agli scettici più conservatori che ai più visionari sognatori e pensatori
appartenenti a serie comunità scientifiche (come quella che ruota attorno al MIT). Egli ha sempre ascoltato
attentamente quello ciò che gli dicevano i suoi interlocutori, ed in qualche caso ha anche modificato di
conseguenza le proprie opinioni.

Motori di Creazione si apre con la perspicace osservazione che quello che possiamo fare dipende da quello
che possiamo costruire. Questo conduce ad una attenta analisi dei possibili modi di ammucchiare atomi.
Quindi Drexler domanda: "Che cosa potremmo costruire con questo meccanismo di accatastamento
d'atomi?". Per prima cosa, potremmo fabbricare macchine assemblatrici persino molto più piccole delle
cellule viventi, e fabbricare materiali più forti e più leggeri di qualsiasi altro materiale attualmente disponibile.
Quindi, migliori navette spaziali. Quindi, minuscoli dispositivi che possano viaggiare lungo i capillari per
entrare nelle cellule viventi e ripararle. Quindi, la capacità di curare le malattie, invertire le devastazioni
dell'età e rendere i nostri corpi più veloci o più forti di prima. E potremmo anche fabbricare macchine tanto
piccole da avere la dimensione di un virus, macchine che lavorerebbero a velocità che nessuno di noi può
ancora pienamente apprezzare. Ed a quel punto, una volta che avremmo imparato come fare tutto questo,
potremmo avere la possibilità di assemblare questa miriade di minuscole parti in macchine intelligenti
basate, forse, sull'impiego di migliaia di miliardi di nanoscopici dispositivi che elaborino in parallelo e che
producano descrizioni, le confrontino con degli schemi precedentemente memorizzati, ed utilizzino le
memorie di tutti i loro precedenti esperimenti. Per cui queste nuove tecnologie potrebbero cambiare non
soltanto i materiali che usiamo per modellare il nostro ambiente fisico, ma anche le attività che potremmo
essere in grado di perseguire all'interno di qualsiasi tipo di mondo che costruiremo.

Ora, tornando al problema posto da Arthur C. Clarke riguardo la difficile previsione di ciò che accadrà in un
tempo superiore ai cinquanta anni da oggi, vediamo che si tratta di una affermazione persino quasi
discutibile, tenuto conto degli argomenti che Drexler tratta. Una volta avviato il processo di "accatastamento"
di atomi nello schema voluto, un periodo di "soli cinquant'anni" potrebbe comportare maggiori trasformazioni
di tutte quelle che abbiamo visto fin da tempi prossimi al medioevo. Tuttavia, a dispetto di tutto quello che

4
sentiamo dire a riguardo delle moderne rivoluzioni tecnologiche, mi sembra che esse non abbiano fatto una
gran differenza nelle nostre vite lungo l'ultimo mezzo secolo trascorso. La televisione ha davvero cambiato il
mondo? Sicuramente meno di quanto avesse già fatto la radio ed ancora meno di quanto l'avesse cambiato
il telefono. E che dire degli aereoplani? Hanno semplicemente ridotto i tempi di viaggio da giorni ad ore e per
di più dopo che ferrovie ed automobili li avevano già ridotti da settimane a giorni! Ma Motori di Creazione ci
porta sulla soglia di cambiamenti genuinamente significativi; la nanotecnologia potrebbe avere più effetto
sulla nostra esistenza materiale di quello già comportato dalle ultime due grandi invenzioni in questo
dominio: ossia la sostituzione dell'uso di travi e pietre con metalli e cementi e lo sfruttamento dell'elettricità.
Allo stesso modo, possiamo paragonare i possibili effetti della Intelligenza Artificiale a proposito di come
pensiamo e come potremmo giungere a pensare su noi stessi, solo con due altre precedenti invenzioni:
quelle del linguaggio e della scrittura.

Presto saremo faccia a faccia con queste prospettive ed opzioni. Come dovremmo agire nel gestirle? Motori
di Creazione spiega come queste nuove alternative potrebbero essere indirizzate verso molte delle nostre
più vitali preoccupazioni umane: verso benessere o povertà, salute o malattia, pace o guerra. E Drexler non
offre un mero catalogo di neutrali possibilità, ma una moltitudine di idee, nonché proposte di punti di
partenza per cominciare a valutare queste idee.

Motori di Creazione è il miglior tentativo mai presentato e così dotato di lungimiranza, per prepararci a
pensare a quel che potremmo diventare se dovessimo persistere nel creare nuove tecnologie.

Marvin Minsky
Donner Professor of Science
Massachusetts Institute of Technology

5
Ringraziamenti
Le idee esposte in questo libro sono state forgiate da molte menti. Tutti gli autori hanno un debito
incalcolabile nei confronti dei precedenti scrittori e pensatori, e le sezioni dedicate alle note e ai riferimenti
bibliografici forniscono un parziale riconoscimento del mio debito. Ma anche altre persone hanno avuto una
influenza più immediata attraverso la lettura e la critica completa o parziale di svariati saggi, articoli e bozze,
che di fatto sono stati gli antenati della attuale versione di questo libro. I loro contributi si sono espressi in
forme che vanno da brevi lettere a critiche, e da suggerimenti a revisioni estese e dettagliate; a tutti loro va
riconosciuto molto del merito per l'evoluzione del manoscritto verso la sua forma e il suo contenuto attuale.
In ogni caso mi attribuisco la responsabilità di tutte le sue pecche residue.

In proposito, vorrei avere il piacere di ringraziare Dale Amon, David Anderson, Alice Barkan, James
Bennett, David Blackwell, Kenneth Boulding, Joe Boyle, Stephen Bridge, James Cataldo, Fred e Linda
Chamberlain, Hugh Daniel, Douglas Denholm, Peter Diamandis, Thomas Donaldson, Allan Drexler, Hazel
Drexler, Arthur Dula, Freeman Dyson, Erika Erdmann, Robert Ettinger, Mike Federowicz, Carl Feynman,
David Forrest, Christopher Fry, Andy, Donna, Mark, e Scott Gassmann, Hazel e Ralph Gassmann, Agnes
Gregory, Roger Gregory, David Hannah, Keith Henson, Eric Hill, Hugh Hixon, Miriam Hopkins, Joe Hopkins,
Barbara Marx Hubbard, Scott A. Jones, Arthur Kantrowitz, Manfred Karnovsky, Pamela Keller, Tom e Mara
Lansing, Jerome Lettvin, Elaine Lewis, David Lindbergh, Spencer Love, Robert e Susan Lovell, Steve Lubar,
Arel Lucas, John Mann, Jeff MacGillivray, Bruce Mackenzie, Marvin Minsky, Chip Morningstar, Philip
Morrison, Kevin Nelson, Hugh O'Neill, Gayle Pergamit, Gordon e Mary Peterson, Norma e Amy Peterson,
Naomi Reynolds, Carol Rosin, Phil Salin, Conrad Schneiker, Alice Dawn Schuster, Rosemary Simpson, Leif
Smith, Ray Sperber, David Sykes, Paul Trachtman, Kevin Ulmer, Patricia Wagner, Christopher Walsh, Steve
Witham, David Woodcock, ed Elisa Wynn. Poiché questa lista è stata compilata da archivi incompleti e
mucchi di manoscritti annotati, mi scuso con coloro che potrei aver dimenticato. Devo ringraziamenti ulteriori
a coloro che hanno partecipato a svariati incontri, tenutisi al MIT ed altrove, poiché hanno sollevato
domande che mi hanno aiutato a raffinare queste idee e la loro presentazione.

Per il loro aiuto ed incoraggiamento, vorrei anche ringraziare il mio agente, Norman Kurz, ed i miei assistenti
editoriali, James Ralmes, Dave Barbor, e Patrick Filley. Infine, per alcuni contributi di eccezionale qualità ed
importanza, durante tutto questa fatica, vorrei ringraziare Mark S. Miller e, più di tutti, Christine Peterson.
Senza il suo aiuto, non avrei potuto rendere tutto ciò possibile.

K. Eric Drexler

6
Parte Prima: I FONDAMENTI DELLA PREVISIONE

Capitolo 1: MOTORI DI COSTRUZIONE (1)


L'ingegnerizzazione delle proteine […] rappresenta (2) il primo importante passo verso una abilità più
generale per l'ingegneria molecolare che ci permetterebbe di strutturare la materia atomo per atomo.
KEVIN ULMER
Direttore delle Ricerche Esplorative - Genex Corporation

Carbone e diamanti, sabbia e circuiti integrati, tessuti sani e cancerosi: nel corso di tutta la storia, le
variazioni nelle disposizioni di atomi hanno fatto la differenza fra scadente e pregiato, fra malato e sano.
Disposti in una certa maniera, gli atomi formano suolo, aria, acqua; disposti in un'altra maniera diventano
fragole mature. Disposti in un modo sono case ed aria fresca; in un altro, diventano cenere e fumo.

La nostra abilità nel creare disposizioni di atomi è alle fondamenta della tecnologia. Siamo andati lontani
nelle nostre capacità di disporre atomi, dallo scheggiare la selce per le punte di frecce al lavorare a
macchina alluminio per navi spaziali. Siamo fieri della nostra tecnologia, dei nostri farmaci salva-vita e dei
nostri computer da tavolo. Tuttavia le nostre navette spaziali sono ancora rozze, i nostri computer ancora
stupidi, e le molecole dei nostri tessuti degenerano ancora nel disordine, danneggiando prima la nostra
salute e poi la vita stessa. Per tutti i nostri progressi nella disposizione di atomi utilizziamo ancora metodi
primitivi. Con la nostra tecnologia attuale siamo tuttora costretti a maneggiare gli atomi in gruppi
indisciplinati.

Ma le leggi della natura lasciano immenso spazio per il progresso, e le pressioni della competizione
mondiale continuano a spingerci in avanti. Nel bene o nel male, il più grande "passo avanti" tecnologico della
storia deve ancora arrivare.

Due Stili di Tecnologia


La nostra tecnologia moderna è fondata su una tradizione antica. Trentamila anni fa, scheggiare la selce
era l'alta tecnologia dell'epoca. I nostri antenati, per costruire le loro teste d'ascia, afferravano pietre
contenenti milioni di miliardi di miliardi di atomi e ne rimuovevano schegge contenenti migliaia di miliardi di
miliardi di atomi; sapevano svolgere un lavoro raffinato con abilità che oggi sono difficili da imitare. Essi
disegnarono anche degli schizzi, spruzzando tinture sulle pareti di caverne della Francia ed usando le loro
mani come stampini. In seguito fabbricarono vasi cuocendo argilla e poi bronzo cuocendo le rocce.
Modellarono il bronzo martellandolo. Produssero ferro e poi acciaio, e scaldandolo, battendolo e
rimuovendone le schegge, modellarono anch'esso.

Oggi possiamo cuocere ceramiche purissime e acciai più forti, ma ancora li modelliamo martellandoli,
scheggiandoli, ecc…. Cuociamo del silicio puro, lo tagliamo in fette e tracciamo degli schemi sulla sua
superficie utilizzando minuscoli stampi e spruzzi di luce. Chiamiamo questi prodotti "chips" e li consideriamo
squisitamente piccoli, almeno al confronto delle teste d'ascia.

La nostra tecnologia microelettronica ha manipolato la materia fino a comprimere, su pochi chip di silicio e
all'interno di computer di dimensioni tascabili, macchine altrettanto potenti di quei computer dei primi anni
cinquanta che occupavano una intera stanza. Gli ingegneri stanno oramai realizzando dispositivi persino più
piccoli, fissando gruppi di atomi ad una superficie cristallina per formare cablaggi e componenti di spessore
dieci volte più sottili di quelli di un fine capello.

Questi microcircuiti potranno anche essere piccoli a confronto con la selce scheggiata, ma ogni transistor
consiste ancora di migliaia di miliardi di atomi ed i cosiddetti "microcomputer" sono ancora visibili ad occhio
nudo. Giudicati secondo gli standard di una tecnologia più moderna e potente, ci sembreranno giganteschi.
L'antico stile della tecnologia che ci ha condotto dalla selce scheggiata ai chip di silicio manipola atomi e
molecole in massa; chiamiamola tecnologia di mole. La nuova tecnologia manipolerà atomi e molecole
individualmente, con controllo e precisione posizionali; chiamiamola tecnologia molecolare. Essa cambierà il
nostro intero mondo in più modi di quanti ne possiamo immaginare.

7
I microcircuiti sono formati da parti costituenti che sono misurabili in micrometri ossia in milionesimi di metro;
ma le molecole si misurano in nanometri (mille volte più piccole). Per descrivere il nuovo stile di tecnologia
possiamo usare i termini nanotecnologia e tecnologia molecolare in modo intercambiabile. Gli ingegneri della
nuova tecnologia costruiranno nanocircuiti, ma anche nanomacchine.

La Tecnologia Molecolare Oggi


Una definizione da dizionario (3) per "macchina" è la seguente: "qualsiasi sistema, di solito composto da
corpi rigidi, le cui parti siano conformate e connesse per alterare, trasmettere ed applicare direttamente delle
forze in modo predeterminato per svolgere uno specifico compito, come l'esecuzione di un lavoro utile". Le
macchine molecolari si adattano a questa definizione perfettamente.

Per immaginare queste macchine anzitutto si devono immaginare le molecole. Possiamo raffigurare gli
atomi come delle palline e le molecole come dei gruppetti di tali palline; ossia possiamo immaginare una
molecola come un gruppo di palline in ognuna delle quali un bambino abbia infilato dei gancetti metallici per
poterle agganciare assieme. Di fatto, talvolta, i chimici visualizzano le molecole costruendone modelli con
palline di plastica (alcune delle quali sono legate ad altre, in diverse direzioni, come fossero perni di un
insieme di pezzi del "Mecano"). Gli atomi sono sferici come lo sono le palline e nonostante i legami
molecolari non siano gancetti, la nostra immagine cattura quantomeno il concetto essenziale che i legami
possono rompersi e riformarsi.

Se un atomo fosse della dimensione di una piccola biglia, una molecola piuttosto complessa dovrebbe
avere la dimensione del vostro pugno. E ciò ci dà una utile immagine mentale, ma gli atomi sono in realtà
circa diecimila volte più piccoli di un batterio e i batteri a loro volta sono circa diecimila volte più piccoli di una
zanzara. (Un nucleo atomico, comunque, è circa centomila volte più piccolo della dimensione dell'atomo
stesso; la differenza fra un atomo e il suo nucleo è come il divario che esiste fra un fuoco e una reazione
nucleare.)

Le cose attorno a noi si comportano nel modo in cui lo fanno, a causa del modo in cui si comportano le
molecole che le costituiscono. L'aria non possiede una sua forma così come non possiede un suo volume,
poiché che le sue molecole si muovono liberamente colpendosi e rimbalzando in tutto lo spazio aperto. Le
molecole d'acqua aderiscono fra loro mentre si muovono, sicché l'acqua mantiene un volume costante
mentre cambia forma. Il rame mantiene la sua forma perché i suoi atomi sono connessi assieme secondo
degli schemi regolari; possiamo piegare e martellare il rame perché i suoi atomi possono scivolare l'uno
sull'altro ma rimangono comunque legati assieme. Il vetro va in frantumi quando lo martelliamo perché i suoi
atomi si separano prima di scivolare l'uno sull'altro. La gomma è costituita da molecole organizzate in reticoli
attorcigliati simili ad un groviglio di molle. Quando tendiamo e rilasciamo la gomma, i suoi reticoli di molecole
si stendono, per poi tornare a disporsi a spirale. Questi schemi molecolari semplici caratterizzano le
sostanze passive. Schemi più complessi caratterizzano le nanomacchine "attive" delle cellule viventi.
I biochimici lavorano già con queste macchine, che sono principalmente composte da proteine ossia dal
principale materiale di ingegneria delle cellule viventi. Le macchine molecolari sono composte da
relativamente pochi atomi e quindi le loro superfici si presentano grumose, come fossero le superfici di
oggetti ottenuti incollando assieme una manciata di piccole biglie. Inoltre, molte paia di atomi sono
accoppiate da legami che possono piegarsi o ruotare, sicché le macchine proteiche sono insolitamente
flessibili. Ma come tutte le macchine, esse contengono parti di forme e dimensioni differenti, parti che
svolgono un lavoro utile. Di fatto, tutte le macchine utilizzano dei raggruppamenti di atomi come loro parti
costituenti. Le macchine proteiche differiscono semplicemente per il fatto che usano raggruppamenti molto
piccoli.

I biochimici sognano di progettare e costruire tali dispositivi, ma ci sono delle difficoltà da superare. Gli
ingegneri usano dei raggi di luce per tracciare schemi sopra schegge di silicio, ma i chimici devono
accontentarsi di costruire in modo molto più indiretto. Quando combinano molecole in varie sequenze, essi
possono mantenere soltanto un controllo limitato sul modo in cui le molecole si legano fra loro. Quando i
biochimici necessitano di macchine molecolari più complesse devono tuttora prenderle in prestito dalle
cellule viventi. Ma se i biochimici potessero realizzare macchine molecolari avanzate, le potrebbero infine
utilizzare per costruire nanocircuiti e nanomacchine con la stessa facilità e in modo altrettanto diretto di
quanto possano attualmente fare gli ingegneri nella costruzione di microcircuiti o lavatrici. A quel punto, il
progresso sarà repentino e drammatico.

8
Gli ingegneri genetici hanno già indicato la strada da percorrere. Di solito, quando i chimici costruiscono
delle catene molecolari - ossia i "polimeri" (4) - depositano, senza alcun particolare ordine, delle molecole in
una vaschetta piena di liquido, all'interno del quale esse possono rimbalzare e agganciarsi a caso. Le catene
che ne risultano hanno lunghezze variabili, e le molecole che le compongono sono come annodate assieme,
in nessun ordine particolare.

Ma nelle moderne macchine di sintesi dei geni, gli ingegneri genetici costruiscono dei polimeri più ordinati,
ossia delle specifiche catene molecolari di DNA, unendo le loro molecole componenti in un particolare
ordine. Tali molecole sono i nucleotidi del DNA (le lettere dell'alfabeto genetico) e gli ingegneri genetici non li
depositano tutti assieme in un unico mucchio indistinto. Piuttosto, dirigono la macchina affinché aggiunga
nucleotidi distinti in una particolare sequenza, in modo da formare un particolare messaggio. Prima legano
un tipo di nucleotide al termine della catena, poi sciacquano via il materiale residuo, ed infine aggiungono dei
composti chimici per preparare l'estremo della catena a legarsi al successivo nucleotide. Sviluppano le
catene mano a mano che vi legano i nucleotidi, uno alla volta ed in una sequenza programmata. Agganciano
il primissimo nucleotide di ogni catena ad una superficie solida in modo da preservare la catena stessa
durante i risciacqui con i bagni chimici. In questa maniera ottengono, in vitro, una macchina grande e rozza,
un assemblato di specifiche strutture molecolari con parti costituenti di dimensioni cento milioni di volte più
piccole della macchina stessa.

Ma questo assemblaggio cieco, accidentalmente omette qualche nucleotide da qualche catena. La


probabilità di errori cresce al crescere della lunghezza delle catene. Come operai che scartano le parti
difettose prima di assemblare un'automobile, gli ingegneri genetici riducono gli errori scartando le catene
sbagliate. Successivamente, al fine di congiungere queste brevi catene in geni funzionanti (lunghi
tipicamente migliaia di nucleotidi), passano le catene stesse alle macchine molecolari che troviamo nei
batteri.

Queste macchine proteiche, chiamate enzimi di restrizione, "leggono" certe sequenze di DNA
interpretandole come "taglia qui". Tali enzimi possono leggere al tocco gli schemi genetici del DNA, e lo
fanno aderendo a tali schemi e tagliando la catena grazie alla modifica della disposizione di pochi suoi
atomi. Altri enzimi accoppiano dei pezzi, essendo infatti capaci di interpretare come "incolla qui" le parti che
ben si adattano a congiungersi assieme, e svolgono questo compito "leggendo" le catene per mezzo di una
analoga adesione selettiva ad esse, per poi congiungere le catene a cui hanno aderito grazie alla modifica
della disposizione di pochi atomi. Utilizzando macchine genetiche per "scrivere" ed enzimi di restrizione per
eseguire operazioni di "taglia ed incolla", gli ingegneri genetici possono scrivere ed editare, in un DNA,
qualsiasi messaggio desiderato.

Ma di per se il DNA è una molecola piuttosto insignificante. Non è né forte come il Kevlar, né colorata come
una tintura, né attiva come un enzima, pur possedendo certe proprietà per il cui utilizzo l'industria è pronta a
spendere milioni di dollari: ossia "la capacità di dirigere alcune particolari macchine molecolari denominate
ribosomi". Nelle cellule, le macchine molecolari anzitutto trascrivono il DNA copiando le sue informazioni per
produrne una sorta di registrazione scritta su un "nastro" di RNA. Quindi, in maniera molto simile al
funzionamento delle vecchie macchine utensili di lavorazione dei metalli che venivano controllate
numericamente dalla informazione immagazzinata in un nastro, i ribosomi costruiscono proteine basandosi
sulle istruzioni immagazzinate nei filamenti di RNA. E le proteine sono direttamente utilizzabili.

Le proteine, come pure il DNA, assomigliano a nodosi cordoni di perline. Ma a differenza del DNA, le
molecole proteiche si ripiegano nello spazio per dar forma a piccoli oggetti in grado di svolgere funzioni
specifiche. Alcune proteine sono enzimi, macchine che costruiscono e spezzettano molecole (e copiano il
DNA, lo trascrivono, e costruiscono altri tipi di proteine del ciclo vitale). Altre proteine sono ormoni, che si
legano ad ulteriori proteine per inviare alle cellule dei segnali in grado di modificare il comportamento delle
cellule stesse. Gli ingegneri genetici possono economicamente fabbricare questi oggetti, in quanto possono
dirigere l'economico ed efficiente macchinario molecolare di organismi viventi affinché svolga il lavoro di
fabbricazione all'interno degli stessi organismi. Mentre gli ingegneri che fanno funzionare un impianto
chimico devono lavorare con vasche di reagenti chimici (che spesso dispongono gli atomi in modo sbagliato
e generano anche sottoprodotti nocivi), gli ingegneri che lavorano con i batteri possono far assorbire loro dei
composti chimici, ed ottenere una accurata re-disposizione degli atomi dei composti, oltre a poter scegliere
se immagazzinare il prodotto o farlo rilasciare nel fluido che circonda i batteri.

Gli ingegneri genetici hanno oramai programmato batteri per costruire proteine che vanno dagli ormoni della
crescita umana alla rennina (un enzima usato nella produzione di formaggio). La compagnia farmaceutica Eli
Lilly di Indianapolis sta già commercializzando la Humulin, una insulina umana ottenuta tramite batteri.

9
Macchine Proteiche Esistenti
Queste proteine-ormoni e proteine-enzimi aderiscono selettivamente ad altre molecole. Un enzima cambia
la struttura della sua molecola-bersaglio e successivamente si allontana da essa; un ormone influisce sul
comportamento del suo bersaglio solo per il periodo di tempo durante il quale vi aderisce. Enzimi ed ormoni
possono descriversi in termini meccanici, ma è più frequente che il loro comportamento sia descritto in
termini chimici.

Tuttavia esistono altre proteine che assolvono delle pure funzionalità meccaniche di base(5). Alcune
spingono e tirano, altre agiscono come corde o sostegni e certe parti di alcune molecole costituiscono
eccellenti cuscinetti meccanici. Il macchinario molecolare dei muscoli, per esempio, è composto da schiere
ordinate di proteine che si allungano, afferrano una corda (anche questa fatta di proteine), la tirano, poi
lasciano la presa, ed infine tornano ad allungarsi per una nuova presa; ogni volta che vi muovete usate
queste macchine. Le amebe e le cellule umane si muovono e cambiano forma utilizzando fibre e bastoncini
che agiscono come muscoli ed ossa molecolari. I batteri sono sospinti attraverso l'acqua da un motore
reversibile a velocità variabile, che agisce per mezzo della rotazione di una elica propulsiva dalla forma a
spirale. Se un hobbista volesse costruire minuscole automobili attorno a tali motori, ne potrebbe far stare
miliardi di miliardi in una tasca e per automobili siffatte si potrebbero costruire, all'interno dei vostri più fini
capillari, autostrade da 150 corsie.

Dispositivi molecolari elementari si combinano assieme per formare sistemi che assomigliano a macchine
industriali. Negli anni '50 gli ingegneri svilupparono macchine utensili che tagliavano il metallo sotto il
controllo di un nastro di carta perforata. Un secolo e mezzo prima, Joseph-Marie Jacquard aveva costruito
un telaio che intesseva complessi schemi sotto il controllo di una successione di schede perforate. Più di
oltre tre miliardi di anni prima di Jacquard, le cellule avevano sviluppato il macchinario dei ribosomi. I
ribosomi sono la prova che nanomacchine fatte di proteine ed RNA possono essere programmate per
costruire molecole complesse.

Consideriamo allora i virus. Uno di essi, il "batteriofago T4", agisce come una siringa caricata a molla ed
assomiglia a un oggetto spuntato fuori da un catalogo di componenti industriali. Questo virus può aderire ad
un batterio, incidervi un foro ed iniettare dentro il batterio del DNA virale (si, anche i batteri soffrono di
infezioni). Come un conquistatore che prenda possesso di uno stabilimento industriale per costruire più carri
armati, il DNA iniettato ordina al macchinario cellulare del batterio di costruire altro DNA virale ed altre
siringhe. Come tutti gli organismi, questi virus esistono perché sono piuttosto stabili nonché capaci di far si
che vengano realizzate copie di se stessi.

Che siano o meno dentro una cellula, le nanomacchine obbediscono alle leggi universali della natura.
Comuni legami chimici tengono assieme i loro atomi costituenti e comuni reazioni chimiche (pilotate da altre
macchine) assemblano questi atomi. Le molecole proteiche possono combinarsi per dar forma a macchine
composite persino in assenza di un particolare aiuto, guidate solo dall'agitazione termica e dalle interazioni
chimiche. Mescolando in una provetta delle proteine virali (e il DNA per il quale esse lavorano), i biologi
molecolari hanno assemblato virus T4 funzionanti. Questa capacità è sorprendente: immaginate di
immettere le parti di una automobile in una grossa scatola, scuotere quest'ultima e, quando ci guardate di
nuovo dentro, trovarci un'automobile assemblata! Eppure il virus T4 è solo una delle molte strutture esistenti
capaci di auto-assemblaggio (6). Nei macchinari dei ribosomi i biologi molecolari hanno individuato ed
isolato oltre cinquanta molecole differenti, fra proteine ed RNA, e dopo averle messe tutte assieme in delle
provette ne hanno ottenuto ancora una volta dei ribosomi funzionanti.

Per capire come tutto ciò possa accadere, immaginate differenti catene proteiche del T4, sospese in acqua
e libere di fluttuare. Ogni tipo di catena si ripiega nello spazio, a formare un piccolo agglomerato dotato di
distintive cavità e protuberanze e ricoperto da schemi distintivi di oleosità ed umidità nonché di altrettanto
distintivi schemi di distribuzione di carica elettrica. Immaginate queste catene vagare e roteare su se stesse,
incalzate dalla spinta della vibrazione termica applicata dalle molecole d'acqua circostanti. Di tanto in tanto
due catene si scontrano fra loro, rimbalzando via l'una dall'altra. Talvolta, piuttosto, due di esse si scontrano
e si scoprono adatte l'una all'altra, poiché le protuberanze dell'una si adattano alle cavità dell'altra; poiché le
due catene subiscono nel contempo una pressione di spinta l'una contro l'altra, le corrispondenze
permettono loro di aderire stabilmente. In questo modo delle proteine si aggiungono ad altre proteine per
formare sezioni del virus e le sezioni si assemblano assieme fino a formare l'intero virus.

Gli ingegneri delle proteine non necessitano di nano-braccia o nano-mani per assemblare complesse
nanomacchine. Tuttavia, l'esistenza di minuscoli manipolatori sarà di indubbia utilità e quindi c'è da

10
attendersi che questi verranno costruiti. Proprio come, a partire da ordinari motori, ordinari cuscinetti ed
ordinarie parti mobili, gli odierni ingegneri costruiscono macchine complesse quali suonatori meccanici di
pianoforte o bracci robotici, così i biochimici di domani saranno in grado di utilizzare le molecole proteiche
come motori, cuscinetti e parti mobili, per costruire bracci robotici in grado di manipolare molecole individuali.

Progettare con le Proteine (7)


Quanto lontano può essere spinta questa abilità? Sono stati intrapresi alcuni passi, ma molto è il lavoro che
resta da fare. I biochimici hanno già steso mappe dettagliate delle strutture di molte proteine. Disponendo
dell'aiuto fornito loro da macchine genetiche in grado di scrivere dei nastri di DNA essi potranno, ordinare
alle cellule di costruire qualsiasi proteina riescano a progettare(8). Ma tuttora manca loro la conoscenza di
come progettare catene che si ripieghino nello spazio per dar luogo a proteine con la giusta forma e
funzione. Le forze che piegano le proteine sono deboli e nel contempo il numero di plausibili modi in cui una
proteina potrebbe ripiegarsi è astronomico, cosicché non è facile progettare da zero una grossa proteina.

Le forze che connettono assieme le proteine fino a formare macchine complesse sono le stesse che
determinano anzitutto lo specifico ripiegamento spaziale delle catene proteiche. Le differenti forme e tipi di
connessione di aminoacidi (le nodose perline molecolari che formano le catene proteiche) fanno in modo
che ogni catena proteica si ripieghi spazialmente in una maniera specifica, per dar luogo ad un oggetto con
una particolare forma. I biochimici hanno imparato qualche regola che suggerisce come una catena di
aminoacidi potrebbe piegarsi ma le regole non sono molto rigorose. Provare a prevedere come una catena
si ripiegherà è come provare a lavorare con le tessere di un "puzzle", ma un puzzle senza alcun disegno
stampato sopra i suoi pezzi che possa indicarci se l'accostamento di due tessere risulti corretto, e con pezzi
che sembrano accostarsi fra loro altrettanto bene (o altrettanto male) in molte differenti maniere, tutte
sbagliate eccetto una. Le false partenze possono far sprecare tempi equivalenti a quelli di molte vite, ed una
risposta corretta potrebbe anche non essere riconosciuta. I biochimici, pur utilizzando i migliori programmi
per computer attualmente disponibili, ancora non riescono a prevedere in che modo si ripiegherà una lunga
catena proteica naturale ed alcuni di loro disperano di riuscire a progettare molecole proteiche entro tempi
brevi.

Tuttavia la maggior parte dei biochimici lavora come farebbe uno scienziato e non come farebbe un
ingegnere. Lavorano cercando di prevedere come si ripiegheranno le proteine naturali e non tentando di
progettare proteine che si ripieghino in maniera prevedibile. Questi obiettivi potrebbero sembrare simili(9),
ma differiscono enormemente: il primo è una sfida scientifica, il secondo una sfida di ingegneria. Perché mai
le proteine naturali dovrebbero piegarsi in modi che gli scienziati trovino facili da prevedere? Tutto quello che
la natura richiede, infatti, è che esse si pieghino correttamente e non che si pieghino in modi che siano ovvi
per la gente.

Le proteine potrebbero venir progettate a priori con lo scopo di rendere più prevedibile il loro ripiegamento.
Carl Pabo, scrivendo sulla rivista Nature(10), ha suggerito una strategia di progetto basata su questa
intuizione ed alcuni ingegneri biochimici hanno progettato e costruito brevi catene composte da poche
dozzine di pezzi(11) che si ripiegano e si assestano sulle superfici di altre molecole nel modo pianificato.
Hanno progettato da zero una proteina con proprietà come quelle della melittina(12), una tossina presente
nel veleno d'ape. Hanno modificato enzimi esistenti, alterando il loro comportamento in modi prevedibili(13).
La nostra comprensione delle proteine cresce giornalmente.

Nel 1959, concordando col biologo Garrett Hardin(14), alcuni genetisti dichiararono l'impossibilità
dell'ingegneria genetica; oggi invece l'ingegneria genetica è un'industria. La biochimica e i sistemi CAD
(sistemi di progettazione con l'ausilio del computer) stanno esplosivamente generando nuovi campi e come
Frederick Blattner ha scritto nella rivista Science(15), "i programmi di computer per gli scacchi hanno già
raggiunto un livello poco al di sotto di quello di gran maestro. Forse la soluzione al problema del
ripiegamento delle proteine è più vicina di quanto pensiamo". William Rastetter dalla Genentech, scrivendo
sulla Applied Biochemistry and Biotechnology(16) si domanda: "Quanto è distante la progettazione e la
sintesi 'ex-novo' di enzimi? Dieci, quindici anni?". La risposta che propone è: "Forse, non così tanto".

Forrest Carter nello U.S. Naval Research Laboratory, Ari Aviram e Philip Seiden in IBM, Kevin Ulmer alla
Genex Corporation, ed altri ricercatori in università e laboratori industriali di tutto il globo, hanno già iniziato a
sviluppare lavori teorici ed eseguire esperimenti mirati allo sviluppo di interruttori molecolari, di dispositivi di
memoria e di altre strutture che potrebbero essere incorporate in un computer basato su proteine. Lo U.S.
Naval Research Laboratory ha tenuto due seminari internazionali sui dispositivi elettronici molecolari(17),

11
mentre un incontro sponsorizzato dalla U.S. National Science Foundation ha raccomandato il supporto alle
ricerche di base mirate a sviluppare computer molecolari(18). Secondo quanto riferito in questo incontro, il
Giappone avrebbe avviato un programma del costo di molti milioni di dollari che punta allo sviluppo di motori
e computer molecolari auto-assemblanti e la VLSI Research Inc.(19), a San Jose, scrive in una relazione:
"Sembra che la corsa ai 'bio-chips' [un altro termine per indicare sistemi elettronici molecolari] sia già iniziata.
NEC, Hitachi, Toshiba, Matsushita, Fujitsu, Sanyo-Denki e Sharp hanno avviato sforzi di ricerca a tutto
campo su bio-chips per 'bio-computers'".

I biochimici hanno altre ragioni per voler imparare l'arte della progettazione di proteine. Enzimi di nuova
progettazione promettono di eseguire processi chimici inquinanti in modi più economici e puliti, e proteine di
nuova progettazione offrirebbero ai biotecnologi uno spettro interamente inedito di strumenti. Ci siamo già
incamminati lungo la strada che conduce verso l'ingegneria proteica, e come Kevin Ulmer afferma nella
citazione tratta da Science e riportata in testa al presente capitolo, questa strada conduce "verso una abilità
più generale per l'ingegneria molecolare che ci permetterebbe di strutturare la materia atomo per atomo".

Nanotecnologia di Seconda Generazione


A dispetto della loro versatilità le proteine lasciano a desiderare come materiale da ingegneria. Le macchine
proteiche smettono di funzionare se non idratate, congelano se raffreddate, cuociono se riscaldate. Non
penseremmo mai di fabbricare macchine fatte di carne, capelli e gelatina; lungo i secoli abbiamo imparato ad
usare le nostre mani di ossa e carne per costruire macchine di legno, ceramica, acciaio e plastica. Faremo
ancora qualcosa di simile in futuro. Useremo macchine proteiche per costruire nanomacchine fatte di roba
più resistente delle proteine.

Mano a mano che la nanotecnologia andrà oltre l'esigenza di dover semplicemente fare affidamento sulle
proteine, essa si svilupperà secondo percorsi che, considerati da un punto di vista ingegneristico
tradizionale, sembrano più ordinari. Le molecole saranno assemblate come fossero componenti del gioco
del Mecano e a tali assemblaggi verranno mano a mano vincolate altre, ben legate, parti assemblate.
Proprio come gli strumenti ordinari possono costruire macchine ordinarie a partire dalle loro parti costituenti,
così gli strumenti molecolari legheranno assieme molecole per realizzare minuscoli ingranaggi, motori, leve e
rivestimenti, ed in seguito assembleranno insieme queste parti per comporre delle macchine più complesse.

Le parti contenenti solo pochi atomi avranno un aspetto piuttosto accidentato, ma gli ingegneri potranno
lavorare anche con questi componenti dall'aspetto accidentato, se potranno supportarli con degli adeguati e
levigati cuscinetti. È facile per alcuni legami fra due atomi funzionare da fini cuscinetti, in modo che un
componente possa essere montato per mezzo di un singolo legame chimico(20) che lasci il componente
capace di ruotare liberamente ed in maniera uniforme. Poiché un cuscinetto può essere realizzato
utilizzando solo due atomi (e poiché le parti mobili necessitano solo di pochi atomi), le nanomacchine
potranno di fatto essere costituite da componenti meccanici di dimensioni molecolari.
Come si potrebbe riuscire a costruire queste macchine migliori? Nel corso degli anni, gli ingegneri hanno
sfruttato la tecnologia per migliorare la tecnologia stessa. Hanno impiegato strumenti di metallo per
modellare i metalli in strumenti migliori ed hanno utilizzato dei computer per progettare e programmare
computer migliori. Allo stesso modo useranno nanomacchine costituite da proteine per costruire
nanomacchine migliori. Gli enzimi ci indicano quale sia la giusta strada da intraprendere: assemblano grosse
molecole "afferrandone" di più piccole dall'acqua attorno a loro e mantenendole vicine fra loro fino a formare
un legame. Gli enzimi assemblano in questa maniera DNA, RNA, proteine, grassi, ormoni e clorofilla, ossia
potenzialmente l'intero spettro delle molecole che è possibile trovare nelle cose viventi.

Per cui, gli ingegneri biochimici costruiranno dei nuovi enzimi utilizzabili per assemblare nuove
configurazioni di atomi. Per esempio, potrebbero fabbricare una macchina simile ad un enzima che aggiunga
atomi di carbonio ad un piccolo puntino iniziale, livello su livello. Se correttamente legati, gli atomi
formeranno una fibra di diamante(21) purissima e flessibile, oltre cinquanta volte più robusta di un blocco di
alluminio dello stesso peso. Le compagnie aereospaziali farebbero la fila per comprare tonnellate di queste
fibre, allo scopo di ricavarne avanzati materiali composti (e ciò mostra parzialmente quale sia uno dei tanti
motivi per cui la competizione militare favorirà il progresso della tecnologia molecolare, come già in passato
ha spinto in avanti tanti altri campi).

Ma il grande progresso arriverà quando le macchine proteiche saranno capaci di realizzare strutture ben più
complesse che non le semplici fibre. Queste macchine proteiche programmabili saranno gli analoghi dei
ribosomi programmati dall'RNA, o gli analoghi della più antica fra le generazioni di macchine utensili

12
automatiche programmate da nastri perforati. Le macchine proteiche programmabili schiuderanno un nuovo
mondo di possibilità, consentendo agli ingegneri di fuggire dalle limitazioni imposte dalle proteine e di
costruire con progettazione diretta macchine robuste e compatte.

Le proteine ingegnerizzate potranno frantumare e ricomporre le molecole nello stesso modo in cui
attualmente possono farlo gli enzimi. Le proteine esistenti si legano ad una gran varietà di molecole più
piccole utilizzandole come utensili chimici; le nuove proteine ingegnerizzate utilizzeranno tutti questi utensili
e molti altri.

Inoltre, i chimici organici hanno dimostrato che le reazioni chimiche possono produrre notevoli risultati
anche senza nanomacchine che dirigano le molecole. I chimici non hanno controllo diretto sui movimenti
tumultuosi delle molecole in un liquido, per cui le molecole sono libere di reagire in qualsiasi modo possano
farlo a seconda di come vanno a scontrarsi l'una contro l'altra. Tuttavia i chimici non possono indurre delle
molecole reattive(22) a formare strutture regolari come, ad esempio, molecole cubiche o dodecaedriche, o
strutture dall'aspetto improbabile come anelli molecolari con legami altamente stirati. Le macchine
molecolari, in quanto produttori di legami, saranno capaci di una versatilità ancora più grande perché
potranno usare movimenti molecolari analoghi a quelli naturali e al tempo stesso potranno anche guidare
questi movimenti in modi impossibili per i chimici.

Infatti, poiché i chimici non possono ancora dirigere i movimenti molecolari, raramente possono assemblare
delle molecole complesse in accordo ad intenti specificati. Le più grandi molecole con configurazioni
complesse ed esattamente specificate che i chimici siano in grado di produrre sono tutte delle catene lineari.
I chimici costruiscono queste configurazioni (come nelle macchine genetiche) aggiungendo in sequenza le
molecole costituenti una per volta ed accrescendo gradualmente la catena. Esistendo un solo possibile sito
di legame, imposto dalla catena stessa, i chimici possono essere certi di aggiungere il pezzo successivo
nella posizione giusta.

Tuttavia, nel caso di una molecola più o meno rotondeggiante, ma irregolare, e che abbia, diciamo, un
centinaio di atomi di idrogeno sulla sua superficie, come potrebbero i chimici staccare via un atomo, proprio
uno in particolare (ad esempio quello cinque atomi più su e tre di lato rispetto alla protuberanza frontale) per
aggiungere qualcos'altro al suo posto? Provare a mescolare semplici reagenti chimici assieme di rado
riuscirà a compiere il lavoro desiderato, perché le piccole molecole raramente possono selezionare
specifiche posizioni in cui andare a reagire con una grossa molecola. Ma le macchine proteiche saranno
molto più pignole.

Una macchina proteica flessibile e programmabile afferrerà una grossa molecola (il pezzo di lavoro) e vi
accosterà una piccola molecola esattamente nella posizione giusta. Proprio come fa un enzima, legherà le
molecole assieme. Legando una molecola dopo l'altra al pezzo di lavoro, la macchina assemblerà una
struttura via via più grande, mantenendo nel contempo il completo controllo del modo in cui gli atomi sono
disposti. Questa è la abilità chiave che manca ai chimici.

Proprio come già fanno i ribosomi, nanomacchine dotate di tali capacità possono lavorare sotto la direzione
di nastri molecolari di istruzioni. Ma a differenza dei ribosomi esse maneggeranno una grande varietà di
piccole molecole (non solo aminoacidi) e le collegheranno al pezzo di lavoro in qualunque posizione
desiderata e non esclusivamente alla fine della catena. Le macchine proteiche saranno simultaneamente
dotate delle tipiche capacità degli enzimi di separare e congiungere, e della programmabilità tipica dei
ribosomi. Ma mentre i ribosomi possono costruire solo le labili disposizioni spaziali di una proteina, queste
macchine proteiche potranno costruire oggetti piccoli e solidi fatti di metallo, ceramica o diamante: oggetti
invisibilmente piccoli eppure tenaci.

Dove c'è possibilità che le nostre dita di carne si ustionino o si feriscano, noi le sostituiamo con tenaglie
d'acciaio. Dove c'è la possibilità che le macchine proteiche si stritolino o si disintegrino, le sostituiremo con
nanomacchine composte da materiale più resistente.

Assemblatori Universali
Queste nanomacchine di seconda generazione, costituite da ben più che semplici proteine, sapranno fare
tutto quello che le proteine possono fare ma anche molto di più (23). In particolare, alcune serviranno come
dispositivi più sofisticati per l'assemblaggio di strutture molecolari. In grado di tollerare, a seconda della loro
specifica progettazione, ambienti acidi, vuoto, congelamento o cottura, gli analoghi degli enzimi

13
rappresentati dalle macchine di seconda generazione saranno in grado di utilizzare come "strumenti" quasi
qualsiasi molecola reattiva usata dai chimici, ma sapranno maneggiarla con la precisione di macchine
programmate. Potenzialmente sapranno legare assieme gli atomi in qualsiasi schema stabile, aggiungendo
pochi atomi per volta alla superficie di un pezzo in costruzione, fino a completare una complessa struttura. Si
pensi a queste nanomacchine come assemblatori(24).

Poiché gli assemblatori ci consentiranno di posizionare atomi in qualsiasi disposizione ragionevole (25)
(come discusso nelle note), essi ci metteranno in grado di costruire quasi qualunque cosa la cui esistenza
sia permessa dalle leggi della natura. In particolare, ci permetteranno di costruire qualunque cosa saremo in
grado di progettare, inclusi altri assemblatori. Le conseguenze di ciò saranno profonde visto che i nostri rozzi
strumenti ci hanno permesso fino ad ora di esplorare solo una piccola parte dell'insieme di possibilità
consentito dalle leggi naturali. Gli assemblatori schiuderanno un intero mondo di nuove tecnologie.

I progressi nella tecnologia spaziale, in quella medica, nel calcolo e nella produzione, nonché nella
tecnologia bellica, dipendono tutti dalla nostra capacità di realizzare disposizioni di atomi. Con gli
assemblatori saremo in grado di modellare nuovamente il nostro mondo, oppure di distruggerlo. Quindi, a
questo punto, sembra saggio fare un passo indietro e guardare a queste possibilità con la massima
chiarezza consentitaci, in modo da essere sicuri che assemblatori e nanotecnologia non siano un mero
miraggio futuristico.

Riepilogo delle Conclusioni


In ognuna delle cose che ho descritto, mi sono strettamente attenuto a fatti dimostrati della chimica e della
biologia molecolare. Tuttavia, la gente solleva regolarmente inevitabili obiezioni correlate ai principi della
fisica e della biologia. Tali obiezioni meritano delle risposte più dirette.

° Il principio di indeterminazione della fisica quantistica rende inattuabili le macchine molecolari?

Questo principio asserisce (fra le altre cose) che non è possibile stabilire precisamente la posizione di una
particella durante un comunque fissato intervallo di tempo. Tale principio pone un limite a quello che le
macchine molecolari possono fare, così come pone un limite a qualsiasi altra cosa si possa fare.
Ciononostante, i calcoli mostrano che il principio di indeterminazione pone pochi importanti limiti su "quanto
bene" gli atomi possano essere mantenuti in una posizione stabilita, almeno per gli scopi qui delineati. Il
principio di indeterminazione rende le posizioni degli elettroni piuttosto "vaghe" e di fatto questa incertezza
determina l'effettiva dimensione e struttura degli atomi. Un atomo, inteso come ente unico, ha comunque
una posizione relativamente definita, determinata dalla posizione del suo nucleo di massa. Se gli atomi non
stessero in una posizione sufficientemente definita, le molecole non esisterebbero. Non c'è bisogno di
studiare la meccanica quantistica per confidare in queste conclusioni, poiché le macchine molecolari nelle
cellule dimostrano che una macchina molecolare può funzionare.

° Le macchine molecolari potrebbero non funzionare, o comunque essere troppo inaffidabili per essere
usate, a causa delle vibrazioni molecolari dovute al calore?

Le vibrazioni termiche causeranno problemi ben più grandi rispetto a quelli causati dal principio di
indeterminazione, tuttavia anche in questo caso l'esistenza di macchine molecolari naturali costituisce la
dimostrazione diretta che le macchine molecolari possono funzionare a temperature ordinarie. A dispetto
delle vibrazioni termiche, il macchinario di copiatura del DNA in certe cellule(26) compie meno di un errore
ogni cento miliardi di operazioni. Per ottenere questa accuratezza, comunque, le cellule utilizzano alcune
particolari macchine (come l'enzima denominato " DNA polimerasi I ") che lavorano sulla copia come farebbe
un correttore di bozze, correggendo gli errori della copia. Gli assemblatori potrebbero necessitare di
analoghe capacità di controllo, detenzione e correzione degli errori, perché possano essere in grado di
produrre risultati affidabili.

° Le radiazioni potrebbero distruggere le macchine molecolari, rendendole inutilizzabili?

Le radiazioni d'alta energia possono rompere i legami molecolari e distruggere le macchine molecolari.
Ancora una volta le cellule viventi mostrano che esistono delle soluzioni: esse funzionano per anni riparando
e rimpiazzando le parti danneggiate dalle radiazioni(27). Poiché le macchine, individualmente, sono
comunque così minuscole, esse costituiscono bersagli piccoli per le radiazioni e ne vengono raramente
colpite. Inoltre, se un sistema di nanomacchine deve essere affidabile, deve tollerare una certa percentuale

14
di danno e le parti danneggiate devono regolarmente essere riparate o sostituite. Questo approccio alla
affidabilità è ben noto ai progettisti di aereoplani e navette spaziali.

° Poiché l'evoluzione non è riuscita a produrre assemblatori, questo non dimostra che essi sono impossibili
o privi d'utilità?

Alle prime domande si è risposto in parte guardando al funzionamento del macchinario molecolare delle
cellule. Esso infatti rappresenta una prova semplice e potente del fatto che le leggi naturali consentono, a
piccoli raggruppamenti di atomi, di comportarsi come macchine controllate in grado di costruire altre
nanomacchine. Tuttavia, a dispetto della loro somiglianza di base con i ribosomi, gli assemblatori differiranno
da qualsiasi cosa mai trovata nelle cellule; le cose che produrranno, pur fabbricate per mezzo di movimenti
ordinari ed ordinarie reazioni molecolari, rappresenteranno risultati del tutto inediti. Nessuna cellula, per
esempio, produce fibre di diamante.

L'idea che nuovi tipi di nanomacchine ci metteranno a disposizione capacità nuove ed utili capacità,
potrebbe sembrare sbalorditiva: in tutti i suoi miliardi di anni di evoluzione la vita non ha mai smesso di
basarsi(28) sulle macchine proteiche. Questo suggerisce forse che sono impossibili dei miglioramenti?
L'evoluzione avanza attraverso piccoli cambiamenti e l'evoluzione del DNA non può facilmente sostituire il
DNA stesso. Poiché il sistema DNA/RNA/ribosomi è specializzato nel produrre proteine, la vita non ha
nessuna opportunità reale di evolvere una alternativa. Qualunque manager di produzione ne può ben
apprezzare la ragione; anche più di quel che accade in una fabbrica, la vita non può permettersi di arrestarsi
per sostituire i suoi vecchi sistemi.

Non dovremmo perciò essere sorpresi delle migliorie possibili sulle macchine molecolari più di quanto lo
siamo del fatto di poter produrre leghe d'acciaio dieci volte più forti delle ossa o cavi di rame che trasmettono
segnali un milione di volte più velocemente di quanto facciano i nervi. Le automobili sorpassano i ghepardi,
gli aerei jet volano più veloci dei falchi ed i computer già superano le capacità di calcolo mentale umano. Il
futuro porterà ulteriori esempi di migliorie che sono possibili rispetto alla evoluzione biologica, nell'ambito
delle quali la seconda generazione di nanomacchine non sarà che una di esse.

In termini fisici è abbastanza chiaro perché gli assemblatori avanzati saranno in grado di fare più di quanto
siano capaci di fare le macchine proteiche esistenti. Essi saranno programmabili come i ribosomi, ma capaci
di usare un insieme di strumenti più ampio di quello costituito da tutti gli enzimi di una cellula messi insieme.
Poiché, rispetto alle proteine saranno fatti di materiali molto più forti rigidi e stabili, saranno quindi in grado di
esercitare forze più grandi e muoversi con più grande precisione nonché sopportare condizioni più difficili.
Come i bracci di robot industriali, ma a differenza di qualsiasi cosa in una cellula vivente, essi saranno
capaci di spostare e ruotare molecole in tre dimensioni e sotto controllo programmato, rendendo possibile il
preciso assemblaggio di oggetti complessi. Questi vantaggi li renderanno capaci di assemblare un insieme
di strutture molecolari più vasto di quello che le cellule viventi hanno finora realizzato.

° Non c'è qualcosa di magico e speciale nella vita che dovrebbe quindi essere indispensabile per rendere
funzionanti le macchine molecolari artificiali?

Si potrebbe dubitare che le nanomacchine artificiali possano mai eguagliare le capacità delle nanomacchine
naturali delle cellule se ci fosse una qualche ragione di credere che le cellule contengano qualche specialità
magica che permette loro di funzionare. Questa idea è chiamata "vitalismo". I biologi l'hanno abbandonata
perché hanno trovato spiegazioni chimiche e fisiche per ogni aspetto delle cellule viventi finora studiato,
inclusi il loro moto, la loro crescita e la loro riproduzione. Di fatto, questa conoscenza costituisce il
fondamento essenziale delle biotecnologie.

Le nanomacchine che fluttuano in sterili provette da laboratorio, ossia liberamente fuori dalle cellule, sono
state in grado di svolgere tutti i tipi di attività basilari che svolgono nelle cellule viventi. Partendo da reagenti
chimici che possono essere estratti da aria ricca di smog i biochimici hanno costruito macchine proteiche
senza aiuto dalle cellule. R. B. Merrifield(29), per esempio, ha usato tecniche chimiche per assemblare
semplici aminoacidi, fino a produrre ribonucleasi pancreatica bovina, un dispositivo enzimatico che
disassembla molecole di RNA. La vita è speciale nella sua struttura, nel suo comportamento e in quello che
di essa "percepiamo" essendo noi stessi "vivi", tuttavia le leggi della natura che governano il suo
macchinario molecolare governano anche il resto dell'universo.

° I motivi della realizzabilità degli assemblatori e di altre nanomacchine saranno anche solidamente fondati,
ma perché non aspettare semplicemente di vedere se queste cose possano essere sviluppate?

15
La pura curiosità sembra motivo sufficiente per esaminare le possibilità che la nanotecnologia ci aprirebbe,
ma ci sono anche motivi più forti per farlo. Questi sviluppi si propagheranno come un'onda lungo il mondo
intero e lo faranno entro un periodo che va da dieci a cinquant'anni; il che significa entro il tempo di vita che
ci attendiamo per noi stessi o per le nostre famiglie. C'è da dire inoltre che le conclusioni a cui si giunge nei
capitoli seguenti suggeriscono che una politica di "aspetta e guarda" potrebbe essere molto costosa, nel
senso che potrebbe costare molti milioni di vite nonché, forse, persino la fine della vita sulla Terra.

I motivi della realizzabilità della nanotecnologia e degli assemblatori sono sufficientemente fondati da dover
prendere in seria considerazione queste cose? Sembra che sia proprio così, perché il nucleo centrale della
possibilità si basa su due fatti ben stabiliti della scienza e dell'ingegneria. Questi fatti sono: (1) che le
macchine molecolari esistenti sono in grado di svolgere un insieme di funzioni di base, e (2) che le parti che
svolgono queste funzioni di base possono essere combinate per costruire macchine complesse. Poiché le
reazioni chimiche possono legare assieme gli atomi in diversi modi e poiché le macchine molecolari possono
dirigere le reazioni chimiche in accordo a istruzioni programmate, gli assemblatori sono indubbiamente
realizzabili.

Nanocomputer
Gli assemblatori prepareranno la strada ad un altro passo avanti tecnologico di importanza ovvia e basilare:
gli ingegneri infatti sfrutteranno gli assemblatori per ridurre la dimensione ed i costi dei circuiti per computer
ed accelerare di fattori enormi la loro velocità operativa.

Con l'attuale tecnologia di "mole", gli ingegneri tracciano degli schemi su schegge di silicio e vi lasciano
depositare atomi e fotoni, ma gli schemi restano comunque piatti e sono inevitabilmente caratterizzati da
difetti di scala molecolare. Tuttavia, con gli assemblatori, gli ingegneri realizzeranno circuiti in tre dimensioni
e costruiti con precisione atomica. I limiti esatti della tecnologia elettronica odierna rimangono incerti, perché
il comportamento quantistico degli elettroni in complesse reti di minuscole strutture è inscindibile da problemi
complessi, alcuni dei quali risultanti direttamente dal principio di indeterminazione. Qualunque siano i limiti
effettivi, sarà comunque possibile raggiungerli con l'aiuto degli assemblatori.

I più veloci fra i computer sfrutteranno effetti elettronici, ma i più piccoli potrebbero anche non farlo. Ciò
potrebbe sembrarci strano e tuttavia l'essenza della computazione non ha nulla a che fare con l'elettronica.
Un computer digitale è una raccolta di interruttori in grado di far commutare altri interruttori da condizioni di
"acceso" a condizioni di "spento". Gli interruttori del computer partono da una determinata configurazione
(per esempio rappresentante la somma 2 + 2), poi si commutano uno con l'altro in una nuova configurazione
(rappresentante 4) e così via. Tali configurazioni possono rappresentare quasi qualunque cosa. Gli ingegneri
costruiscono computer composti da minuscoli interruttori elettronici e connessi fra loro da cablaggi elettrici
semplicemente perché degli interruttori meccanici connessi da bacchette o corde risulterebbero, allo stato
attuale delle cose, troppo grandi, lenti, inaffidabili e dispendiosi.

L'idea di un computer puramente meccanico è tutt'altro che nuova. In Inghilterra, durante la metà del
1800(30), Charles Babbage inventò un computer meccanico costituito da ingranaggi d'ottone; la sua
collaboratrice, Augusta Ada, contessa di Lovelace, inventò la programmazione per computer. Babbage
riprogettò senza fine la sua macchina, circostanza che, assieme alle difficoltà tecniche per la accurata
produzione degli ingranaggi ed all'ostilità dei critici attenti al bilancio economico (alcune di queste critiche
riguardavano dubbi sulla stessa utilità dei computer!), contribuì ad impedire il completamento del progetto.
In questa tradizione, Danny Hillis e Brian Silverman del Laboratorio di Intelligenza Artificiale del MIT, hanno
costruito un computer "dedicato", specializzato nel giocare a tic-tac-toe (NdT - gioco noto in Italia come
'Tris'). Di dimensioni di metri e pieno zeppo di alberi rotanti e telai mobili che rappresentano lo stato del
tavoliere di gioco e la strategia di azione, questo computer si trova adesso al Computer Museum di Boston.
Assomiglia molto ad un enorme modello di molecola realizzato con biglie e bacchette che connettono le
biglie, e proprio per questo è stato costruito con pezzi del Mecano.

Ingranaggi di ottone e pezzi di Mecano possono solo dar forma a computer lenti ed ingombranti. Tuttavia,
con componenti della estensione di pochi atomi, un computer puramente meccanico potrebbe occupare un
centesimo di micrometro cubo e risulterebbe perciò molti miliardi di volte più compatto di quelli realizzabili
con la "cosiddetta" microelettronica attuale. Anche se avesse un miliardo di bytes di memoria, un computer
nanomeccanico potrebbe stare in una scatola di un micrometro di lato(31), all'incirca la dimensione di un
batterio. E sarebbe persino veloce. Nonostante nelle macchine attuali i segnali meccanici(32) si propaghino
circa centomila volte più lentamente dei segnali elettrici, i primi avrebbero bisogno di percorrere distanze un

16
milione di volte più brevi, determinando così ritardi di propagazione inferiori. Sicché, un computer puramente
meccanico lavorerebbe più velocemente dei frenetici computer elettronici odierni.
Per finire, considerando invece dei nanocomputer elettronici, essi saranno probabilmente anche migliaia di
volte più veloci dei microcomputer elettronici, anzi forse persino centinaia di migliaia di volte più veloci se
uno schema di progetto proposto dal premio Nobel per la Fisica Richard Feynman(33) dovesse dimostrarsi
capace di funzionare. In elettronica, accrescere la velocità per effetto della riduzione della dimensione è una
vecchia storia.

Disassemblatori
I computers molecolari dirigeranno gli assemblatori molecolari, fornendo loro il rapido flusso di istruzioni
necessarie a comandare il posizionamento di un immenso numero di atomi. Nanocomputer con dispositivi
molecolari di memoria, immagazzineranno anche dati generati da un processo che è l'esatto contrario
dell'assemblaggio.

Gli assemblatori aiuteranno gli ingegneri a sintetizzare le cose; i loro "complementari", i disassemblatori(34),
aiuteranno gli scienziati e gli stessi ingegneri ad analizzare le cose. La realizzabilità degli assemblatori si
basa sulla capacità degli enzimi e delle reazioni chimiche di formare legami e su quella delle macchine di
controllare il processo. La realizzabilità dei disassemblatori si basa sulla capacità degli enzimi e delle
reazioni chimiche di rompere legami e su quella delle macchine di controllare il processo. Enzimi, acidi,
ossidanti, metalli alcalini, ioni ed i gruppi di atomi reattivi denominati "radicali liberi", possono tutti rompere
legami e rimuovere gruppi di atomi. Poiché nulla è assolutamente immune alla corrosione, sembrerebbe
perciò che gli utensili molecolari saranno in grado di smantellare ogni cosa, pochi atomi alla volta. Ed in più,
una nanomacchina potrebbe (per necessità o convenienza) anche saper applicare adeguate forze
meccaniche, riuscendo di fatto a curiosare all'interno dei gruppi di atomi appena liberati.
Una nanomacchina in grado di far tutto questo e che allo stesso tempo mantiene una registrazione di ciò
che, livello dopo livello, sta rimuovendo, è un disassemblatore. Assemblatori, disassemblatori e
nanocomputer lavoreranno assieme. Per esempio, un sistema di nanocomputer sarà in grado di dirigere il
disassemblamento di un oggetto, registrare la sua struttura e poi dirigere l'assemblaggio di sue copie
perfette. E tutto ciò ci fornisce qualche indizio per afferrare quale sia la potenza implicita nella
nanotecnologia.

Il Mondo Ricreato
Ci vorranno anni perché compaiano gli assemblatori ma il loro emergere sembra quasi inevitabile: sebbene
percorrere l'intera strada che conduce verso gli assemblatori richieda il compimento di molti passi distinti,
ogni passo ci condurrà al punto dal quale potremo cominciare a lavorare per il successivo, ed ogni passo
compiuto comporterà immediate ricompense. I primi passi sono già stati fatti sotto i nomi di ingegneria
genetica e biotecnologia. Sembra che esistano anche altre possibili strade che conducono verso gli
assemblatori. Fatta eccezione per il verificarsi di eventi come distruzioni o dittature totalitarie di estensioni
mondiali, la corsa tecnologica proseguirà, che lo si desideri o meno. E quando i progressi nella
progettazione assistita dal calcolatore andranno ad accelerare lo sviluppo di strumenti molecolari, i progressi
verso gli assemblatori diverranno acutamente più rapidi.

Per avere qualche speranza di comprendere il nostro futuro, dobbiamo capire le conseguenze degli
assemblatori, dei disassemblatori e dei nanocomputer. Essi promettono di provocare trasformazioni tanto
profonde quanto quelle causate dalla rivoluzione industriale, dagli antibiotici e dalle armi nucleari, tutte
assieme, in un unico massiccio passo avanti tecnologico. Per comprendere un futuro di così profonda
trasformazione, ha senso esplorare gli intrinseci principi del cambiamento che hanno caratterizzato ognuno
dei più grandi sconvolgimenti del passato. Essi possono dimostrarsi una utile guida.

17
Capitolo 2: I PRINCIPI DEL CAMBIAMENTO
Si pensi al processo di progettazione(1) come qualcosa che richiede in un primo momento la generazione di
alternative e successivamente la verifica di queste alternative contro un intera schiera di requisiti e vincoli.
HERBERT A. SIMON

Gli assemblatori molecolari costituiranno una rivoluzione che non ha equivalente dai tempi dello sviluppo dei
ribosomi, i primitivi assemblatori interni alla cellula. La nanotecnologia che ne risulterebbe può aiutare la vita
a diffondersi oltre la Terra, un passo che non ha equivalente dai tempi in cui la vita si è diffusa al di fuori dei
mari. Essa potrebbe anche aiutarci nel riuscire a far manifestare la "mente" nelle macchine, un fatto senza
equivalente fin dai tempi in cui la mente si è manifestata nei primati. E ci permetterebbe di rigenerare le
nostri menti e rimodellare i nostri corpi, un fatto senza equivalente alcuno.

Queste rivoluzioni saranno accompagnate da pericoli ed opportunità troppo grandi per essere afferrate
dall'immaginazione umana. Eppure i principi del cambiamento che sono stati applicati a molecole, cellule,
animali, menti e macchine, dovrebbero mantenere la loro validità anche in un'epoca di biotecnologie,
nanomacchine e menti artificiali. Gli stessi principi che sono stati applicati al mare, alla terraferma e all'aria,
dovrebbero conservare la loro validità quando diffonderemo la vita terrestre verso le stelle. Comprendere i
persistenti principi del cambiamento ci aiuterà a comprendere il potenziale benefico e il potenziale malefico
delle nuove tecnologie.

Ordine dal Caos


L'ordine può emergere dal caos senza che nessuno lo imponga: cristalli ordinati si sono condensati da gas
interstellari privi di forma molto tempo prima che apparissero il Sole, la Terra o la vita. Il caos può far
emergere ordine cristallino anche sotto circostanze più familiari. Immaginate una molecola, forse regolare
nella forma, o forse obliqua e nodosa come una radice di zenzero. Ora immaginate un immenso numero di
tali molecole muoversi a caso in un liquido, roteando e spingendosi l'una con l'altra, come ubriachi privi di
peso ed al buio. Immaginate il liquido che evapora e si raffredda, obbligando le molecole a disporsi più vicine
fra loro ed a rallentare il loro moto. Queste molecole dalla forma strana e dai movimenti casuali si
raccoglieranno semplicemente in mucchi disordinati? Generalmente no. Esse si disporranno, di solito, in uno
schema cristallino, con ogni molecola accuratamente accoccolata contro le sue vicine, a formare righe e
colonne così perfette come quelle di una scacchiera e spesso persino più complesse.

Questo processo non coinvolge nulla di magico e nemmeno qualche speciale proprietà delle molecole e
delle forze meccaniche quantistiche. Esso non richiede null'altro che l'esistenza di specifiche corrispondenze
di forme, tali da consentire alle molecole proteiche di auto-assemblarsi in macchine. Biglie di uguale
dimensione, se messe in una vaschetta ed agitate, si dispongono in schemi regolari.

I cristalli si accrescono per tentativi e rimozione degli errori, per variazione e selezione. Non ci sono
minuscole mani ad assemblarli. Un cristallo può cominciare con un fortuito agglutinarsi di molecole in un
piccolo gruppo: le molecole vagano, si urtano e si raggruppano a caso, ma i raggruppamenti sono più coesi
quando confezionati secondo un appropriato schema cristallino. Altre molecole colpiscono questo primo
minuscolo cristallo. Alcune di esse lo urtano nella posizione o nella orientazione sbagliata; si attaccano
debolmente al cristallo e poi se ne distaccano. Ad altre molecole succede di urtare il cristallo nel modo
appropriato; vi aderiscono meglio e spesso vi restano stabilmente attaccate. Un livello si costruisce su un
altro livello, estendendo così lo schema cristallino. Nonostante la casualità degli urti fra molecole, esse non
aderiscono a caso. Sicché dal caos si viene a sviluppare ordine per mezzo di variazione e selezione.

Evolvere Molecole
Nella crescita cristallina, ogni livello si comporta da stampo per il successivo. Livelli uniformi si accumulano,
per formare un blocco solido. Nelle cellule, filamenti di DNA o RNA possono fungere anche loro come uno
stampo, aiutati da enzimi che agiscono da macchine di copiatura molecolari. Ma le sub-unità dei filamenti di
acido nucleico possono essere disposte in molte differenti sequenze, ed un filamento "matrice" può separarsi
dalla sua copia. Sia il filamento originario che la copia(2) possono essere ulteriormente copiati. Il biochimico
Sol Spiegelman(3) ha usato una macchina copiatrice (una proteina tratta da un virus) per esperimenti in
provetta. In un ambiente pur semplice e privo di vita, essa riesce a duplicare molecole di RNA.

18
Immaginate un filamento di RNA che fluttua in una provetta contenente macchine di copiatura e sub-unità di
RNA. Il filamento rotea e si contorce su se stesso finché va ad urtare contro una macchina copiatrice nella
giusta posizione per aderirvi. Le sub-unità si scontrano tutt'attorno fino a che una del tipo giusto incontra la
macchina copiatrice nella giusta posizione per adattarsi alla forma del filamento-stampo. Mano a mano che
le sub-unità cadono casualmente nella giusta posizione, la macchina copiatrice le cattura e le lega
chimicamente alla copia in accrescimento; nonostante le sub-unità rimbalzino a caso, la macchina le lega in
modo selettivo. Alla fine, macchina, stampo e copia si separano.

Nella terminologia di Richard Dawkins, zoologo di Oxford, le cose che producono copie di se stesse sono
dette replicatori(4). Nel caso dell'ambiente che stiamo ipotizzando, le molecole di RNA ben corrispondono
alla seguente caratterizzazione: una singola molecola presto diventa "due" molecole, queste diventano
quattro, quindi otto, sedici, trentadue e così via, in una moltiplicazione esponenziale. Successivamente, il
tasso di crescita della velocità di replicazione si azzera: l'insieme considerato di macchine proteiche, può
sfornare copie di RNA solo a quella velocità, non importa quante siano le molecole di "stampo" che si
contendono i loro servigi. Più tardi ancora, i materiali grezzi per produrre molecole di RNA cominciano a
scarseggiare ed il processo di replicazione giunge, per inedia, ad un arresto. L'esplosiva crescita di
popolazione delle molecole raggiunge un limite al suo accrescimento, e le molecole smettono di riprodursi.
Le macchine copiatrici, comunque, spesso copiano erroneamente i filamenti di RNA, inserendo o
cancellando singole sub-unità, oppure accoppiandole in modo sbagliato. Il filamento mutante che ne risultata
differisce dall'originale per lunghezza o nella sequenza delle sue sub-unità. Tali modificazioni sono in gran
parte casuali e le differenze si accumulano sempre più mano a mano che le copie molecolari erronee
vengono ancora una volta copiate erroneamente. Poiché le molecole proliferano, comincia a crescere il
grado di differenza che c'è fra l'una e l'altra o fra loro e i loro progenitori. Questa potrebbe sembrare una
sicura ricetta per il caos.

I biochimici hanno riscontrato che molecole di RNA differenti si replicano a ritmi differenti, a seconda della
lunghezza dei filamenti e degli schemi di disposizione delle loro sub-unità. I discendenti dei replicatori più
rapidi, diventano naturalmente più comuni. Infatti, se un tipo di replicatore si replica con un tasso soltanto del
10 percento più rapido dei suoi simili, rispetto ad essi avrà, dopo cento generazioni, mille volte più
discendenti. Le piccole differenze, in una crescita esponenziale, si moltiplicano esponenzialmente.
Quando in una provetta non ci sono più sub-unità libere, uno sperimentatore può prelevare campioni di RNA
e "infettare" una nuova provetta. Il processo inizia nuovamente e le molecole che hanno dominato il primo
round della competizione partono da una condizione di assoluta dominanza numerica. Appaiono ulteriori
piccole variazioni che si accumulano nel tempo in variazioni più grandi. Alcune molecole si replicano più
velocemente e la loro specie giunge a dominare la miscela della provetta. Quando le risorse si esauriscono,
lo sperimentatore può prelevare dalla provetta altri campioni di RNA e ricominciare ancora una volta
l'esperimento, ed ancora, ed ancora, mantenendo sempre stabili le condizioni sperimentali.

Questo esperimento è rilevatore di un processo naturale: indipendentemente da quali siano le sequenze di


RNA con cui l'esperimento viene avviato, l'apparente caos di errori casuali e copiature preferenziali porta
avanti un solo tipo di molecola di RNA (fatta eccezione per qualche errore di copiatura). La versione tipica
dell'RNA vincente ha una ben definita sequenza di 220 sub-unità. È il miglior RNA replicatore nel suo
ambiente, sicché si moltiplica rispetto agli altri fino a restare solo.

Un prolungato processo di copiatura, copiatura erronea e competizione, produce all'incirca sempre lo stesso
risultato, indipendentemente da quale sia la lunghezza della molecola di RNA che ha avviato il processo o
quale sia lo schema costituente la sua sequenza. Sebbene nessuno potrebbe prevedere quale sarà lo
schema vincente, chiunque può accorgersi che mutazione e competizione tenderanno a portare avanti un
singolo vincitore. In un sistema così semplice potrebbe accadere ben poco d'altro. Se questi replicatori si
influenzassero fortemente l'uno con l'altro (aggredendosi selettivamente oppure aiutandosi l'un l'altro), allora
il risultato potrebbe assomigliare ad una ecologia un po' più complessa. Ma per come stanno le cose, essi
possono soltanto competere per le risorse.

Una possibile "variazione sul tema" per questo esempio, ci mostra qualcos'altro: le molecole di RNA si
adattano differentemente in ambienti differenti. Una macchina molecolare chiamata ribonucleasi afferra delle
molecole di RNA che hanno determinate sequenze di sub-unità esposte, e le taglia in due. Ma le molecole di
RNA, come le proteine, si ripiegano spazialmente in configurazioni che dipendono dalla loro sequenza, e
ripiegandosi nel modo appropriato possono proteggere i loro punti vulnerabili. Gli sperimentatori hanno
riscontrato che, quando la ribonucleasi è presente nel loro ambiente, le molecole di RNA evolvono
sacrificando la rapidità di replicazione a vantaggio di una loro maggiore protezione. Ancora una volta emerge
fra tutti un competitore "eccellente".

19
Si noti come alcuni termini biologici si siano infiltrati in questa descrizione: poiché le molecole si replicano, la
parola "generazione" sembra appropriata; le molecole "discendenti" da un comune "antenato" sono
"imparentate", e le parole "crescita", "riproduzione", "mutazione" e "competizione" sembrano altrettanto
adatte. Perché tutto questo? Perché queste molecole copiano se stesse con piccole variazioni, proprio come
fanno i geni degli organismi viventi. Quando replicatori varianti vanno incontro a un successo variabile, il
replicatore di maggior successo tende ad accumularsi. Questo processo, dovunque accada, è definito
"evoluzione".

Questo esempio della provetta ci consente di osservare l'evoluzione spogliata fino alla sua nuda essenza,
libera dalla polemica emotiva che circonda l'evoluzione della vita. Gli RNA replicatori e le macchine copiatrici
proteiche sono raggruppamenti ben definiti di atomi, che obbediscono a principi ben compresi e possono
evolversi in condizioni di laboratorio ripetibili. I biochimici possono produrre RNA e proteine da comunissimi
reagenti chimici prelevati dagli scaffali del loro laboratorio, senza alcun aiuto dalla vita.

I biochimici prendono a prestito queste macchine copiatrici da un tipo di virus che infetta i batteri ed
utilizzano dell'RNA come suo materiale genetico. I virus sopravvivono entrando in un batterio, copiando se
stessi con l'uso delle risorse del batterio e quindi fuggendo per infettare un nuovo batterio. Gli errori di
copiatura dell'RNA virale producono virus mutati ed i virus che si replicano con maggior successo diventano i
più comuni; questo processo rappresenta una evoluzione per selezione naturale, che a quanto pare si
chiama "naturale" perché coinvolge parti "non umane" della natura. Ma a differenza dell'RNA in provetta,
l'RNA virale deve fare di più che il semplice replicarsi come fa una molecola nuda. Per aver successo, l'RNA
virale deve anche dirigere i ribosomi del batterio infettato perché costruiscano dispositivi proteici che gli
permettano anzitutto di fuggire dal vecchio batterio, nonché di sopravvivere all'esterno ed infine entrare in un
batterio nuovo. Questa informazione aggiuntiva comporta una lunghezza delle molecole di RNA virale di
circa 4.500 sub-unità.

Per replicarsi con successo, il DNA di grossi organismi deve fare ancora di più, dirigendo la costruzione di
decine di migliaia di differenti macchine proteiche e lo sviluppo di complessi organi e tessuti. Questo richiede
migliaia di geni, codificati in milioni di miliardi di sub-unità di DNA. Nonostante ciò, il basilare processo
d'evoluzione attraverso variazione e selezione resta identico a quello che si svolge nella provetta, nei virus e
in molti altri sistemi.

Spiegando l'Ordine
Ci sono almeno tre modi per spiegare la struttura di una popolazione di replicatori molecolari dopo un
processo d'evoluzione, sia che si parli di RNA in provetta, che di geni virali o di geni umani. Il primo tipo di
spiegazione è una descrizione passo-passo della loro storia: la spiegazione di come sono avvenute
specifiche mutazioni e come si sono diffuse. Ciò è ovviamente impossibile senza registrare tutti gli eventi
molecolari, ed una tale registrazione sarebbe in ogni caso enormemente tediosa.

Il secondo tipo di spiegazione fa ricorso ad una parola in qualche modo ingannevole: scopo. Guardando nel
dettaglio, vediamo soltanto variazioni a casaccio e replicazioni selettive. Tuttavia, guardando il processo da
una maggiore distanza, si potrebbe descriverne il risultato finale immaginando che le molecole sopravvissute
si siano trasformate per "raggiungere l'obiettivo" rappresentato dalla replicazione. Perché le molecole di RNA
che evolvono sotto la minaccia della ribonucleasi si ripiegano spazialmente nel modo in cui fanno? A causa
di una lunga e dettagliata storia passata, naturalmente, ma l'idea che "esse vogliano evitare attacchi e
sopravvivere alla replicazione" sarebbe in grado di prevedere lo stesso risultato. Il linguaggio dello scopo
costituisce una comoda scorciatoia (provare a discutere in termini di azione umana pur in assenza di
questa), ma l'apparenza di uno scopo non deve necessariamente risultare dall'azione di una mente.
L'esempio dell'RNA mostra tutto questo in modo piuttosto chiaro.

Il terzo (e spesso il migliore) tipo di spiegazione in termini di evoluzione afferma che l'ordine emerge tramite
la variazione e la selezione dei replicatori. Una molecola si ripiega in un particolare modo perché assomiglia
ai suoi antenati che si sono moltiplicati con maggior successo (evitando attacchi, ecc..) e che sono riusciti a
lasciare dei discendenti, compresa questa stessa particolare molecola. Come Richard Dawkins fa notare(5),
il linguaggio dello scopo (se usato con attenzione) può essere tradotto nel linguaggio dell'evoluzione.

L'evoluzione attribuisce schemi di successo alla "eliminazione di modifiche che non hanno incontrato il
successo". Così facendo, interpreta un risultato positivo come equivalente ad un doppio risultato negativo,

20
un tipo di spiegazione che, per la sua sottigliezza, sembra difficile da afferrare. Quel che è peggio, essa
spiega qualcosa di visibile (entità di successo, entità con uno scopo) in termini di qualcosa di invisibile (entità
senza successo che sono quindi scomparse). Poiché solo gli animali di successo hanno cosparso la
terraferma delle ossa dei loro discendenti, i fallimenti malformati del passato non hanno mai potuto lasciare
molti fossili.

La mente umana tende a focalizzarsi sul visibile, cercando cause positive per risultati positivi e cercando
inoltre una forza ordinatrice dietro a risultati ordinati. Tuttavia, riflettendoci, possiamo vedere il grande
principio che ha cambiato il nostro passato e modellerà il nostro futuro: l'evoluzione procede per variazione e
selezione dei replicatori.

Organismi in Evoluzione
La storia della vita è la storia di una corsa agli armamenti basata sulle macchine molecolari. Oggi che
questa corsa si avvicina ad una fase nuova e più rapida, è necessario che ci assicuriamo di comprendere
bene quanto profondamente radicata sia l'evoluzione. In tempi in cui l'idea di evoluzione biologica è spesso
disprezzata nelle scuole e talvolta attaccata, dovremmo ricordare che le prove a suo supporto sono solide
come roccia e comuni quanto lo sono le cellule.

In pagine di pietra, la Terra stessa ha registrato la storia della vita. Sul fondo dei laghi e nei letti marini si
sono accumulate conchiglie, ossa e limo, livello dopo livello. Talvolta il cambiamento di una corrente o uno
sconvolgimento geologico hanno spazzato via alcuni livelli; oppure essi sono semplicemente sprofondati più
in basso. I primi livelli, profondamente seppelliti com'erano, sono stati distrutti, cotti, disciolti in acque
minerali, e ritrasformati in pietra.

Per secoli i geologi hanno studiato le rocce per leggere il passato della Terra. Molto tempo fa, essi
trovarono conchiglie marine nelle rocce raggrinzite e frantumante di alcune catene montuose. Nel 1785,
settantaquattro anni dalla pubblicazione del detestato libro di Darwin(6), James Hutton concluse che il fango
dei letti marini era stato pressato fino a formare queste rocce, le quali erano poi state sollevate verso il cielo
da forze non ancora comprese. Che cos'altro potevano pensare i geologi, a parte un inganno della natura
stessa?

Essi notarono che le ossa e le conchiglie fossili differivano da livello a livello. Videro che le conchiglie in un
livello qui, corrispondevano a quelle trovate in un livello lì, per quanto profondamente sotterrati i livelli
fossero. Diedero nomi ai livelli (A,B,C,D..., o Osagian, Meramecian, Lower Chesterian, Upper Chesterian,…)
[NdT -Epoche del sottoperiodo Missisipiano nel Carbonifero Inferiore - da 345 a 320 milioni di anni fa], ed
usarono i loro fossili caratteristici per identificare i livelli delle stratificazioni rocciose. Gli sconvolgimenti della
crosta non hanno lasciato impressa in alcun luogo una completa sequenza di livelli, sicché i geologi,
trovando A,B,C,D,E in un posto, C,D,E,F,G,H,I,J in un'altro e J,K,L da qualche altra parte ancora, poterono
comunque concludere che A precedeva L. I geologi petroliferi (anche quelli per nulla interessati
all'evoluzione o alle sue implicazioni) usano tuttora la datazione dei livelli di roccia basata sui fossili per
comparare i livelli fra un sito di trivellazione ed un altro.

Gli scienziati giunsero alla ovvia conclusione. Proprio come le specie marine odierne vivono in aree molto
estese, così facevano le specie estinte in anni passati. Proprio come il livello odierno si è depositato sopra il
più alto dei livelli passati, così fecero in passato. Conchiglie simili in livelli simili indicano sedimenti depositati
nella stessa era. Le conchiglie cambiano da livello a livello perché le specie cambiano da era ad era. Questo
è ciò che i geologi hanno trovato scritto in conchiglie ed ossa, su pagine di pietra.

I livelli superiori delle rocce contengono ossa di animali più recenti, mentre i livelli più profondi contengono
ossa di animali ormai estinti. I livelli ancora più primitivi non mostrano traccia di alcuna delle specie moderne.
Sotto ossa di mammiferi giacciono ossa di dinosauri. Nei livelli più vecchi giacciono le ossa di anfibi, più giù
conchiglie e ossa di pesci, ed infine del tutto nessuna conchiglia od osso. Le più antiche rocce che
contengono fossili, portano solo tracce microscopiche di singole cellule.

La datazione con metodi radioattivi indica che queste tracce più antiche risalgono a qualche miliardo di anni
fa. Le prime cellule più complesse dei batteri si datano a poco più di un miliardo di anni fa. La storia dei
vermi, pesci, anfibi, rettili e mammiferi copre solo le ultime centinaia di milioni di anni. Ossa simili a quelle
umane si datano attorno a qualche milione di anni da ora. I resti delle civiltà passate si datano entro qualche
migliaio di anni.

21
In tre miliardi di anni, la vita è evoluta da cellule singole in grado di assorbire semplici reagenti chimici a
raggruppamenti di cellule che incorporano menti capaci di assorbire idee. Nell'ambito dell'ultimo secolo, la
tecnologia si è evoluta dalla locomotiva a vapore e dalla luce elettrica fino alle navi spaziali ed ai computer
elettronici, e questi ultimi cominciano ad imparare a leggere e scrivere. Con la mente e la tecnologia, il ritmo
dell'evoluzione è schizzato in avanti di un milione di volte o più.

Un'altro Percorso all'Indietro


Il libro delle pietre registra le forme di organismi morti da tempo, tuttavia anche le cellule viventi contengono
delle registrazioni, veri testi genetici che solo ora vengono letti. Come le idee della geologia, le idee
essenziali dell'evoluzione erano note prima che Darwin(7) mettesse la penna sul foglio.

In templi e monasteri illuminati da lampade ad olio, generazioni di scribi copiarono e ricopiarono i


manoscritti. Talvolta copiarono erroneamente parole e frasi, sia per caso o perversità che per ordine del
locale legislatore, e mano a mano che il manoscritto veniva replicato ad opera di queste macchine umane di
copiatura, gli errori si sono accumulati. Gli errori peggiori potrebbero essere stati scovati e rimossi ed alcuni
dei passi ormai famosi potrebbero essere sopravvissuti senza alterazioni, ma si generarono comunque
molte differenze rispetto agli originali.

I libri antichi raramente esistono nella loro versione originale. Le copie più vecchie sono spesso di secoli più
giovani rispetto ai perduti originali. Ciononostante, da copie differenti con differenti errori, gli studiosi
possono ricostruire versioni più vicine alla originale.

Essi confrontano i testi. Possono tracciare linee di discendenza da antenati comuni sulla base di schemi di
errori univoci, che tradiscano la copiatura da una sorgente comune (gli insegnanti scolastici conoscono
questo principio: risposte identiche e corrette non sono sospette, a meno che non siano state copiate da un
libro di testo, ma guai agli studenti seduti fianco a fianco che facciano gli stessi errori nei loro compiti in
classe!). Dove tutte le copie sopravvissute concordano, gli studiosi possono assumere che la copia originale
(o almeno l'ultimo comune antenato delle copie sopravvissute) contenesse le stesse parole. Dove le copie
sopravvissute differiscono, gli studiosi trovano indicazioni per individuare il comune distante antenato da cui
discendono le due copie divergenti, poiché le restanti aree di accordo delle due copie indicano una
derivazione comune dalla versione più antica.

I geni assomigliano a manoscritti composti con un alfabeto di sole quattro lettere. Così come uno stesso
messaggio nel linguaggio ordinario può assumere più forme (non è necessario un grande sforzo per
formulare nuovamente una idea con l'uso di parole totalmente differenti), così anche differenti parole
genetiche possono dirigere la costruzione di identiche molecole proteiche. Inoltre, molecole di proteine con
caratteristiche di dettaglio differenti possono svolgere funzioni identiche. Un gruppo di geni in una cellula è
come un intero libro, come un vecchio manoscritto copiato e ricopiato da scribi imprecisi.

Come studiosi all'esame di antichi testi, i biologi generalmente lavorano con copie moderne del loro
materiale (con la differenza che, ahimè, non c'è nessun "papiro" biologico proveniente da un mare ormai
defunto, che sia stato trascritto per noi nei primitivi giorni della vita). Essi confrontano gli organismi dotati di
aspetti simili (leoni e tigri, cavalli e zebre, ratti e topi) e scoprono che questi sono provvisti, nei loro geni e
nelle loro proteine, di risposte simili agli stessi problemi. Più due organismi differiscono (leoni e lucertole,
umani e girasoli), più queste risposte differiscono, persino fra macchine molecolari che assolvono identiche
funzioni. Per dirla tutta, animali simili fanno errori simili: tutti i primati, per esempio, mancano di enzimi che
producano vitamina C, una omissione condivisa soltanto da altri due fra i mammiferi conosciuti, il maiale
della Guinea e il pipistrello della frutta. E ciò suggerisce che noi primati abbiamo copiato le stesse risposte
genetiche da una sorgente comune, tanto tempo fa.

Lo stesso principio che mostra le linee di discendenza dei testi antichi (e che aiuta a correggere i loro errori
di copiatura) rivela così anche le linee di discendenza della vita moderna. Infatti, esso indica che tutta la vita
conosciuta condivide la sua discendenza da un comune antenato.

22
L'ascesa dei Replicatori
I primi replicatori sulla Terra evolsero abilità che andavano oltre a quelle consentite a molecole di RNA che
si replicano in una provetta. Al tempo in cui avevano raggiunto lo stadio batterico, essi avevano sviluppato il
"moderno" sistema che utilizza DNA, RNA, e ribosomi per costruire proteine. Le mutazioni quindi
modificarono non solo lo stesso DNA replicatore, ma anche le macchine proteiche e le strutture viventi che
queste costruiscono e modellano.

Squadre di geni modellarono cellule sempre più elaborate, quindi guidarono verso la cooperazione cellulare
che costituì infine organismi complessi. Variazione e selezione favorirono squadre di geni che modellarono
bestie con pelli protettive e bocche affamate, animate da nervi e muscoli, guidati da occhi e cervello. Come
dice Richard Dawkins(8), i geni costruirono macchine di sopravvivenza sempre più elaborate per favorire la
replicazione di se stessi.

Quando i geni di un cane si replicano, spesso si mescolano con i geni di altri cani che sono stati
artificialmente selezionati da persone che scelgono quali cuccioli tenere ed allevare. Lungo i millenni, la
gente ha plasmato degli animali simili a lupi per trasformarli in levrieri, barboncini, bassotti e san bernardi.
Selezionando quali geni dovessero sopravvivere, la gente ha rimodellato i cani sia nel corpo che nel
carattere. I desideri umani hanno stabilito le caratteristiche di successo per i geni canini; pressioni ben
diverse hanno definito i geni di successo dei lupi.

Mutazione e selezione dei geni hanno, attraverso lunghe ere, riempito il mondo di erba e di alberi, di insetti
e di pesci, e di gente. Più di recente altre cose sono apparse e si sono moltiplicate; strumenti, case, aerei e
computer. E come le molecole di RNA prive di vita, questo hardware si è evoluto.

Tecnologia in evoluzione
Come le pietre della Terra registrano la comparsa di forme di vita sempre più complesse e capaci, così i
resti e gli scritti dell'umanità registrano la comparsa di forme di hardware sempre più complesso e capace. Il
nostro hardware più antico sopravvissuto fino ad oggi è la pietra stessa, seppellita assieme ai fossili dei
nostri antenati; il nostro hardware più recente orbita sopra le nostre teste.

Consideriamo per un momento l'ascendenza ibrida dello space shuttle. Per il suo aspetto di aereoplano,
esso discende dai jet di alluminio degli anni sessanta, che derivano in linea diretta dagli aerei rivestiti con
alluminio della seconda guerra mondiale, dai biblani di legno e tela della prima guerra mondiale, dagli alianti
a motore dei fratelli Wright, e infine dagli alianti giocattolo e agli aquiloni. Per il suo aspetto di razzo, lo
shuttle deriva dai razzi lunari, che sono derivati dai missili militari, che discendono dai razzi di artiglieria
dell'ultimo secolo ("ed il rosso bagliore del razzo..."), ed infine dai fuochi artificiali giocattolo. Questo ibrido
aereoplano/razzo riesce a librarsi ed attraverso un processo di variazione dei componenti e della
progettazione, gli ingegneri aereospaziali ne evolveranno di ancora migliori.

Gli ingegneri parlano di "generazioni" di tecnologie; I progetti giapponesi per computer di "quinta
generazione" mostrano quanto rapidamente alcune tecnologie crescano e prolifichino. Gli ingegneri parlano
di "ibridi", di "tecnologie in competizione" nonché della loro "proliferazione". Il direttore delle ricerche dell'IBM,
Ralph E. Gomory sottolinea con enfasi la natura evolutiva della tecnologia, scrivendo che "lo sviluppo della
tecnologia è più evolutivo e molto meno rivoluzionario e meno basato su improvvisi passi avanti radicali, di
quanto la maggior parte delle persone immagini" (Infatti anche passi avanti radicali come quelli rappresentati
dagli assemblatori molecolari si svilupperanno attraverso molti piccoli passi). Nella citazione all'inizio di
questo capitolo, il Professor Herbert A. Simon della Carnegie-Mellon University ci invita a pensare "al
processo di progettazione come qualcosa che richiede in un primo momento la generazione di alternative e
successivamente la verifica di queste alternative contro un intera schiera di requisiti e vincoli". Generazione
e verifica di alternative sono sinonimi di variazione e selezione.

A volte esistono già varie alternative. Nel testo "One Highly Evolved Toolbox" (Una Scatola degli Attrezzi
Altamente Evoluta), tratto da The Next Whole Earth Catalog(9), J. Baldwin scrive: "La nostra scatola degli
attrezzi portatile si è evoluta per circa venti anni fino ad oggi. Non c'è nulla di realmente speciale in essa,
eccetto che un continuo processo di rimozione di utensili obsoleti o inadeguati nonché di sostituzione degli
stessi con altri più adatti, è infine risultato in una collezione di utensili che l'ha resa un vero e proprio sistema
per "fare-cose" piuttosto che un semplice mucchio di ferramenta".

23
Baldwin usa il termine "evolvere" appropriatamente. Per millenni, invenzione e fabbricazione hanno
generato variazioni nelle caratteristiche di progetto degli utensili e Baldwin ha individuato l'insieme risultante
attuale tramite una "selezione competitiva", mantenendo gli utensili che funzionano meglio assieme ad altri
che meglio si prestano per le sue necessità. Attraverso anni di variazione e selezione il suo sistema è
evoluto, lungo un processo che egli raccomanda vivamente. Di fatto egli esorta chiunque a non tentare mai
di valutare l'acquisto di un insieme completo di attrezzi. Piuttosto, egli consiglia di comprare solo gli attrezzi
che si è soliti prendere in prestito, utensili selezionati dalla esperienza e non dalla teoria.

Le variazioni tecnologiche sono spesso deliberate, nel senso che gli ingegneri sono pagati per inventare e
collaudare. Tuttavia, alcune innovazioni sono assolutamente casuali, come la scoperta di una rozza forma di
Teflon in un cilindro che si presumeva pieno di gas tetrafluoroetilene: pur con la valvola accidentalmente
aperta, il cilindro restò pesante; quando venne segato ed aperto, rivelò uno strano e pallido materiale solido.
Altre innovazioni sono derivate da sistematici tentativi alla cieca. Edison, quando era alla ricerca di un buon
filamento per le lampade a bulbo, provò a carbonizzare ogni cosa, dalla carta al bambù, e persino tele di
ragno. Charles Goodyear pasticciò in una cucina per anni tentando di convertire la gomma naturale in una
sostanza resistente, fino a che gli capitò di far gocciolare della gomma solforizzata su un fornello caldo,
ottenendo così la prima rozza vulcanizzazione.

Nell'ingegneria, illuminati tentativi per prove ed errori, non pianificati da un impeccabile intelletto, hanno
condotto alla maggior parte dei progressi; questo è il motivo per cui gli ingegneri costruiscono prototipi.
Peters e Waterman(10) nel loro libro In Search of Excellence mostrano che la stessa cosa è vera per i
progressi dei prodotti commerciali e delle politiche aziendali. Questo è il motivo per cui le aziende eccellenti
creano "un ambiente ed un insieme di attitudini che incoraggiano la sperimentazione" nonché il motivo per
cui esse si evolvono "in modo realmente Darwiniano".

Anche le industrie generano ordine tramite variazione e selezione. Grossolani sistemi di controllo della
qualità saggiano e scartano parti difettose prima di assemblarle in prodotti completi, e sistemi di "controllo
della qualità" più sofisticati utilizzano metodi statistici per individuare alla sorgente i difetti, aiutando gli
ingegneri a minimizzarli per mezzo della modifica opportuna del processo di fabbricazione. Gli ingegneri
giapponesi, basandosi sugli studi sul controllo statistico della qualità di W. Edwards Deming, hanno fatto di
un tale processo di variazione e selezione un pilastro del successo economico del loro paese. I sistemi
basati sugli assemblatori avranno analogamente bisogno di misurare i risultati per eliminare i difetti.
Il controllo di qualità è una sorta di evoluzione perché mira non a modificare ma ad eliminare le variazioni
dannose. Ma proprio come l'evoluzione Darwiniana può conservare e diffondere le mutazioni favorevoli, così
dei buoni sistemi di controllo di qualità possono aiutare dirigenti ed operai a conservare e diffondere i
processi più efficaci, sia che essi siano comparsi per caso che per consapevole progettazione.

Tutto questo armeggiare da parte di ingegneri e produttori industriali prepara i prodotti al loro collaudo
definitivo. Fuori, nel mercato, un'infinita varietà di chiavi inglesi, automobili, calzini e computer, competono
per l'approvazione degli acquirenti. Se degli acquirenti adeguatamente informati venissero lasciati liberi di
scegliere, i prodotti che fanno ben poco o costano troppo non riuscirebbero, probabilmente, ad essere
riprodotti. Come accade in natura, la verifica sperimentale competitiva ha trasformato i migliori competitori di
ieri nei fossili di oggi. "Ecologia" ed "economia" condividono ben più che comuni radici linguistiche.
Sia nel mercato che su campi di battaglia reali ed immaginari, la competizione globale guida le
organizzazioni nell'inventare, acquistare, elemosinare o rubare tecnologie sempre più capaci. Alcune
organizzazioni competono principalmente cercando di fornire alla gente beni di qualità superiore, altre
competono principalmente cercando di intimidire le prime con armi superiori. La pressione dell'evoluzione
guida entrambe.

La corsa tecnologica globale ha premuto sull'acceleratore per miliardi di anni. I ciechi vermi terrestri non
poterono arrestare lo sviluppo di occhi negli uccelli. I piccoli cervelli degli uccelli e le loro maldestre ali non
poterono impedire che gli uomini sviluppassero mani, menti e doppiette da fuoco. Analogamente, le
proibizioni locali non possono bloccare i progressi nella tecnologia militare e commerciale. Sembra quindi
che dobbiamo imparare a guidare la corsa tecnologica o morire, sebbene la forza dell'evoluzione tecnologica
si faccia beffe dei movimenti antitecnologici: i movimenti democratici che si prefiggono l'obiettivo di imporre
restrizioni locali possono soltanto riuscire a limitare le singole democrazie del mondo, non il mondo nel suo
complesso. La storia della vita ed il potenziale delle nuove tecnologie suggerisce qualche soluzione, ma
questo è l'argomento centrale della terza parte di questo libro.

24
L'evoluzione della Progettazione
Potrebbe sembrare che il processo della progettazione offra una alternativa all'azione dell'evoluzione, ma il
progetto coinvolge implicitamente l'evoluzione stessa in due distinte maniere. Anzitutto, la stessa pratica
progettuale evolve. Non solo gli ingegneri accumulano progetti che funzionano, ma accumulano anche
metodi di progetto che funzionano. Questi metodi vanno dagli standard da manuale per la scelta di adeguate
scansioni temporali delle fasi progettuali, ai sistemi gestionali per organizzare la ricerca e lo sviluppo. Come
ha affermato Alfred North Whitehead(11), "La più grande invenzione del dicianovesimo secolo è l'invenzione
del metodo dell'invenzione".

In secondo luogo, la progettazione stessa procede per variazione e selezione. Gli ingegneri spesso
utilizzano leggi matematiche evolutesi per descrivere (per esempio) il flusso di calore o l'elasticità, al fine di
sperimentare in modo simulato un progetto prima ancora di costruirne un prototipo. Essi quindi evolvono
piani attraverso un ciclo di progetto, calcolo, critica e riprogettazione, risparmiandosi in parte la spesa
economica del taglio del metallo per un prototipo. La creazione di progetti procede quindi attraverso una
forma non materiale di evoluzione.

La legge di Hooke, per esempio, descrive come i materiali si pieghino e si tendano: la deformazione è
proporzionale alla forza di trazione applicata; raddoppiando la trazione, raddoppia lo stiramento ottenuto.
Nonostante sia una legge solo approssimativamente corretta, resta abbastanza precisa fintanto che
l'elasticità non si arrende alla tensione come infine è costretta a fare. Gli ingegneri possono usare una forma
della legge di Hooke per progettare una barra metallica che possa sopportare un carico non eccessivamente
deformante, poi ne realizzano una versione materiale un tantino più spessa per compensare le
inaccuratezze della legge e dei loro calcoli di progetto. Essi possono anche usare una forma della legge di
Hooke per descrivere la deformazioni e le contorsioni nelle ali degli aerei, nelle racchette da tennis, e nelle
carrozzerie d'automobile. Ma delle semplici equazioni matematiche non si adattano facilmente a strutture
così complicate. Gli ingegneri hanno adattato le equazioni alle forme più semplici (a pezzi del progetto) e
successivamente hanno composto queste soluzioni parziali per descrivere la flessione dell'insieme. Si tratta
di un metodo (denominato "analisi agli elementi finiti") che tipicamente richiede moli immense di calcoli, e
che sarebbe impraticabile senza i computer. Grazie a questi, invece, è diventato un metodo di impiego
comune.

Tali simulazioni rappresentano l'estensione generalizzata di una tendenza antica. Quando abbiamo bisogno
di selezionare una linea d'azione fra quelle possibili, le abbiamo sempre valutate immaginando le sue
conseguenze auspicabili e quelle temibili. I modelli mentali più semplici (sia quelli innati che quelli appresi)
guidano indubbiamente nello stesso modo gli animali. Quando sulla base di accurati modelli mentali gli
esperimenti nel pensiero possono sostituire più costosi (o persino più pericolosi) esperimenti fisici, si
favorisce uno sviluppo evolutivo. Le simulazioni degli ingegneri semplicemente estendono questa capacità di
immaginazione delle conseguenze, per consentirci di compiere i nostri errori nel pensiero piuttosto che nei
fatti.

In "One Highly Evolved Toolbox", J. Baldwin discute di come strumenti e pensiero interagiscano durante lo
svolgimento di un lavoro da officina: "Cominci a definire la capacità del tuo insieme di utensili secondo quello
che pensi debba significare 'fabbricare le cose'. Quando qualcuno che costruisce un sacco di roba ti fornisce
delle spiegazioni, gli utensili diventano presto una parte automatica del processo di progettazione. Ma gli
utensili non possono diventare parte del tuo processo di progettazione se non conosci quali siano disponibili
e che cosa i vari utensili facciano".

Disporre di una percezione intuitiva delle capacità di uno strumento è essenziale quando si pianifica un
lavoro da officina la cui consegna è per il prossimo mercoledì, ed è ugualmente essenziale quando si deve
modellare una strategia per affrontare i progressi radicali delle prossime decadi. Migliore è la percezione
degli strumenti disponibili in futuro, più verosimili sono i nostri piani per sopravvivere e prosperare.

Un artigiano in una officina può tenere gli utensili bene in vista; lavorando tutti i giorni con questi utensili,
essi divengono familiari per i suoi occhi, le sue mani e la sua mente. Egli acquisisce in modo spontaneo
conoscenza delle loro capacità e può disporre di tale conoscenza per un loro utilizzo creativo immediato. Ma
per la gente come noi riuscire a comprendere il futuro si presenta come una sfida ben più grande, a causa
del fatto che gli strumenti futuri esistono per ora solo come idee e come possibilità implicite nelle leggi di
natura. Questi strumenti non sono appesi al muro, e nemmeno impressi nella nostra mente per mezzo di
sensazioni visive, uditive o tattili o quantomeno non lo saranno fino a che non si materializzeranno

25
fisicamente come hardware. Nei prossimi anni di preparativi, solo lo studio, l'immaginazione e la
riflessione(12) possono illuminare le nostre menti sulle capacità di questi strumenti.

Quali sono i Nuovi Replicatori?


La storia ci mostra che l'hardware evolve. RNA in provetta, virus e cani, ci mostrano tutti come l'evoluzione
proceda per modifica e collaudo dei replicatori. Ma l'hardware (quello odierno, quantomeno) non può
riprodurre se stesso. Quindi quali sono i replicatori che sono alla base dell'evoluzione tecnologica? Quali
sono i geni delle macchine?

Ovviamente non è realmente indispensabile identificare i replicatori per riuscire a riconoscere la presenza di
un processo di evoluzione. Darwin descrisse l'evoluzione prima che Mendel scoprisse i geni, ed i genetisti
impararono molte cose sulla ereditarietà anche prima che Watson e Crick scoprissero la struttura del DNA.
Darwin non aveva bisogno di alcuna conoscenza della genetica molecolare per accorgersi che gli organismi
mutano e che alcuni lasciano più discendenti di altri.

Un replicatore è uno schema che può riuscire a far si che siano fabbricate copie di se stesso. Potrebbe aver
bisogno di aiuto, ed infatti il DNA non potrebbe replicarsi se non ci fossero delle macchine proteiche a
copiarlo. Ma se considerate secondo questi standard, alcune macchine sono effettivamente dei replicatori!
Le compagnie commerciali spesso realizzano macchine che cadono nelle mani di un concorrente; il
concorrente impara quindi i segreti delle loro macchine e ne costruisce delle copie. Proprio come un gene
"usa" le macchine proteiche per replicarsi, così queste macchine "usano" le menti e le mani umane per
replicarsi. Con dei nanocomputer a dirigere l'azione di assemblatori e disassemblatori, si potrebbe persino
automatizzare la replicazione dell'hardware.

La mente umana, tuttavia, è una macchina di imitazione di gran lunga più sottile di qualsiasi semplice
macchina proteica o assemblatore. Voce, scrittura e disegno possono trasmettere progetti da mente a mente
prima che prendano forma fisica come hardware. Le idee che sono dietro i metodi di progetto sono ancora
più sottili: in modo più astratto di quanto faccia l'hardware, esse si replicano ed operano esclusivamente nel
mondo delle menti e dei sistemi simbolici.

Se i geni si sono evoluti lungo generazioni ed eoni, i replicatori mentali si evolvono ora nell'arco di giorni e
decadi. Come i geni, le idee si scompongono e ricombinano, ed assumono forme multiple (i geni possono
essere trascritti da DNA ad RNA e di nuovo a DNA; le idee possono essere tradotte da una lingua ad
un'altra). La scienza non può ancora descrivere gli schemi neurali che nel cervello danno forma alle idee, ma
chiunque può osservare che le idee mutano, si replicano e competono. Le idee "evolvono".

Richard Dawkins chiama(13) le unità elementari (i bit) degli schemi mentali "memi" (la pronuncia inglese di
meme fa rima con cream). Egli afferma: "esempi di memi sono melodie musicali, idee, frasi d'effetto, stili di
vestiario, modi di fabbricazione di vasi o di costruzione di archi). Proprio come i geni propagano se stessi nel
'pool' genetico di una popolazione saltando [generazione dopo generazione] da un corpo all'altro per mezzo
di sperma o uova, così i memi propagano se stessi nel pool memetico saltando da cervello a cervello per
mezzo di un processo che, in senso ampio, può essere chiamato 'imitazione'".

Le Creature della Mente


I memi si replicano sia perché le persone imparano che perché insegnano. Essi mutano perché le persone
creano memi nuovi o fraintendono quelli vecchi. Essi vengono selezionati (in parte) perché le persone non
credono a tutto quello che ascoltano o non lo ripetono. Come le molecole di RNA in provetta competono per
appropriarsi di macchine copiatrici e sub-unità dalla disponibilità limitata, così i memi devono competere per
risorse limitate come l'attenzione e gli sforzi umani. Poiché i memi modellano il comportamento, il loro
successo o il loro fallimento è d'importanza mortalmente seria.

Fin da tempi antichi, modelli e schemi mentali di comportamento sono stati trasferiti da genitore a figlio. Gli
schemi memetici che favorivano sopravvivenza e riproduzione hanno manifestato la tendenza a diffondersi
(mangia questa radice solo dopo averla cotta; non mangiare queste bacche, gli spiriti malvagi ti torceranno
le budella). Anno dopo anno, la gente ha variato le proprie azioni con risultati variabili. Anno dopo anno,
alcune persone morivano mentre altre trovavano nuovi trucchi per sopravvivere e li trasferivano agli altri. I

26
nostri geni costruiscono cervelli abili nell'imitazione perché gli schemi imitati erano, considerati nel
complesso, schemi di valore; dopotutto i loro propositori originari erano sopravvissuti per diffonderli.

I memi stessi, tuttavia, devono fronteggiare problemi di "vita" e di "morte": in quanto replicatori essi evolvono
unicamente per sopravvivere e diffondersi. Ma come i virus, essi possono replicarsi senza favorire la
sopravvivenza o il benessere di chi li ospita. Di fatto il meme del "martire-per-una-causa" può diffondere se
stesso proprio grazie al semplice fatto di uccidere la persona che lo ospita.

I geni, come i memi, sopravvivono per mezzo di molte strategie. Alcuni geni d'anatra hanno diffuso se stessi
incoraggiando le anatre a formare coppie stabili che potessero prendersi cura dei portatori dei loro geni,
ossia uova e piccoli. Alcuni geni d'anatra hanno diffuso se stessi incoraggiando (nei maschi d'anatra) lo
stupro, ed altri (nelle femmine d'anatra) la posa delle uova in nidi d'altre anatre. Altri geni, anche questi
riscontrati nelle anatre, sono geni virali capaci di diffondere se stessi senza contribuire alla generazione di
ulteriori anatre. Proteggere le uova aiuta le specie d'anatra (e i singoli geni d'anatra) a sopravvivere; lo
stupro aiuta un insieme di geni d'anatra a spese di un altro insieme; le infezioni virali aiutano i geni virali a
spese dei geni d'anatra nel complesso. Come sottolinea Richard Dawkins, i geni hanno "cura" solo della
propria replicazione: essi quindi si mostrano "egoisti".

Ma motivi egoistici possono incoraggiare la cooperazione(14). La gente in cerca di denaro e di


riconoscimenti personali, coopera alla costituzione di enti che servono i bisogni di altra gente. I geni egoisti
cooperano per costruire organismi che spesso risultano essere cooperativi di per se stessi. Ma anche se le
cose stanno così, immaginare che i geni servano automaticamente qualche bene più grande (il bene dei loro
cromosomi? Delle loro cellule? Dei loro corpi? Delle loro specie?) significa interpretare erroneamente quello
che è un effetto comunemente diffuso, confondendolo con una causa sottostante. Ignorare l'egoismo dei
replicatori significa cullarsi con una pericolosa illusione.

Alcuni geni nelle cellule sono in tutto e per tutto "parassiti". Come i geni dell'herpes inseriti nel cromosoma
umano, essi sfruttano le cellule e danneggiano l'organismo che li ospita. Quindi, se i geni possono essere
parassiti, perché non altrettanto i memi?

Nel libro The Extended Phenotype(15), Richard Dawkins descrive un verme che parassitizza le api e
completa il suo ciclo vitale in acqua. Esso induce l'ape che la ospita ad andare verso l'acqua, facendo in
modo che l'ape si tuffi verso la sua morte. Analogamente, alcuni vermi che parassitizzano i cervelli di formica
devono entrare in una pecora per completare il loro ciclo vitale. Per portare a termine questo compito, essi
scavano cunicoli nel cervello della formica che li ospita, provocando in qualche modo dei cambiamenti che
fanno sì che la formica "voglia" arrampicarsi sulla cima di un filo d'erba ed attendere di essere finalmente
mangiata da una pecora.

Così come i vermi penetrano in altri organismi e li usano per sopravvivere e replicarsi, così fanno i memi.
Infatti, l'assenza di memi che sfruttino la gente per i loro fini egoistici dovrebbe risultare sorprendente,
sintomo di un sistema immunitario mentale piuttosto potente, di fatto quasi perfetto. Ma i memi parassiti
indubbiamente esistono. Proprio come i virus evolvono per spingere le cellule a fabbricare virus, così le voci
evolvono per suonare plausibili ed interessanti, stimolando la loro ripetizione. Non vi domandate se una voce
è vera, domandatevi come si diffonde. L'esperienza mostra che le idee evolutesi per essere replicatori di
successo hanno ben poco bisogno di avere a che fare con la verità.

Nella migliore delle ipotesi, le catene di Sant'Antonio, le chiacchiere apocrife, le follie alla moda ed altri
parassiti mentali, danneggiano la gente facendogli sprecare del tempo. Ma nella peggiore delle ipotesi, essi
inculcano concezioni erronee mortali. Questi sistemi memetici sfruttano l'ignoranza e la vulnerabilità umana.
Diffonderli è come avere un raffreddore e starnutire in faccia ad un amico. Nonostante alcuni memi agiscano
in modo non dissimile da quello di un virus, le infezioni non sono necessariamente una cattiva cosa
(pensiamo ad un sorriso contagioso, o ad un contagioso buon carattere). Se un corpo di idee ha dei meriti, la
sua diffusione per infezione semplicemente ne aumenta il merito, ed infatti i migliori insegnamenti etici ci
insegnano anche ad insegnare l'etica. Le buone pubblicazioni possono intrattenere, arricchire la
comprensione, aiutare a giudicare, ed anche far propaganda per gli abbonamenti. Diffondere sistemi
memetici utili è come offrire semi utili ad un amico che ha un giardino.

27
Selezionare Idee
I parassiti hanno obbligato gli organismi ad evolvere sistemi immunitari, come per esempio gli enzimi che i
batteri utilizzano per fare a pezzi i virus invasori, o i globuli bianchi del sangue che pattugliano i nostri corpi
per distruggere i batteri. I memi parassiti hanno obbligato le nostre menti a percorrere una strada analoga,
ed esse hanno evoluto dei sistemi memetici che svolgono la funzione di sistemi immunitari mentali.

Il più vecchio e più semplice sistema immunitario mentale ordina semplicemente: "credi nel vecchio, rifiuta il
nuovo". Qualcosa di simile a questo sistema generalmente preserva le tribù dall'abbandonare le strade
vecchie e già collaudate, in favore di nuove e folli nozioni come quella di obbedire a presunti fantasmi che
ordinano una distruzione di tutto il bestiame e il grano della tribù, perché tale distruzione in qualche maniera
provocherebbe una miracolosa abbondanza di cibo, nonché la disponibilità di grandi eserciti di antenati per
scacciare gli stranieri (questo meme ha realmente infettato la gente della tribù dei Xhosa(16) nel Sud Africa
nel 1856 e nei successivi anni sono morte 68.000 persone, principalmente di fame).

Il sistema immunitario del vostro corpo segue una regola simile: generalmente esso accetta tutte i tipi di
cellule già presenti all'inizio della vostra vita e rigetta come straniere e pericolose quelle che potrebbero
essere potenziali cellule cancerose o batteri invasori. Questo semplice sistema "rigetta-il-nuovo" un tempo
funzionava bene, tuttavia in questa era di trapianti d'organi può anche uccidere. Analogamente, in un'era in
cui scienza e tecnologia regolarmente presentano fatti che sono nuovi ma anche attendibili, un sistema
immunitario mentale rigido diventa una menomazione dannosa.

Nonostante le sue manchevolezze, tuttavia, il principio del "rigetto del nuovo" è semplice ed offre vantaggi
reali. La tradizione mantiene molto di ciò che è vero e provato (o, se non proprio vero, quanto meno
funzionante). Cambiare è rischioso: proprio come la maggior parte delle mutazioni sono maligne, così molte
delle nuove idee sono sbagliate. Persino la ragione può essere pericolosa: se una tradizione lega delle
pratiche fondate ad una irrazionale paura dei fantasmi, la eccessiva confidenza nel pensiero razionale
potrebbe gettar via il buono assieme al falso. Sfortunatamente, le tradizioni evolutesi per essere buone,
potrebbero risultare meno attraenti rispetto ad idee evolutesi per sembrare buone. Come già detto, le
tradizioni fondate potrebbero essere sostituite da idee maligne che meglio si appellano alla mente razionale.

Tuttavia, i memi che sigillano la mente per proteggerla dalle nuove idee, proteggono anche se stessi in un
auto-utilitarismo che è sospetto. Mentre preservano tradizioni di valore da alterazioni maldestre, potrebbero
anche funzionare come uno scudo che impedisca la verifica della veridicità di parassitari sproloqui ad effetto.
In tempi di trasformazioni rapide essi possono rendere le menti pericolosamente rigide.

Molta della storia della filosofia e della scienza potrebbe essere interpretata come la ricerca di migliori
sistemi immunitari mentali, ossia di migliori modi per rigettare quel che è falso, inutile e dannoso. I sistemi
migliori rispettano la tradizione, sebbene incoraggino la sperimentazione. Essi suggeriscono degli standard
per giudicare i memi, aiutando la mente a distinguere fra parassiti e strumenti.

I principi dell'evoluzione ci forniscono un modo per guardare al cambiamento, indipendentemente dal fatto
che esso si presenti in molecole, organismi, tecnologie, menti o culture. Le questioni di base che vengono
sollevate in tutte queste situazioni sono invariabilmente le stesse: Cosa sono i replicatori? Come mutano?
Cosa determina il loro successo? Come si difendono dagli invasori? Tali questioni emergeranno
nuovamente quando si esamineranno le conseguenze della rivoluzione degli assemblatori, ed ancora una
volta prenderemo in considerazione i modi in cui la società potrebbe affrontare queste conseguenze.

I principi fortemente invarianti del cambiamento evolutivo definiranno le forme in cui si manifesterà lo
sviluppo della nanotecnologia, tanto più che la distinzione fra hardware e vita comincia a diventare sfocata.
Questi principi mostrano moltissimo di ciò che possiamo o non possiamo conquistare, e possono aiutarci a
indirizzare adeguatamente i nostri sforzi di modellare il futuro. Essi ci spiegano anche molto su quello che
possiamo e non possiamo prevedere, perché guidano non solo l'evoluzione dell'hardware, ma della
conoscenza stessa.

28
Capitolo 3: PREVEDERE E PROGETTARE
L'attitudine critica può essere descritta come il tentativo cosciente di fare in modo che le nostre teorie e
congetture soffrano al posto nostro nella lotta per la sopravvivenza del più adatto. Essa ci da una possibilità
di sopravvivere all'eliminazione di ipotesi inadeguate, dove una attitudine dogmatica le eliminerebbe
eliminandoci(1).
Sir KARL POPPER

Nel guardare avanti per vedere dove ci stia conducendo la corsa tecnologica, dovremmo porci tre domande.
Cosa è possibile, cosa è ottenibile e cosa è desiderabile?

Anzitutto, dove sia coinvolto dell'hardware, le leggi naturali impongono limiti al possibile. Dato che gli
assemblatori apriranno una strada inedita verso il raggiungimento di questi limiti, comprendere gli
assemblatori è una chiave per comprendere ciò che è possibile.

In secondo luogo, i principi del cambiamento ed i fatti specifici della nostra situazione attuale impongono
limiti all'ottenibile. Dato che l'evoluzione di replicatori giocherà un ruolo basilare, i principi dell'evoluzione
sono una chiave per comprendere ciò che è ottenibile.

Per quanto riguarda cosa sia desiderabile o indesiderabile, la diversità dei nostri sogni spinge verso la
ricerca di un futuro che abbia spazio per la diversità, mentre le nostre comuni paure spingono verso la
ricerca di un futuro sicuro.

Queste tre domande (sul possibile, l'ottenibile, ed il desiderabile) formano un cornice di riferimento entro cui
definire un approccio alla previsione. In primo luogo, le conoscenze scientifiche ed ingegneristiche delineano
una mappa dei limiti del possibile. Nonostante ancora confusa ed incompleta, questa mappa traccia i confini
dei limiti permanenti all'interno dei quali il futuro deve muoversi. In secondo luogo, i principi evolutivi
determinano quali percorsi restano aperti e definiscono i limiti dell'ottenibile, inclusi i limiti inferiori poiché i
progressi che promettono di migliorare la vita o di accrescere la potenza militare saranno virtualmente
inevitabili. Ciò consente una predicibilità limitata: se la corsa evolutiva, vecchia di eoni, non frenerà
bruscamente fino ad un completo arresto, la pressione competitiva modellerà il nostro futuro tecnologico
entro i confini dei limiti del possibile. Infine, entro i vasti confini del possibile e dell'ottenibile, possiamo
tentare di conquistarci un futuro che ci sembri desiderabile.

Le Trappole della Profezia


Ma come potrebbe, una qualunque persona, riuscire a prevedere il futuro? Le tendenze politiche ed
economiche sono notoriamente capricciose, ed i mutamenti si propagano in modo puramente casuale, come
fossero rotolanti dadi da gioco lanciati sulle superfici dei continenti. Persino i, relativamente continui,
progressi della tecnologia, spesso eludono la previsione.

I pronosticatori spesso avanzano ipotesi sui tempi ed i costi richiesti per lo sfruttamento di nuove tecnologie.
Quando si spingono oltre il confine delle possibilità delineate e tentano predizioni accurate, di solito
falliscono. Per esempio, nonostante gli space shuttle fossero indubbiamente possibili, le predizioni sui loro
costi e sulla data del loro primo lancio erano sbagliate in termini di diversi anni e di miliardi di dollari. Gli
ingegneri non possono prevedere accuratamente quando sarà sviluppata una tecnologia, perché lo sviluppo
coinvolge sempre delle incertezze.

Ma dobbiamo provare a prevedere e a guidare lo sviluppo. Svilupperemo delle tecnologie mostruose prima
o dopo di sviluppare quelle per ingabbiarle? Alcuni mostri, una volta sguinzagliati, non possono più essere
ricacciati nelle gabbie. Per sopravvivere, dobbiamo mantenere il controllo accelerando certi sviluppi e
rallentandone altri.

Nonostante una tecnologia possa, talvolta, intercettare i pericoli comportati da un'altra tecnologia (difesa
contro offesa, sorveglianza dell'inquinamento contro inquinamento stesso), le tecnologie in competizione fra
loro spesso procedono nella stessa direzione. Il 29 Dicembre 1959, Richard Feynman (successivamente
premiato con un Nobel) tenne una conferenza al raduno annuale della American Physical Society intitolata
"There's Plenty of Room at the Bottom(2)" (C'è un mucchio di spazio giù in fondo). Descrisse un approccio di
tipo non biochimico alla realizzazione di nanomacchine artificiali (lavorando a scalare verso il basso, un
passo dopo l'altro ed utilizzando macchine più grandi per costruirne di più piccole) ed affermò che i principi

29
della fisica non si esprimono contro la possibilità di manovrare le cose atomo per atomo: "Non è qualcosa
che tenta di violare una qualche legge; è qualcosa che, in linea di principio, può essere fatta; ma in pratica
non è stata fatta perché siamo troppo grandi [...] in definitiva, siamo capaci di fare della sintesi chimica [...]
metti giù atomi, dove i chimici dicono che vanno messi, e fabbrichi la sostanza". Essenzialmente, Feynman
tracciò un'altra strada, non biochimica, verso gli assemblatori. Affermò anche che questo è "uno sviluppo che
io penso non possa essere evitato".

Come discuterò nei capitoli 4 e 5, assemblatori e macchine intelligenti semplificheranno molti problemi
riguardanti il costo e i tempi dello sviluppo tecnologico. Ma le domande su tempi e costi annebbiano ancora
la nostra visione del periodo fra il presente e questi passi avanti tecnologici. Nel 1959 Richard Feynman
disse che le nanomacchine potrebbero dirigere la sintesi chimica, inclusa, probabilmente, la sintesi del DNA.
Tuttavia non poté prevedere nulla ne riguardo i tempi, ne riguardo i costi per poter fare tutto questo.
Di fatto, naturalmente, i biochimici hanno sviluppato tecniche per produrre DNA anche senza farsi aiutare da
nanomacchine programmabili, sfruttando scorciatoie che si basano su specifici trucchi chimici. Le tecnologie
vincenti spesso hanno successo a causa di trucchi e dettagli che non sono ovvi. A metà degli anni '50 i fisici
riuscirono a vedere che i principi basilari dei semiconduttori rendevano fisicamente possibile i microcircuiti,
ma prevedere come potessero essere realizzati, vedere in anticipo in tutta la loro complessità i dettagli delle
tecniche di produzione dei mascherini e dei rivestimenti isolanti, ed i dettagli delle tecniche di accrescimento
degli ossidi, dell'impiantazione ionica, dell'incisione, ecc…, sarebbe stato impossibile. Le sfumature dei
dettagli e i vantaggi competitivi che selezionano le tecnologie vincenti rendono complessa la corsa
tecnologica ed impredicibile il suo percorso.

Ma tutto questo rende futile la previsione sul lungo termine? In una corsa verso i limiti imposti dalle leggi
naturali, la linea di arrivo è prevedibile anche se il percorso e il passo dei corridori non lo sono. Non sono i
capricci umani ma le immutabili leggi naturali a tracciare la linea fra ciò che è fisicamente possibile e quello
che non lo è; nessun atto politico, nessun movimento sociale può cambiare la legge di gravità di un solo
pizzico. Così, per quanto futuristiche possano sembrare, le fondate proiezioni delle possibilità tecnologiche
sono pienamente distinte dalle previsioni. Esse si fondano sulle leggi senza tempo della natura piuttosto che
sulle bizzarrie degli eventi.

E' una sfortuna che visioni di una certa perspicacia rimangano rare. In mancanza di esse, incespichiamo
inebetiti lungo il paesaggio del possibile, confondendo montagne per miraggi e non dando importanza ad
entrambi. Guardiamo avanti con menti e culture radicate nelle idee di tempi più indolenti, quando sia la
competizione scientifica che quella tecnologica mancavano della loro attuale velocità e robustezza. Solo di
recente abbiamo cominciato a evolvere una tradizione di previsione tecnologica.

Scienza e Legge Naturale


Scienza e tecnologia sono intrecciate. Gli ingegneri utilizzano la conoscenza prodotta dagli scienziati; gli
scienziati utilizzano gli strumenti prodotti dagli ingegneri. Scienziati e ingegneri lavorano entrambi con
descrizioni matematiche delle leggi naturali e verificano le loro idee grazie ad esperimenti. Ma scienza e
tecnologia differiscono radicalmente nelle loro basi, nei loro metodi e nei loro obiettivi. La comprensione di
queste differenze è cruciale per una previsone credibile. Nonostante entrambi i campi siano costituiti da
sistemi evolutivi di memi, tali memi evolvono, nei rispettivi campi, sotto pressioni selettive differenti.
Consideriamo le radici della conoscenza scientifica.

Lungo la maggior parte della storia, la gente ha avuto ben poca comprensione della evoluzione. Ciò
lasciava pensare ai filosofi che l'evidenza sensoriale, mediata dalla ragione, doveva in qualche modo
imprimere nella mente l'intera umana conoscenza, inclusa la conoscenza delle leggi di natura. Ma nel 1737,
il filosofo scozzese David Hume presentò agli altri filosofi un malizioso rompicapo: egli mostrò che le
osservazioni non possono dimostrare con la logica una regola generale, e che il fatto che il Sole abbia
brillato fino ad ora, giorno dopo giorno, a rigor di logica non prova nulla riguardo l'ipotesi che splenderà
domani. Ed infatti un qualche giorno il sole morirà smentendo questa logica. Il problema di Hume apparve
per distruggere l'idea di una conoscenza razionale, che fortemente influenzava i filosofi razionali (incluso lo
stesso Hume). I filosofi si agitarono e sudarono per la sconfitta, e l'irrazionalismo guadagnò terreno. Nel
1945, il filosofo Bertrand Russell osservò che "la crescita dell'irrazionale attraverso il dicianovesimo secolo e
quello che è trascorso del ventesimo è una naturale conseguenza della distruzione dell'empirismo ad opera
di Hume(3)". Il meme-problema di Hume ha reciso di netto la stessa idea di conoscenza razionale,
quantomeno di quella intesa nel modo in cui la gente l'aveva immaginata.

30
Nelle decadi recenti, Karl Popper (forse il filosofo della scienza preferito degli scienzati), nonché Thomas
Kuhn, ed altri, hanno riconosciuto che la scienza è un processo evolutivo. Essi hanno visto la scienza non
più come un processo meccanico tramite cui delle osservazioni, in qualche modo, generano delle
conclusioni, ma come una battaglia in cui le idee competono per l'approvazione.

Tutte le idee, in quanto memi, competono per l'approvazione, ma il sistema memetico della scienza è
speciale: esso ha una tradizione di deliberata mutazione delle idee nonché un sistema immunitario unico per
controllare i mutanti. I risultati dell'evoluzione mutano a seconda della pressione selettiva applicata, si tratti di
evoluzione di molecole di RNA in provetta o di insetti, idee, o macchine. L'hardware evoluto per la
refrigerazione differisce dall' hardware evoluto per il trasporto, per cui i frigoriferi sono automobili molto
scadenti. In generale, i replicatori evoluti per "A" differiscono da quelli evoluti per "B". I memi non fanno
eccezione.

Parlando in senso ampio, le idee possono evolvere per sembrare vere o possono evolvere per essere vere
(intendendo, in questo secondo caso, idee evolute per sembrare vere a coloro che le hanno esaminate
accuratamente) (4). Antropologi e storici hanno descritto cosa accade quando le idee evolvono per sembrare
vere fra gente priva dei metodi della scienza; le teorie che ne risultano (la teoria delle malattie basata sugli
spiriti maligni, la teoria delle stelle come luci infisse su una cupola, e così via) sono, quasi senza eccezioni,
identiche in tutto il mondo. Gli psicologi che hanno indagato sulle ingenue concezioni erronee della gente
riguardo il moto degli oggetti in caduta, hanno riscontrato molte credenze simili a quelle che nel Medio Evo,
prima del lavoro di Galileo e Newton, hanno finito per evolversi in formali sistemi "scientifici".

Galileo e Newton utilizzarono esperimenti ed osservazioni per mettere alla prova le idee riguardanti gli
oggetti ed il loro moto, dando quindi inizio ad un'era di drastico progresso scientifico: Newton evolse una
teoria che sopravvisse ad ogni verifica allora disponibile. I loro metodi di verifica deliberata uccisero le idee
che si allontanavano troppo dalla verità, incluse idee che si erano evolute per fare appello alla ingenua
mente umana.

Questa tendenza è proseguita. Ulteriori variazioni e verifiche hanno indotto l'evoluzione ulteriore delle idee
scientifiche, obbligandole a cedere strada anche ad alcune idee apparentemente bizzarre come la varianza
del tempo e la curvatura dello spazio nella teoria della relatività, o la funzione d'onda di probabilità delle
particelle in meccanica quantistica. Anche la biologia si è sbarazzata della speciale forza vitale la cui
esistenza veniva presunta dai primi biologi, rivelando invece elaborati sistemi di piccole ed invisibili
macchine molecolari. Le idee evolutesi per essere vere (o vicine alla verità) si sono trasformate più e più
volte fino a sembrare false o incomprensibili. La verità e l'apparenza di verità si sono trasformate fino a
diventare diverse come lo sono automobili e frigoriferi.

Le idee nelle scienze fisiche si sono evolute sotto varie regole selettive di base. In primo luogo, gli scienziati
non prestano attenzione alle idee che mancano di conseguenze verificabili; essi evitano così che le loro
teste restino ingombrate da parassiti inutili. In secondo luogo, gli scienziati cercano dei sostituti per le idee
che non hanno superato le verifiche sperimentali. E per finire, gli scienziati cercano idee in grado di produrre
l'insieme più ampio possibile di predizioni esatte. La legge di gravità, per esempio, descrive come cadono le
pietre, come orbitano i pianeti, e come vorticano le galassie, producendo predizioni talmente esatte da
lasciare ampio margine per la loro confutazione. La ampiezza e la precisione della legge di gravità, allo
stesso modo, le conferiscono una utilizzabilità ampia, ed aiutano gli ingegneri tanto a progettare ponti quanto
a pianificare voli spaziali.

La comunità scientifica fornisce un ambiente dove tali memi possono diffondersi, spronati dalla
competizione e sottoposti ad verifica sperimentale in grado di farli evolvere verso caratteristiche di potenza
ed accuratezza. L'accordo sull'importanza della verifica sperimentale delle teorie, tiene unita la comunità
scientifica durante le feroci controversie riguardanti le teorie stesse.

Una prova inesatta e limitata non può mai dimostrare una teoria esatta e generale (come ha ben mostrato
Hume), ma può confutare altre teorie generali, e così facendo può aiutare gli scienziati a scegliere fra
queste. Come altri processi evolutivi, la scienza crea qualcosa di positivo (un crescente accumulo di teorie
proficue) attraverso un doppio negativo (provare la falsità delle teorie incorrette). Il ruolo centrale della prova
negativa tiene conto di alcune rivoluzioni mentali indotte dalla scienza: come meccanismo di confutazione, la
scienza può sradicare credenze ben nutrite, lasciando vuoti psicologici che non ha affatto necessità di
riempire nuovamente.

In termini pratici, ovviamente, molta conoscenza scientifica è solida come un sasso cascatovi sull'alluce.
Sappiamo che la Terra gira attorno al Sole (nonostante i nostri sensi ci suggeriscano altrimenti) poiché la

31
teoria si adatta alle innumerevoli osservazioni e perché sappiamo che i nostri sensi vengono ingannati.
Abbiamo ben più di una semplice teoria dell'esistenza degli atomi: li abbiamo legati assieme per formare
molecole, sollecitato l'emissione di luce da essi, ed infine li abbiamo osservati al microscopio (seppur a
malapena) e persino distrutti in pezzi. Abbiamo ben più di una semplice teoria dell'evoluzione: abbiamo
osservato mutazioni, osservato la selezione, e osservato l'evoluzione in laboratorio. Abbiamo trovato le
tracce dell'evoluzione passata nelle rocce del nostro pianeta, ed osservato l'evoluzione modellare i nostri
strumenti, le nostre menti, e le idee nelle nostre menti, inclusa la stessa idea di evoluzione. Il processo della
scienza ha elaborato una spiegazione unificata di molti fatti, incluso il modo in cui la scienza e la gente
stessa siano arrivate ad esistere.

Quando la scienza ha finito di confutare le teorie relative ad un certo fatto, quelle sopravvissute spesso si
scoprono essere talmente addossate l'una vicina all'altra che le distanze fra loro non fanno alcuna differenza
pratica(5). Dopo tutto, se ci fosse una differenza pratica fra due teorie sopravvissute, questa differenza
potrebbe essere sperimentalmente messa alla prova ed usata per confutare una delle due teorie. Le
differenze fra le moderne teorie della gravitazione, per esempio, sono di gran lunga troppo sottili per
preoccupare gli ingegneri impegnati nel progetto di voli attraverso i campi gravitazionali dello spazio. Infatti,
gli ingegneri pianificano i voli spaziali utilizzando ancora la ormai confutata teoria di Newton, perché è più
semplice di quella di Einstein, e resta comunque abbastanza accurata per questo scopo. La teoria della
gravitazione di Einstein è analogamente sopravvissuta a tutte le verifiche, per quanto non ci sia una prova
assoluta per essa e mai ci sarà. La sua teoria produce predizioni esatte riguardo ogni cosa e dovunque
(quanto meno riguardo alle questioni di gravitazione), ma gli scienziati possono eseguire solo approssimate
misure riguardanti qualche cosa e qualche luogo. E, come Karl Popper fa notare, uno può sempre inventare
una teoria così simile ad un'altra che le evidenze esistenti non possono permettere di scartarla(6).

Nonostante certi dibattiti condotti sui media evidenzino l'esistenza di incertezze e disaccordi che ricadono su
questioni ai confini della conoscenza, resta chiaro il potere della scienza di costruire accordo. In che altro
ambito c'è una così grande crescita di concordia, così costante e così internazionale? Sicuramente non in
politica, o nella religione, o nell'arte. Infatti, il principale rivale della scienza è un suo parente: l'ingegneria,
che evolve anch'essa attraverso proposte e verifiche rigorose.

Scienza contro Tecnologia


Nelle parole del direttore di ricerca IBM, Ralph E. Gomory, "L'evoluzione dello sviluppo tecnologico viene
spesso confusa con la scienza nella mente del pubblico(7)". Questa confusione getta scompiglio sui nostri
sforzi per la previsione.

Nonostante gli ingegneri si avventurino spesso su terreni incerti, non sono così obbligati a farlo quanto
invece lo sono gli scienziati. Essi possono sfuggire ai rischi implicati dalla proposta di teorie scientifiche
universali e precise. Gli ingegneri necessitano soltanto di dimostrare che sotto certe particolari condizioni,
certi particolari oggetti funzionano abbastanza bene. Un ingegnere non ha bisogno di conoscere l'esatta
tensione a cui è sottoposto il cavo di sospensione di un ponte, e nemmeno l'esatta tensione che lo romperà;
il cavo reggerà il ponte fino a che la prima delle due tensioni, qualunque sia il suo valore, rimarrà inferiore
alla seconda.

Nonostante delle misurazioni non possano provare una eguaglianza precisa, possono comunque provare
delle diseguaglianze. I risultati degli ingegneri possono perciò possedere una solidità a cui le teorie
scientifiche precise non possono aspirare. I risultati degli ingegneri possono anche sopravvivere alle
successive confutazioni delle teorie scientifiche che li supportano, quando la nuova teoria fornisca risultati
piuttosto simili. Il caso degli assemblatori, per esempio, sopravviverà ad ogni successivo raffinamento delle
nostre teorie della meccanica quantistica e dei legami molecolari.

A rigor di logica, prevedere il contenuto delle nuove conoscenze scientifiche è impossibile, perché non ha
senso dichiarare di conoscere già i fatti che si impareranno solo in futuro. Prevedere i dettagli delle
tecnologie future, d'altra parte, è semplicemente un compito difficile. La scienza mira a conoscere, ma
l'ingegneria mira a fare, e ciò consente agli ingegneri di parlare delle conquiste future senza paradosso. Essi
possono evolvere il loro hardware nel mondo della mente e della computazione, prima ancora di iniziare ad
intagliare il metallo o persino prima di aver riempito il progetto di tutti i dettagli necessari.

Gli scienziati comunemente riconoscono questa differenza fra previsione scientifica e previsione
tecnologica: essi avanzano prontamente delle previsioni tecnologiche riguardo la scienza. Gli scienziati per

32
esempio erano in grado di prevedere, come hanno effettivamente fatto, la qualità tecnica delle immagini
degli anelli di Saturno prese dal Voyager, ma non il loro sorprendente contenuto. Infatti, essi previdero la
qualità delle immagini mentre telecamere e fotocamere erano ancora delle semplici idee e bozze progettuali.
I loro calcoli utilizzarono principi di ottica oramai ben dimostrati, senza coinvolgere nessuna nuova scienza.

Poiché la scienza mira a comprendere come ogni cosa funzioni, l'addestramento scientifico può essere di
grande aiuto nella comprensione di specifici pezzi di hardware. Tuttavia, ciò non crea automaticamente
ingegneri esperti; progettare un aereo di linea richiede molto più che una conoscenza delle scienze della
metallurgia e della aereodinamica.

Gli scienziati sono stimolati dai loro colleghi ed indotti dal loro addestramento a focalizzare l'attenzione su
idee che possono essere sottoposte a verifica per mezzo degli apparati disponibili. Ne risulta una attenzione
su temi a breve termine, spesso idonei ad assolvere bene gli scopi della scienza: questa attenzione tiene
alla larga gli scienziati dal vagare sterilmente in mondi nebulosi di fantasie non verificate ed accelera
l'attuazione di verifiche sperimentali utili per costruire un efficiente sistema immunitario mentale.
Sfortunatamente, tuttavia, questa preferenza culturale verso verifiche di breve termine può far si che gli
scienziati siano meno interessati ai progressi tecnologici di lungo termine.

L'impossibilità di una previsione genuina riguardo la scienza conduce molti scienziati a considerare tutte le
affermazioni riguardo gli sviluppi futuri come "speculative", un termine che ha perfettamente senso quando
applicato al futuro della scienza, ma poco senso quando applicato alle proiezioni ben fondate sul terreno
della tecnologia. Tuttavia la maggior parte degli ingegneri condivide una propensione analoga verso il breve
termine. Essi sono troppo condizionati dal loro addestramento, nonché spronati dai loro colleghi e datori di
lavoro, a focalizzarsi su un'unica tipologia di problema e cioè il progetto di un sistema che possa essere
realizzato con la tecnologia presente o con tecnologie appena dietro l'angolo. Persino per progetti di
ingegneria a lungo termine, come ad esempio lo space shuttle, sono costretti ad imporre una data
tecnologicamente limitante, superata la quale nessun nuovo sviluppo tecnologico può divenire parte del
progetto del sistema.

In breve, gli scienziati si rifiutano di fare previsioni sulla conoscenza scientifica futura, e raramente
discutono gli sviluppi futuri dell'ingegneria. Gli ingegneri fanno proiezioni degli sviluppi futuri, ma raramente
discutono qualsiasi capacità non basata su quelle presenti. Tuttavia questo lascia un vuoto cruciale: che ne
è che degli sviluppi ingegneristici futuri solidamente basati sulla scienza presente ma in attesa di abilità
ingegneristiche future? Questo vuoto lascia scoperta una proficua area di studio.

Immaginate una linea di sviluppo che coinvolga sia l'impiego di strumenti già esistenti per costruirne di
nuovi, che l'impiego di questi nuovi strumenti per costruire hardware inedito (in cui sia eventualmente inclusa
una ulteriore nuova generazione di strumenti). Ogni insieme di strumenti può basarsi su principi ben stabiliti
e tuttavia l'intera sequenza di sviluppo può richiedere molti anni poiché ogni passo comporta un vasto
insieme di problemi specifici da appianare. Gli scienziati che pianificano il loro prossimo esperimento e gli
ingegneri che progettano il loro prossimo dispositivo, potrebbero ben ignorare tutto eccetto che il primo
passo. E ciò nonostante, il risultato finale potrebbe ugualmente risultare prevedibile, se ricade entro l'area
delimitata dai confini del possibile ampiamente dimostrati da quella parte di conoscenza scientifica già ben
consolidata.

La storia recente può illustrare questa situazione in modo esplicito. Ben pochi ingegneri presero in
considerazione la costruzione di stazioni spaziali quando ancora nessun razzo era mai entrato in orbita,
sebbene i principi su cui esse si basano erano già allora sufficientemente chiari, e tuttavia l'ingegneria dei
sistemi spaziali è oggi un campo fiorente. Analogamente, pochi matematici ed ingegneri studiarono le
possibilità della computazione automatica fino a che non furono costruiti i primi computer, ma molti lo fecero
in seguito. Non è perciò così sorprendente che pochi scienziati ed ingegneri abbiano finora esaminato il
futuro della nanotecnologia, per quanto importante essa possa diventare.

La Lezione di Leonardo
I tentativi di proiettare gli sviluppi ingegneristici hanno una lunga storia, e gli esempi del passato ne
illustrano le possibilità presenti. Per esempio, come fece Leonardo da Vinci a riuscire in così gran misura
nella previsione tecnologica e perché in qualche caso ha fallito?

33
Leonardo visse cinque secoli fa, lungo un periodo di tempo che vide anche la scoperta del Nuovo Mondo.
Produsse delle proiezioni in forma di disegni ed invenzioni; ogni suo progetto potrebbe essere inteso come
una proiezione di qualcosa che con tutta probabilità si potrebbe rendere funzionante. Riuscì bene come
ingegnere meccanico: progettò dispositivi funzionanti (alcuni dei quali non sarebbero stati costruiti che secoli
dopo) per escavatrici, lavorazione di metalli, trasmissione di potenza meccanica ed altri scopi. Fallì come
ingegnere aereo: oggi sappiamo che le sue macchine volanti non potrebbero mai funzionare se costruite
secondo le sue descrizioni.

I suoi successi come progettista di macchine sono facilmente comprensibili. Se le parti costituenti possono
realizzarsi con sufficiente accuratezza e con materiali sufficientemente forti e resistenti, il progetto di
macchine dai movimenti lenti ed esclusivamente composte da leve, pulegge e cuscinetti rotanti, diviene un
mero problema di geometria e teoria delle leve. Leonardo riuscì a comprendere questo piuttosto bene.
Alcune delle sue "predizioni" erano di ampia portata, ma solo perché passarono molti anni prima che la
gente imparasse a fabbricare parti sufficientemente precise, sufficientemente resistenti e sufficientemente
forti da servire (per esempio) come buoni cuscinetti a sfera, il cui impiego infatti non giunse che circa
trecento anni dopo che Leonardo li ebbe proposti. Analogamente, non fu possibile realizzare ingranaggi con
dentature cicloidali di prim'ordine per quasi due secoli, dopo che Leonardo li ebbe disegnati, ed uno dei suoi
progetti con "catene di guida" non venne costruito prima che passassero quasi tre secoli.

I suoi fallimenti con i velivoli sono altrettanto facili da comprendere. Poiché a Leonardo mancava una
scienza della aereodinamica non poté calcolare le forze agenti sulle ali e nemmeno poté conoscere i requisiti
per la spinta e il controllo del velivolo.

La gente del nostro tempo, può sperare di produrre delle proiezioni riguardanti le macchine molecolari
altrettanto accurate di quelle sulle macchine di metallo prodotte all'epoca da Leonardo da Vinci? Possiamo
evitare di incorrere in errori analoghi a quelli presenti nei suoi progetti per la costruzione di macchine volanti?
L'esempio di Leonardo suggerisce che possiamo farlo. Potrebbe aiutarci ricordare che Leonardo stesso
probabilmente non confidava nelle sue macchine aeree, e che i suoi errori, nonostante tutto, contenevano un
germe di verità. Aveva ragione a credere che macchine volanti di qualche tipo fossero possibili, ed infatti ne
poteva essere assolutamente certo poiché queste esistevano già. Uccelli, pipistrelli ed api dimostravano la
possibilità del volo. Inoltre, nonostante non ci fossero esempi funzionanti dei suoi cuscinetti a sfera, o delle
sue ruote dentate e delle sue catene di guida, poteva avere fiducia nei principi su cui si basavano. Menti
abilissime avevano già costruito un esteso corpo di conoscenza a fondamento della geometria e delle leggi
delle leve meccaniche. Sebbene alle parti di cui Leonardo necessitava dovessero richiedersi una forza ed
una accuratezza tali che potrebbero aver suscitato in lui alcuni dubbi, non altrettanto si può dire delle loro
interrelazioni riguardanti funzione e movimento(8). Leonardo fu in grado di proporre macchine che
richiedevano parti migliori di quelle note a qualsiasi suo contemporaneo, e tuttavia poté nutrire un certo
grado di fiducia nella validità del loro progetto.

Le proposte di tecnologie molecolari, allo stesso modo, si poggiano su vaste fondamenta di conoscenza,
non solo geometria e teoria delle leve ma anche conoscenze riguardanti i legami chimici, la meccanica
statistica e la fisica in generale. Questa volta, tuttavia, i problemi delle proprietà materiali e della accuratezza
di fabbricazione non emergono in maniera separata. Le proprietà degli atomi e dei legami chimici sono le
proprietà materiali, e gli atomi si presentano prefabbricati e perfettamente standardizzati. Per cui, sembra
proprio che siamo meglio preparati alla previsione di quanto lo fosse la gente al tempo di Leonardo:
sappiamo molto più sulle molecole e sul controllo dei legami chimici di quanto essi conoscessero sull'acciaio
e la fabbricazione di parti meccaniche di precisione. In aggiunta a ciò, possiamo osservare le nanomacchine
che già esistono nelle cellule, esattamente come Leonardo poté osservare le macchine (uccelli) che già
volavano in cielo.

La produzione di proiezioni riguardanti il modo in cui si potrebbe costruire la seconda generazione di


nanomacchine a partire dalle macchine proteiche è sicuramente più semplice di quanto fosse all'epoca
produrre proiezioni sul modo in cui delle precise macchine d'acciaio potessero realizzarsi a partire dalle ben
più rudimentali macchine del tempo di Leonardo. Imparare ad usare macchine rudimentali per costruirne di
più precise richiedeva l'impiego di molto tempo, ed i metodi per farlo erano tutt'altro che ovvi. Le macchine
molecolari, al contrario, saranno costruite a partire da parti atomiche prefabbricate e fra loro identiche, che
necessitano solo di essere assemblate assieme. La fabbricazione di macchine precise con ingranaggi curvi
ed irregolari deve essere stata ben più difficile da immaginare di quanto sia ora immaginare l'assemblaggio
molecolare. E d'altra parte, sappiamo che l'assemblaggio molecolare è qualcosa che si verifica
continuamente in natura. Per confidare sulle nostre proiezioni, ancora una volta poggiamo su un terreno più
solido di quello su cui si poggiava Leonardo.

34
Ai tempi di Leonardo, la gente aveva scarse conoscenze di elettricità e magnetismo, e non conosceva nulla
delle molecole e della meccanica quantistica. Di conseguenza, luci elettriche, radio e computer avrebbero
sconcertato le persone di quei tempi. Oggi invece le leggi di base più importanti per l'ingegneria, ossia quelle
che descrivono la normale materia, sembrano ben comprese. Come con le teorie gravitazionali
sopravvissute, i meccanismi scientifici della confutazione hanno forzato la sopravvivenza delle sole teorie
della materia su cui esiste uno stretto consenso generale.

Tale conoscenza è recente. Prima di questo secolo la gente non capiva ancora perché i solidi fossero solidi
o perché il Sole splendesse. Gli scienziati non comprendevano le leggi che governano la materia
nell'ordinario mondo di molecole, persone, pianeti e stelle. Questo è il motivo per cui il nostro secolo ha
generato tutte assieme cose come i transistor e le bombe ad idrogeno, ed al contempo il motivo per cui le
tecnologie molecolari cominciano a delinearsi all'orizzonte. Questa conoscenza è accompagnata da nuove
speranze e nuovi pericoli, ma almeno ci fornisce i mezzi per vedere entrambi in anticipo e per prepararci ad
essi.

Quando siano note le leggi alla base di una tecnologia, le possibilità future possono essere previste
(sebbene con qualche lacuna, altrimenti Leonardo avrebbe previsto i computer meccanici). Persino quando
le leggi di base siano scarsamente conosciute, come lo erano i principi della aereodinamica al tempo di
Leonardo, la natura può comunque dimostrare delle possibilità. Infine, quando sia la scienza che la natura
evidenzino una possibilità, dovremmo prendere a cuore tale possibilità e produrre piani in conseguenza.

Il Passo Avanti degli Assemblatori


I fondamenti della scienza possono evolvere e modificarsi, tuttavia continueranno a sostenere un edificio
stabile e crescente di pragmatica conoscenza ingegneristica. Alla fine, gli assemblatori permetteranno agli
ingegneri di fabbricare qualsiasi cosa possa essere progettata, scavalcando i tradizionali problemi
riguardanti i materiali disponibili e i metodi di fabbricazione. Già adesso, approssimazioni e modelli
computerizzati permettono agli ingegneri di evolvere progetti anche in assenza degli strumenti richiesti per
implementarli (9). Tutto ciò contribuirà a rendere possibile la previsione, e non solo.

Al progredire della nanotecnologia, giungeranno tempi in cui gli assemblatori cominceranno a delinearsi
come una prospettiva imminente, sostenuta da seri e ben finanziati programmi di sviluppo. Le loro capacità,
da ipotetiche quali sono, diverranno ben chiare.

Per allora i sistemi di progettazione molecolare assistita dal computer, che già oggi iniziano a comparire,
saranno diventati comuni e sofisticati grazie alla spinta impressa loro dai progressi nelle tecnologie dei
computer e dalle crescenti necessità degli ingegneri molecolari(10). Utilizzando questi strumenti di progetto,
gli ingegneri saranno in grado di progettare i nanosistemi di seconda generazione, inclusi gli assemblatori di
seconda generazione che dovranno costruire tali nanosistemi. Inoltre, lasciando margini abbastanza ampi
per tener conto di inaccuratezze (e preparando progetti alternativi), gli ingegneri saranno in grado di
progettare molti sistemi che funzioneranno subito, ossia appena costruiti per la prima volta. Gli ingegneri
avranno evoluto progetti fondati in un mondo di molecole simulate.

Consideriamo la forza di questa situazione: in fase di sviluppo ci saranno i più grandi utensili della storia, un
autentico sistema di fabbricazione generale capace di costruire qualsiasi cosa si possa progettare - e per di
più un sistema di progettazione che può stare in un'unica mano. C'è qualcuno che attenderebbe fino
all'apparire degli assemblatori prima di iniziare a pianificare sui modi di utilizzarli? O le compagnie aziendali
e le nazioni risponderanno alla pressione esercitata dalla presenza di nuove opportunità e nuove
competizioni progettando in anticipo dei nanosistemi, al fine di accelerare lo sfruttamento degli assemblatori
non appena questi arrivino?

Pare certo che questo processo di progettazione anticipata (11) si verificherà; il solo interrogativo residuo è
quando partirà e quanto andrà lontano. Anni di tranquillo progresso progettuale potrebbero erompere,
all'alba del passo avanti tecnologico degli assemblatori, nell'apparizione di nuovo hardware con una
repentinità senza precedenti. Quanto bene progetteremo in anticipo e che cosa progetteremo, potrebbero
determinare se sapremo sopravvivere e prosperare, o se cancelleremo noi stessi.

Poiché il passo avanti tecnologico degli assemblatori influenzerà quasi l'intero corpo della tecnologia, la sua
previsione è un compito enorme. Dell'universo dei possibili dispositivi meccanici, Leonardo poté prevederne
solo qualcuno. Analogamente, del ben più vasto universo delle tecnologie future, le menti moderne possono

35
prevederne poche. Ma anche la visione anticipata di qualche progresso, sembra comunque essere di
basilare importanza.

Tecnologia medica, frontiera spaziale, computer avanzati, e nuove invenzioni sul piano sociale, promettono
tutte di giocare ruoli interdipendenti. Ma il rivoluzionario passo avanti degli assemblatori influenzerà tutte
queste cose, e molte altre.

36
Parte Seconda: I PROFILI DEL POSSIBILE

Capitolo 4: Motori di abbondanza


Se ogni strumento, quando gli viene ordinato o di sua spontanea volontà, potesse fare il lavoro che gli si
addice […], non ci sarebbe bisogno né di apprendisti che lavorino per gli artigiani, né di schiavi per i
signori.(1)
ARISTOTELE

Il 27 marzo 1981, il radiogiornale CBS citò uno scienziato NASA (2) come autore dell'affermazione secondo
la quale gli ingegneri sarebbero stati in grado di costruire robot auto-replicanti entro venti anni, per impiego
terrestre e spaziale. Queste macchine avrebbero costruito copie di se stesse, e le copie sarebbero state
programmate per fabbricare prodotti utilizzabili. Egli non aveva dubbi sulle loro possibilità, se solo e quando
fossero stati costruiti. Aveva, in certa misura, ragione.

Fin dal 1951, quando John von Neumann tracciò i principi delle macchine auto-replicanti, gli scienziati si
sono trovati generalmente concordi sulle loro possibilità. Nel 1953 Watson e Crick descrissero la struttura del
DNA, che mostrava come le cose viventi siano dotate delle istruzioni che guidano la loro stessa costruzione.
I biologi, da allora, hanno imparato sempre maggiori dettagli sui modi in cui funziona il macchinario
molecolare auto-replicante delle cellule. Hanno scoperto che esso segue gli stessi principi che von Neumann
tracciò. Così come gli uccelli mostrano la possibilità del volo, così la vita in generale dimostra la possibilità di
auto-replicazione, almeno per i sistemi di macchine molecolari. Lo scienziato della NASA, comunque, aveva
in mente qualcos'altro.

Replicatori Sferraglianti
I replicatori biologici, come i virus, i batteri, le piante e le persone (3), utilizzano macchine molecolari. I
replicatori artificiali, possono invece usare la tecnologia di mole. Poiché attualmente noi abbiamo solo la
tecnologia di mole, gli ingegneri potrebbero usarla per costruire replicatori prima dell'avvento della tecnologia
molecolare.

L'antico mito di una magica forza vitale (associata con le erronee interpretazioni dell'entropia secondo cui il
suo incremento significa che tutto nell'universo debba costantemente degenerare) ha diffuso un meme che
afferma che i replicatori dovrebbero violare qualche legge naturale. Semplicemente non è così. I biochimici
comprendono come si replicano le cellule e non trovano nulla di magico in esse. Infatti essi vi vedono
macchine adeguatamente approvvigionate di tutto il materiale, l'energia e le istruzioni necessarie per
svolgere il compito di replicazione. Le cellule si replicano; i robot potrebbero replicarsi.

Progressi nell'automazione condurranno in modo naturale verso replicatori meccanici, siano o meno
fabbricati per uno specifico fine. Al crescere della pressione competitiva, crescerà l'automazione, e si ridurrà
la necessità di lavoro umano nelle fabbriche. La Fujitsu Fanuc (4) fa già funzionare un reparto meccanizzato,
all'interno di un suo impianto di fabbricazione, per ventiquattro ore al giorno e con solo dicianove operai sul
campo durante il giorno e nessuno durante la notte. Questa fabbrica produce 250 macchine al mese, delle
quali 100 sono robot.

Nel caso più estremo, i robot potrebbero svolgere tutto il lavoro di assemblaggio necessario per la
costruzione di altri robot, nonché assemblare anche altro equipaggiamento, produrne le parti necessarie,
occuparsi di far funzionare le miniere e i generatori che riforniscono le differenti fabbriche di materiali ed
energia, e così via. Nonostante una tale rete di fabbriche disseminate su tutto il paesaggio non
assomiglierebbe ad un robot "in cinta", essa dovrebbe costituire un sistema auto-sviluppato ed auto-
replicante. Il passo avanti tecnologico degli assemblatori, di certo giungerà ben prima che si realizzi una
completa automazione dell'industria, nonostante che la tendenza moderna si muova verso una sorta di
gigantesco e sferragliante replicatore unico.

Ma come può un sistema simile sostenersi e ripararsi senza intervento umano?

Immaginiamo una fabbrica automatica capace sia di testare le parti componenti, sia di assemblarle in
equipaggiamenti completi. Le parti difettose non superano i collaudi e vengono gettate o riciclate. Se la

37
fabbrica può anche prendere temporaneamente da parte intere macchine, le riparazioni sono facili:
semplicemente basta disassemblare le macchine difettose, collaudare tutte le loro parti, sostituire ogni parte
logora o rotta, e riassemblarle. Un sistema ancora più efficiente potrebbe persino diagnosticare i problemi
senza dover collaudare tutte le singole parti, sebbene tale funzionalità non sia strettamente necessaria.

Un sistema di fabbriche capace di auto-diffondersi, e gestito da robot, funzionerebbe ma sarebbe


ingombrante. Utilizzando una progettazione più ingegnosa ed il numero minimo di differenti parti e materiali,
gli ingegneri possono adattare un sistema replicante affinché stia in una singola scatola; ma la scatola
potrebbe ancora essere immensa poiché deve contenere equipaggiamento capace di produrre e assemblare
assieme molte differenti parti. Quante differenti parti? Tante quante ne contiene esso stesso. Quante
differenti parti e materiali sarebbero necessarie per costruire una macchina in grado di lavorare ed
assemblare così tanti differenti materiali e parti? Difficile da stimare, ma i sistemi basati sulla tecnologia
odierna utilizzerebbero quanto meno dei chip elettronici. Costruirli da se richiede fin troppo equipaggiamento
da mettere in pancia ad un piccolo replicatore.

I conigli si replicano, ma essi richiedono parti prefabbricate come, per esempio, molecole di vitamine.
Prendere queste parti dal cibo permette loro di sopravvivere con meno macchinario molecolare di quello che
gli occorrerebbe se dovessero fabbricarsi da zero ogni cosa di cui necessitano. Analogamente, un
replicatore meccanico che usi chip prefabbricati potrebbe essere realizzato, in qualche modo, più
semplicemente di uno che costruisca da se tutto ciò che gli occorre. I suoi peculiari requisiti "dietetici" lo
vincolerebbero anche ad una più vasta "ecologia" di macchine, aiutandoci così a tenerlo a freno. Gli
ingegneri, in studi commissionati dalla NASA, hanno proposto di usare nello spazio questo tipo di semi-
replicatori, consentendo all'industria spaziale di espandersi con solo un piccolo apporto di parti sofisticate
costantemente rifornite dalla Terra.

Tuttavia, poiché i replicatori realizzati in tecnologia di mole devono eseguire un assemblaggio delle loro
parti, essi devono contenere sia parti per costruire i componenti di base, sia parti per il loro assemblaggio
finale. Questo evidenzia un vantaggio dei replicatori molecolari: i loro componenti di base sono atomi e gli
atomi si trovano già pronti.

Replicatori Molecolari
Le cellule si replicano. Le loro macchine copiano il loro DNA, il quale dirige il macchinario ribosomico verso
la costruzione di altre macchine a partire da molecole più semplici. Queste macchine e molecole sono
contenute in una sacca riempita di liquido. La sua membrana fornisce carburante alle molecole e parti per la
costruzione di ulteriori nanomacchine, DNA, membrane, e così via. La membrana permette la fuoriuscita del
carburante esaurito e dei frammenti residui dei componenti. Una cellula si replica copiando le parti interne
alla sacca delimitata dalla membrana, disponendole in due raggruppamenti, e quindi strozzando la sacca in
due parti. I replicatori artificiali potrebbero essere costruiti per lavorare in maniera simile, ma utilizzando
assemblatori invece di ribosomi. In questo modo, potremmo costruire replicatori simili a quelli delle cellule,
che non siano però limitati a macchinario molecolare realizzato con i delicati ed elusivi ripiegamenti spaziali
delle molecole proteiche.

Ma gli ingegneri sembrano più inclini a sviluppare altri approcci alla replicazione. L'evoluzione non ha
nessuna facile maniera di alterare gli schemi fondamentali della cellula, e questi schemi non sono immuni da
qualche inefficienza. Nelle sinapsi, per esempio, le cellule del cervello inviano segnalazioni alle loro vicine
tramite lo svuotamento di vesciche piene di molecole chimiche. Le molecole si urtano l'una con l'altra, fuori
dalla vescica, fino a legarsi a molecole-sensori delle cellule vicine, talvolta attivando su queste la
generazione di un impulso neurale. Una sinapsi chimica costituisce un commutatore di segnale piuttosto
lento, e gli impulsi neurali si propagano più lentamente del suono. Con gli assemblatori, gli ingegneri
molecolari costruiranno interi computer più piccoli di una sinapsi ed un milione di volte più veloci.

Mutazione e selezione non potrebbero trasformare una sinapsi in un nanocomputer meccanico più di
quanto un allevatore non possa trasformare un cavallo in una automobile. Nonostante questo, gli ingegneri
hanno costruito le automobili ed impareranno anche a costruire computer più veloci dei cervelli, nonché
replicatori più capaci delle cellule esistenti.

Alcuni di questi replicatori non somiglieranno affatto a cellule, quanto piuttosto a fabbriche(5) miniaturizzate
fino a dimensioni cellulari. Esse conterranno nanomacchine montate su impalcature molecolari e nastri

38
trasportatori per convogliare le parti da macchina a macchina. Esternamente esse saranno dotate di un
insieme di bracci assemblatori atti a costruire, una sezione o un atomo alla volta, repliche di se stessi.

La velocità con cui questi replicatori potranno replicarsi dipenderà dalla loro velocità di assemblaggio ma
anche dalla loro dimensione. Immaginiamo un assemblatore avanzato che contenga un milione di atomi:
esso può avere anche dieci migliaia di parti mobili, ognuna contenente in media un centinaio di atomi
costituenti, ossia un numero di parti sufficiente a comporre una macchina piuttosto complessa. Di fatto
l'assemblatore stesso appare come una scatola che supporta un tozzo braccio robotico lungo un centinaio di
atomi. La scatola e il braccio contengono dispositivi che muovono il braccio da posizione a posizione, ed altri
dispositivi che cambiano l'utensile molecolare sulla sua punta.

Dietro la scatola c'è un dispositivo che legge un nastro e fornisce segnali meccanici che attivano i movimenti
del braccio e le sostituzioni dell'utensile. Di fronte al braccio c'è una struttura non terminata. I nastri
trasportatori portano molecole al sistema assemblatore. Alcuni forniscono energia ai motori che muovono il
braccio e il lettore del nastro, ed altri forniscono gruppi di atomi per l'assemblaggio. Atomo dopo atomo (o
gruppo di atomi dopo gruppo di atomi), il braccio muove i pezzi verso il posto giusto, in base alle direttive del
nastro; quando i pezzi vengono a contatto con la struttura, delle comuni reazioni chimiche legano assieme
pezzo e struttura.

Questi assemblatori lavoreranno velocemente. Un enzima rapido (6), come l'anidrasi carbonica o l'isomerasi
chetosteroide, può processare quasi un milione di molecole per secondo, persino senza disporre di
trasportatori e nemmeno di meccanismi, alimentati da energia, in grado di posizionare una nuova molecola
al suo posto non appena una vecchia viene rilasciata. Potrebbe sembrare troppo aspettarsi da un
assemblatore che afferri una molecola, la muova, e la incolli al suo posto in un semplice milionesimo di
secondo. Ma appendici piccole possono muoversi avanti e indietro molto rapidamente. Un braccio umano
può agitarsi su e giù diverse volte per secondo, le dita possono tamburellare anche più rapidamente, mentre
una mosca può sventolare le sue ali abbastanza velocemente da ronzare, ed una zanzara può produrre un
frignare esasperante. Gli insetti possono vibrare le proprie ali con frequenze di circa un migliaio di volte più
grandi rispetto alle frequenze di un braccio umano oscillante, perché l'ala di un insetto è circa mille volte più
corta.

Il braccio di un assemblatore sarà circa cinquanta milioni di volte più corto di un braccio umano, per cui
(estrapolando in proporzione) saprà muoversi avanti e indietro circa cinquanta milioni di volte più
rapidamente (7). Per il braccio di un assemblatore muoversi solo un milione di volte per secondo sarebbe
come per un braccio umano muoversi una volta per minuto: ossia sarebbe equivalente ad un movimento
pigro. Quindi pare proprio che questa meta sia molto ragionevole.

La velocità di replicazione dipenderà anche dalla dimensione totale del sistema da costruire. Gli
assemblatori non si replicheranno da soli; avranno bisogno di materiali ed energia, ed istruzioni su come
usare queste cose. Ordinarie sostanze chimiche possono fornire materiali ed energia, ma devono essere
disponibili nanomacchine per processare entrambi. Le irregolarità di polimeri molecolari sono adatte a
fungere da memoria per l'immagazzinamento di informazioni, l'analogo di un nastro di carta perforata, ma
deve essere anche disponibile un lettore per tradurre gli schemi di irregolarità del polimero in schemi di
movimenti del braccio. Considerate tutte assieme, queste parti, formano l'essenza del replicatore: il nastro
fornisce istruzioni per assembrare una copia dell'assemblatore, una copia del lettore, e copie di ulteriori
nanomacchine e del nastro stesso (8).

Un progetto ragionevole per questo tipo di replicatori probabilmente includerà svariati bracci assemblatori
Nonché svariati bracci per spostare e mantenere in posizione i pezzi di lavoro. Ognuno di questi bracci
aggiungerà un altro milione di atomi o giù di lì. Le altre parti (lettori di nastri, processori chimici, e così via)
potrebbero anche avere lo stesso ordine di complessità dell'assemblatore. Infine, un sistema replicatore
flessibile probabilmente includerà anche un semplice computer; se costruito seguendo l'approccio
meccanico che ho menzionato nel capitolo 1, il nanocomputer aggiungerà a questo conteggio all'incirca 100
milioni di atomi. Tutte assieme, queste parti, totalizzeranno meno di 150 milioni di atomi. Assumiamo invece
un totale di un miliardo, per lasciare un largo margine di errore. Ignorare le capacità aggiuntive dei bracci di
assemblaggio addizionali ci lascia un margine ancora più grande. Lavorando ad un milione di atomi per
secondo, il sistema riuscirà comunque a copiare se stesso in un migliaio di secondi, una frazione minuscola
dei 15 minuti circa che, sotto buone condizioni, occorrono ad un batterio per replicarsi.

Immaginate un tale replicatore che fluttua in una bottiglia piena di sostanze chimiche, producendo copie di
se stesso. Esso costruisce una sua copia in mille secondi, e trentasei sue copie in dieci ore. In una
settimana accumulerà abbastanza copie da riempire il volume di una cellula umana. In un secolo

39
accumulerà abbastanza copie da produrre un rispettabile granello. Se questo fosse tutto quello che i
replicatori possono fare, forse potremmo trascurarli in tutta certezza.

Ogni copia, tuttavia, produrrà copie ulteriori. Così, se il primo assemblatore assembla una copia in mille
secondi, questi due replicatori ne costruiscono altri due nei successivi mille secondi, questi quattro ne
costruiscono altri quattro, ed i risultanti otto ne producono ancora altri otto. Alla fine delle prime dieci ore non
ci sono trentasei nuovi replicatori, ma oltre 68 milioni. In meno di un giorno essi potrebbero pesare una
tonnellata. In meno di due giorni supererebbero il peso della Terra. In altre quattro ore potrebbero eccedere
la massa del Sole e di tutti i pianeti messi assieme, se non fosse che le sostanze chimiche della bottiglia si
sono prosciugate già molto tempo prima.

Raddoppio regolare significa crescita esponenziale. I replicatori, in assenza di restrizioni, si moltiplicano


esponenzialmente fino a mancare di spazio o risorse. I batteri fanno proprio così, e quasi allo stesso ritmo
dei replicatori appena descritti. La gente si replica molto più lentamente e tuttavia, con un sufficiente tempo a
disposizione, potrebbe sovrastare ogni apporto finito di risorse. Le preoccupazioni riguardo la crescita
demografica non perderanno mai la loro importanza. Le preoccupazioni riguardo il controllo della rapida
crescita numerica di nuovi replicatori, diverranno presto realmente importanti.

Molecole e Grattacieli
Macchine in grado di afferrare e posizionare individualmente gli atomi, saranno capaci di costruire quasi
qualunque cosa, legando chimicamente assieme gli atomi giusti negli schemi corretti, come ho descritto alla
fine del capitolo 1. Di sicuro, la costruzione di grandi oggetti, un atomo alla volta, sarà lenta. Una mosca,
dopo tutto, contiene circa un milione di atomi per ogni secondo trascorso da quando i dinosauri erano
giovani. Ciò nonostante, le macchine molecolari possono costruire oggetti di dimensioni sostanziali, poiché
esse, dopotutto, in natura costruiscono anche balene.

Per produrre grandi oggetti rapidamente, un immenso numero di assemblatori deve cooperare, e i
replicatori possono produrre assemblatori a tonnellate. Infatti, con la corretta progettazione, la differenza fra
un sistema assemblatore e un sistema replicatore starà interamente nella programmazione
dell'assemblatore.
Se un assemblatore-replicatore può copiare se stesso in mille secondi, allora può essere programmato per
costruire altrettanto rapidamente qualcos'altro che abbia la sua stessa dimensione. Analogamente, una
tonnellata di replicatori può rapidamente costruire una tonnellata di qualcos'altro, ed il prodotto avrà tutti i
suoi miliardi di miliardi di miliardi di atomi collocati al giusto posto, con l'erroneo posizionamento soltanto di
una loro minuscola frazione (9).

Per comprendere le capacità e i limiti di un metodo per assemblare grossi oggetti, immaginiamo una lamina
piatta ricoperta da piccoli bracci assemblatori, forse un esercito di replicatori riprogrammati per un lavoro di
costruzione e schierati in file ordinate. Dietro di loro, trasportatori e canali di comunicazione li riforniscono di
molecole reattive, di energia e di istruzioni per l'assemblaggio. Se ogni braccio occupa una area larga 100
diametri atomici, dietro ogni assemblatore ci sarà spazio per trasportatori e canali con un'area, in sezione,
pari a 10.000 atomi.

E ciò sembra essere uno spazio sufficiente. Uno spazio largo dieci o venti atomi può contenere un
trasportatore (eventualmente basato su cinghie e carrucole molecolari). Un canale largo pochi atomi può
contenere un'asta molecolare che, come quelle dei computer meccanici descritti nel capitolo 1, verrà spinta
e tirata per trasmettere segnali. Tutti i bracci lavoreranno assieme per costruire una struttura estesa e solida,
livello dopo livello. Ogni braccio sarà responsabile per la sua propria area, manipolando circa 10.000 atomi
per livello. Una lamina di assemblatori che manipoli 1.000.000 di atomi per secondo e per braccio,
completerebbe circa 100 livelli atomici per ogni secondo. Sebbene questo potrebbe apparire un sistema
veloce, a questo ritmo impilare un sottile foglio di carta richiederebbe un'ora, e per mettere su una piastra
spessa un metro ci vorrebbe un anno.

Bracci più veloci potrebbero innalzare la velocità di assemblaggio fino a oltre un metro per giorno, ma
produrrebbero più calore. Se tali bracci potessero costruire uno spessore di un metro al giorno, il calore
sprigionato da un metro quadro potrebbe cuocere centinaia di bistecche contemporaneamente, e
probabilmente friggerebbe le macchine. A certe dimensioni e velocità, i problemi di raffreddamento
diventano un fattore limitante, ma ci sono altri modi per assemblare oggetti più velocemente senza
surriscaldare le macchine.

40
Immaginate di provare a costruire una casa incollando assieme singoli granelli di sabbia. Aggiungere un
livello di granelli potrebbe impegnare le macchine incolla-granelli così a lungo che innalzare le pareti
richiederebbe decadi. Ora immaginate che delle macchine in una fabbrica abbiano precedentemente
incollato assieme i granelli per farne mattoni. La fabbrica può lavorare su molti mattoni alla volta. Con
abbastanza macchine incolla-granelli, i mattoni verrebbero fuori rapidamente. Gli assemblatori di mura
potrebbero quindi costruirle rapidamente, mettendo uno sull'altro i mattoni preassemblati. Analogamente, gli
assemblatori molecolari lavorerebbero in squadra con assemblatori più grandi, per costruire rapidamente
oggetti grandi. Le macchine possono essere di ogni dimensione, da molecolari a gigantesche. Con questo
approccio la maggior parte del calore di assemblaggio sarebbe dissipato lontano dal sito di lavoro, nella
produzione delle singole parti.

La costruzione di un grattacielo e l'architettura della vita suggeriscono modi correlati per costruire grandi
oggetti. Le grandi piante ed animali hanno dei sistemi vascolari, intricati canali che trasportano materiali alle
macchine molecolari che lavorano lungo tutti i loro tessuti. Analogamente, dopo che impalcatori e rivettatori
giungono a terminare lo scheletro di un grattacielo (il "sistema vascolare" dell'edificio), i suoi elevatori e
corridoi, aiutati dalle gru, convogliano ovunque, agli operai nell'edificio, i necessari materiali da costruzione.
Anche i sistemi di assemblaggio potrebbero adottare questa strategia, mettendo su per prima cosa una
impalcatura e quindi lavorando in tutto il suo volume, incorporando mano a mano i materiali che vengono
convogliati dall'esterno tramite dei canali.

Immaginiamo che questo approccio venga usato per "far crescere" un grosso motore di razzo, lavorando
dentro una vasca di un impianto industriale. La vasca, fatta di acciaio scintillante e dotata di una finestra di
vetro a beneficio dei visitatori, si erge ben oltre l'altezza di una persona, poiché deve contenere il motore una
volta completato. Tubi e pompe la collegano ad altre attrezzature ed a scambiatori di calore con sistema di
raffreddamento ad acqua. Questa disposizione permette all'operatore di far circolare all'interno della vasca
una certa varietà di fluidi.

Per iniziare il processo, l'operatore cala giù dalla cima della vasca, fino al fondo, la base piatta sulla quale il
motore sarà costruito. La cima della vasca viene quindi sigillata. Alla pressione di un bottone, le pompe
inondano la camera con un denso fluido latteo che sommerge la base ed oscura la finestra. Questo fluido
proviene da un'altra vasca, nella quale si sono moltiplicati dei replicatori-assemblatori e che in seguito sono
stati riprogrammati facendo loro copiare e diffondere un nuovo nastro di istruzioni (un po' come infettare dei
batteri con un virus). Questi nuovi sistemi assemblatori, più piccoli di batteri, diffondono la luce e danno al
fluido un aspetto latteo. La loro densa abbondanza rende invece viscoso il fluido.

Al centro della base piatta, immersa nel turbinio del fluido carico di assemblatori, c'è un "seme". Esso
contiene un nanocomputer con i piani del motore immagazzinati nella sua memoria, e la sua superficie è
costellata di fessure nelle quali gli assemblatori si impigliano. Quando un assemblatore si impiglia in una di
queste fessure, seme ed assemblatore si innestano assieme come se venissero connessi da uno spinotto
elettrico posto nella apposita presa, ed il computer del seme trasferisce istruzioni al computer
dell'assemblatore. Questa nuova programmazione spiega all'assemblatore dove egli si trovi in relazione al
seme, e lo dirige perché estenda i suoi bracci manipolatori per catturare altri assemblatori. Anche questi altri
si innesteranno all'insieme, e subiranno una analoga riprogrammazione. Obbedendo alle istruzioni
provenienti dal seme (che si diffondono lungo tutta la rete in via di espansione degli intercomunicanti
assemblatori) una sorta di reticolo cristallino di assemblatori cresce pian piano dal caos del liquido. Poiché
ogni assemblatore conosce la sua posizione nel piano, egli cattura altri assemblatori dove questi siano
necessari. Tutto ciò crea uno schema meno regolare e più complesso di quello di qualunque cristallo
naturale. Nel corso di poche ore, l'impalcatura di assemblatori si sviluppa in accordo alla forma finale del
motore per razzo progettato.

A questo punto, le pompe della vasca ritornano in azione, rimpiazzando il fluido latteo di assemblatori
residui, quelli cioè che non si sono agganciati all'insieme, con una miscela pulente di solventi organici e
sostanze dissolte, inclusi composti d'alluminio, composti ricchi di ossigeno e composti che servono come
carburante per gli assemblatori. Mano a mano che il fluido si schiarisce, la forma del motore per razzo
diviene progressivamente visibile attraverso la finestra, apparendo come fosse un modello in scala reale
scolpito in una bianca plastica traslucida. Successivamente, un messaggio diffuso dal seme dirige gli
assemblatori designati perché rilascino i loro vicini e ripieghino i loro bracci. Gli assemblatori rilasciati
vengono trascinati fuori dalla struttura in improvvisi rivoli biancastri, svelando un poroso reticolo di
assemblatori attaccati sulla superficie esterna del razzo, che ora hanno spazio sufficiente per lavorare. La
forma del motore nella vasca diventa progressivamente quasi trasparente, con un accenno di iridescenza.

41
Ogni assemblatore rimasto, nonostante sia ancora legato ai suoi vicini, ora è circondato da minuscoli canali
colmi di fluido. Bracci speciali sugli assemblatori funzionano come dei flagelli, sferzando il fluido per farlo
circolare attraverso i canali. Questi movimenti, come tutti gli altri compiuti dagli assemblatori, sono generati
da motori molecolari che usano le molecole nel fluido come carburante. Come dello zucchero disciolto
alimenta il lievito, così questi composti chimici disciolti alimentano gli assemblatori. Il fluido che scorre
apporta nuovo carburante e nuovi materiali grezzi per la costruzione; scorrendo, porta via il calore prodotto.
La rete di comunicazioni diffonde istruzioni ad ogni assemblatore.

Gli assemblatori sono ora pronti per iniziare a costruire. Devono costruire un motore per razzo, che consiste
principalmente di condotte e pompe. Questo significa costruire strutture forti e leggere in forme aggrovigliate,
alcune capaci di sopportare calore intenso, alcune piene di tubi per trasportare il fluido di raffreddamento.
Dove è necessaria una grande forza, gli assemblatori si mettono al lavoro per costruire bacchette di intricate
fibre di carbonio nella sua forma diamantifera. Da queste, essi costruiscono un reticolo confezionato su
misura per essere in grado di sopportare lo schema di sollecitazione atteso. Dove sia fondamentale una
certa resistenza al calore ed alla corrosione (come su molte superfici), essi costruiscono strutture simili con
ossido di alluminio, nella sua forma di zaffiro. Nelle zone in cui le sollecitazioni saranno lievi, gli assemblatori
risparmiano massa lasciando nel reticolo spazi vuoti più ampi. Nelle zone in cui le sollecitazioni saranno
intense, gli assemblatori rinforzano la struttura fino a che i passaggi rimanenti non diventano a malapena
spaziosi quanto basta per consentire il passaggio degli assemblatori. In qualche punto, gli assemblatori
depositano altri materiali per fabbricare sensori, computer, motori, solenoidi e qualsiasi altra cosa
necessaria.

Per terminare il loro lavoro, a questo punto, gli assemblatori costruiscono pareti per dividere gli spazi residui
nei canali in celle quasi sigillate, quindi si ritirano verso le ultime aperture e pompano fuori il fluido interno.
Sigillano le celle ora svuotate, e si ritirano completamente fluttuando via nel fluido circolante. Infine, la vasca
viene prosciugata, uno spray risciacqua il motore, il coperchio viene sollevato e il motore finito viene issato
fuori ad asciugarsi. La sua creazione ha richiesto meno di un giorno e quasi nessuna attenzione umana.

A cosa assomiglia il razzo? Piuttosto che essere un massiccio blocco di metalli saldati e imbullonati, è una
cosa priva di cuciture, al pari di una gemma. Le sue vuote celle interne, disposte in schiere distanziate di
circa una lunghezza d'onda pari a quelle della luce visibile, provocano un effetto collaterale: come piccole
buche su un disco laser, le celle diffrangono la luce, determinando una iridescenza mutevole simile a quella
di un opale di fuoco. Questi spazi vuoti alleggeriscono ulteriormente una struttura che è già composta dai più
leggeri e più forti materiali conosciuti. Confrontato con i moderni motori metallici, questo motore progredito
ha oltre il 90 percento di massa in meno.

Colpitelo con un dito ed esso risuonerà come un campanello dal tono sorprendentemente acuto,
considerata la sua dimensione. Montato su un veicolo spaziale di analoga costruzione, esso volerà con
disinvoltura dalla rampa di decollo allo spazio e viceversa. Sopporterà un utilizzo prolungato ed intenso,
poiché i suoi robusti materiali costituenti hanno permesso ai progettisti di incorporare in esso margini di
sicurezza più ampi. Poiché gli assemblatori hanno permesso ai progettisti di conformare la sua struttura
perché possa cedere leggermente prima di rompersi (smorzando le sue incrinature in modo da arrestare la
loro propagazione) il motore non sarà solo forte ma anche resistente.

Nonostante tutta la sua eccellenza, questo motore è sostanzialmente piuttosto convenzionale. Ha


semplicemente sostituito il denso metallo con strutture accuratamente confezionate di atomi leggeri e
saldamente legati. Il prodotto finale non contiene alcuna nanomacchina.

Progettazioni molto più avanzate sfrutteranno la nanotecnologia molto più a fondo. Tali progettazioni
potrebbero lasciare un sistema vascolare residuo con lo scopo di approvvigionare sistemi assemblatori e
disassemblatori. Tali sistemi possono essere programmati per riparare le parti usurate. Mano a mano che gli
utilizzatori del motore lo approvvigioneranno di energia e materiali grezzi, esso rinnoverà la propria struttura.
Motori ancora più avanzati potrebbero essere, letteralmente, ancora più flessibili. I motori di razzo lavorano
meglio se assumono forme diverse sotto condizioni operative diverse, ma gli ingegneri non possono rendere
un blocco di metallo forte, leggero e pieghevole. E tuttavia, con la nanotecnologia, una struttura più forte
dell'acciaio è più leggera del legno potrebbe cambiare forma come fosse un muscolo (funzionando
realmente come un muscolo (10), ossia sul principio dello slittamento di fibre). Un motore potrebbe quindi
espandersi, contrarsi e piegarsi allo scopo di fornire, sotto condizioni variabili, la spinta desiderata nella
direzione desiderata. Se dotato di assemblatori e disassemblatori adeguatamente programmati, potrebbe
persino rimodellare la sua struttura di base anche molto tempo dopo aver lasciato la vasca.

42
In breve, gli assemblatori replicatori copieranno se stessi a tonnellate, quindi fabbricheranno altri prodotti
come computer, motori per razzi, sedie e così via. Fabbricheranno anche disassemblatori capaci di
smantellare la roccia per fornire i materiali grezzi. Fabbricheranno collettori solari per fornire energia.
Nonostante saranno minuscoli, essi costruiranno in grande. In natura, squadre di nanomacchine
costruiscono balene, seminano macchine di replicazione e organizzano atomi in immense strutture di
cellulosa costruendo alberi di sequoia. Non c'è nulla di troppo sbalorditivo nel far crescere un motore per
razzo in una vasca appositamente preparata. Di fatto, se dessimo a dei guardiaboschi gli opportuni "semi"
assemblatori, essi potrebbero far crescere navi spaziali dal suolo, dall'aria e dalla luce del sole.

Gli assemblatori saranno in grado di fabbricare potenzialmente qualunque cosa a partire da materiali
comuni, e senza lavoro, rimpiazzando le attuali fabbriche fumanti con sistemi puliti quanto una foresta. Essi
trasformeranno la tecnologia e l'economia alle loro radici, schiudendo un nuovo mondo di possibilità. Essi
saranno, di fatto, dei motori di abbondanza.

43
Capitolo 5: Macchine pensanti
Il mondo è sulla soglia di una seconda era dei computer. La nuova tecnologia si sta attualmente spostando
fuori dai laboratori, trasformando il computer da una macchina di calcolo fantasticamente veloce ad un
dispositivo che imita i processi di pensiero umani, e dotando la macchina della capacità di ragionare,
formulare giudizi e persino imparare. Questa "intelligenza artificiale" sta già oggi svolgendo dei compiti per i
quali un tempo si pensava fosse indispensabile l'intelligenza umana…(1)
BUSINESS WEEK

I computer sono usciti dai retrobottega e dai laboratori per aiutarci nella scrittura, nel calcolo e per
permetterci di giocare in case ed uffici. Queste macchine svolgono compiti semplici e ripetitivi, ma le
macchine che sono ancora dentro i laboratori sanno fare molto di più. I ricercatori che si occupano di
Intelligenza Artificiale sono convinti che si possa rendere più intelligenti i computer, e sempre meno persone
dissentono su questo. Per comprendere il nostro futuro dobbiamo capire se l'Intelligenza Artificiale è
impossibile tanto quanto poter volare fino alla Luna.

Le macchine pensanti non hanno bisogno di somigliare agli esseri umani nella forma esteriore, negli scopi
perseguiti o nelle capacità mentali. Infatti alcuni sistemi di Intelligenza Artificiale mostreranno ben pochi tratti
di capacità intelligenti simili a quelle di un laureato in lettere, assolvendo invece il compito di potenti
strumenti e "motori" di progettazione ingegneristica. Ciò nonostante, comprendere come le menti umane
evolvano a partire da materia senza mente, ci può chiarire il modo in cui le macchine possano essere "fatte
per pensare". La mente, come altre forme di "ordine", evolve attraverso meccanismi di variazione e
selezione.

Le menti agiscono. Non è necessario abbracciare il "comportamentismo Skinneriano" per vedere


l'importanza del comportamento, incluso il comportamento interiore che chiamiamo pensiero. L'RNA che si
replica in provetta mostra come l'idea di "scopo" si possa applicare (come una sorta di scorciatoia
descrittiva) a molecole assolutamente prive di mente. Esse sono prive di nervi e muscoli, ma si sono evolute
per "comportarsi" in modi che favoriscono la loro replicazione. Variazione e selezione hanno modellato i
semplici comportamenti di ogni singola molecola, sicché questi comportamenti sono rimasti fissati per l'intera
"vita" della molecola stessa.

Le molecole individuali di RNA non si adattano, ma i batteri possono farlo. La competizione ha favorito quei
batteri che si adattano ai cambiamenti, per esempio tramite aggiustamenti del loro mix di enzimi digestivi in
conformità al cibo disponibile. Tuttavia, questi meccanismi di adattamento sono, in egual modo, fissati: le
molecole di cibo fanno scattare degli interruttori genetici allo stesso modo in cui l'aria fredda fa scattare un
termostato.

Alcuni batteri usano anche una primitiva forma di guida per prove ed errori. I batteri di questo tipo tendono a
nuotare lungo linee rette e sono altresì dotati di abbastanza "memoria" per poter ricordare se, mentre
procedono, le condizioni stanno migliorando o peggiorando. Se avvertono che le condizioni stanno
migliorando, continuano ad andare dritti. Se avvertono che le condizioni stanno diventando peggiori, si
fermano, ruotano su se stessi, e si rimettono in moto lungo una direzione scelta a caso che generalmente
sarà differente dalla precedente. Essi sperimentano direzioni diverse, favorendo quelle buone e scartando
quelle cattive. E poiché questo comportamento li porta a vagare verso zone con maggiori concentrazioni di
molecole di cibo, essi hanno potuto prosperare.

Anche i vermi piatti sono privi di cervelli e tuttavia mostrano delle capacità di genuino apprendimento. In un
semplice labirinto a "T", possono imparare a scegliere il percorso corretto. Provano a girare verso sinistra e
provano a girare verso destra, e gradualmente selezionano il comportamento o acquisiscono l'abitudine che
produce il migliore risultato. Questo è un meccanismo di selezione del comportamento basato sulle sue
conseguenze, quello che gli psicologi comportamentisti chiamano "la Legge dell'Effetto". L'evoluzione dei
geni delle specie di vermi ha prodotto vermi individuali con comportamento evolvente.

Tuttavia i vermi che hanno imparato a percorrere labirinti (e persino i piccioni degli esperimenti di Skinner, i
quali imparavano a beccare solo dopo che si fosse manifestato un lampo di luce verde), non mostrano alcun
segno della riflessiva intenzionalità che noi associamo alla mente. Gli organismi che si adattano grazie al
solo apprendimento per semplice Legge dell'Effetto, imparano soltanto per tentativi ed errori, variando e
selezionando il comportamento corrente; essi non pensano né decidono a priori. Tuttavia la selezione
naturale ha spesso favorito organismi che potrebbero pensare, e pensare non rappresenta qualcosa di
magico.

44
Come fa notare Daniel Dennett (2) della Tufts University, l'evoluzione dei geni può equipaggiare i cervelli
animali con modelli interni di come funziona il mondo (qualcosa di simile ai modelli nei sistemi per la
progettazione ingegneristica assistita dal computer). Gli animali possono quindi immaginare diverse azioni e
conseguenze, evitando azioni che "sembrano" dannose ed eseguendo quelle che "sembrano" sicure e
proficue. Confrontando delle idee d'azione con questi modelli interni, essi possono risparmiare lo sforzo e il
rischio di sperimentare realmente le azioni nel mondo esterno.

Dennett sottolinea inoltre che la Legge dell'Effetto può rimodellare i modelli stessi. Come i geni possono
essere predisposti per un comportamento evolvente, così possono essere predisposti per modelli mentali
evolventi. Organismi flessibili possono variare i loro modelli e prestare maggiore attenzione alle versioni dei
modelli che si dimostrano essere migliori come guide d'azione. Noi tutti conosciamo per esperienza diretta
cosa significhi provare a fare delle cose ed imparare così quali siano quelle che funzionano. I modelli non
necessitano di essere istintivi; possono evolvere nel corso di una singola vita.

Privi di parola come sono, comunque, gli animali raramente trasferiscono agli altri le loro intuizioni apprese.
Esse svaniscono assieme al cervello che le ha prodotte per la prima volta, perché i modelli mentali appresi
non sono impressi nei geni. Tuttavia, anche animali privi di parola possono imitare qualsiasi altro individuo,
dando luogo a memi e culture. Una scimmia femmina in Giappone inventò un modo di usare l'acqua per
separare i chicchi di cereali dalla sabbia; altri hanno rapidamente imparato a fare lo stesso. Nelle culture
umane, con i loro linguaggi e le loro immagini, i nuovi modelli sul funzionamento del mondo, dotati di valore,
possono sopravvivere ai loro creatori e diffondersi in tutto il mondo.

Su un livello ancora più alto, una mente (e qui "mente" è usato in un senso più appropriato) può contenere
dei principi evolventi per giudicare se le parti di un modello, ossia le idee di una data visione del mondo,
sembrino sufficientemente affidabili per guidare l'azione. La mente seleziona così i suoi propri contenuti, ed
in questa selezione è inclusa la selezione delle regole per la selezione dei contenuti stessi. Le regole di
giudizio che filtrano il contenuto della scienza si evolvono in questo modo.

Così come evolvono i comportamenti, i modelli ed i principi per la conoscenza, così possono farlo gli scopi.
Quello che porta beneficio, secondo un giudizio dettato da certi principi di base, comincia infine a sembrare
buono; diventa di per se stesso uno scopo. L'onestà paga e diventa un valido principio per l'azione. Mano a
mano che il pensiero e i modelli mentali guidano l'azione nonché una ulteriore riflessione, adottiamo pensieri
chiari e modelli accurati come scopi da perseguire di per se stessi. La curiosità cresce, e con essa un amore
per la conoscenza fine a se stessa. In tal modo, l'evoluzione degli scopi porta avanti sia la scienza che le
etiche. Come scrisse Charles Darwin, "il più alto stadio possibile nella cultura morale si raggiunge quando
riconosciamo che dovremmo controllare i nostri pensieri". Anche questo lo otteniamo per selezione e
variazione, concentrandoci su pensieri validi e lasciando che altri scivolino via dalla nostra attenzione.
Marvin Minsky, del MIT Artificial Intelligence Laboratory, vede la mente (3) come una sorta di società, un
sistema evolvente di agenzie di comunicazione, cooperazione e competizione, ognuna a sua volta composta
di agenti più semplici. Egli descrive il pensiero e l'azione in termini di attività di queste agenzie. Alcune
agenzie possono fare poco più che guidare una mano affinché afferri una tazza, altre (enormemente più
elaborate) guidano il sistema di linguaggio affinché scelga parole adatte alla situazione. Non siamo
consapevoli di dirigere le nostre dita a circondare una tazza proprio così. Deleghiamo tali compiti ad agenti
competenti e notiamo di rado il loro operato, a meno che non sbaglino qualcosa. Tutti noi avvertiamo impulsi
contraddittori e pronunciamo parole senza intenzione; questi sono sintomi di discordia fra gli agenti della
mente. La nostra consapevolezza è la parte di questo processo auto-regolato tramite il quale le nostre
agenzie di livello più generale gestiscono le restanti.

I memi potrebbero essere considerati come agenti della mente che vengono conformati per mezzo di
insegnamento ed imitazione. Per avvertire che due idee sono in conflitto, dovete incorporale entrambe nella
vostra mente sotto forma di agenti, nonostante una delle due potrebbe essere una idea vecchia, forte e
supportata da altri agenti alleati e l'altra invece una fresca idea-agente che potrebbe anche non sopravvivere
alla sua prima battaglia. A causa della nostra superficiale auto-consapevolezza, spesso ci domandiamo con
meraviglia da dove sia provenuta una idea che è nella nostra testa. Alcune persone immaginano che questi
pensieri e queste sensazioni provengano direttamente da agenzie esterne alle proprie menti; e ciò li fa
essere propensi a riporre fiducia nei "cacciatori di teste".

Nell'antica Roma la gente credeva nei "genii", spiriti benigni e maligni che seguivano una persona dalla culla
alla tomba, portandole buona o cattiva sorte. Attribuivano i successi eccezionali ad un particolare "genio". Ed
anche ora, coloro che non riescono a vedere come i processi naturali creino delle novità, interpretano il
"genio" alla stessa stregua di una forma di magia. Ma di fatto l'evoluzione genetica ha costruito menti capaci
di espandere la propria conoscenza tramite modifica degli schemi di idee ed operando una selezione fra tali

45
schemi. Con variazioni rapide e selezioni efficaci, guidate dalla conoscenza presa a prestito dagli altri,
perché mai tali menti non dovrebbero mostrare ciò che chiamiamo genio? Guardare all'intelligenza come ad
un processo naturale rende meno sorprendente l'idea di macchine intelligenti. E ci suggerisce anche come
dovremmo lavorare.

L'Intelligenza delle Macchine


Una definizione da dizionario per macchina è: "Qualsiasi sistema o dispositivo (4), per esempio un
calcolatore elettronico, che esegua, o sia d'aiuto nell'esecuzione di un compito umano". Ma, esattamente,
quanti compiti umani saranno in grado di eseguire le macchine? Un tempo il calcolo era una capacità
mentale oltre la portata delle macchine, giurisdizione esclusiva dell'intelligenza e dell'educazione. Oggi,
nessuno pensa di chiamare "Intelligenza Artificiale" una calcolatrice tascabile; il calcolo appare ora come
una "mera" procedura meccanica.

Eppure, l'idea di costruire ordinari computer un tempo era scioccante. Nella metà del 1800, tuttavia, Charles
Babbage costruì (5) calcolatrici meccaniche e parti di un computer meccanico programmabile; Incorse
comunque in difficoltà di finanziamento e di costruzione. Un certo Dr. Young non lo aiutò affatto: obiettò che
sarebbe stato più economico investire il denaro ed usare gli interessi che ne sarebbero derivati per pagare
delle calcolatrici umane. E non lo aiutò neanche l'astronomo inglese Sir George Airy della British Royal
Astronomy ; una annotazione sul suo diario riporta: "Il 15 settembre, Mr. Goulburn [...] ha chiesto la mia
opinione sull'utilità della macchina calcolatrice di Babbage […] Ho risposto entrando approfonditamente nei
dettagli riguardanti l'argomento, ed esprimendo la mia opinione che essa sia di nessun valore".

La macchina di Babbage era troppo avanti rispetto ai suoi tempi, nel senso che per costruirla, i meccanici
avrebbero dovuto necessariamente progredire nell'arte di costruire parti di precisione. E, di fatto, essa non
avrebbe superato di molto la velocità di calcolo di un umano ben allenato, ma rispetto a questo sarebbe
stata più affidabile e più agevolmente migliorabile.

La storia dei computer e dell'Intelligenza Artificiale (comunemente denominata IA), assomiglia a quella del
volo aereo e spaziale. Fino a tempi recenti alcune persone hanno liquidato entrambe le idee come
impossibili, di solito intendendo con questo termine che esse non potevano proprio vedere come fosse
possibile realizzarle, o che anche potendo sarebbero rimasti turbati dalla possibilità. E fin ora, l'IA non ha
goduto di nessuna dimostrazione semplice e conclusiva, niente di equivalente ad un aereoplano funzionante
o ad un atterraggio sulla Luna. Ci vorrà molto, ma la gente finirà per cambiare le sue definizioni di
intelligenza.

A parte i resoconti della stampa su "cervelli elettronici giganti", poche persone attribuirono intelligenza al
primo computer. Infatti, lo stesso nome "computer" (computatore) suggerisce una macchina meramente
aritmetica. Tuttavia nel 1956, a Dartmouth, durante la prima conferenza mondiale sulla Intelligenza
Artificiale, i ricercatori Alan Newell e Herbert Simon presentarono ufficialmente Logic Theorist, un
programma che usava la logica simbolica per dimostrare teoremi. Negli anni successivi i programmi per
computer giocarono a scacchi ed aiutarono i chimici a determinare le strutture di molecole. Due programmi
medici, CASNET e MYCIN (il primo riguardante la medicina interna, l'altro riguardante la diagnosi e il
trattamento delle infezioni), hanno svolto compiti con prestazioni di impressionante livello. Esperimenti di
valutazione, condotti in accordo a quanto espresso nell'Handbook of Artificial Intelligence (6) (Manuale di
Intelligenza Artificiale), hanno stimato la loro prestazione, nel rispettivo dominio di competenza, di livello
equivalente a quella di un umano "esperto" nello stesso dominio. Un programma chiamato PROSPECTOR
ha localizzato un giacimento di molibdeno nello stato di Washington, del valore di milioni di dollari.

Questi cosiddetti "sistemi esperti" hanno riscosso successo solo all'interno di una area di competenza
strettamente limitata, ma avrebbero potuto sbalordire i programmatori di computer dei primi anni '50. Oggi,
comunque, poche persone li considerano come espressione di una reale intelligenza artificiale: la IA ha
spostato in avanti il suo obiettivo. Il passo tratto da Business Week, in testa al capitolo, mostra solo che ora i
computer possono venir programmati con sufficiente "conoscenza" annessa, ed eseguire trucchi
sufficientemente fantasiosi da far si che la gente trovi comodo chiamarli "intelligenti". Anni di visioni di
telefilm popolati da robot e computer parlanti hanno almeno reso più familiare l'idea della IA.

La principale ragione per dichiarare impossibile la IA è sempre stata la nozione che le macchine siano
intrinsecamente stupide, una idea che adesso comincia a sbiadire. La macchine del passato erano infatti
cose grossolane ed ingombranti che svolgevano un lavoro di semplice forza bruta. Ma i computer

46
manipolano informazione, seguono complesse istruzioni e possono essere istruite perché modifichino le
proprie istruzioni. Possono sperimentare ed imparare. Non contengono ingranaggi o lubrificanti ma intrecci di
cablaggi ed evanescenti schemi di energia elettrica. Come esorta Douglas Hofstadter (7) (per mezzo di un
suo personaggio in un dialogo riguardante la IA): "Perché non lasciare che la parola 'macchina' evochi
immagini di schemi di luci danzanti piuttosto che di gigantesche pale mosse dal vapore?".

I critici da cocktail-party, messi a confronto con l'idea dell'intelligenza artificiale, spesso additano la stupidità
dei computer attuali come se questo provasse qualcosa riguardo a quelli futuri (una macchina futura
potrebbe domandarsi se questi critici manifestino pensiero genuino). Le loro obiezioni sono irrilevanti; le
locomotive a vapore non volavano, e tuttavia dimostravano i principi meccanici successivamente utilizzati nei
motori aerei. Analogamente, i vermi striscianti di un eone fa non mostravano nessuna evidente intelligenza,
e nondimeno i nostri cervelli utilizzano neuroni molto simili ai loro.

I critici improvvisati evitano anche di riflettere seriamente sull'IA, dichiarando che non può essere possibile
costruire macchine più intelligenti di noi stessi. Essi dimenticano ciò che mostra la storia. I nostri distanti
antenati privi di parola, attraverso l'evoluzione genetica riuscirono ad originare entità di intelligenza più
grande della loro, senza neanche pensarci su. Ma noi ci stiamo realmente pensando su, ed i memi
riguardanti la tecnologia evolvono ben più rapidamente dei geni in biologia. Possiamo sicuramente realizzare
macchine dotate di capacità di apprendere e di organizzare conoscenza più simili a quelle umane (8).

Quindi sembra esserci solo una idea che possa essere argomento di sostegno all'impossibilità di creare
danzanti schemi di pensiero in nuove forme materiali. Questa idea è quella del materialismo mentale, ossia il
concetto che la mente sia una sostanza speciale, una magica "roba-pensante", che è oltre ogni possibilità di
imitazione, duplicazione o impiego tecnologico.

Gli psicobiologi non vedono alcun indizio dell'esistenza di una tale sostanza, e non trovano affatto
necessario il materialismo mentale per spiegare la mente. Poiché la piena padronanza della complessità del
cervello è oltre la capacità di comprensione umana, il cervello appare complesso quanto basta per incarnare
una mente. In realtà, se una singola persona potesse pienamente comprendere un cervello, ciò
richiederebbe a quel cervello una complessità mentale inferiore a quella della mente della persona che
riesce a comprenderlo. Se tutti i miliardi di persone della Terra potessero collaborare alla semplice
osservazione dell'attività di un singolo cervello umano, ogni persona avrebbe da monitorare
simultaneamente decine di migliaia di sinapsi attive, il che è chiaramente un compito impossibile. Per una
singola persona provare a comprendere globalmente i guizzanti schemi del cervello sarebbe una pretesa
cinque miliardi di volte più assurda. Poiché la nostra meccanica cerebrale sovrasta in modo così massiccio
la nostra capacità mentale di comprenderla a fondo, questa meccanica sembra complessa a sufficienza per
incarnare la mente stessa.

L'Obiettivo di Turing
In un saggio scientifico del 1950 sull'intelligenza delle macchine, il matematico inglese Alan Turing scrisse:
"Io credo che entro la fine del secolo l'uso delle parole e l'opinione comune della gente colta saranno mutate
a tal punto che si potrà parlare di macchine pensanti senza temere di venir contraddetti (9)". Questo, però,
dipenderà da quello che noi intenderemo parlando di pensiero. Alcuni dicono che solo le persone possono
pensare, e che i computer non possono essere persone; dopo averlo detto, costoro tornano a sedersi con
evidente aria compiaciuta.

Ma nel suo articolo, Turing si domandava come giudichiamo l'intelligenza umana, e suggeriva che di solito
giudichiamo la gente dalla qualità della loro conversazione. Propose quindi quello che chiamò "gioco di
imitazione", e che oggi tutti chiamano "Test di Turing". Immaginate di essere in una stanza, e che siate in
grado comunicare tramite un terminale con una persona e con un computer che si trovano in altre due
stanze. Digitate un messaggio sul terminale; sia la persona che il computer possono rispondervi. Ognuno
prova ad agire secondo una apparenza umana ed intelligente. Dopo una prolungata "conversazione" tramite
tastiera che eventualmente tocchi temi letterari ed artistici, ma riguardante anche cose come il tempo
metereologico del momento o il sapore che ha la bocca al mattino, potrebbe accadere di non poter ancora
indicare quale sia la persona e quale la macchina. Turing suggerisce che se una macchina potesse
conversare così bene e su base regolare, dovremmo considerarla genuinamente intelligente. Inoltre
dovremmo ammettere che essa conosce molte cose riguardo gli esseri umani.

47
Per la maggior parte degli scopi pratici non abbiamo bisogno di chiederci: "Una macchina possiede auto-
consapevolezza? Ossia, ha coscienza?". Infatti, i critici che dichiarano che una macchina non può essere
cosciente non sembrano mai capaci di spiegare del tutto cosa intendano col termine "coscienza". L'auto-
consapevolezza si è evoluta per guidare pensiero ed azione, non come puro ornamento della nostra
umanità. Dobbiamo essere consapevoli delle altre persone e delle loro capacità ed inclinazioni, per essere in
grado di concepire dei piani che le coinvolgano. Analogamente dobbiamo essere consapevoli di noi stessi e
delle nostre capacità ed inclinazioni, per concepire dei piani che ci riguardino. Non c'è alcun mistero speciale
nella auto-consapevolezza. Ciò che chiamiamo il "se" reagisce a impressioni provenienti dal resto della
nostra mente, orchestrando alcune delle sue attività. Questo ne fa non più (e non meno) che una parte
speciale degli schemi di pensiero in reciproca interazione. L'idea che il "se" sia uno schema in una sostanza
mentale extra (distinta dalla sostanza mentale del cervello) non spiegherebbe nulla riguardo alla
consapevolezza.

Una macchina che cerchi di passare il Test di Turing dovrebbe, ovviamente, dichiarare di possedere auto-
consapevolezza. Gli estremisti del bio-sciovinismo direbbero semplicemente che sta mentendo oppure che è
confusa. A condizione che si rifiutino di spiegare cosa intendano con "coscienza" non si può mai provare che
sbaglino. Tuttavia, possano o meno essere considerate intelligenti, le macchine intelligenti agiranno
intelligentemente, e sono solo le loro azioni che ci interessano. Un giorno, forse, esse obbligheranno i
biosciovinisti ad un vergognoso silenzio per mezzo di appassionate discussioni, e con l'ausilio di una
brillante campagna di pubbliche relazioni.

Nessuna macchina può attualmente superare il Test di Turing, ed è tutt'altro che probabile che qualcuna
possa riuscirci presto. Sembra saggio domandarsi persino se ci sia una buona ragione per provarci: è
possibile guadagnare molto di più da altre ricerche sulla IA, ricerche che sono guidate da altri obiettivi.
Permettiamoci di fare distinzione fra due specie di intelligenza artificiale, sebbene un sistema dovrebbe
mostrare entrambi i tipi (10). Il primo tipo è la IA tecnica, adatta a trattare con il mondo fisico. Gli sforzi in
questo campo conducono verso l'ingegneria automatizzata e l'ausilio computerizzato all'investigazione
scientifica. La seconda è la IA sociale (11), idonea a trattare con le menti umane. Gli sforzi in questo campo
conducono verso macchine capaci di superare il Test di Turing.

I ricercatori che lavorano su sistemi IA di tipo "sociale", strada facendo impareranno molto sulla mente
umana, ed i loro sistemi saranno indubbiamente di grande valore pratico poiché tutti possiamo trarre profitto
da aiuti e consigli intelligenti. Ma l'ingegneria automatizzata basata sulla IA "tecnica" avrà un impatto ben più
grande sulla corsa tecnologica, inclusa la corsa verso la tecnologia molecolare. Ed un sistema avanzato di
ingegneria automatizzata potrebbe essere di più facile sviluppo rispetto ad un sistema che superi il Test di
Turing, il quale dovrebbe infatti non solo possedere conoscenza ed intelligenza ma anche essere in grado di
mimare una umana conoscenza ed una umana intelligenza: una sfida supplementare e più difficile.

Come Turing si domandò: "Le macchine non potrebbero attuare qualcosa che dovrebbe essere descritta
come pensiero ma che è molto dissimile da ciò che fa un umano?(12)". Nonostante alcuni scrittori e politici
possano rifiutarsi di riconoscere la possibilità di una macchina intelligente fino a quando non si trovino a
confrontarsi con una macchina da conversazione in grado di superare il Test di Turing, molti ingegneri
riconoscono l'esistenza di intelligenza anche in altre forme.

Motori di Progettazione
Ci siamo incamminati sulla strada che porta verso l'ingegneria automatizzata. Ingegneri competenti hanno
commercializzato sistemi esperti che aiutano la gente a trattare problemi pratici. I programmatori hanno
creato sistemi di progettazione assistita dal computer che incorporano le conoscenze riguardanti forme e
moti, pressioni e sforzi, circuiti elettrici, flussi di calore, e modi in cui gli utensili modellano i metalli. I
progettisti impiegano questi sistemi per arricchire i loro modelli mentali, accelerando l'evoluzione dei progetti
di oggetti ancora non costruiti. Assieme, progettisti e computer, formano un unico, semiartificiale, sistema
intelligente.

Gli ingegneri possono usare una grande varietà di sistemi computerizzati come ausilio al loro lavoro. Ad un
estremo dello spettro, essi usano i monitor dei computer semplicemente come tavoletta da disegno. Più oltre
in questo spettro, utilizzano sistemi in grado di descrivere in tre dimensioni le parti componenti il progetto, e
capaci di calcolare le loro risposte al calore, alla trazione, alla corrente elettrica, e così via. Alcuni sistemi,
conosciuti anche come computer-controlled manufactuting equipment (apparecchiature per la fabbricazione
controllata da computer), permettono agli ingegneri di effettuare dei test simulati delle istruzioni che sono

48
destinate a guidare macchine controllate da computer per fabbricare componenti reali. Ma il vero limite
estremo dello spettro di questi sistemi coinvolge l'utilizzo dei computer non solo come strumenti per
memorizzare e collaudare i progetti, ma persino per generarli.

I programmatori hanno sviluppato i loro strumenti più impressionanti per utilizzi interni allo stesso mercato
dei computer. Il software per la progettazione di chip ne è un esempio. Gli attuali chip dei circuiti integrati
contengono molte migliaia di transistor e cablaggi. Un tempo i progettisti dovevano lavorare molti mesi per
progettare un circuito che svolgesse un determinato compito, e per decidere la disposizione sulla superficie
di un chip delle sue molte parti costituenti. Oggi, spesso, possono delegare questo compito ad un cosiddetto
"compilatore del silicio". Stabilite le specifiche funzionali di un chip, questo sistema software può creare, con
poco o nessun aiuto umano, un progetto dettagliato e pronto per la fabbricazione.

Tutti questi sistemi si affidano interamente alla conoscenza umana, laboriosamente collezionata e
codificata. Il più flessibile degli odierni sistemi di progettazione automatica può gingillarsi con un determinato
progetto alla ricerca di miglioramenti, ma non impara nulla che sia applicabile all'esame del progetto
successivo. Ma EURISKO è diverso. Sviluppato dal Professor Douglas Lenat ed altri presso la Stanford
University(13), EURISKO è progettato per esplorare nuove aree di conoscenza. È guidato dalle euristiche,
frammenti di conoscenza che suggeriscono azioni plausibili da seguire o azioni implausibili da evitare. Di
fatto, le euristiche sono una sorta di insieme di "regole del pollice". EURISKO utilizza delle euristiche per
suggerire temi sui quali lavorare, ed euristiche ulteriori per suggerire quale approccio tentare e come
giudicare i risultati. Altre euristiche cercano la presenza di schemi nei risultati ottenuti, propongono nuove
euristiche, e stimano dei valori da associare sia alle nuove che alle vecchie euristiche. In questo modo,
EURISKO evolve comportamenti migliori, migliori modelli interni e migliori regole per la selezione fra i modelli
interni. Lenat stesso descrive il processo di variazione e selezione di euristiche e concetti in termini di
"mutazione" e "selezione", e suggerisce una metafora sociale e culturale per comprendere la loro
interazione.

Poiché in EURISKO le euristiche evolvono e competono, è lecito attendersi l'insorgere di parassiti, che
infatti compaiono in quantità. Una euristica generata dalla macchina, per esempio, ha raggiunto la più alta
stima di valore consentita ad una euristica dichiarando di essere stata co-scopritrice di ogni nuova
congettura dimostratasi valida. Ma il professor Lenat ha lavorato attentamente su EURISKO, bonificando il
suo sistema immunitario mentale grazie all'introduzione di euristiche atte a sfrondare i parassiti ed evitare
linee di ragionamento stupide.

EURISKO è stato impiegato per esplorare la matematica elementare, la programmazione, l'evoluzione


biologica, le strategie dei giochi, la progettazione di circuiti integrati tridimensionali, i metodi per bonificare
una dispersione di petrolio, problemi riguardanti condotte idrauliche e (naturalmente) per esplorare le
euristiche stesse. In alcuni campi ha sbalordito i suoi progettisti con idee inedite, inclusi nuovi dispositivi
elettronici per le emergenti tecnologie dei circuiti integrati tridimensionali.

I risultati raggiunti in un torneo illustrano la potenza di una squadra mista uomo/IA. Traveller TCS (14) è un
gioco di guerra navale futuristica basato su duecento pagine di regole che specificano i vincoli di costo,
progetto e prestazioni per le flotte del gioco (TCS sta per Trillion Credit Squadron - Lo Squadrone da Mille
Miliardi di Crediti). Il professor Lenat ha fornito EURISKO di queste regole, nonché di un insieme di
euristiche iniziali e di un programma per simulare una battaglia fra due flotte. Lenat ha scritto in una
relazione che "il programma ha progettato una flotta dopo l'altra, usando il simulatore come meccanismo di
'selezione naturale' per evolvere progetti di flotta sempre migliori". Il programma elaborò per tutta la notte,
progettando flotte, mettendole alla prova e traendo insegnamenti dai risultati. Al mattino Lenat fece una
selezione dei progetti e aiutò il programma a proseguire. Egli stima il merito dei risultati come suo al 60 per
cento e di EURISKO al 40 per cento.

Lenat e EURISKO si iscrissero al torneo nazionale di Traveller TCS del 1981 con una flotta dall'aspetto
insolito. Gli altri concorrenti risero di questa flotta e quindi persero contro di essa. La flotta della coppia
Lenat/EURISKO vinse ogni girone, emergendo come campione nazionale. Come riportato da Lenat, "Questa
vittoria è resa più significativa dal fatto che nessuna delle persone associate alla realizzazione del
programma avesse mai giocato a questo gioco prima del torneo, e neanche veduto qualcuno giocarvi, ne
c'era stata qualche partita di allenamento".

Nel 1982 i promotori della competizione modificarono le regole. Lenat ed EURISKO si iscrissero con una
flotta molto differente. Altri concorrenti, ancora una volta, risero di essa e quindi persero. Lenat ed EURISKO
vinsero nuovamente il campionato nazionale.

49
Nel 1983 i promotori della competizione dissero a Lenat che se si fosse iscritto, vincendo ancora, la
competizione sarebbe stata cancellata. Lenat si rassegnò a rinunciare.

EURISKO ed altri programmi di IA dimostrano che i computer, non devono necessariamente essere limitati
a lavori noiosi e ripetitivi, se sono provvisti del giusto tipo di programmazione. Essi possono esplorare
possibilità e sfoderare idee inedite che sorprendono i loro stessi creatori. EURISKO ha delle pecche (15),
tuttavia evidenzia il modo in cui un certo stile di alleanza fra un sistema IA e un esperto umano possa
apportare conoscenza e creatività ad un processo di progettazione.

Nei prossimi anni sistemi come questi trasformeranno l'ingegneria. I progettisti lavoreranno in una alleanza
creativa con le loro macchine, utilizzando il software derivato dagli attuali sistemi CAD (sistemi di
progettazione assistita dal computer) per eseguire simulazioni, ed utilizzando sistemi evolventi in stile
"EURISKO" per suggerire le soluzioni progettuali da simulare. I progettisti si metteranno a sedere di fronte
ad uno schermo per digitare gli obiettivi del processo di progettazione e per disegnare bozze di proposte
progettuali. Il sistema risponderà raffinando i progetti, collaudandoli, e visualizzando proposte alternative, il
tutto corredato da spiegazioni, grafici e diagrammi. Gli ingegneri proporranno quindi ulteriori suggerimenti e
modifiche, o sottoporranno alla macchina un nuovo compito, fino a che un intero sistema di hardware sia
stato progettato e simulato.

Mano a mano che miglioreranno, questi sistemi di ingegneria automatizzata svolgeranno sempre più lavoro,
e sempre più rapidamente. Sempre più spesso, gli ingegneri si limiteranno semplicemente a proporre gli
obiettivi del progetto e a mettere ordine fra le buone soluzioni proposte dalla macchina. Sempre meno
spesso, gli ingegneri dovranno occuparsi di selezionare componenti, materiali e configurazioni progettuali.
Gradualmente, gli ingegneri saranno capaci di proporre obiettivi progettuali più generali e attendere che delle
buone soluzioni appaiano automaticamente. Proprio come il programma EURISKO col suo simulatore di
gioco per Traveller TCS elaborò l'evoluzione di flotte, un giorno i sistemi di ingegneria automatizzata
lavoreranno costantemente ad evolvere aerei-jet di linea caratterizzati da massima sicurezza e massima
economicità, oppure ad evolvere jet militari capaci di avere un controllo dei cieli migliore di quello attuale.
Proprio come EURISKO ha inventato nuovi dispositivi elettronici, i futuri sistemi di ingegneria automatizzata
inventeranno macchine e dispositivi elettronici molecolari, aiutati da software per la simulazione molecolare.
Questi progressi dell'ingegneria automatizzata esalteranno il fenomeno di progettazione anticipata descritto
precedentemente. Sicché, l'ingegneria automatizzata non solo accelererà l'arrivo del passo avanti
tecnologico degli assemblatori ma accrescerà anche l'entità del balzo in avanti che ne conseguirà.

Alla fine i sistemi software saranno capaci di creare nuovi e audaci progetti senza alcun aiuto umano. La
maggioranza della gente potrà allora attribuire intelligenza a questi sistemi? Non è affatto questo il punto.

La Corsa IA

In tutto il mondo, aziende e governi supportano l'IA perché promette vantaggi militari e commerciali. Gli Stati
Uniti hanno molti laboratori universitari dedicati all'intelligenza artificiale nonché una schiera di nuove
compagnie commerciali con nomi come Machine Intelligence Corporation, Thinking Machines Corporation,
Teknowledge, e Cognitive Systems Incorporated. Nell'ottobre 1981 (16), il ministro Giapponese per il
Commercio e l'Industria annunciò un programma quinquennale, finanziato con 850 milioni di dollari, per lo
sviluppo di hardware e software di IA. Con tale programma, i ricercatori giapponesi prevedono di sviluppare
sistemi capaci di eseguire un miliardo di operazioni di "inferenza logica" al secondo. Nel 1984 (16) la
Moscow Academy of Science annunciò un analogo sforzo quinquennale da 100 milioni di dollari. Nell'ottobre
del 1983 lo U.S. Department of Defense annunciò un programma quinquennale da 600 milioni di dollari
denominato Strategic Computing Program; quest'ultimo mira alla ricerca di macchine in grado di vedere,
ragionare, comprendere il linguaggio parlato, e fornire aiuto per il comando di battaglie. Come riportato da
Paul Wallich nella rivista IEEE Spectrum(17), "L'intelligenza artificiale è considerata dai più come la pietra
angolare della prossima generazione di tecnologia dei computer; tutti gli sforzi compiuti in questo ambito
tecnologico, in paesi diversi, concordano nel dare all'intelligenza artificiale una posizione prioritaria nella loro
lista di obiettivi".

L'intelligenza artificiale avanzata emergerà passo dopo passo, ed ogni passo frutterà un utile di conoscenze
e abilità acquisite. Come con la tecnologia molecolare (e con molte altre tecnologie), i tentativi di arrestarne i
progressi in una città, una contea o nazione, potranno al massimo ottenere che altri ne assumano la guida.
Un miracoloso successo nell'ostacolare dovunque i lavori visibili sull'IA, nella migliore delle ipotesi
riuscirebbe solo a rallentarla e, man mano che i computer diverranno sempre più economici, la lascerebbero

50
a maturare in condizioni di segretezza, oltre la portata del pubblico scrutinio. Solo uno stato mondiale di
potere immenso e di immensa stabilità potrebbe realmente fermare ogni ricerca IA dovunque e per sempre:
una "soluzione" di raccapricciante pericolosità, alla luce dei passati abusi del puro potere di una nazione.
L'IA avanzata sembra inevitabile. Se vogliamo sperare di formarci una realistica visione del futuro, non
possiamo ignorarla.

In un certo senso, l'intelligenza artificiale sarà lo strumento definitivo perché ci aiuterà a costruire tutti gli altri
possibili strumenti. I sistemi avanzati di IA potrebbero costringere la gente a sparire dall'esistenza, o
potrebbero aiutarci a costruire un mondo nuovo e migliore. Gli aggressori potrebbero usarli per conquistare,
mentre previdenti difensori potrebbero usarli come stabilizzatori di pace. I sistemi IA avanzati potrebbero
persino aiutarci a tenere sotto controllo la stessa IA. La mano che dondola la culla IA potrebbe ben
governare il mondo.

Come con gli assemblatori, abbiamo bisogno di previdenti ed accurate strategie per l'utilizzo sicuro e
benigno di queste nuove tecnologie. Le questioni sono complesse ed intrecciate con ogni altra cosa fra
quelle che ricadono in un ambito che va dai dettagli della tecnologia molecolare, all'occupazione lavorativa e
l'economia, per arrivare fino alle basi filosofiche che riguardano i diritti umani. Le questioni più basilari,
tuttavia, riguardano quello che l'intelligenza Artificiale può fare.

Siamo Abbastanza Svegli?


A dispetto dell'esempio dato dall'evoluzione degli esseri umani, i critici potrebbero sostenere che la nostra
intelligenza limitata potrebbe in qualche modo impedirci di programmare macchine genuinamente intelligenti.
Questo argomento appare debole, equivalente a poco più dell'affermare che, dato che i critici sono incapaci
di vedere come si possa riuscire a fare una cosa del genere, nessun altro riuscirebbe a far meglio di loro.
Inoltre, qualcun altro potrebbe invece obiettare che programmare computer dalle capacità che eguaglino
quelle umane, richiederebbe una percezione radicalmente nuova della psicologia umana (18). Nonostante
sembri che la strada della programmazione di intelligenza artificiale sia stata già proficuamente intrapresa, la
nostra conoscenza non giustifica quella sorta di solida confidenza che ingegneri ponderati nutrivano (decadi
prima dello Sputnik) nella capacità di raggiungere la Luna con razzi, o che hanno oggi nella capacità di
realizzare la costruzione di assemblatori per mezzo della progettazione di proteine. Nonostante sia una
forma di ingegneria, la programmazione di una intelligenza artificiale genuina, richiede una nuova scienza.
Questo la colloca oltre la capacità di delineare una decisa proiezione.
Abbiamo tuttavia bisogno di una previsione accurata. La gente che aderisce a confortanti dubbi sulla
realizzabilità dell'IA sembra probabilmente soffrire di raffigurazioni del futuro radicalmente sbagliate.
Fortunatamente l'ingegneria automatizzata si sottrae ad alcuni dei più pesanti fra i fardelli dovuti a pregiudizi
sciovinisti. La maggior parte della gente è meno turbata dall'idea di macchine che progettino altre macchine
di quanto lo sia dall'idea di un autentico sistema IA a scopo generale. D'altra parte, l'ingegneria
automatizzata ha dimostrato di funzionare, e resta da compiere solo lo sforzo per un suo ampliamento. Se è
quindi probabile che emergano sistemi di scopo più generale, sarebbe stupido ometterli dai nostri calcoli. C'è
un modo per scavalcare la questione della nostra capacità di progettare programmi intelligenti?

Negli anni '50, molti ricercatori IA si dedicarono a simulare funzioni cerebrali per mezzo della simulazione di
neuroni. Ma i ricercatori che lavoravano invece a programmi basati su parole e simboli riuscirono a
collezionare progressi con una rapidità maggiore, ed il punto focale dell'attenzione dedicata ai lavori di IA si
spostò di conseguenza. Ciò nonostante, l'idea base della simulazione neurale rimane plausibile, e la
tecnologia molecolare la renderà più pratica da perseguire. In più, questo approccio sembra garantire di
poter funzionare, in quanto non richiede alcuna nuova percezione di base sulla natura del pensiero.
Alla fine, i neurobiologi utilizzeranno macchine molecolari delle dimensioni di virus (19) per studiare, dove
necessario, sia la struttura che le funzioni del cervello, cellula dopo cellula e molecola dopo molecola.
Nonostante i ricercatori IA possano accumulare utili percezioni riguardanti l'organizzazione del pensiero
grazie ai progressi ottenuti dalle scienze del cervello, la simulazione neurale può comunque raggiungere il
successo pur facendo a meno di queste percezioni. I compilatori traducono programmi per computer da un
linguaggio ad un altro senza capirne il loro funzionamento. Le fotocopiatrici trasferiscono schemi di parole
senza leggerle. Analogamente, i ricercatori saranno capaci di copiare gli schemi neurali del cervello su un
altro mezzo, senza comprendere la loro organizzazione di più alto livello.

Dopo aver appreso il funzionamento dei neuroni, gli ingegneri saranno in grado di progettare e costruire
dispositivi loro analoghi (20) e basati su nanoelettronica e nanomacchine avanzate. Questi dispositivi
interagiranno fra loro come fanno i neuroni, ma lavorando ben più velocemente. I neuroni, sebbene

51
complessi, funzionano in modo abbastanza semplice da poter essere compresi da una mente ed imitati da
un ingegnere. Infatti, i neurobiologi hanno imparato molto sulla struttura e funzione dei neuroni, persino
senza alcuna macchina di scala molecolare per sondare il loro il funzionamento.

Con questa conoscenza, gli ingegneri saranno in grado di costruire sistemi IA veloci e capaci, anche senza
comprendere il cervello ed in assenza di una programmazione "intelligente". Quello di cui hanno bisogno gli
ingegneri è soltanto studiare la struttura neurale del cervello e connettere neuroni artificiali per formare gli
stessi schemi funzionali. Se realizzeranno tutte le parti in modo corretto, incluso lo schema secondo cui
queste parti sono disposte in un reticolo per formarne il totale, allora anche il "totale" sarà corretto. L'attività
"neurale" scorrerà secondo gli schemi che noi chiamiamo pensiero, ma lo farà più velocemente, perché tutte
le parti lavoreranno più velocemente.

Accelerando la Corsa Tecnologica


I sistemi avanzati di IA sembrano possibili ed inevitabili, ma quali saranno i loro effetti? Nessuno può
rispondere appieno a questa domanda, ma almeno uno degli effetti dell'ingegneria automatizzata è chiaro:
accelererà i nostri progressi verso i limiti del possibile.

Per comprendere le nostre prospettive, abbiamo bisogno di farci qualche idea su quanto velocemente i
sistemi avanzati di IA potranno pensare. I computer attuali possiedono solo una minuscola frazione della
complessità di un cervello, eppure possono già eseguire programmi in grado di imitare aspetti significativi del
comportamento umano. Tuttavia, essi differiscono totalmente dal cervello per quel che riguarda il loro stile
operativo di base, ed è quindi inutile fare una comparazione fisica così diretta. Il cervello fa un numero
immenso di cose in simultanea, sebbene faccia ogni cosa con una certa lentezza; la maggior parte degli
attuali computer fa solo una cosa per volta ma con abbagliante velocità.

Tuttavia, si potrebbe immaginare dell'hardware IA costruito per imitare un cervello non solo nelle
funzionalità ma anche nella struttura. Tale struttura potrebbe scaturire da un approccio di simulazione
neurale, o dall'evoluzione di programmi IA realizzati in modo da essere eseguiti su un hardware con uno stile
di organizzazione simile a quello del cervello. Ad ogni modo, possiamo usare delle analogie con il cervello
umano per stimare una velocità minima per i sistemi avanzati IA costruiti da assemblatori.

Le sinapsi neurali rispondono ai segnali in tempi di millesimi di secondo, mentre alcuni prototipi sperimentali
di commutatori elettronici (21) rispondono ai segnali un centinaio di milioni di volte più velocemente (e
commutatori realizzati in nanoelettronica sarebbero ancora più veloci). I segnali neurali viaggiano con
velocità inferiori a cento metri per secondo. I segnali elettronici viaggiano un milione di volte più
velocemente. Questa brutale comparazione delle velocità suggerisce che dispositivi elettronici "simili" al
cervello lavorerebbero circa un milione di volte più velocemente rispetto a cervelli composti da neuroni (a
ritmi limitati solo dalla velocità dei segnali elettronici).

Questa stima è rozza, naturalmente. Una sinapsi neurale è molto più complessa di un commutatore
elettronico; essa può modificare la sua risposta ai segnali per mezzo della modifica della sua struttura. Nel
tempo, le sinapsi possono sia formarsi che sparire. Le trasformazioni che avvengono nelle fibre e nelle
connessioni del cervello sono proprio associate ai cambiamenti sul lungo termine che chiamiamo
"apprendimento". Queste trasformazioni hanno spinto il professor Robert Jastrow (21) di Dartmouth a
descrivere il cervello come un tappeto magico, che tesse e ritesse i suoi schemi neurali durante tutta la sua
vita.

Per immaginare un dispositivo simile al cervello e con una flessibilità dello stesso grado, immaginiamo che i
suoi circuiti elettronici siano circondati da nanocomputer meccanici ed assemblatori, quindi un sistema con
un nanocomputer associato ad ognuno dei commutatori elettronici che, nel circuito, rappresentano gli
equivalenti delle sinapsi. Proprio come il macchinario molecolare di una sinapsi risponde a schemi di attività
neurale tramite la modifica della struttura della sinapsi, così il nanocomputer risponderà agli schemi di attività
guidando il nanomacchinario affinché trasformi la struttura del commutatore. Con la corretta
programmazione, e con la possibilità di uno scambio di comunicazioni fra i nanocomputer che simuli un
sistema di segnalazioni chimiche, un tale dispositivo dovrebbe comportarsi quasi esattamente come un
cervello.

A dispetto della sua complessità, il dispositivo sarebbe compatto. I nanocomputer saranno più piccoli delle
sinapsi e i cablaggi costruiti dagli assemblatori saranno più sottili degli assoni e dei dendriti del cervello. Cavi

52
sottili e piccoli commutatori realizzeranno circuiti compatti, e la compattezza dei circuiti aumenterà la velocità
del flusso di schemi elettronici a causa della brevità delle distanze che i segnali dovranno percorrere.
Sembrerebbe quindi che una struttura simile al cervello potrebbe occupare meno di un centimetro cubo di
volume (come discusso nelle note) (23). La maggiore brevità dei percorsi che i segnali devono percorrere
contribuirà, assieme alle già rapide velocità di trasmissione, alla realizzazione di un dispositivo di oltre dieci
milioni di volte più veloce rispetto ad un cervello umano.

Soltanto i problemi di raffreddamento potrebbero limitare macchine di questo tipo a lavorare su velocità
medie più lente. Immaginate allora una macchina dal progetto più tradizionale, ma un milione di volte più
veloce di un cervello e che dissipi un milione di volte più calore (24). Il sistema consiste di un blocco di
zaffiro, costruito da assemblatori e con una dimensione pari a quella di un tazzone da caffè, zeppo di circuiti
di canali preposti al raffreddamento. Alla sua sommità è disposta una condotta di acqua ad alta pressione e
la condotta ha diametro pari a quello dei canali (25). La sommità è sigillata in modo da obbligare l'acqua di
raffreddamento a defluire dalla condotta di scarico disposta sul fondo. Dai lati del blocco fuoriescono spessi
cavi d'alimentazione e fasci in fibra ottica per canali-dati.

I cavi d'alimentazione forniscono quindici megawatt di potenza elettrica. La condotta di scarico trasporta via
il calore sviluppato attraverso un flusso di acqua bollente da tre tonnellate per minuto. I fasci in fibra ottica
trasportano altrettanti dati di un milione di canali televisivi. Essi permettono la comunicazione con altri sistemi
IA, con simulatori per la progettazione ingegneristica, e con sistemi assemblatori che costruiscono
fisicamente i prototipi per la sperimentazione definitiva dei progetti. Ogni dieci secondi, il sistema inghiotte
un'energia elettrica di quasi due kilowatt-giorno (che attualmente costa circa un dollaro). Ogni dieci secondi,
il sistema completa altrettanto lavoro progettuale di quanto ne porti avanti un ingegnere al lavoro otto ore al
giorno per un anno intero (che attualmente costa decine di migliaia di dollari). In un'ora viene completato il
lavoro di secoli. Nonostante la sua attività, il sistema lavora in un silenzio rotto soltanto fluire dell'acqua di
raffreddamento.

Queste considerazioni ci forniscono qualche risposta intuitiva alla questione della semplice velocità del
pensiero, ma che dire della sua complessità? Appare improbabile che gli sviluppi della IA si limitino alla
complessità di una singola mente umana. Come fa notare John McCarthy (26) dell'AI Lab presso Stanford,
se possiamo mettere l'equivalente di una mente umana in un teschio di metallo, possiamo anche mettere in
un edificio l'equivalente di dieci migliaia di menti cooperanti (ed un moderno grande impianto energetico può
fornire abbastanza potenza ad ognuna di esse da farla pensare almeno dieci volte più rapidamente di una
persona). All'idea di intelligenze ingegnerizzate e rapide, si può aggiungere l'idea di intere squadre di
intelligenze ingegnerizzate rapide.

La necessità di effettuare esperimenti rallenterà il lavoro dei sistemi IA per l'ingegneria, ma non poi così
tanto quanto ci si aspetterebbe. Gli ingegneri odierni devono eseguire numerosissimi esperimenti perché la
tecnologia di mole è indisciplinata. Chi può dire in anticipo come si comporterà esattamente una nuova lega
dopo essere stata forgiata e poi contorta per dieci milioni di volte? Le minuscole crepe indeboliscono il
metallo, ma solo i precisi dettagli del suo processo di fabbricazione determinano con certezza quale sarà la
natura e l'effetto delle sue crepe.

Poiché gli assemblatori fabbricheranno oggetti di precisa specificazione atomica, si eviteranno le


impredicibilità della tecnologia di mole. I progettisti (siano essi uomini o intelligenze artificiali) eseguiranno
esperimenti solo in quei casi in cui sperimentare sarà più facile o più economico che non calcolare, oppure
(più raramente) quando la sia carente la conoscenza di base.

Sistemi di IA dotati della possibilità di controllo su nanomacchine, potranno rapidamente eseguire moltissimi
esperimenti. Essi progetteranno apparati di collaudo in tempi di secondi, e questi apparati verranno costruiti
da assemblatori-replicatori senza l'aggravio temporale degli innumerevoli ritardi (ordinare parti speciali,
trasportarle, e così via) che affliggono i progetti attuali. Gli apparati di collaudo della stessa scala
dimensionale di assemblatori, nanocomputer o cellule viventi, richiederanno soltanto pochi minuti di
realizzazione, ed i nanomanipolatori eseguiranno un milione di movimenti al secondo. Sarà perciò facile
eseguire contemporaneamente un milione di esperimenti ordinari. Così, nonostante i ritardi addizionali
causati dalle sperimentazioni, i sistemi di ingegneria automatizzata muoveranno in avanti la tecnologia con
velocità incredibili.

Dal passato al futuro, quindi, il possibile schema del progresso delle nostre abilità pare ormai delinearsi
come qualcosa di simile al seguente: lungo eoni di tempo, la vita ha seguito un progresso lungo e lento, al
passo dettato dall'evoluzione genetica. Le menti dotate di linguaggio hanno affrettato il passo grazie alla
flessibilità dei memi. L'invenzione dei metodi della scienza e della tecnologia ha ulteriormente accelerato i

53
progressi perché ha forzato i memi ad evolvere più velocemente. L'accrescimento del benessere,
dell'istruzione e della popolazione, nonché la disponibilità di migliori strumenti fisici ed intellettuali, ha
continuato questa tendenza all'accelerazione lungo il nostro secolo.

L'automazione dell'ingegneria accelererà ulteriormente il passo. I sistemi di progettazione assistita dal


computer miglioreranno, e aiuteranno gli ingegneri umani a generare e a sperimentare le idee sempre più
rapidamente. I successori di EURISKO accorceranno i tempi di progetto suggerendo proposte progettuali e
completando di dettagli le innovazioni umane. Ad un certo punto, sistemi di ingegneria automatizzata
completamente svezzati inizieranno a procedere autonomamente.

In parallelo, la tecnologia molecolare si svilupperà e maturerà, aiutata dai progressi della ingegneria
automatizzata. Quindi, sistemi IA costruiti da assemblatori condurranno ad una ingegneria automatizzata
ancora più rapida, evolvendo idee tecnologiche al passo imposto da sistemi un milione di volte più veloci di
un cervello umano. Il ritmo di crescita del progresso tecnologico ne verrà accelerato in un grande balzo
ascendente: in tempi brevi, molte aree della tecnologia progrediranno fino ai limiti imposti dalle leggi naturali.
Ed in quei campi tecnologici, i progressi si assesteranno infine su una vetta elevatissima di conquista
definitiva.

Questa trasformazione è una prospettiva da vertigine. Dopo una tale trasformazione, se sopravviveremo,
vedremo un mondo di assemblatori-replicatori capaci di fabbricare qualsiasi cosa gli venga detto di
fabbricare, senza necessità di lavoro umano. Al di la di una tale trasformazione, se sopravviveremo, c'è un
mondo di sistemi di ingegneria automatizzata capaci di dirigere gli assemblatori per fabbricare dispositivi
vicini ai limiti del possibile, prossimi ai limiti ultimi della perfezione tecnica.

Infine, alcuni sistemi di IA saranno dotati sia di grandi capacità tecniche, che delle capacità sociali
necessarie per comprendere il linguaggio ed i desideri umani. Approvvigionato di energia, materiali ed
assemblatori, un tale sistema potrebbe propriamente denominarsi "macchina-genio". Qualsiasi cosa le si
chieda, lei la produce. Ma la leggenda araba e il senso comune universale suggeriscono in realtà che
dovremmo prendere i pericoli di tali motori di creazione molto sul serio.

I passi avanti tecnologici nel campo della IA, sia in quella di tipo tecnica che in quella di tipo sociale,
richiederanno anni per realizzarsi. Come ha detto Marvin Minsky (27), "Le macchine modestamente
intelligenti del vicino futuro promettono solo di portarci la ricchezza e la comodità che derivano da servitori
instancabili, obbedienti ed economici". La maggioranza dei sistemi che al giorno d'oggi sono denominati "IA"
non pensano ne imparano; essi sono solo rozzi distillati delle abilità di esperti, messe in conserva,
impacchettate e distribuite per la consultazione.

Ma l'IA genuina arriverà. Perché resti estranea alle nostre attese dovremmo vivere in un mondo di fantasia.
Attendersi l'IA, in se stesso, non è né ottimistico né pessimistico: come sempre, l'ottimismo dei ricercatori è il
pessimismo dei tecnofobi. Se non ci prepariamo per il loro arrivo, i sistemi di IA sociale potrebbero costituire
una minaccia mortale: basti pensare al danno che, già di per se, può essere inferto dalla intelligenza
semplicemente umana di terroristi e demagoghi. Analogamente, i sistemi di IA tecnica potrebbero
destabilizzare il bilancio militare mondiale, comportando un improvvisa superiorità unilaterale. Con
l'appropriata preparazione, comunque, l'intelligenza artificiale potrebbe aiutarci a costruire un futuro che
funzioni: un futuro che sia funzionale sia per la gente, che per la Terra e per il progresso dell'intelligenza
nell'universo. Il capitolo 12 suggerirà un approccio al problema, come discussione parziale della più generale
questione di come gestire la trasformazione che assemblatori e IA comporteranno.

Perché discutere oggi dei pericoli? Perché non è mai troppo presto per cominciare a formare delle istituzioni
capaci di trattare tali questioni. La IA "tecnica" è oggi in fase emergente, ed ogni suo progresso farà
accelerare la corsa tecnologica. L'intelligenza artificiale non è che una di molte potenti tecnologie che
dobbiamo imparare a gestire, ognuna associata ad una complessa miscela di minacce ed opportunità.

54
Capitolo 6: Il mondo oltre la Terra
Quella coppa rivoltata che noi chiamiamo 'Il Cielo'; sotto la quale, striscianti prigionieri, nasciamo e moriamo.
THE RUBÁIYÁT di OMAR KHAYYAM

La Terra non è che una piccola parte dell'esistente, e quel che resta di esso sarà importante per il nostro
futuro. In termini di energia, materiali e disponibilità di posto per crescere, lo spazio è di fondamentale
importanza. Nel passato, i successi nello spazio hanno regolarmente pervaso le proiezioni ingegneristiche.
Nel futuro, una frontiera spaziale aperta allargherà il mondo umano. I progressi nell'Intelligenza Artificiale e
nella nanotecnologia giocheranno un ruolo cruciale.

La gente ha impiegato intere epoche per riconoscere nello spazio una frontiera. I nostri antenati un tempo
consideravano il cielo notturno come una cupola nera costellata da minuscole scintille; luci mostrate dagli
dei. Non potevano immaginare il viaggio spaziale, perché non sapevano neanche che lo spazio esterno
esistesse.

Ora sappiamo che lo spazio esiste, ma ancora poca gente comprende il suo valore. Questo non è per nulla
sorprendente. Le nostre menti e culture si sono evolute su questo pianeta, e abbiamo appena iniziato a
digerire l'idea di una frontiera al di là del cielo.

È stato soltanto in questo secolo che alcuni progettisti visionari come Hermann Oberth e Robert Goddard
hanno dimostrato che i razzi possono raggiungere lo spazio. Confidavano in ciò perché conoscevano
abbastanza su carburanti, motori, serbatoi e strutture, da riuscire a calcolare che tipo di razzo multistadio
dovesse essere realizzato. E tuttavia, nel 1921, un editorialista del New York Times rimproverava Goddard
per la sua idea della possibilità che i razzi volassero attraverso lo spazio senza disporre di aria contro cui
spingersi, e persino nel ben più tardo 1956, l'Astronomo Reale di Gran Bretagna brontolava: "il Viaggio
Spaziale è una assoluta sciocchezza". Questo dimostrava soltanto che l'editorialista e l'astronomo erano gli
esperti sbagliati a cui chiedere pareri sull'hardware spaziale. Nel 1957, lo Sputnik orbitò attorno alla Terra, e
nel 1961 fu seguito da Yuri Gagarin. Nel 1969, il mondo vide delle orme sulla Luna.

Tuttavia, pagammo un prezzo per questa ignoranza. Poiché ai pionieri della tecnologia spaziale mancava
un modo qualunque per dimostrare al pubblico la validità delle loro idee, furono costretti a discutere degli
assunti basilari più e più volte ("Si, i razzi funzioneranno nel vuoto... Si, potranno davvero raggiungere
l'orbita...). Impegnati a difendere le basi del volo spaziale, ebbero poco tempo per discuterne le
conseguenze. Così, quando lo Sputnik fece trasalire il mondo e imbarazzò gli Stati Uniti, la gente era
impreparata: non c'era stato nessun dibattito diffuso che avesse delineato una strategia per lo spazio.
Alcuni dei pionieri avevano intuito cosa c'era da fare: costruire una stazione spaziale ed una navetta
riutilizzabile, quindi raggiungere la Luna o gli asteroidi per prelevarne le risorse. Ma il brusio di politici agitati
soffocò prontamente i loro suggerimenti, ed i politici U.S.A. si pronunciarono a gran voce per un obiettivo
grandioso e di facile comprensione. Nacque così il Progetto Apollo, la corsa per l'atterraggio di un cittadino
U.S.A. sul posto più vicino su cui piantare una bandiera. Il progetto Apollo scavalcò la costruzione di una
stazione spaziale e quella dello Space Shuttle, sostituendo entrambe con la costruzione di un gigantesco
missile capace di raggiungere la Luna in un unico grande balzo. Il progetto si conquistò la gloria, diede agli
scienziati qualche informazione, e portò grandi rendimenti in termini di avanzamenti tecnologici; ma,
all'essenza, fu una vuota bravata. I contribuenti se ne resero conto, altrettanto fecero i membri del
congresso, ed il programma spaziale appassì.

Durante il programma Apollo, i vecchi sogni resistettero strenuamente nella mente comune, e tali sogni
consistevano di semplici e romantici visioni di colonizzazione di altri pianeti. Le sonde robot fecero svanire il
sogno di un Venere ammantato di giungle, lasciando al suo posto la realtà di una fornace di dimensioni
planetarie pervasa da veleni ad alta pressione. Le sonde cancellarono anche quelle linee che astronomi privi
di fantasia avevano disegnato su Marte, e con esse svanirono anche i canali ed i Marziani. Al loro posto
c'era un Marte di crateri e canyon, e di polvere arida e soffiante. Oltre Venere, verso il Sole, giaceva la roccia
cocente di Mercurio; oltre Marte, c'era solo pietrisco e ghiaccio. I pianeti si classificavano in "morti" o in
"assassini", ed il sogno di nuove Terre dovette proiettarsi verso stelle lontane. Lo Spazio sembrava proprio
un vicolo cieco.

55
Il Nuovo Programma Spaziale
Un nuovo programma spaziale risorse dalle rovine del vecchio. Una nuova generazione di sostenitori dello
spazio e di ingegneri ed imprenditori spaziali, puntavano ora a fare dello spazio la frontiera che sarebbe
dovuta essere fin dall'inizio: un posto per lo sviluppo e lo sfruttamento e non per vane gesta politiche.
Confidavano nel successo perché lo sviluppo spaziale non richiede alcun progresso rilevante nella scienza o
nella tecnologia. Infatti, la razza umana potrebbe conquistare lo spazio applicando le stesse tecnologie di
vent'anni fa, ed evitando voli esibizionistici si potrebbe persino trarre profitto dalla conquista spaziale. Le
attività spaziali non hanno bisogno d'essere dispendiose.

Consideriamo l'alto costo odierno per il raggiungimento dell'orbita: migliaia di dollari per ogni chilogrammo
inviato. A cosa è dovuto questo costo? Per lo spettatore del lancio di uno shuttle, scosso dal fragore ed
intimorito dalle fiamme, la risposta sembra ovvia: il carburante deve costare una fortuna. Anche le
compagnie aeree pagano grosso modo metà dei loro costi operativi diretti per il solo carburante. Un razzo
assomiglia ad un aereo di linea perché è fatto di alluminio ed è pieno zeppo di motori, controlli ed elettronica,
ma il carburante costituisce pur sempre quasi tutta la sua massa quando il razzo è fermo al blocco di
partenza. Per cui è naturale attendersi di dover attribuire al carburante ben oltre la metà del costo operativo
di un razzo. Eppure, questa aspettativa è falsa. Nei lanci lunari il costo del carburante necessario per
raggiungere l'orbita ammontava a meno di un milione di dollari, pochi dollari per ogni chilogrammo spedito in
orbita, meno dell'uno per cento del costo totale. Anche oggi, il carburante resta una parte trascurabile del
costo di un volo spaziale.

Perché il volo spaziale costa così tanto in più rispetto ad un volo aereo? In parte, a causa del fatto che le
navi spaziali non vengono costruite in quantità; questo obbliga i costruttori a recuperare i loro costi di
progetto dalla vendita di solo poche unità, e a costruire manualmente tali unità e con grandi costi. Inoltre, la
maggior parte delle navi spaziali diventano inutilizzabili dopo un solo utilizzo, ed anche gli shuttle vengono
messi in volo poche volte lungo un anno; il loro costo non può essere distribuito su molti voli, uno per ogni
giorno dell'anno, come si può invece fare per il costo degli aeri di linea. Infine, anche i costi degli spazioporti
possono essere ammortizzati solo su pochi voli al mese, contro le migliaia di voli su cui possono
ammortizzarli i grandi aereoporti. Tutto ciò cospira per rendere ogni volo nello spazio di una dispendiosità
scoraggiante.
Ma in alcuni studi della Boeing Aerospace Company, la compagnia aerea che già riuscì ad abbassare
notevolmente i costi dei trasporti su jet per quasi tutto il mondo, mostrano che una flotta di navette
pienamente riutilizzabili, che volino e che siano manutenzionate come fossero aerei di linea,
abbasserebbero il costo del raggiungimento dell'orbita di un fattore di cinquanta o più. La chiave non sta in
nuova tecnologia, ma in una economia di scala e nella trasformazione dello stile di management.

Lo spazio offre immense opportunità industriali. I vantaggi per la messa in orbita dei satelliti di osservazione
e di comunicazione sono ben noti. I futuri satelliti di comunicazione saranno sufficientemente potenti da
comunicare con stazioni al suolo gestite manualmente, determinando così il progresso ultimo nei servizi di
telefonia mobile. Le compagnie si stanno già muovendo per trarre vantaggio dalla gravità "zero" con l'intento
di eseguire in assenza di gravità alcuni delicati processi di separazione che producano farmaci migliorati;
altre compagnie progettano di far crescere in assenza di gravità dei migliori cristalli per l'elettronica. Negli
anni che precederanno il momento in cui gli assemblatori si faranno carico della produzione dei materiali, gli
ingegneri sfrutteranno lo spazio per estendere le capacità della tecnologia di mole. L'industria spaziale offrirà
un mercato crescente di servizi di lancio, abbassando i costi dei lanci stessi. Il crollo dei costi di lancio, a sua
volta, stimolerà la crescita dell'industria spaziale. Il trasporto su razzi verso l'orbita Terrestre diverrà infine a
buon mercato.

Pianificatori ed imprenditori spaziali stanno già puntando lo sguardo al di là dell'orbita Terrestre, verso le
risorse del sistema solare. Nello spazio profondo, comunque, i razzi diventano ben presto troppo dispendiosi
per il trasporto merci, dato che inghiottono avidamente carburante che a sua volta deve essere trasportato
nello spazio da razzi. I razzi che bruciano carburante sono obsoleti quanto i fuochi artificiali cinesi, i quali
sono ben più vecchi della bandiera "stelle e strisce". I razzi si sono evoluti per ragioni naturali: sono compatti,
potenti, di utilità militare, possono penetrare l'aria e lottare vigorosamente contro la gravità. Eppure, gli
ingegneri spaziali conoscono alcune alternative (1).

I veicoli non hanno bisogno di grandi esplosioni di potenza per muoversi attraverso il vuoto privo di attrito
dello spazio. Piccole forze possono, lentamente e costantemente, spingere un veicolo fino a velocità enormi.
Poiché l'energia ha massa, il riflettersi della luce solare su uno specchio sottile, ossia su una "vela solare",
fornisce una forza di spinta di questo tipo. La trazione della gravità solare ne fornisce un'altra. Insieme,

56
pressione luminosa e gravità possono portare una nave spaziale in qualsiasi posto del sistema solare, e
farla tornare di nuovo indietro. Solo le calde vicinanze del Sole e l'attrito delle atmosfere planetarie
limiterebbero il viaggio, costringendo la vela a tenersi alla larga da entrambe.

La NASA ha condotto degli studi su vele solari progettate in modo da essere trasportate nello spazio
all'interno di razzi, ma purtroppo le vele devono essere sufficientemente forti e robuste per sopravvivere allo
stress del lancio e del loro successivo spiegamento. Per cui, gli ingegneri fabbricheranno le vele
direttamente nello spazio, utilizzando una tenso-struttura di piccola massa per supportare specchi composti
di una sottile pellicola metallica. Il risultato sarebbe la "vela di luce" (2), una categoria di vele solari di alte
prestazioni. Dopo una accelerazione applicata costantemente per un anno intero, una vela di luce può
raggiungere una velocità di cento chilometri al secondo, lasciando mordere la sua polvere ai più veloci fra gli
odierni razzi.

Se immaginate una rete di fili in fibra di grafite, come una tela di ragno tessuta su una estensione di
chilometri, e con spazi vuoti fra i fili della dimensione di un campo da calcio, siete sulla buona strada per
immaginare la struttura di una vela solare. Se immaginate gli spazi vuoti colmati da pannelli riflettenti
costituiti da fogli di alluminio più sottili di una bolla di sapone, avrete una idea un po' più corretta di come
dovrebbe apparire una vela di luce: tanti pannelli riflettenti strettamente legati assieme per formare un
immenso ed ondulato mosaico di specchi. Immaginate ora il carico di un cargo che penda dalla ragnatela
come un paracadutista dal suo paracadute, mentre la forza centrifuga tiene la ragnatela costellata di
pannelli-specchi, tesa e piana nel vuoto, e avrete quasi afferrato l'immagine giusta.

Per costruire le vele di luce con la tecnologia di mole, dovremmo imparare a realizzarle nello spazio; i loro
immensi riflettori sarebbero troppo delicati per sopravvivere al lancio e allo spiegamento. Occorre costruire
strutture di impalcatura, fabbricare sottili pellicole riflettenti, ed usare nello spazio dei bracci robotici
controllati da remoto. Ma d'altra parte, per altre costruzioni, i pianificatori spaziali stanno già puntando
all'acquisizione della piena padronanza nelle abilità di costruzione e fabbricazione, nonché alla acquisizione
della piena padronanza tecnica sulla robotica. Se, nel corso dello sviluppo spaziale, realizzeremo le vele di
luce piuttosto precocemente, lo sforzo varrà come una esercitazione sul campo per l'acquisizione di queste
abilità, un esercizio che non richiede il lancio di tanto materiale. Nonostante le vele di luce debbano essere
molto estese, le impalcature (assieme al materiale di molte vele) dovrebbero risultare abbastanza leggere da
potersi trasportare in orbita solo con uno o due voli di shuttle.

Una qualche facilitazione tecnologica, quindi, consentirà la produzione economica delle vele. Una volta
costruite, esse saranno altrettanto economiche da usare: avranno ben poche parti mobili critiche, una
piccola massa, e nessun consumo di carburante. Saranno completamente differenti dai razzi per forma,
funzionamento e costo operativo. Infatti, i calcoli suggeriscono che il costo delle vele sarà differente da
quello dei razzi di un fattore all'incirca pari ad un migliaio, ovviamente in favore delle vele di luce.

Nella visione della maggior parte della gente, il resto del sistema solare è tanto vasto quanto inaccessibile.
Esso è vasto; come già fu per la Terra, il sistema solare richiederà mesi per essere circumnavigato a vela.
Tuttavia, la sua apparente inaccessibilità ha a che fare con la distanza meno di quanto abbia a che fare con
il costo del trasporto tramite razzi.

Le vele di luce possono definitivamente infrangere la barriera dei costi, aprendoci la porta sul sistema
solare. Le vele di luce renderebbero gli altri pianeti più facili da raggiungere ma non più utili: essi
resterebbero dei deserti morti. La gravità dei pianeti impedirebbe alle vele di portarsi sulle loro superfici, e
sarà di ostacolo anche per lo svolgimento di ogni attività sulla superficie di un pianeta. Stazioni spaziali
rotanti su se stesse possono simulare la gravità, se necessario, ma stazioni confinate in prossimità dei
pianeti non possono sfuggire da questi. Ancora peggio, le atmosfere planetarie bloccano l'energia solare,
spargono polveri, corrodono i metalli, riscaldano i refrigeratori, raffreddano i caloriferi, e trascinano giù le
cose. Persino la Luna, pur priva di atmosfera, con la sua rotazione blocca la luce solare per metà del tempo,
e possedendo inoltre una sufficiente gravità può far atterrare le vele di luce oltre ogni speranza di fuga. Le
vele di luce sono veloci e instancabili ma non robuste.

Il grande e duraturo valore dello spazio sta nelle sue risorse in termini di materia, energia e "spazio". I
pianeti occupano spazio e detengono energia. Le risorse materiali che essi offrono sono distribuite in modo
sconveniente. Gli asteroidi, al contrario, sono montagne volanti di risorse (3) che tracciano orbite
attraversanti l'intero sistema solare. Alcuni incrociano persino l'orbita della Terra; alcuni hanno anche colpito
la Terra, generando dei crateri a seguito dall'esplosione d'impatto. L'attività mineraria sugli asteroidi sembra
perseguibile. Potrebbero servirci razzi rombanti per portare le cose su nello spazio, ma i meteoriti dimostrano

57
che rocce ordinarie possono cadere dallo spazio e, come lo space shuttle, farlo senza necessariamente
bruciare mentre cadono giù. La consegna di materiali da un asteroide verso un bersaglio di destinazione al
suolo, collocato per esempio in una pianura salata, costerà ben poco.

Anche gli asteroidi piccoli, sono pur sempre grandi se valutati in termini umani; essi contengono miliardi di
tonnellate di risorse. Alcuni asteroidi contengono acqua, nonché una sostanza che sembra un olio di rocce
scistose. Alcuni contengono rocce piuttosto ordinarie. Altri contengono metalli a loro volta contenenti
elementi scarsamente presenti nella crosta terrestre, elementi che alcune ere fa, all'epoca della formazione
dell'attuale nucleo terrestre, sprofondarono verso il basso oltre ogni possibilità di recupero: questo acciaio
meteoritico è una forte e tenace lega composta da ferro, nichel e cobalto, con tracce di preziose quantità di
metalli del gruppo del platino ed oro. Un pezzo largo un chilometro di questo materiale (e ce ne sono
moltissimi) contiene metalli preziosi per un valore di diverse migliaia di miliardi di dollari, nonché nichel e
cobalto in quantità sufficienti a rifornire l'intera industria della Terra per molti anni.

Il sole inonda lo spazio con energia facile da intercettare ed immagazzinare. Una struttura di un chilometro
quadrato e composta da riflettori metallici, costituirebbe un collettore di luce solare in grado di intercettare
potenze di circa un miliardo di watt, e che funzionerebbe senza essere interrotto dalle presenza delle nuvole
o dai periodi notturni. Nella calma dello spazio, priva di tempo atmosferico, il collettore più insignificante sarà
come una diga idroelettrica permanente (4). Poiché il Sole emette molta più energia in un microsecondo di
quanta ne usi l'intera razza umana in un anno, nei tempi a venire l'energia non scarseggerà mai.

Infine, lo spazio stesso offre posto per vivere. La gente un tempo guardava allo spazio in termini di pianeti.
Immaginava città sotto cupole, costruite su pianeti morti ma lentamente convertiti in pianeti simili alla Terra, e
pianeti simili alla Terra raggiunti dopo anni di volo fra le stelle. Ma i pianeti sono un cattivo affare,
generalmente offrono gravità, atmosfera, lunghezza del giorno e posizione sbagliate.

Per gli insediamenti umani, lo spazio libero costituisce un sito di costruzione migliore. Il professor Gerard
O'Neill (5) della Princeton University, portò questa idea all'attenzione pubblica, contribuendo così a ravvivare
l'interesse nello spazio durante la crisi post-Apollo. Egli mostrò che materiali di costruzione ordinari, quali
acciaio e vetro, possono essere sfruttati per costruire nello spazio dei cilindri abitabili e con dimensioni
chilometriche in lunghezza e circonferenza. In base al suo progetto, nei cilindri sarebbe previsto uno strato di
terra, posto sotto i piedi dei suoi abitanti, che dovrebbe proteggere questi ultimi dalla radiazione naturale
dello spazio proprio come gli abitanti della Terra sono schermati dall'atmosfera sopra di loro. La rotazione
produrrebbe una accelerazione uguale alla gravità Terrestre, ed ampi specchi e pannelli-finestra
inonderebbero di luce solare l'interno dei cilindri. Aggiungendo suolo, fiumi, vegetazione ed immaginazione,
le terre interne al cilindro potrebbero competere con le migliori valli della Terra come luoghi di insediamento.
Con le sole risorse degli asteroidi, saremo in grado di costruire l'equivalente pratico di un migliaio di nuove
Terre.

Adattando la tecnologia presente potremmo già aprire la frontiera spaziale. La prospettiva è incoraggiante.
Ci mostra una via ovvia per scavalcare i limiti terrestri allo sviluppo, allentando una delle paure che hanno
offuscato la nostra visione del futuro. La promessa della frontiera spaziale, quindi, può ravvivare la speranza
umana, una risorsa di cui avremo bisogno in abbondanza se saremo impegnati anche in altri problemi.

Spazio e Tecnologia Avanzata


Adattando la tecnologia presente, potremmo davvero aprire la frontiera spaziale, ma non vogliamo farlo.
Percorrendo la strada delineata dall'attuale movimento pro-spazio, la civiltà umana impiegherebbe decadi
prima di consolidare la sua presenza nello spazio. Prima di allora, altri passi avanti tecnologici potrebbero
aver aperto nuove strade.

Attualmente, diverse squadre di ingegneri impiegano tipicamente dai cinque ai dieci anni per progettare un
nuovo sistema spaziale, spendendo decine di migliaia di milioni di dollari lungo la strada. Questi ritardi e
costi ingegneristici rendono penosamente lento il progresso. Negli anni a venire, tuttavia, i sistemi di
progettazione assistita dal computer evolveranno verso i sistemi di ingegneria automatizzata. Quando
questo accadrà, i ritardi ed i costi ingegneristici si ridurranno enormemente finendo poi per crollare; i sistemi
di fabbricazione controllata da computer decurteranno ulteriormente i costi complessivi. Verrà un giorno in
cui, assieme, progettazione e produzione automatica saranno in grado di sviluppare sistemi spaziali in tempi
e con costi oltre dieci volte inferiori rispetto agli attuali. E il nostro progresso spaziale "salirà alla stelle".

58
E a quel punto, i coloni spaziali potrebbero mai guardare indietro interpretando il nostro attuale programma
spaziale come la chiave dello sviluppo spaziale? Probabilmente no. Essi avranno assistito a molti più
progressi tecnologici realizzati in una manciata di anni di quelli che gli ingegneri spaziali sono riusciti a
gestire nelle precedente manciata di decadi. Essi potrebbero ben concludere che IA e Robotica hanno fatto
molto più per lo sviluppo dello spazio di quanto abbia fatto un intero esercito di ingegneri della NASA.
Il passo avanti tecnologico degli assemblatori e l'ingegneria automatizzata si coalizzeranno per condurci
verso progressi rispetto ai quali i nostri sforzi spaziali attuali sembreranno piuttosto pittoreschi. Nel capitolo
4, ho descritto come gli assemblatori-replicatori saranno in grado, utilizzando ben poco intervento umano, di
costruire un leggero e robusto motore per razzo. Utilizzando processi analoghi, costruiremo interi veicoli
spaziali dalle prestazioni eccezionali e dal costo ridottissimo. A parità di peso, i materiali di questi velivoli,
essendo dotati di una struttura basata su quella del diamante, avranno approssimativamente una resistenza
pari a cinquanta volte quella dell'alluminio usato negli attuali shuttle (nonché quaranta volte la resistenza alle
deformazioni elastiche); veicoli costruiti con questi materiali possono essere prodotti in modo da risultare
oltre il novanta per cento più leggeri rispetto agli analoghi veicoli odierni. Una volta nello spazio, tali veicoli
dispiegheranno i loro collettori solari per rifornirsi di energia in abbondanza. Usando questa energia per
alimentare assemblatori (6) e disassemblatori, i veicoli ricostruiranno se stessi durante il volo, adattandosi
così alle condizioni mutevoli cui sono sottoposti o semplicemente al capriccio dei loro passeggeri. Oggi, il
viaggio spaziale è una sfida. Domani, sarà facile e conveniente.

Poiché la nanotecnologia di per se stessa si presta a produrre oggetti piccoli, consideriamo la navetta
spaziale per trasporto passeggeri più piccola possibile: lo spacesuit (l'abito spaziale). Essendo obbligati
all'utilizzo di materiali deboli, pesanti e passivi, gli ingegneri attuali costruiscono tute spaziali goffe e
voluminose. Un'occhiata ad una potenziale spacesuit avanzata illustrerà alcune delle possibilità della
nanotecnologia.

Immaginate di essere a bordo di una stazione spaziale che ruoti su se stessa per simulare la normale
gravità terrestre. Dopo l'addestramento vi viene consegnata una suit da provare: eccola li appesa alla
parete, una cosa grigia dall'aspetto gommoso e corredata da un elmetto trasparente. La afferrate, sollevate il
suo non trascurabile peso, vi spogliate e vi infilate attraverso la cucitura dell'apertura frontale.

Avvertite che la suit è più soffice della più soffice gomma, ma ha una superficie interna untuosa. Scivola
addosso facilmente e la cucitura d'entrata si sigilla al solo tocco. Essa è un rivestimento aderente attorno alle
vostre dita come lo sarebbe un sottile guanto di cuoio, e si inspessisce progressivamente più su, verso il
vostro braccio, fino a diventare spessa quanto una mano nella zona attorno al vostro torace. Alle vostre
spalle, a malapena evidente, c'è un piccolo zaino. Attorno alla vostra testa, quasi invisibile, c'è l'elmetto.
Dietro il vostro collo, la superficie interna si adatta perfettamente alla vostra pelle, in un abbraccio dal tocco
leggero e uniforme che presto diventa quasi impercettibile.

Vi alzate e camminate attorno, sperimentando la suit. Battete i piedi e non avvertite alcun peso extra dovuto
ad essa. Vi piegate e vi stendete, e non sentite nessun impedimento, nessuna grinza, nessun punto di
pressione. Quando strofinate fra loro le vostre dita, le sentite sensibili come se fossero nude, ma in qualche
modo leggermente più spesse. Quando respirate, l'aria ha un gusto pulito e fresco. Infatti sentite che
potreste dimenticarvi del tutto che state indossando una suit. E come se non bastasse, vi sentite altrettanto a
vostro agio quando vi incamminate fuori, nel vuoto dello spazio.

La suit è capace di tutto questo, ed altro ancora, grazie ad una complessa attività interna e ad una struttura
la cui tessitura è quasi altrettanto intricata di quella dei tessuti viventi. Un dito di guanto spesso un millimetro
ha spazio per un migliaio di livelli, spessi un micrometro ognuno, e composti da nanomacchinari e
nanoelettronica attiva. Una toppa della dimensione di un polpastrello ha spazio per un miliardo di
nanocomputer meccanici, e il 99, 9 percento del suo volume resta libero per altri componenti.

Per cui, resta spazio libero in abbondanza per una struttura attiva. Il livello intermedio del materiale della
suit (7) è composto da un intreccio tridimensionale di fibre la cui struttura è basata su quella del diamante, e
tali fibre agiscono in modo molto simile a muscoli artificiali ma, in più, sono in grado di spingere altrettanto
bene di quanto siano in grado di tirare (come discusso nelle note). Queste fibre occupano la maggior parte
del volume e rendono il materiale della suit forte come l'acciaio. Mosse da microscopici motori elettrici e
controllate da nanocomputer, esse donano al materiale della suit la sua notevole flessibilità, consentendole
di allungarsi, contrarsi e piegarsi a seconda delle necessità. Quando, precedentemente, la suit era sembrata
soffice al tatto, questa sensazione era dovuta al fatto che la suit era stata programmata ad agire in maniera
"soffice". La suit non ha difficoltà a mantenere la sua forma nel vuoto; ed è forte abbastanza da non
esplodere nel vuoto come farebbe invece un pallone. Allo stesso modo, non ha difficoltà a sostenere il suo

59
proprio peso o a muoversi per adattarsi ai vostri movimenti rapidamente, dolcemente e senza resistenza.
Questa è uno dei motivi per cui sembra quasi che non ci sia affatto.

Inoltre, avvertite le vostre dita quasi come fossero nude perché sentite la tessitura di quello che toccate.
Questo accade perché la superficie della suit è rivestita di sensori di pressione, e la fodera interna della suit
è rivestita da strutture attive: il guanto vi fa avvertire la forma di qualsiasi cosa tocchiate, compresi i
dettagliati schemi della pressione che l'oggetto esercita, e trasmette lo stesso schema di pressione alla
vostra pelle. Può anche invertire il processo, ossia trasmettere all'esterno lo schema dettagliato delle forze
esercitate dalla vostra pelle sull'interno del guanto. In questo modo il guanto finge di non esserci, ed alla
vostra pelle pare d'essere nuda.

La suit ha la forza dell'acciaio e la flessibilità del vostro stesso corpo. Se modificate le impostazioni dei
controlli della suit, essa continua ad adattarsi ai vostri movimenti, ma con una differenza sostanziale. Invece
di trasmettere semplicemente le forze che voi esercitate, potrebbe amplificarle di dieci volte. Allo stesso
modo, quando qualcosa si strofina contro di voi, la suit trasmette all'interno solo un decimo della forza (8).
Ora siete pronti ad un combattimento di wrestling contro un gorilla.

L'aria fresca che respirate non dovrebbe sorprendervi; lo zaino include una fornitura di aria e di altri generi
di consumo. Tuttavia, dopo pochi giorni all'esterno ed esposti alla luce solare, la vostra aria non si esaurisce:
come una pianta, la suit assorbe la luce del sole e l'anidride carbonica che esalate, per produrne ossigeno
fresco. Sempre come una pianta (o come un intero ecosistema), essa decompone in molecole semplici le
altre scorie che si generano e le riassembla in schemi molecolari di cibo sano e fresco. Di fatto, la suit vi
mantiene in condizioni di comfort (9), ben nutriti ed in grado di respirare, e può farlo quasi in qualsiasi posto
del sistema solare interno.

Inoltre, la suit è durevole. Può tollerare il guasto di numerose nanomacchine poiché ne ha molte altre pronte
a farsi carico del lavoro. Lo spazio fra le fibre attive lascia spazio ai movimenti di assemblatori e
disassemblatori incaricati di riparare i dispositivi danneggiati. La suit ripara se stessa con la stessa velocità
con cui si logora.

Entro i confini del possibile, la suit potrebbe esser corredata di molte altre caratteristiche. Un granello di
materiale più piccolo di una capocchia di spillo, potrebbe contenere il testo di ogni libro finora pubblicato, per
consentire la sua visualizzazione su uno schermo pieghevole. Un'altro granello potrebbe essere un "seme"
contenente i piani progettuali per un insieme di dispositivi più grande dell'insieme di tutti quelli che la razza
umana abbia costruito fino ad oggi (10), e contenere inoltre assemblatori-replicatori capaci di fabbricare
quantomeno alcuni di questi dispositivi, se non addirittura tutti.

Inoltre, veloci sistemi di IA tecnica come quelli descritti nel capitolo precedente potrebbero progettare la suit
in una sola mattinata (11), e terminare la sua costruzione il pomeriggio stesso.

Tutto quello che realizziamo nello spazio con la moderna tecnologia di mole verrà rapidamente e
drammaticamente sorpassato poco dopo l'avvento della tecnologia molecolare e dell'ingegneria
automatizzata. In particolare, costruiremo assemblatori molecolari che possano funzionare nello spazio (12).
Questi replicatori utilizzeranno energia solare, così come fanno le piante, e con tale energia convertiranno i
detriti asteroidali in copie di se stessi e prodotti utilizzabili dagli uomini. Con tali replicatori, riusciremo ad
afferrare saldamente le risorse del sistema solare.

Finora, molti lettori avranno notato che questa discussione, come pure altre in precedenza, suona proprio
come fosse fantascienza. Alcuni potrebbero esserne compiaciuti, altri invece potrebbero accogliere con
timore temere l'eventualità che le possibilità future presentino davvero questa caratteristica. Altri ancora,
tuttavia, potrebbero essere dell'opinione che "somigliare alla fantascienza" sia in qualche modo un
presupposto per poter liquidare il discorso. Questa sensazione è comune e merita di essere analizzata.

Tecnologia e fantascienza hanno a lungo condiviso una curiosa relazione. Nell'immaginare le tecnologie
future, gli scrittori di fantascienza sono stati guidati in parte dalla scienza, in parte dai desideri umani, ed in
parte dalla domanda di mercato per storie bizzarre. Alcune delle loro invenzioni in seguito si realizzarono
davvero, perché le idee che sembravano plausibili ed interessanti nella finzione narrativa talvolta si
dimostravano attraenti e possibili nella realtà. Inoltre, quando gli scienziati o gli ingegneri intravedono una
sensazionale possibilità futura, come per esempio il volo spaziale tramite razzi, gli scrittori di fantascienza di
solito si appropriano dell'idea e la rendono popolare.

60
In seguito, quando i progressi ingegneristici spostano queste possibilità più vicino alla effettiva realizzabilità,
altri scrittori esaminano i fatti e ne descrivono le prospettive. Queste descrizioni, a meno che non siano
davvero astratte, "suonano" come fantascienza. Le possibilità future spesso assomigliano alla fantascienza
di oggi, proprio come gli odierni robot, astronavi e computer assomigliano alla fantascienza di ieri. E come
potrebbe essere altrimenti? Le tecnologie drasticamente nuove suonano come fantascienza perché gli autori
di fantascienza, a dispetto delle loro frequenti fantasticherie, non sono ciechi, ed in più nutrono un genuino
interesse professionale per la tecnologia.

Spesso, gli autori di fantascienza piegano agli scopi della narrazione (ossia "falsificano") il contenuto
scientifico delle loro storie, di modo da "giustificare" delle tecnologie sensazionali. Alcuni pensatori un po'
confusi, prendono queste descrizioni di progressi tecnici sensazionali, e ne estrapolano un quadro coerente
utilizzando questa scienza contraffatta, ignorando però il contesto in cui essa compariva. E questo è molto
spiacevole. Quando gli ingegneri estrapolano delle proiezioni riguardanti delle abilità future, verificano
sperimentalmente le loro idee e le evolvono per adattarle alla migliore comprensione delle leggi della natura
fra quelle di cui disponiamo al momento. E' indispensabile distinguere i concetti che ne risultano dalle idee
evolutesi per adattarsi a soddisfare la domanda sul mercato di narrativa. Le nostre vite dipendono da questo.

Molte cose resteranno comunque impossibili, persino per la tecnologia molecolare. Nessuna suit spaziale,
per quanto meravigliosa, sarà mai in grado di comportarsi come un razzo capace di spingervi avanti ed
indietro, interminabilmente ed a grandissime velocità, così come nessuna suit vi permetterà di sopravvivere
a grandi esplosioni, o attraversare i muri, o semplicemente di restare indefinitamente freschi in una stanza
calda ed isolata. Dobbiamo spingerci molto lontano prima di raggiungere i limiti del possibile, tuttavia questi
limiti esistono. Ma si tratta di un argomento che verrà ripreso più tardi.

Abbondanza
Risorse dello spazio, assieme ad assemblatori ed ingegneria automatizzata, gettano le basi per un futuro di
grande abbondanza materiale. Cosa si intenda esattamente con questa affermazione può comprendersi
meglio esaminando i costi.

I costi riflettono i limiti delle nostre risorse e delle nostre capacità; costi alti indicano risorse scarse ed
obiettivi difficili da raggiungere. I profeti della scarsità hanno in effetti predetto la crescita vertiginosa dei
costi, e con essa un certo tipo di futuro. Il costo delle risorse, comunque, dipende sempre dalla tecnologia.
Sfortunatamente, gli ingegneri che hanno tentato di prevedere il costo delle future tecnologie si sono di solito
imbattuti in un groviglio di dettagli e di incertezze che si è dimostrato impossibile da districare. Questo
problema ha occultato la nostra comprensione del futuro.

La prospettiva dei replicatori assemblatori, dell'ingegneria automatizzata e delle risorse spaziali taglia
questo nodo Gordiano della previsione dei costi. Oggi, il costo dei prodotti include i costi distinti di lavoro,
capitale, materiali grezzi, energia, siti di produzione, eliminazione dell'inquinamento, organizzazione,
distribuzione, tassazione, e progetto. Per comprendere come cambierà il costo totale, consideriamo questi
elementi uno per uno.

Lavoro:

Per costruire assemblatori-replicatori, dopo che questi siano stati realizzati per la prima volta, non ci sarà
bisogno di alcun lavoro umano. Di quale utilità potrebbero essere le mani umane nel far funzionare un
assemblatore? Inoltre, disponendo anche di dispositivi robotici di varie dimensioni per assemblare in sistemi
più grandi le singole parti costruite dagli assemblatori-replicatori, l'intero processo di fabbricazione
dall'assemblaggio delle molecole all'assemblaggio dei grattacieli potrebbe affrancarsi del tutto dal costo del
lavoro.

Capitale:

I sistemi basati sugli assemblatori, se propriamente programmati, costituiranno di per se stessi un capitale
produttivo. Assieme con macchine robotiche più grandi, saranno in grado di costruire virtualmente ogni cosa,
incluse copie di se stessi. Poiché questo capitale auto-replicante saprà raddoppiarsi molte volte in un giorno,
solo la domanda e le risorse disponibili potranno limitarlo. Un capitale che si possiede in quantità dipendente
dalla necessità, non costa virtualmente nulla.

61
Materiali grezzi:

Poiché le macchine molecolari disporranno gli atomi nel modo più vantaggioso, poco materiale può bastare
per fare molto. Gli elementi più comuni, come idrogeno, carbonio, azoto, ossigeno, alluminio e silicio,
sembrano essere i migliori per la costruzione della maggior parte della massa contenuta nella maggior parte
delle strutture, dei veicoli, dei computer, degli abiti e così via: questi elementi sono leggeri e formano legami
chimici molto forti. Poiché polvere ed aria contengono questi elementi in abbondanza, i materiali grezzi
possono essere economici come la polvere.

Energia:

Gli assemblatori saranno in grado di funzionare alimentati da energia chimica o elettrica. Sistemi costruiti
dagli stessi assemblatori convertiranno l'energia solare in energia chimica, come fanno le piante o le
fotocelle solari. Le celle solari esistenti sono già più efficienti delle piante. Poiché i collettori solari saranno
costruiti a loro volta da assemblatori-replicatori, carburante e potenza elettrica costeranno ben poco.

Siti di produzione:

Il sistema di produzione basato sugli assemblatori occuperà poco spazio. La maggior parte dei sistemi
potrebbero stare in un armadio (o in un ditale, o nella cruna di un ago). I sistemi più grandi, se qualcuno
volesse realizzare qualcosa che richiede una insolita estensione spaziale, potrebbero essere piazzati
sottoterra o nello spazio. A questo scopo, la produzione basata sugli assemblatori potrà economicamente
fabbricare sia macchine scavatrici che navi spaziali.

Eliminazione dell'inquinamento:

I sistemi assemblatori saranno capaci di mantenere il controllo degli atomi che utilizzano, rendendo la
produzione altrettanto pulita del processo di crescita di un albero di mele, o persino più pulita. Se poi il
"frutteto" rimanesse troppo sporco o troppo brutto, saremo in grado di rimuoverlo interamente, facendolo
scomparire dalla faccia della Terra (13).

Organizzazione:

Attualmente, gli impianti industriali per la produzione richiedono una organizzazione per coordinare orde di
lavoratori e dirigenti. Le macchine per la produzione basata sugli assemblatori non conterranno nessuna
persona. Più semplicemente, si insedieranno in un posto e produrranno le cose che gli sono state richieste.
La loro programmazione iniziale fornirà tutta l'organizzazione e l'informazione di cui esse hanno bisogno per
fabbricare una gran varietà di prodotti.

Distribuzione:

Con veicoli automatici che scorrono in tunnel fabbricati da economiche macchine scavatrici, la distribuzione
non ha bisogno né di usare lavoro umano, né di deturpare il paesaggio. Poiché ci sarebbero assemblatori
ovunque, sia in casa che in ambienti pubblici, ci sarà meno bisogno della distribuzione stessa.

Tassazione:

La maggior parte delle tasse preleva una percentuale fissa dal prezzo di un dato prodotto, e quindi incide
sul costo del prodotto in quella fissata percentuale. Se il costo è trascurabile, la tassa sarà trascurabile.
Inoltre, gli stessi governi avranno i propri replicatori e i propri materiali grezzi, per cui avranno meno motivo
di tassare la gente.

Progetto:

Ai punti già esaminati qui sopra, va aggiunta un'altra giustificazione dei bassi costi di produzione. I sistemi di
IA tecnica, evitando il costo del lavoro ingegneristico, elimineranno virtualmente il costo di progettazione.
Questi sistemi IA risulteranno economici a loro volta, sia da un punto di vista produttivo che da un punto di
vista operativo, poiché saranno stati fabbricati da assemblatori e non avranno alcuna inclinazione a fare
null'altro che progettare.

In breve, al termine di un lungo periodo di proficui sviluppi delle tecnologie molecolari e dei computer, i costi
di progettazione e fabbricazione caleranno drammaticamente. Poco più sopra ho parlato di materie prime

62
"economiche come la polvere" e, di fatto, gli assemblatori saranno in grado di fabbricare quasi qualunque
cosa a partire da polvere e luce solare.

Le risorse spaziali, comunque, cambieranno il già economico valore della "economica polvere"
deprezzandolo ulteriormente: il terriccio agricolo ha pur sempre un suo valore nell'ecosistema della Terra,
ma i detriti degli asteroidi provengono da un deserto morto e desolato per cui la loro terra varrà ancor meno.
Per lo stesso motivo, gli assemblatori nello spazio funzioneranno con la luce proveniente direttamente dal
Sole.

Le risorse spaziali sono immense. Un asteroide potrebbe seppellire un continente della Terra sotto uno
strato di materie prime profondo un chilometro. Lo spazio inghiotte il 99,999999955 per cento di tutta la luce
del Sole che non colpisce la Terra, e la maggior parte di questa radiazione luminosa si perde nel vuoto
interstellare.

Lo spazio ha materia, energia e "spazio" a sufficienza per progetti di vaste dimensioni, incluse enormi
colonie spaziali. I sistemi basati sui replicatori saranno capaci di costruire mondi con scale comparabili a
quelle di continenti e somiglianti ai cilindri del Dr. O'Neill's ma fatti di materiali robusti a base di carbonio. Con
questi materiali e con l'acqua prelevata dalle lune ghiacciate del sistema solare esterno, saremo in grado di
creare non soltanto dei terreni nello spazio, ma anche mari interi più vasti e più profondi del Mediterraneo.
Questi nuovi e vasti suoli e mari costruiti con energia e materiali prelevati dallo spazio, in termini di risorse
non costeranno quasi nulla alla Terra. Il principale requisito sarà programmare il primo replicatore, ma in
questo compito ci verranno in aiuto i sistemi IA. Il problema più grande sarà unicamente decidere quello che
desideriamo fare.

Come Konstantin Tsiolkovsky (14) ha scritto sul finire del dicianovesimo secolo, "L'uomo non resterà per
sempre sulla terra; la ricerca di luce e spazio lo porterà a diffondersi oltre i confini dell'atmosfera, dapprima
timidamente, ma infine per conquistare l'intero sistema solare". Nello spazio morto porteremo vita.

E i replicatori ci doneranno le risorse per afferrare le stelle. Una vela di luce in viaggio verso una stella e
spinta dalla sola luce solare, si troverebbe presto a navigare libera nell'oscurità, più veloce di qualsiasi razzo
moderno ma pur sempre così lentamente che impiegherebbe millenni per attraversare l'abisso interstellare.
Possiamo tuttavia costruire una formidabile schiera di proiettori laser orbitanti attorno al Sole, e con una tale
schiera dirigere un raggio fino a molto oltre il nostro sistema solare (15) affinché spinga una vela quasi fino
alla velocità della luce. La traversata, in tal caso, richiederebbe soltanto degli anni.
Arrestare la vela rappresenta un problema. Freeman Dyson della Princeton suggerisce di frenarla con i
campi magnetici associati alla lieve ionizzazione dei gas interstellari (16). Robert Forward degli Hughes
Research Laboratories suggerisce (17) di ritirare il raggio, e attivare un nuovo raggio che parta dalla stessa
vela e che sia diretto in verso opposto al moto della vela, in modo da decelerarne un'altra più piccola che
viaggia in coda alla prima. In un modo o nell'altro (e ce ne sono molti altri), le stelle si trovano entro la nostra
portata.

Per un lungo tempo a venire, tuttavia, il solo sistema solare può fornirci opportunità a sufficienza. Lo spazio
in prossimità della Terra è sufficiente per creare paesaggi con un'area complessiva milioni di volte quella
della Terra (18). Nulla ci obbligherà ad fermare l'emigrazione verso questi spazi e non sarà indispensabile
far ritorno di tanto ogni tanto a visitare la vecchia patria. Non avremo neanche problemi a rifornire di energia
il sistema di trasporto, poiché la luce solare inonda la Terra in soli dieci minuti con una energia (19)
sufficiente a portare in orbita l'intera popolazione attuale. Viaggio spaziale e insediamenti spaziali saranno
entrambi buon mercato. Se faremo un uso saggio della tecnologia molecolare, i nostri discendenti si
domanderanno con meraviglia cosa abbia potuto tenerci imbottigliati sulla Terra così a lungo, ed in una così
grande povertà.

La Società a Somma Positiva


Potrebbe sembrare che il costo di ogni cosa, persino del terreno (a meno che non ci si metta a scavare
migliaia di chilometri di roccia sotto il suolo), dovrà crollare a zero. In un certo senso questo è quasi vero, ma
in un altro senso è anche, in una certa misura, falso. La gente attribuirà sempre un valore a materia, energia,
informazione ed a autentici servizi umani, perciò ogni cosa avrà ancora il suo costo. E sul lungo periodo, ci
troveremo faccia a faccia con i veri limiti allo sviluppo, per cui il costo delle risorse non potrà mai essere
accantonato del tutto.

63
Ciò nonostante, se sopravviveremo, replicatori e risorse spaziali ci condurranno in una lunga era durante la
quale gli autentici limiti delle risorse non riusciranno ancora a metterci alle strette; un'era in cui, secondo i
nostri attuali standard, persino una immensa ricchezza sembrerà virtualmente gratuita. Questo potrebbe
sembrare troppo bello per essere vero, ma la natura (come al solito) non impone i suoi limiti in base alle
sensazioni umane. I nostri antenati un tempo pensavano che parlare a qualcun'altro al di là del mare
(distante molti mesi di viaggio di navigazione a vela) sarebbe stato troppo bello per essere vero, e tuttavia i
cavi sottomarini ed i satelliti sopra il mare funzionano davvero.

Ma c'è anche un'altra risposta, meno piacevole per quelli che pensano che gli assemblatori siano troppo
belli per essere veri: gli assemblatori minacciano anche di portarci dei rischi, nonché armi più pericolose di
quelle mai viste da chiunque finora. Se la nanotecnologia potesse essere evitata e non potesse essere
controllata, la gente equilibrata la eviterebbe. Pare certo, nondimeno, che la corsa tecnologica produrrà gli
assemblatori partendo dalle biotecnologie così come era certo che essa avrebbe prodotto le navette spaziali
partendo dai missili. I vantaggi militari offerti, da soli, saranno sufficienti a rendere quasi inevitabili i
progressi. Gli assemblatori sono inevitabili, ma forse controllabili.

La nostra sfida è evitare i pericoli ma questo richiederà collaborazione, e noi siamo più propensi a
collaborare se comprendiamo quanto abbiamo da guadagnarne. La prospettiva dello spazio e degli
assemblatori-replicatori potrebbe aiutarci a spazzare via alcuni memi antichi e dannosi.

La vita umana era un tempo come un gioco a somma zero. L'umanità viveva vicina al suo limite ecologico e
le tribù lottavano contro altre tribù per contendersi lo spazio vitale. Dove c'erano pascoli o terreni agricoli e di
caccia, se un gruppo ne aveva di più c'era di sicuro un altro gruppo che doveva averne di meno. Poiché ogni
guadagno doveva grosso modo essere compensato da una perdita da qualche altra parte, i benefici
complessivi si assommavano a zero. Eppure la gente, che su altri aspetti cooperava comunque, riuscì a
prosperare. E così i nostri antenati non impararono solo ad arraffare, ma anche a cooperare e costruire.
Dove erano coinvolte tasse, o trasferimenti di denaro e conflitti di corte, più per qualcuno significava ancora
una volta meno per qualche altro. Con lentezza, aggiungiamo pian piano qualcosa al benessere totale, ma la
redistribuzione è rapida. Se consideriamo un qualsiasi specifico giorno, le risorse sembrano fissate, il che fa
nascere l'illusione che la vita sia un gioco a "somma zero". Questa illusione suggerisce che una
collaborazione estesa sia inutile, perché il nostro guadagno dovrà derivare dalla perdita di qualche
avversario.

La storia dei progressi umani dimostra invece che il gioco del mondo può essere a somma positiva.
L'accelerazione della crescita economica durante i secoli recenti mostra che il ricco può diventare ancora più
ricco mentre il povero diventa più ricco. A dispetto della crescita della popolazione (e dell'idea di dover
dividere una torta fissa) il benessere medio pro-capite considerato sull'intera estensione mondiale, incluso
quello del Terzo Mondo, è cresciuto costantemente. Fluttuazioni economiche, capovolgimenti locali, e la
tendenza naturale dei media a focalizzarsi sulle cattive notizie, si combinano per oscurare i fatti riguardanti lo
sviluppo economico, ma le registrazioni pubbliche lo evidenziano abbastanza chiaramente. Le risorse
spaziali e gli assemblatori-replicatori accelereranno questa tendenza storica ben oltre i sogni degli
economisti, catapultando la razza umana in un nuovo mondo.

64
Capitolo 7: Motori di guarigione
Una delle cose che ci distingue dalle nostre precedenti generazioni è che abbiamo visto i nostri stessi atomi.
KARL K. DARROW, The Renaissance of Physics

Useremo la tecnologia molecolare anche per aver cura della nostra salute, poiché il corpo umano è fatto di
molecole. Malattia, vecchiaia e ferite, sono tutti danni causati da schemi erronei nella disposizione degli
atomi, sia che queste disposizioni erronee siano causate da virus invasori, che dal trascorrere del tempo o
da incidenti automobilistici. Se dei dispositivi sono in grado di modificare a piacimento le disposizioni di
atomi, saranno anche capaci di modificarle secondo uno schema corretto. In medicina la nanotecnologia
costituirà un passo avanti di importanza fondamentale.

Per trattare una malattia, i medici attuali devono sostanzialmente fare affidamento su chirurgia e farmaci. I
chirurghi hanno compiuto progressi significativi, per esempio passando dal suturare le ferite ed amputare
membra, al riparare cuori e riconnettere membra recise. Utilizzando microscopi e fini strumenti, riescono a
riconnettere canali sanguinei e nervi delicatissimi. Tuttavia, persino la migliore microchirurgia non può essere
in grado né di tagliare né di suturare le strutture di tessuto più fini. I bisturi e gli attrezzi da sutura attuali sono
semplicemente troppo rozzi per poter riparare capillari, cellule e molecole. Consideriamo la chirurgia
"delicata" dalla prospettiva di una cellula: una immensa lama penetra rapidamente, e strada facendo
attraversa una moltitudine di cellule, triturandone a migliaia e macellando ciecamente il loro macchinario
molecolare. Successivamente, un grande obelisco si immerge nella ressa di cellule oramai separata in due
distinti lembi di carne, e si trascina dietro un cavo lungo come un treno merci per legare assieme i due lembi.
Dalla prospettiva di una cellula anche la chirurgia più delicata, eseguita con bisturi raffinati ed grande abilità,
rimane ancora un lavoro da macellaio. Solo la capacità delle cellule di abbandonare i loro morti, raggrupparsi
nuovamente e moltiplicarsi, rende possibile la guarigione.

Tuttavia, come sanno fin troppo bene molte vittime paralizzate a causa di incidenti, non tutti i tessuti
guariscono.

La terapia farmacologica, a differenza della chirurgia, tratta con le strutture più fini interne alle cellule. Le
molecole di un farmaco sono dei semplici dispositivi molecolari. Molti di essi, agiscono nelle cellule su
molecole specifiche. Le molecole di morfina, per esempio, nelle cellule del cervello si legano a certi recettori
molecolari e influenzano la recettività di tali cellule nei confronti degli impulsi neurali che segnalano il dolore.
Insuline, beta-bloccanti ed altri farmaci, si adattano ad altri recettori. Ma le molecole farmaceutiche lavorano
senza una precisa direzione. Una volta trasferite nel corpo esse vagano nella soluzione acquosa in cui si
trovano, roteando su se stesse e rimbalzando del tutto a caso, fino a che riescono eventualmente a colpire
una molecola bersaglio ed a farlo nella giusta orientazione per adattarsi ad essa, aderirvi, ed influire infine
sul suo funzionamento.

I chirurghi possono esaminare i problemi e pianificare azioni, ma usano ancora strumenti troppo rozzi; le
molecole dei farmaci agiscono sui tessuti a livello molecolare, ma sono ancora troppo semplici per poter
"sentire", "pianificare" ed "agire". Le macchine molecolari dirette da nanocomputer offriranno ai medici una
possibilità di scelta alternativa. Esse combineranno sensori, programmi e strumenti molecolari in sistemi in
grado di esaminare e riparare i componenti ultimi delle singole cellule. Ci doteranno del controllo chirurgico
sul dominio molecolare.

Ci vorranno anni perché questi dispositivi molecolari avanzati arrivino, ma alcuni ricercatori spronati da
particolari necessità mediche sono già impegnati nello studio dell'ingegneria e delle macchine molecolari. I
migliori farmaci sono quelli che influenzano macchine molecolari specifiche in modi specifici. La penicillina,
per esempio, uccide certi batteri inceppando il funzionamento del nanomacchinario che essi usano per
costruire le loro pareti cellulari, con scarso effetto collaterale sulle cellule umane.

I biochimici studiano le macchine molecolari sia per imparare come costruirle che per imparare a demolirle.
In giro per il mondo (e soprattutto per il terzo mondo) una disgustosa varietà di virus, batteri, protozoi funghi
e vermi, parassitizzano la carne umana. Come per la penicillina, farmaci sicuri ed efficaci per questi
malesseri dovrebbero bloccare il macchinario molecolare parassita, e nel contempo lasciare intatto quello
umano. Il Dottor Seymour Cohen (1), professore di scienza della farmacologia al SUNY (Stony Brook, New
York) afferma che i biochimici dovrebbero studiare in maniera sistematica il macchinario molecolare di questi
parassiti. Una volta che i biochimici abbiano determinato la forma e la funzione di una macchina proteica già
esistente nel regno della vita, spesso potrebbero anche scoprirsi capaci di progettare una molecola

65
appositamente conformata per bloccarla e distruggerla. Tali farmaci potrebbero liberare l'umanità da orrori
antichi come la schistosomiasi, e da quelli nuovi come l'AIDS.

Le compagnie farmaceutiche stanno già riprogettando alcune molecole, basandosi sulla conoscenza delle
loro modalità di funzionamento. I ricercatori della Upjohn Company(2) hanno progettato e realizzato
molecole modificate di vasopressina, un ormone costituito da una breve catena di aminoacidi. La
vasopressina incrementa il ritmo di lavoro del cuore e riduce il tasso con il quale i reni producono urina; tutto
ciò aumenta la pressione sanguinea. I ricercatori hanno progettato molecole di vasopressina modificata che
influenzano i recettori molecolari nei reni più di quanto facciano con quelli del cuore, dotando così la
vasopressina di effetti medicali più specifici e controllabili. In tempi più recenti hanno progettato una
molecola modificata di vasopressina che si lega ai recettori renali senza un reale effetto diretto, e tuttavia
bloccando ed inibendo l'azione della vasopressina naturale.

Le necessità della medicina sproneranno ulteriormente questi studi, incoraggiando i ricercatori a muovere
passi ulteriori verso la progettazione di proteine e verso l'ingegneria molecolare. Pressioni mediche, militari
ed economiche, spingeranno tutte assieme nella stessa direzione. La tecnologia molecolare realizzerà
progressi impressionanti persino prima del passo avanti tecnologico degli assemblatori; le attuali tendenze
nella biotecnologia ce lo confermano. Tuttavia, questi progressi saranno di solito graduali e difficili da
prevedere, in quanto ognuno di essi sfrutterà qualche dettaglio specifico della biochimica. In seguito, quando
applicheremo alla medicina gli assemblatori ed i sistemi di IA tecnica, raggiungeremo abilità più estese e ben
più facili da prevedere.

Per comprendere queste abilità, prendiamo in considerazione le cellule ed i loro meccanismi di auto-
riparazione. Radioattività naturale e composti chimici nocivi scindono le molecole delle cellule del vostro
corpo, producendo frammenti molecolari reattivi. Questi possono andarsi a legare in modo erroneo ad altre
molecole, in un processo denominato cross-linking, [NdT- un processo che crea legami chimici fra due
catene molecolari separate, come ribadito nel glossario]. Un po' come fossero pallottole e grumi di colla,
radioattività e frammenti chimici reattivi danneggiano le cellule, sia perché spezzano i legami chimici delle
loro macchine molecolari, sia perché incollano arbitrariamente assieme queste macchine.

Se le vostre cellule riparassero se stesse, il danno le ucciderebbe rapidamente oppure accelererebbe


all'impazzata il loro funzionamento fino a danneggiare i loro sistemi di controllo. Ma l'evoluzione ha favorito
organismi con macchinario capace di porre qualche rimedio a questo problema. Il sistema industriale auto-
replicante descritto nel capitolo 4 sa riparare se stesso sostituendo le parti danneggiate; le cellule fanno la
stessa cosa. Finché il DNA di una cellula resta intatto, esso può produrre "nastri" di istruzioni scevri da errori
ed utilizzarli per dirigere i ribosomi nell'assemblaggio di nuove macchine proteiche.

Sfortunatamente per noi, il DNA stesso subisce dei danni, ed il risultato di tali danni sono le mutazioni. Gli
enzimi di riparazione, in qualche misura, compensano il problema individuando e riparando certi tipi di danni
del DNA. Queste riparazioni aiutano le cellule a sopravvivere, ma i meccanismi di riparazione esistenti sono
troppo semplici per correggere tutti i problemi, nel DNA come altrove. Gli errori si accumulano contribuendo,
col tempo, all'invecchiamento e alla morte delle cellule, e della persone stesse.

Vita, Mente e Macchine


Ha senso descrivere le cellule come "macchinario", siano esse autoriparanti o meno? Potrebbe sembrare,
poiché siamo fatti di cellule, che questa terminologia riduca gli esseri umani a "semplici macchine", in
conflitto con una comprensione olistica della vita.

Ma una definizione da dizionario di olismo(3) è: "la teoria che la realtà sia fatta di interi organici o unificati,
più grandi della semplice somma delle loro parti.". Ciò è senza dubbio applicabile alle persone: una semplice
somma delle nostre parti potrebbe somigliare ad un hamburger, essendo infatti priva sia di mente che di vita.

Il corpo umano contiene alcune decine di migliaia di miliardi di miliardi di parti proteiche, e nessuna
macchina complessa fino a questo punto può meritarsi di essere etichettata come "semplice" macchina.
Qualunque sintetica descrizione di un sistema tanto complesso non può evitare di risultare grossolanamente
incompleta, e tuttavia a livello molecolare una descrizione in termini di macchinario ha perfettamente senso.
Le molecole possiedono delle semplici parti mobili, e molte di tali parti mobili agiscono come tipologie di
macchine piuttosto familiari. Considerate nel complesso le cellule possono senz'altro apparire meno

66
meccaniche di quel che sono, e tuttavia i biologi trovano molto utile descriverle in termini di macchinario
molecolare.

I biochimici hanno svelato quelli che una volta erano i misteri centrali della vita, ed hanno cominciato a
corredare di dettagli le spiegazioni di questi misteri. Hanno indagato su come le macchine molecolari
demoliscano le molecole di cibo nei loro blocchi di costruzione costituenti, e come poi riassemblino queste
parti per costruire un tessuto rinnovato. Molti dettagli della struttura di una cellula umana restano ancora
sconosciuti (in una singola cellula si possono trovare anche miliardi di grandi molecole e in migliaia di tipi
differenti), ma per alcuni virus i biochimici hanno già completato la redazione di una mappa di ogni loro parte
costituente. I laboratori biochimici espongono spesso un grande diagramma a muro che mostra come si
svolgano i principali flussi dei blocchi di costruzione molecolari all'interno di un qualche batterio. I biochimici
comprendono in dettaglio molti dei processi della vita, e quello che ancora non comprendono sembra
comunque funzionare in base agli stessi principi. Il mistero dell'ereditarietà è diventato l'industria
dell'ingegneria genetica. Persino lo sviluppo embrionale e la memoria sono stati spiegati in termini di
trasformazioni biochimiche e strutturali della cellula.

Nelle ultime decadi, la reale essenza della nostra ignoranza residua è cambiata totalmente. Un tempo i
biologi guardavano al processo della vita e si domandavano: "Come può accadere?". Ma oggi comprendono
i principi generali della vita stessa, e studiando uno specifico processo vivente di solito si domandano: "Fra i
molti modi in cui questo può accadere, qual'è quello che la natura ha scelto?". In molte occasioni i loro studi
hanno ristretto le spiegazioni possibili ad una sola. Certi processi biologici, come per esempio la
coordinazione delle cellule appartenenti ad embrioni in via di sviluppo, oppure i processi di un cervello
capace di apprendimento, o quelli dei sistemi di reazione immunologica, rappresentano tuttora una vera
sfida all'immaginazione. E tuttavia questo non accade perché ci sia qualche profondo mistero ancora da
svelare riguardo il modo in cui funzionano le parti coinvolte in questi processi, ma solo a causa della
immensa complessità delle interazioni fra le parti che contribuiscono al processo globale.

Le cellule obbediscono alle stesse leggi naturali che descrivono il resto del mondo. Le macchine proteiche,
se poste in appropriati ambienti molecolari, funzioneranno allo stesso modo sia quando si trovino in una
cellula funzionante che quando il resto della cellula sia stato distrutto e sciacquato via giorni prima. Le
macchine molecolari non conoscono nulla sulla "vita" o sulla "morte".

I biologi, quando proprio se ne preoccupano, talvolta definiscono la "vita" come la capacità di crescere,
replicarsi e rispondere agli stimoli. Ma sulla base di questi standard un sistema di fabbriche di replicazione
privo di mente potrebbe egualmente definirsi vivo, mentre non potrebbe definirsi tale una intelligenza
artificiale cosciente e modellata sulla mente umana. I virus sono vivi oppure sono "semplicemente" delle
ingegnose macchine molecolari? Nessun esperimento può dirlo perché la natura non ha tracciato linee di
demarcazione precise fra il vivente ed il non vivente. I biologi che lavorano con i virus, piuttosto, si
domandano molto più pragmaticamente: "Un virus con questa specifica funzionalità virale, ha qualche
possibilità?". In medicina, le etichette di "vita" e "morte" dipendono dalle capacità mediche: i medici si
chiedono "Considerata questa specifica funzione del paziente, abbiamo fatto il nostro meglio?". I medici,
quando passano essi stessi al ruolo di pazienti, muoiono esattamente come questi, se il cuore si ferma. I
medici attuali decretano la morte del paziente quando disperano di ripristinare una attività cerebrale. I
progressi della medicina cardiaca modificheranno questa definizione; i progressi della medicina cerebrale la
modificheranno ancora una volta.

Proprio come alcune persone non si sentono a proprio agio con l'idea di macchine pensanti, così ci saranno
persone a disagio con l'idea di macchine che giacciono alle fondamenta del nostro stesso processo di
pensiero. Ancora una volta è la parola "macchina" che sembra congiurare per proporre l'immagine sbagliata,
una sorta di visione di metallo ottuso e sferragliante, piuttosto che di guizzanti segnali lungo un intreccio di
fibre neurali connesse in un arazzo vivente più intricato di quanto la stessa mente che esso incorpora possa
pienamente comprendere. Le uniche macchine cerebrali autenticamente simili a "macchine", sono di
dimensioni molecolari, più piccole delle fibre più fini.

Un intero non somiglia necessariamente alle sue parti. Una protuberanza solida difficilmente assomiglia ad
una fontana danzante, e tuttavia un insieme di aggregati molecolari solidi formano l'acqua fluida.
Analogamente, miliardi di macchine molecolari formano fibre neurali e sinapsi, migliaia di fibre e sinapsi
formano una cellula neurale, e miliardi di cellule neurali formano il cervello che incorpora la fluidità del
pensiero.

Dire che la mente è "soltanto un insieme di macchine molecolari" è come dire che Mona Lisa è "soltanto un
insieme di spennellate di vernice". Affermazioni di questo tipo confondono le parti con l'intero, e confondono

67
la materia con gli schemi che essa incorpora. Non siamo meno umani per il solo fatto d'essere costituiti da
molecole.

Dai Farmaci alle Macchine Ripara-Cellule


Essendo fatti di molecole ed essendo al tempo stesso umanamente preoccupati della nostra salute,
applicheremo le macchine molecolari alla tecnologia biomedica. I biologi già utilizzano antibiotici per marcare
le proteine, enzimi per separare e congiungere frammenti di DNA, e siringhe virali (come il batteriofago T4)
per iniettare in batteri del DNA modificato. In futuro essi utilizzeranno le nanomacchine costruite dagli
assemblatori per esaminare e modificare le cellule.

Con strumenti come i disassemblatori, i biologi saranno in grado di studiare le strutture cellulari fino agli
ultimi dettagli molecolari. Essi potranno catalogare le centinaia di migliaia di tipi diversi di molecole nel corpo
e redigere una mappa della struttura delle centinaia di tipi diversi di cellule. I biologi potranno descrivere le
parti e le strutture di un tessuto in modo non dissimile rispetto a ingegneri che compilino una lista di parti
costituenti e disegnino i progetti di una automobile. E per allora, potranno anche farsi aiutare da sofisticati
sistemi di IA tecnica(4).

Lo scopo dei medici è la salute dei tessuti, ma con i farmaci e la chirurgia possono soltanto incoraggiare i
tessuti affinché si riparino da soli. Le macchine molecolari permetteranno una riparazione più diretta,
portandoci in una nuova era della medicina.

Per riparare un'automobile, un meccanico anzitutto raggiunge il complesso di parti che non funziona, poi
identifica i singoli pezzi guasti, ed infine ricostruisce o sostituisce questi ultimi. La riparazione cellulare
coinvolge gli stessi compiti di base e, come già dimostrano i sistemi viventi, si tratta di compiti che è
realmente possibile eseguire.

Accesso:

I globuli bianchi del sangue abbandonano il flusso sanguineo e si muovono attraverso i tessuti. I virus
entrano nelle cellule. Anche i biologi riescono a penetrare le cellule senza ucciderle. Questi esempi
mostrano che le macchine molecolari possono raggiungere le cellule e riuscire a penetrarle.

Riconoscimento:

Gli anticorpi e le fibre di coda del batteriofago T4 dimostrano che, come d'altronde accade in tutte le
specifiche interazioni biochimiche, il sistema molecolare può riconoscere altre molecole grazie al tocco.

Disassemblaggio:

Gli enzimi digestivi (ed altri agenti chimici, ben più feroci) dimostrano che il sistema molecolare può
disassemblare le molecole danneggiate.

Ricostruzione:

Replicandosi, le cellule dimostrano che il sistema molecolare può costruire o ricostruire ogni tipo di molecola
contenuta nelle cellule.

Reassemblaggio:

La natura dimostra anche che molecole separate possono essere nuovamente ricongiunte(5). Ad esempio,
il macchinario del batteriofago T4 si autoassembla(6) dalla soluzione liquida con l'aiuto, a quanto pare, di un
solo enzima. La replicazione delle cellule dimostra che i sistemi molecolari possono assemblare ogni
sistema contenuto nelle cellule.

Quindi, la natura mostra di fare uso di tutte le operazioni di base che sono necessarie per effettuare
riparazioni cellulari di livello molecolare. Inoltre, come ho descritto nel capitolo 1, i sistemi basati sulle
nanomacchine saranno generalmente più compatti e più capaci di quelli che si trovano in natura. I sistemi
naturali ci mostrano soltanto i limiti inferiori al possibile, nella riparazione di cellule come in qualunque altra
cosa.

68
Macchine di Riparazione Cellulare
Riassumendo, con la tecnologia molecolare e con l'IA tecnica compileremo una completa descrizione a
livello molecolare dei tessuti sani, e costruiremo macchine capaci di entrare nelle cellule e percepire e
modificare le loro strutture.

Le macchine ripara-cellule saranno di dimensioni comparabili a quelle di batteri e virus, ma la maggiore


compattezza delle loro parti permetterà a queste macchine di essere più complesse. Viaggeranno attraverso
i tessuti come fanno i globuli bianchi del sangue, ed entreranno nelle cellule come fanno i virus, potendo
persino aprire e chiudere le membrane cellulari con l'attenzione di un chirurgo. All'interno di una cellula, una
macchina riparatrice per prima cosa valuterà la situazione esaminando contenuto e attività della cellula,
quindi intraprenderà azioni adeguate. Le prime macchine ripara-cellule saranno altamente specializzate, in
grado di riconoscere e correggere solo un singolo tipo di disordine molecolare, ad esempio la deficienza di
un enzima o una qualche specifica forma di danno sul DNA. Le macchine successive (non molto più tardive,
grazie al lavoro di progettazione compiuto da avanzati sistemi di IA tecnica) saranno invece programmate
per possedere abilità più generali.

Complesse macchine riparatrici avranno bisogno di essere guidate da nanocomputer. Un computer


meccanico di un micrometro cubo come quello che ho descritto nel capitolo 1, occuperà un millesimo del
volume di una tipica cellula, pur contenendo più informazioni di quante ne contenga il DNA delle cellule. In
un sistema riparatore tali computer dirigeranno altri computer più piccoli e più semplici, che a loro volta
dirigeranno la macchine perché esaminino, scartino e ricostruiscano, strutture molecolari danneggiate.
Lavorando molecola dopo molecola, struttura dopo struttura, le macchine riparatrici saranno capaci di
riparare intere cellule. Lavorando cellula dopo cellula, e tessuto dopo tessuto (aiutate, dove sia necessario,
da dispositivi più grandi) esse saranno in grado di riparare interi organi. Lavorando in lungo ed in largo su
una persona, organo dopo organo, ripristineranno interamente la sua salute. Poiché le macchine molecolari
saranno capaci di costruire da zero molecole e cellule, saranno anche in grado di riparare ogni danno di una
cellula che sia causa di una sua completa inattività. Per cui, le macchine ripara-cellule determineranno un
passo avanti tecnologico fondamentale: esse libereranno la medicina dal dover affidarsi alla auto-riparazione
in quanto unica strada percorribile verso la guarigione.

Per riuscire a raffigurarci una avanzata macchina ripara-cellule, immaginiamola, assieme con tutta la cellula,
ingrandita fino a che i suoi atomi abbiano le dimensioni di piccole biglie. Su questa scala, gli strumenti più
piccoli della macchina riparatrice montano sulle loro estremità dei puntali grandi all'incirca quanto le dita
della vostra mano; una proteina di dimensioni medie, come l'emoglobina, avrebbe la dimensione di una
macchina da scrivere, ed un ribosoma sarebbe grande quanto una lavatrice. Un singolo dispositivo di
riparazione conterrebbe un semplice computer dalla dimensione di un piccolo camion, ricoperto da molti
sensori delle stesse dimensioni della proteina, con svariati manipolatori delle stesse dimensioni di un
ribosoma. Il dispositivo di riparazione è inoltre dotato di memoria nonché di dispositivi per fornire energia
motoria. Un volume totale di dieci metri di lato, ossia la dimensione di un edificio grosso come un piccolo
albergo, contiene tutte queste parti e molte altre. Poiché tutto questo volume è riempito da parti della
dimensione di biglie, la macchina riparatrice può essere capace di fare cose molto complesse.

Ma questo dispositivo riparatore non lavora da solo. Esso, come i suoi innumerevoli fratelli, è connesso a
computer più grandi tramite collegamenti meccanici per trasmissione dati aventi diametro pari a quello del
vostro braccio. Su questa scala, un computer di un micrometro cubo, dotato di una grande memoria, riempie
un volume di tre piani in altezza e trenta volte campi di calcio in area. Il dispositivo riparatore passa
informazioni al computer, e da esso riceve in risposta istruzioni generali. Oggetti così grandi e complessi
sono pur sempre ancora sufficientemente piccoli: su questa scala, la cellula stessa si estende per un
chilometro, e basterebbe perciò per contenere mille volte il volume di un computer di un micrometro cubo, o
un milione di volte il volume di un singolo dispositivo riparatore. Le cellule sono spaziose.

Queste macchine saranno in grado di fare tutto ciò che deve essere fatto per riuscire a riparare le cellule?
L'esistenza delle macchine molecolari dimostra la possibilità di viaggiare lungo i tessuti, entrare nelle cellule,
riconoscere le strutture molecolari, e così via. Ma anche altri requisiti sono importanti. Le macchine riparatrici
lavoreranno abbastanza velocemente? E se saranno in grado di farlo, non potrebbero forse dissipare
talmente tanta energia da arrostire il paziente?

Le riparazioni più intensive non possono richiedere moli di lavoro immensamente maggiori di quelle
necessarie per costruire una cellula da zero. Eppure, le macchine molecolari che lavorano all'interno del
limitato volume di una cellula fanno, di routine, proprio questo, riuscendo infatti a costruire una nuova cellula

69
in soli dieci minuti (nei batteri) o al più poche ore (nei mammiferi). Ciò implica che delle macchine riparatrici
occupino solo poche unità percentuali del volume di una cellula, saranno in grado di completare anche
riparazioni molto estese in tempi ragionevoli di giorni o al massimo settimane. Le cellule possono ben
tollerare questa occupazione abusiva del loro volume. Persino le cellule cerebrali continuano ancora a
funzionare quando un inoperoso rifiuto denominato lipofucsina (7) (il prodotto di qualche forma di
danneggiamento molecolare, a quanto pare) arriva a riempire oltre il dieci per cento del loro volume.

Rifornire energia ai dispositivi di riparazione sarà facile: le cellule contengono, per loro stessa natura, dei
carburanti chimici per le nanomacchine. La natura dimostra anche che è possibile raffreddare le macchine
riparatrici: le cellule nel vostro corpo si rinnovano incessantemente, e gli animali più giovani crescono
rapidamente senza arrostirsi. La gestione del calore prodotto da un simile livello di attività delle macchine
riparatrici non provocherà neanche il sudore o per lo meno non farà poi sudare granché, visto e considerato
che una lieve sudorazione è il prezzo da pagare per mantenersi in salute.

Tutti questi paralleli fra macchine di riparazione artificiali e meccanismi biologici esistenti in natura sollevano
la questione riguardo la fondatezza dell'idea che le macchine riparatrici possano davvero riuscire a
migliorare la natura. A questo proposito, la riparazione del DNA costituisce un nitido esempio chiarificatore.
Proprio come una illetterata "macchina ripara-libri" potrebbe riconoscere e riparare una pagina strappata,
così un enzima di riparazione del DNA può riconoscere in esso, nonché riparare, sia i suoi legami spezzati
che gli erronei legami del DNA con catene e frammenti molecolari estranei (cross-links). Tuttavia, la
correzione degli errori ortografici (o mutazioni), richiederebbe la capacità di leggere. La natura manca di
macchine di riparazione di questo tipo, che pure sarebbero di facile costruzione. Immaginiamo tre molecole
di DNA identiche, ognuna con la stessa sequenza di nucleotidi. Ora immaginiamo che ogni filamento sia
mutato, a seguito del cambiamento di soltanto pochi sparuti nucleotidi. Ogni filamento, preso di per se,
sembra ancora normale. Ciò nonostante, una macchina riparatrice potrebbe confrontare ogni filamento con
agli altri, un segmento alla volta, riuscendo così ad individuare un nucleotide che non corrisponda ai suoi
omologhi negli altri filamenti. Modificando i nucleotidi sospetti in modo che corrispondano a quelli degli altri
due filamenti di DNA, il danno sarà quindi riparato.

Questo metodo però, non può che fallire se due filamenti mutano nella stessa posizione. Immaginiamo che,
dopo migliaia di mutazioni, il DNA di ognuna di tre distinte cellule umane, sia stato seriamente danneggiato;
ogni cellula ha un nucleotide modificato su un milione. La procedura per individuare le correzioni da
apportare ai nostri tre filamenti fallirà, secondo un criterio statistico, grosso modo per una specifica posizione
su ogni milione di milioni di posizioni esaminate. Ma se confrontiamo cinque filamenti per volta, i nucleotidi
dubbi diventano circa uno su un milione di milioni di milioni (8), e così via. Un dispositivo che confronti molti
filamenti avrà, di fatto, una probabilità praticamente nulla di non riuscire a correggere un qualsiasi errore
presente.

In pratica, le macchine riparatrici confronteranno molecole di DNA di cellule diverse, ne produrranno copie
corrette(9) e utilizzeranno le copie come riferimento per correggere e riparare il DNA lungo l'intera
estensione di un tessuto. Confrontando filamenti diversi, le macchine riparatrici miglioreranno drasticamente
le loro prestazioni rispetto ai nostri enzimi di riparazione.

Altre riparazioni richiederanno altri tipi di informazioni sulle caratteristiche distintive delle cellule sane e su
come una particolare cellula danneggiata differisca dalla norma. Gli anticorpi sanno identificare le proteine
tramite il tocco, e anticorpi scelti in modo appropriato sanno, di solito, distinguere fra due qualsiasi proteine
tramite la rilevazione delle loro differenze nella forma e nelle proprietà di superficie. Le macchine riparatrici
identificheranno le molecole in modo analogo(10). Con un computer adatto, ed un apposito database,
saranno in grado di svolgere l'identificazione delle proteine tramite la lettura delle loro sequenze di
aminoacidi.

Consideriamo un sistema di riparazione complesso e molto capace(11). Un volume di due micrometri cubici,
circa due millesimi del volume di una tipica cellula, sarà sufficiente a contenere un centralizzato sistema di
base dati in grado di:

1. Identificare rapidamente, dall'esame di una breve sequenza di aminoacidi, una qualunque fra centinaia di
migliaia di proteine umane.

2. Identificare tutte le altre molecole complesse che normalmente si trovano in una cellula.

3. Registrare tipo e posizione di ogni grossa molecola riscontrata nella cellula.

70
Ognuno dei più piccoli fra dispositivi di riparazione (o forse anche qualche migliaio fra quelli presenti in una
cellula) includerà un computer di minori capacità. Ognuno di questi computer sarà in grado di effettuare oltre
mille passi computazionali nello stesso tempo impiegato da un tipico enzima per modificare un singolo
legame molecolare, sicché la velocità di elaborazione potenziale sarà più che adeguata. Poiché ogni
computer sarà in comunicazione con un computer più grande(12), nonché con la base di dati centrale,
sembra che la memoria disponibile sarà anch'essa adeguata. Le macchine ripara-cellule avranno perciò sia
gli strumenti molecolari di cui necessitano, che sufficiente "cervello" per decidere come utilizzarli.

Una tale sofisticazione potrebbe super-uccidere (super-curare?) molti problemi di salute. Dei dispositivi che
siano capaci semplicemente di riconoscere e distruggere tipi specifici di cellule, per esempio, saranno
sufficienti per curare il cancro. Disporre una rete di computer in ogni cellula sarebbe come tagliare il burro
con una sega elettrica, sebbene avere a disposizione una sega elettrica ci assicura di poter tagliare anche il
burro più duro. Pare che sia meglio mostrare troppo, piuttosto che troppo poco, se lo scopo è quello di
descrivere i limiti del possibile in medicina.

Esempi di Cure
Le più semplici applicazioni mediche delle nanomacchine riguarderanno non la riparazione ma la
distruzione selettiva. Il cancro ne costituisce un esempio; le malattie infettive ne forniscono un'altro. Lo scopo
è semplice: l'unica cosa che è necessaria è riconoscere e distruggere i replicatori dannosi, siano essi batteri,
cellule cancerogene, virus, o vermi. Analogamente, crescite anormali delle arterie e depositi su pareti
arteriose sono la causa della maggior parte delle malattie cardiache; macchine che riconoscano, distruggano
e rimaneggino queste anomalie, puliranno le arterie per ottenere un flusso sanguineo più normale. La
distruzione selettiva curerà anche malattie come l'herpes, dovuta ad un virus che inietta i suoi geni nel DNA
di una cellula ospite. Un dispositivo di riparazione entrerà nella cellula, leggerà il suo DNA, e da esso
rimuoverà il codice aggiunto che sta per "herpes."

Riparare molecole danneggiate dai cross-links sarà piuttosto diretto. Una macchina ripara-cellule, di fronte
ad una proteina alla quale si sono legati frammenti proteici estranei, anzitutto identificherà i danni grazie
l'esame di brevi sequenze di aminoacidi, e poi leggerà lo schema corretto della proteina in un database.
Sicché, la macchina confronterà la proteina con lo schema letto nel database, un amminoacido per volta.
Come un correttore di bozze alla ricerca di significati sbagliati e caratteri anomali (per esempio: "char#tteri"),
essa individuerà ogni aminoacido alterato, o impropriamente legato alla proteina. Una volta che abbia
corretto questi difetti, la macchina si lascerà alle spalle una proteina normalizzata, pronta a compiere il suo
lavoro per la cellula.

Le macchine riparatrici possono anche aiutare la guarigione. Dopo un attacco di cuore, al posto dei muscoli
morti ci saranno dei tessuti cicatrizzati. Le macchine riparatrici, andando a reimpostare i meccanismi di
controllo cellulare, stimoleranno il cuore a sviluppare muscoli freschi. Rimuovendo i tessuti cicatrizzati e
pilotando la crescita di muscoli freschi, esse guideranno il cuore verso la guarigione.

Questa lista potrebbe continuare scorrendo un problema dopo l'altro (avvelenamento da metalli pesanti?
Trovare e rimuovere tutti gli atomi di metallo) ma la conclusione è facile da riassumere. I disordini fisici sono
dovuti ad atomi in disposizioni erronee; le macchine riparatrici saranno in grado di riportare tali disposizioni
atomiche in un ordine funzionante, ripristinando la salute del corpo. Piuttosto che compilare una lista senza
fine di malattie curabili (artrite, borsite, cancro, febbri innumerevoli che vanno da quella causata dal virus
dengue fino alla febbre gialla, malaria, e così via), ha più senso proseguire il discorso rivolgendo lo sguardo
verso i limiti di ciò che possono fare le macchine ripara-cellule. Limiti che, comunque, esistono.

Consideriamo l'ictus, come esempio di uno dei problemi che apporta un danno cerebrale. La prevenzione è
concettualmente abbastanza semplice: Un vaso sanguineo nel cervello si è indebolito, gonfiato, ed è
predisposto all'esplosione? Lo si può stendere fino a fargli prendere la sua forma, guidando nel contempo la
crescita di fibre di rinforzo. Coaguli anomali minacciano di bloccare la circolazione? Dissolvere i coaguli e
normalizzare il sangue ed i rivestimenti interni dei vasi sanguinei per prevenire il ripresentarsi del problema.
Anche i danni neurali moderati derivati da ictus saranno riparabili: se una ridotta circolazione ha pregiudicato
la funzione ma ha lasciato le strutture cellulari intatte, si può ripristinare la circolazione e riparare le cellule,
utilizzando la loro struttura come guida per il recupero del tessuto al suo stato precedente. Questo non solo
ripristina ogni funzionalità cellulare, ma preserva inoltre la memoria e le abilità mentali che sono incorporate
nello schema neurale di quella parte del cervello.

71
Le macchine riparatrici saranno capaci di rigenerare tessuto cerebrale fresco persino quando il suo
danneggiamento ha cancellato questi schemi. Ma il paziente perderebbe, in tal caso, quella parte delle
precedenti memorie e abilità che in origine aveva sede in quella porzione di cervello. Se uno schema
neurale unico è stato davvero cancellato, le macchine ripara-cellule non potrebbero fare nulla di più di quello
che potrebbe fare un restauratore d'arte per ripristinare un arazzo a partire da un mucchietto di cenere. La
perdita di informazione causata dalla cancellazione della struttura impone il più importante limite
fondamentale alla riparazione dei tessuti.

Altri compiti sono oltre la portata delle macchine ripara-cellule, per svariate ragioni: un esempio di tali
compiti è quello del mantenimento della salute mentale. Le macchine ripara-cellule sapranno ovviamente
correggere alcuni problemi. La pazzia talvolta ha cause biochimiche, come se il cervello si drogasse o
avvelenasse da se, mentre altri problemi mentali derivano invece da danneggiamenti dei tessuti. Ma molti
problemi hanno poco a che fare con la salute delle cellule nervose e con qualsiasi altra cosa si possa fare
per favorire la salute mentale.

Una mente ed il tessuto del suo cervello sono come un romanzo e la carta del suo libro. Macchie di
inchiostro o inondazioni possono danneggiare il libro, rendendo difficile leggere il romanzo. Delle macchine
ripara-libri potrebbero nonostante tutto ripristinare la salute "fisica" del libro, rimuovendo l'inchiostro estraneo
o essiccando e riparando la fibre cartacee danneggiate. Tali trattamenti non potrebbero comunque far nulla
per il contenuto del libro, poiché quest'ultimo non è "fisico" in senso stretto. Se il libro è un romanzetto
economico, con una trama stereotipa e personaggi superficiali, sarebbe necessaria una riparazione del
romanzo, non dell'inchiostro e della carta. Questa riparazione richiederebbe un intervento "non fisico", ma
più lavoro da parte dell'autore, eventualmente aiutato da qualche buon consiglio.

Analogamente, la rimozione di veleni dal cervello e la riparazione delle sue fibre nervose può attenuare
qualche offuscamento mentale, ma non può revisionare il contenuto della mente. Quest'ultimo può essere
modificato soltanto dal paziente, e con grande sforzo. Tutti noi siamo gli autori della nostra mente. Ma
poiché le menti modificano se stesse per mezzo della modifica dei relativi cervelli, avere una mente in salute
aiuterà a pensare lucidamente ben più di quanto la qualità della carta di un foglio aiuti a scriverci sopra in
modo leggibile.

I lettori che hanno famigliarità con i computer potrebbero preferire di pensare in termini di hardware e
software. Una macchina potrebbe riparare un hardware di computer pur senza modificare ne comprendere
nulla del suo software.

Tali macchine potrebbero arrestare l'attività del computer ma lasciare gli schemi di memoria intatti e pronti a
funzionare ancora. Nei computer con il giusto tipo di memoria (denominata "non volatile"), gli utenti fanno
proprio questo, semplicemente premendo l'interruttore del computer che disconnette la sua alimentazione
elettrica. Questo compito, nel caso del cervello, sembra essere di più complessa attuazione, e tuttavia avere
la possibilità di indurre un simile stato costituirebbe un vantaggio dal punto di vista medico.

Anestesia Potenziata
I medici possono già arrestare e riavviare la coscienza andando ad interferire con la attività chimica che è
alla base della mente. Per tutta la loro vita attiva, le macchine molecolari nel cervello elaborano e
trasformano molecole. Alcuni disassemblano zuccheri, li combinano con ossigeno ed immagazzinano
l'energia che essi rilasciano. Alcuni pompano ioni salini attraverso le membrane cellulari; altri costruiscono
piccole molecole e le rilasciano perché svolgano la funzione di segnali per altre cellule. Questi processi
costituiscono il metabolismo del cervello, la somma totale della sua attività chimica. Assieme ad i suoi effetti
elettrici, questa attività metabolica è alla base dei mutevoli schemi del pensiero.

I chirurghi tagliano i pazienti con i bisturi. Nella metà dell'800, impararono ad utilizzare delle sostanze
chimiche capaci di interfacciarsi con il metabolismo cerebrale bloccando il pensiero cosciente ed impedendo
al paziente di obiettare troppo energicamente mentre lo si incideva. Tali sostanze chimiche erano gli
anestetici. Le loro molecole entrano ed escono dal cervello liberamente, permettendo agli anestesisti di
arrestare e riavviare la coscienza umana.

La gente aveva a lungo sognato di scoprire un farmaco che interferisse col metabolismo dell'intero corpo,
capace di interrompere il metabolismo per ore, giorni, o anni. Il risultato sarebbe stato una condizione di
biostasi (da bio, vita, e da stasis, un arresto o uno stato stabile). Un metodo per produrre una biostasi

72
reversibile potrebbe aiutare gli astronauti nei lunghi viaggi spaziali al fine di risparmiare cibo ed evitare la
noia, o potrebbe servire come una sorta di viaggio nel tempo unidirezionale. In medicina, la biostasi
rappresenterebbe una anestesia profonda in grado di dare ai medici più tempo per lavorare. Quando
situazioni di emergenza capitino molto lontane dal posto in cui c'è la disponibilità di un aiuto medico, una
buona procedura di biostasi costituirebbe una sorta di trattamento medico universale di pronto soccorso:
essa infatti stabilizzerebbe la condizione del paziente ed impedirebbe alle macchine molecolari di persistere
nel loro frenetico malfunzionamento fino a danneggiare i tessuti.

Ma nessuno ha trovato un farmaco capace di arrestare l'intero metabolismo nel modo in cui gli anestetici
bloccano la coscienza, ossia in modo che la stasi possa essere invertita semplicemente "sciacquando" via il
farmaco dai tessuti del paziente. E tuttavia, una biostasi reversibile sarà possibile quando le macchine
riparatrici diverranno disponibili.

Per comprendere come dovrebbe funzionare un tale approccio, immaginiamo che il flusso sanguineo
apporti ai tessuti alcuni semplici dispositivi molecolari, e che questi entrino nelle singole cellule dei tessuti.
Qui, essi bloccano il macchinario molecolare naturale del metabolismo - nel cervello come altrove - e lo
"impacchettano", ossia lo fissano legando assieme le strutture con dei cross-links stabilizzanti. Subito dopo,
vengono introdotti altri dispositivi che prendono il posto dell'acqua e si fissano solidamente anch'essi attorno
alle molecole della cellula. Questi passi arrestano il metabolismo e preservano le strutture delle cellule.
Poiché per invertire questo processo verranno impiegate delle macchine di riparazione-cellulare, la loro
azione potrebbe tranquillamente provocare qualche danno molecolare di entità moderata pur non
comportando alcun danno duraturo. Col metabolismo bloccato e con le strutture delle cellule tenute
saldamente al loro posto, il paziente resterà silenzioso, senza sognare ed immutabile, finché altre macchine
riparatrici non interverranno a ripristinare la sua attività vitale.

Se un paziente in queste condizioni fosse condotto da un medico dei giorni nostri, ignaro delle capacità
delle macchine di riparazione cellulare, le conseguenze sarebbero sinistre. Non rilevando alcun segno di
vita, il medico concluderebbe che il paziente è morto, e potrebbe tragicamente trasformare questo giudizio in
una realtà "prescrivendo" una autopsia, che sarebbe seguita da sepoltura o cremazione.

Ma il nostro paziente ipotetico vive in un'era in cui la biostasi è conosciuta esclusivamente come una
"interruzione della vita", e non come "fine" di essa. Quando il contratto del paziente dice "svegliatemi!" (o le
riparazioni sono state completate, o il volo verso le stelle ha raggiunto la sua destinazione), i medici
incaricati iniziano la rianimazione. Le macchine riparatrici entrano nei tessuti del paziente, rimuovono gli
imballi attorno alle molecole del paziente e li sostituiscono con acqua. Rimuovono i cross-links, riparano ogni
molecola e struttura danneggiata, e ripristinano le normali concentrazioni di sali, zucchero sanguineo, ATP, e
così via. Infine, le macchine riparatrici liberano il macchinario metabolico naturale del paziente. Il processo
metabolico interrotto riprende, il paziente sbadiglia, si stiracchia, si tira su a sedere, ringrazia il dottore,
controlla la data, e si incammina oltre la porta.

Dalla Funzione alla Struttura


La reversibilità della biostasi e la irreversibilità di danni gravi come quelli provocati da un ictus, ci aiutano ad
illustrare come le macchine di riparazione cellulare trasformeranno la medicina. Al momento i medici
possono soltanto aiutare i tessuti a guarire spontaneamente. Di conseguenza, devono tentare di preservare
la funzionalità del tessuto. Se il tessuto non è in grado di funzionare, non può guarire. E quel che è peggio,
se i tessuti non funzionanti non vengono preservati, ne segue una ulteriore degenerazione che finisce per
distruggere completamente la struttura del tessuto. Un tessuto è come un utensile meccanico capace di
funzionare solo su un particolare apparato.

Le macchine ripara-cellule modificano l'obiettivo chiave della medicina dalla preservazione della funzionalità
alla preservazione della struttura. Come ho sottolineato nella discussione riguardante l'ictus, le macchine
riparatrici saranno in grado di ripristinare le funzioni del cervello mentre lasciano inalterate memoria ed
abilità, ma potranno farlo solo se la struttura del tessuto neurale è rimasta intatta, in quanto essa è distintiva
e specifica. La biostasi implica la preservazione della struttura neurale, mentre il suo funzionamento viene
deliberatamente bloccato.

Tutto ciò costituisce una conseguenza diretta della natura molecolare della riparazione. I medici, utilizzando
bisturi e farmaci, non possono fare più di quanto possa fare qualcuno che utilizzi un piccone e una intera
tanica di lubrificante per riparare un fine orologio. Per contrasto, disporre di macchine riparatrici e della

73
possibilità di utilizzare per esse delle sostanze nutritive ordinarie, sarebbe come avere un appropriato
utensile da orologiaio e una fornitura illimitata di parti di ricambio sfuse. Le macchine ripara-cellule
trasformeranno la medicina alle sue basi.

Dal Trattamento della Malattia al Mantenimento della Salute


Attualmente, nello studiare le malattie, i ricercatori medici spesso puntano alla ricerca di modi per prevenirle
o invertirle, ostacolando o bloccando un passo chiave nel processo della malattia. La conoscenza che ne è
risultata ha aiutato enormemente i medici: oggi essi prescrivono insulina per compensare il diabete, anti-
ipertensivi per prevenire gli ictus, penicillina per curare infezioni e così via, secondo i dettami di una lista
impressionante. Le macchine molecolari aiuteranno la ricerca e lo studio delle malattie, e tuttavia
renderanno molto meno importante la comprensione profonda delle malattie stesse. Le macchine riparatrici
renderanno molto più importante comprendere la salute.

Il corpo può essere malato in molti più modi di quelli in cui può essere in salute. I tessuti muscolari sani, per
esempio, possono variare in modi relativamente poco numerosi: essi possono essere più forti o più deboli,
più veloci o più lenti, possedere un dato antigene oppure possederne un dato altro, e così via. I muscoli
danneggiati possono variare in tutte e tre queste maniere, e tuttavia possono anche soffrire di ogni possibile
combinazione di problemi di base come lacerazioni, infezioni virali, vermi parassiti, contusioni, punture o
forature, avvelenamenti, sarcomi, deperimenti ed anomalie congenite. Analogamente, nonostante i neuroni
si presentino in schemi di intrecci altrettanto numerosi di quanto lo sono i cervelli umani, le singole sinapsi e i
singoli dendriti, quando sono sani, si presentano solo in una varietà di forme numericamente modesta.

Una volta che i biologi abbiano descritto molecole, cellule e tessuti nella loro condizione di normalità,
macchine riparatrici propriamente programmate saranno in grado di curare ogni malattia sconosciuta. Una
volta che i ricercatori abbiano descritto la varietà di strutture che (per esempio) un vivente in salute potrebbe
possedere, le macchine riparatrici esploreranno un corpo vivente malfunzionante necessitando solo di
cercare le differenze e correggerle. Macchine ignare di un nuovo veleno e dei suoi effetti saprebbero
comunque riconoscerlo come estraneo e rimuoverlo. Invece di lottare contro un milione di malattie occulte, le
macchine riparatrici avanzate perseguiranno il ripristino di una condizione di salute.

Sviluppare e programmare macchine di riparazione cellulare richiederà grandi sforzi, grandi conoscenze e
grandi abilità. Le macchine riparatrici con capacità estese sembrano più facili da costruire che non da
programmare. I loro programmi devono contenere la conoscenza dettagliata delle centinaia di tipi di cellule e
delle centinaia di migliaia di tipi di molecole del corpo umano. Tali programmi devono essere in grado di
redigere una mappa delle strutture cellulari danneggiate e decidere come correggerle(13). Quanto tempo ci
vorrà perché tali macchine ed i relativi programmi siano sviluppati? Su due piedi, lo stato della biochimica ed
il suo attuale tasso di progresso potrebbero far pensare che occorrerebbero secoli per raccogliere la sola
conoscenza di base necessaria. Ma dobbiamo essere attenti a non cadere nell'illusione che i progressi
giungeranno in maniera isolata.

Le macchine riparatrici ci travolgeranno in congiunzione con una grande ondata di altre tecnologie. Gli
assemblatori che costruiscono le macchine riparatrici saranno, in un primo momento, impiegati per costruire
degli strumenti di analisi delle strutture cellulari. Persino un pessimista dovrebbe concordare che biologi
umani ed ingegneri equipaggiati con strumenti di questo tipo potrebbero costruire e programmare macchine
ripara-cellule avanzate in un centinaio di anni di costante lavoro. Un convinto ma lungimirante pessimista
potrebbe propendere addirittura per un migliaio di anni. Un autentico fervente "bastian contrario" potrebbe
dichiarare che per il compito occorrerebbero un milione di anni. Bene: allora dei veloci sistemi di IA tecnica,
che siano un milione di volte più rapidi degli scienziati, potranno sviluppare macchine ripara-cellule avanzate
nell'arco di un singolo anno solare(14).

Una Malattia Chiamata "Invecchiamento"


L'invecchiamento è naturale, ma altrettanto lo è il vaiolo ed i nostri sforzi per prevenirlo. Abbiamo vinto il
vaiolo, e sembra che vinceremo l'invecchiamento.

La longevità è cresciuta durante l'ultimo secolo, ma soprattutto perché il miglioramento degli impianti sanitari
e dei farmaci ha ridotto le malattie batteriche. L'intervallo base della vita umana è cresciuto ben poco.

74
Tuttavia, i ricercatori hanno compiuto dei progressi verso la comprensione e il rallentamento del processo di
invecchiamento. Hanno identificato alcune delle sue cause, come per esempio un incontrollata proliferazione
di cross-links. Hanno escogitato dei trattamenti parziali, come l'utilizzo di antiossidanti e di inibitori dei
radicali liberi. Hanno ipotizzato e studiato altre possibili meccanismi di invecchiamento, come quello dei
"clocks" cellulari, una sorta di cronometri nella cellula, o quello dei cambiamenti dell'equilibrio ormonale nel
corpo. In esperimenti di laboratorio, farmaci e diete speciali hanno esteso la durata della vita di alcuni topi
dal 25 al 45 percento(15).

Questa ricerca proseguirà; l'invecchiamento della generazione del baby boom rende probabile attendersi
una esplosione delle ricerche sull'invecchiamento. Una compagnia biotecnologica, la Senetek in Danimarca,
si sta specializzando in ricerche sull'invecchiamento. Nell'Aprile del 1985, Eastman Kodak e ICN
Pharmaceuticals hanno annunciato di aver costituito una società a capitale misto(16) da 45 milioni di dollari
per produrre isoprinosina ed altri farmaci con capacità potenziali di estensione della durata di vita attesa. I
risultati di alcune ricerche convenzionali anti-invecchiamento, potrebbero allungare in modo sostanziale
l'intervallo di vita umana e migliorare la salute dei più anziani già durante i prossimi dieci o vent'anni. Ma fino
a che punto farmaci, chirurgia, esercizio e dieta, possono riuscire ad estendere l'intervallo di vita? Per ora la
stima deve rimanere ipotetica. Solo delle nuove conoscenze scientifiche possono fornire maggiori certezze
su queste previsioni e recuperarle dal regno delle speculazioni, poiché si tratta di previsioni che si basano su
nuova conoscenza scientifica(17) e non su una nuova conoscenza ingegneristica.

Con le macchine riparatrici cellulari, comunque, il potenziale per l'estensione della vita diventa ben chiaro.
Tali macchine potranno riparare le cellule illimitatamente, almeno fintanto che le loro strutture distintive
restano intatte, e saranno altresì capaci di sostituire le cellule che sono state distrutte. Ed in più, potranno
anche ripristinare una condizione di salute ottimale. L'invecchiamento non è fondamentalmente differente da
qualunque altro disordine fisico - non esiste un qualche effetto magico con cui la data di calendario può
influire su una misteriosa forza-vitale. Ossa fragili, pelle rugosa, bassa attività enzimatica, lenta guarigione
delle ferite, memoria labile e tutto il resto, derivano da danneggiamenti del macchinario molecolare, da
squilibri chimici e da anomalie nelle disposizioni delle strutture. Riportando tutte le cellule e tutti i tessuti del
corpo ad una giovanile condizione strutturale, le macchine riparatrici ripristineranno una giovanile condizione
di salute.

Le persone che sopravviveranno integre fino all'epoca delle macchine di riparazione cellulare, avranno
l'opportunità di riguadagnare la salute di gioventù, e di conservarla quasi per tutto il tempo che vorranno.
Niente può riuscire ad ottenere che una persona (o qualsiasi altra cosa) duri per sempre ma, fatta eccezione
per il verificarsi di incidenti gravi, quelli che lo vorranno potranno vivere per lungo, lungo, tempo.

Mano a mano che una tecnologia si sviluppa, arriva un momento in cui i suoi principi diventano chiari, e con
essi molte delle sue conseguenze. I principi dei viaggi con i razzi erano chiari negli anni '30, così come erano
chiare le conseguenze del volo spaziale. Completare questi principi con i necessari dettagli richiese,
all'epoca, la progettazione e la sperimentazione di serbatoi, motori, strumentazione e così via. Nei primi anni
'50 molti dettagli erano noti. L'antico sogno di volare sulla Luna divenne un obiettivo per il quale era possibile
elaborare dei piani.

I principi delle macchine molecolari sono già chiari, e con essi anche le conseguenze delle macchine ripara-
cellule. Completare questi principi con i necessari dettagli richiederà la progettazione di strumenti molecolari,
assemblatori, computer, e così via, ma molti dei dettagli delle già esistenti macchine molecolari naturali sono
noti già oggi. Il sogno antico di conquistare salute e longevità è diventato un obiettivo per il quale si possono
fare dei piani.

Le ricerche mediche ci stanno guidando, passo dopo passo, lungo una strada che giungerà infine alle
macchine molecolari. La competizione globale per produrre migliori materiali, migliore elettronica e migliori
strumenti biochimici, ci sta spingendo nella stessa direzione. Le macchine ripara-cellule richiederanno anni
di sviluppo, ma è certo che esse sono dritte davanti a noi.

Esse ci doteranno, nel bene e nel male, di moltissime nuove capacità. Fermarsi a riflettere per un solo
attimo su eventuali replicatori d'impiego militare con capacità come quelle delle macchine ripara-cellule, è
sufficiente per restare sconvolti dalle più nauseanti fra le possibilità che si schiuderebbero. Più avanti,
descriverò come potremmo evitare tali orrori, ma prima sembra saggio considerare gli eventuali benefici
delle macchine di riparazione cellulare. La loro apparente bontà è genuina? In che modo la longevità
potrebbe influenzare il mondo?

75
Capitolo 8: Longevità in un mondo aperto
La lunga abitudine alla vita ci indispone a morire.
Sir THOMAS BROWNE

Le macchine di riparazione cellulare sollevano interrogativi sul valore da attribuire al prolungamento della
vita umana. Non si tratta di questioni esclusive dell'etica medica odierna, la quale di solito si interessa ai
dilemmi posti da trattamenti rari, costosi e solo parzialmente efficaci. Si tratta invece di questioni che
riguardano il valore di una vita lunga ed in salute, ottenuta attraverso mezzi tutt'altro che costosi.

Per le persone che attribuiscono un valore alla vita umana e che amano vivere, tali questioni potrebbero
non aver bisogno di risposta. Ma dopo una decade segnata da preoccupazioni per la crescita demografica,
per l'inquinamento e per l'impoverimento delle risorse, molte persone potrebbero interrogarsi sulla
desiderabilità di una estensione della vita; preoccupazioni di questo tipo hanno incoraggiato la diffusione di
memi pro-morte. Tali memi vanno esaminati nuovamente, poiché molti di essi hanno radici in una visione del
mondo ormai obsoleta. La nanotecnologia modificherà ben più che la semplice aspettativa di durata della
vita umana.

Conquisteremo i mezzi per curare non solo noi stessi, ma per curare la Terra stessa dalle ferite che le
abbiamo inflitto. Poiché salvare delle vite accrescerà il numero dei vivi, l'estensione della vita solleverà
questioni riguardo le conseguenze derivanti da una maggiore presenza di persone. La nostra capacità di
curare la Terra sarà invece una minore causa di controversie.

Inoltre, è certo che le stesse macchine di riparazione cellulare fomenteranno controversie. Esse perturbano
le assunzioni tradizionali riguardanti i nostri corpi e i nostri futuri: il nostro scetticismo, in conseguenza, si
attenua. Le macchine di riparazione cellulare richiederanno svariati importanti passi avanti tecnologici: il
nostro scetticismo, in conseguenza, si rafforza. Poiché la possibilità o l'impossibilità di macchine ripara-
cellule genera importanti interrogativi, ha senso considerare quali obiezioni potrebbero sollevarsi.

Perché Non Dovrebbero Esistere Macchine di Riparazione Cellulare?


Quale tipo di argomento potrebbe suggerire che le macchine ripara-cellule sono impossibili? Un argomento
di successo deve far fronte ad alcune strane tortuosità. Esso deve in qualche modo sostenere che le
macchine molecolari non possono costruire e riparare cellule, e contemporaneamente acconsentire che le
macchine molecolari nei nostri corpi riescano a costruire e riparare cellule ogni giorno. Un arduo problema,
per gli scettici incalliti! Vero è che le macchine artificiali dovrebbero fare quello che la natura non riesce a
compiere, ma questo non vuol dire che abbiano bisogno di qualcosa di qualitativamente nuovo. Sia i
dispositivi di riparazione naturali che quelli artificiali devono raggiungere, identificare e ricostruire delle
strutture molecolari. Potremmo migliorare gli enzimi riparatori del DNA semplicemente comparando filamenti
distinti di DNA, uno alla volta, per cui risulta ovvio che la natura non ha scovato tutti i possibili trucchi. Poiché
questo esempio demolisce ogni generica argomentazione riguardante l'ipotesi che le macchine riparatrici
non possano migliorare la natura, una buona causa contro le macchine ripara-cellule pare difficile da
impostare.

Inoltre, due questioni di carattere generale meritano delle risposte dirette. Anzitutto, nelle decadi a venire
dovremmo attenderci di conquistare la longevità anche se molte persone ci hanno provato per millenni ed
hanno fallito? Ed ancora, se davvero dobbiamo utilizzare macchine ripara-cellule per estendere le nostre
vite, perché la natura (che ha prodotto macchine riparatrici per miliardi di anni) non si è già perfezionata fino
a quel punto?

La gente ci ha provato ed ha fallito.

Per secoli, gli umani hanno desiderato di trovare una scappatoia alla brevità del loro arco vitale. Fin troppo
spesso, un Ponce de Leon o un dottore ciarlatano hanno promesso una miracolosa pozione, ma tutte le
pozioni proposte non hanno mai funzionato. Queste statistiche di fallimento hanno persuaso qualcuno che,
poiché tutti i tentativi sono finora falliti, tutti i tentativi saranno sempre destinati al fallimento. Queste persone
affermano che "invecchiare è naturale" e ciò sembra loro abbastanza ragionevole. I progressi medici hanno
scosso i loro modi di vedere, ma fino ad ora i progressi hanno per lo più semplicemente ridotto le morti
premature, e non davvero esteso la massima durata di vita.

76
Ma adesso, i biochimici hanno cominciato a lavorare sull'analisi delle macchine che costruiscono e
controllano le cellule. Hanno imparato ad assemblare virus e a riprogrammare batteri. Per la prima volta
nella storia, gli umani stanno esaminando le loro proprie molecole, svelando così i segreti della vita. Sembra
che gli ingegneri molecolari combineranno infine la loro conoscenza biochimica migliorata, assieme a
macchine molecolari migliori di quelle naturali perché in grado di imparare a riparare le strutture di tessuto
danneggiate e di ringiovanirle. Ciò non costituisce nulla di strano; sarebbe strano, piuttosto, se conoscenza
ed abilità tanto potenziate non conducessero a risultati eclatanti. La massiccia statistica dei fallimenti passati
è semplicemente irrilevante, perché mai prima d'ora abbiamo tentato di costruire delle macchine ripara-
cellule.

La natura ha provato ed ha fallito.

La natura ha costruito macchine di riparazione cellulare. L'evoluzione ha rappezzato gli animali multicellulari
per centinaia di milioni di anni, eppure tutti gli animali progrediti invecchiano e muoiono, poiché le
nanomacchine naturali riparano le cellule in modo imperfetto. Quindi, perché mai sarebbe possibile ottenere
dei miglioramenti?

I ratti diventano adulti in pochi mesi, per poi invecchiare e morire nell'arco di circa due anni - e tuttavia gli
umani si sono evoluti per vivere oltre trenta volte più a lungo. Se una longevità ancor più grande fosse lo
scopo principale dell'evoluzione, anche i ratti vivrebbero più a lungo. La durevolezza ha i suoi costi(1):
riparare le cellule richiede un investimento in termini di energia, materiali e macchine riparatrici. I geni di ratto
comandano i corpi dei ratti ad investire più sulla rapidità dei tempi di accrescimento e compimento della
riproduzione, che non su una meticolosa auto-riparabilità. Un topo quotidianamente impegnato nel crescere
in dimensioni correrebbe il rischio molto più grande di diventare, anzitutto, lo spuntino per un gatto. I geni di
ratto hanno prosperato trattando i corpi di ratto come fossero degli economici vuoti a perdere. I geni umani si
disfano in modo analogo dei corpi umani, sebbene lo facciano dopo una vita di qualche dozzina di volte più
lunga di quella di un ratto.

Ma la superficialità delle riparazioni naturali non è l'unica causa dell'invecchiamento. I geni trasformano le
cellule delle uova in individui adulti, lungo uno schema di sviluppo che procede a velocità relativamente
costante. Questo schema è piuttosto consistente perché l'evoluzione raramente modifica un progetto di
base. Proprio come lo schema di base del sistema DNA-RNA-proteine è rimasto congelato alla logica di
diversi miliardi di anni fa, così lo schema di base dei segnali chimici e delle reazioni dei tessuti che guidano
lo sviluppo dei mammiferi ha preso forma vari milioni di anni fa. Sembrerebbe che questo processo abbia un
cronometro associato, impostato per avanzare secondo differenti velocità in differenti specie, e che questo
cronometro sia abbinato ad un programma in esecuzione.

Quali che siano le cause dell'invecchiamento, l'evoluzione ha ben pochi motivi per eliminarle. Se i geni
costruissero individui capaci di resistere per millenni, trarrebbero ben poco vantaggio dal loro sforzo di
"replicarsi". La maggioranza degli individui morirebbe comunque in relativa giovinezza, per inedia, incidenti o
malattie. Come Sir Peter Medawar ha fatto notare(2), un gene che aiuta i giovani (che sono tanti) ma
danneggia i vecchi (che sono pochi) riesce comunque a replicarsi bene, e quindi si diffonde lungo tutta la
popolazione. Se geni di questo tipo finiscono per accumularsi in quantità sufficiente, gli animali diventano
programmati per morire.

Alcuni esperimenti condotti dal Dr. Leonard Hayflick(3) suggeriscono che le cellule contengono "dei
cronometri cellulari" (clocks) che contano il numero di divisioni cellulari ed arrestano il processo quando il
conteggio totale diventa troppo alto. Un meccanismo di questo tipo(4) può essere di aiuto per gli animali più
giovani: se alterazioni simili a quelle indotte dal cancro cominciano a provocare una divisione della cellula
eccessivamente rapida ma nel contempo non riescono a distruggere il cronometro interno alla cellula,
l'accrescimento del tumore resta contenuto su una estensione limitata. In questo modo, il cronometro
cellulare preverrebbe la crescita illimitata di un cancro autentico. Tuttavia, cronometri di questo tipo
danneggerebbero gli animali più vecchi perché arresterebbero la divisione delle cellule(5) e quindi
metterebbero fine al rinnovamento dei tessuti. Gli animali, quindi, beneficerebbero di una ridotta incidenza di
cancri durante la loro giovinezza, per quanto abbiano buoni motivi per lamentarsi di questo meccanismo se
riescono a sopravvivere fino alla vecchiaia. Ma i loro geni non stanno ad ascoltare le loro lagnanze perché
hanno già da tempo abbandonato la nave sotto forma di copie di se stessi passate alla generazione
successiva. Con le macchine ripara-cellule saremo in grado di riazzerare i cronometri cellulari. Nulla
suggerisce che l'evoluzione abbia perfezionato i nostri corpi al di là dei requisiti minimi di funzionalità in
termini di sola sopravvivenza e riproduzione. Gli ingegneri non cablano i computer con fibre lente nel
propagare i segnali come lo sono le nostre fibre nervose, e se non lo fanno hanno delle ottime ragioni.

77
L'evoluzione genetica (a differenza di quella memetica) non è stata in grado di compiere il balzo di qualità
verso nuovi materiali e nuovi sistemi, ed ha invece continuato a raffinare ed estendere quelli vecchi.

Le macchine di riparazione cellulare cadono ben lontane dai limiti del possibile; infatti non hanno dei
computer a dirigerle. La mancanza di nanocomputer nelle cellule, ovviamente, dimostra soltanto che i
computer non possono evolversi gradualmente da altre macchine molecolari (o più semplicemente che ciò
non è accaduto). La natura ha fallito nella costruzione delle migliori possibili fra le macchine ripara-cellule,
ma l'ha fatto per abbondanti motivi.

Guarire e Proteggere la Terra


Il fallimento del sistema biologico della Terra nell'adattarsi alla rivoluzione industriale è altrettanto facile da
comprendere. Dalla deforestazione alla diossina, abbiamo causato danni a ritmi più rapidi di quelli con cui
l'evoluzione può rispondere. Mano a mano che è cresciuta la nostra richiesta di cibo, beni e servizi, il nostro
uso della tecnologia di mole ci ha costretti a continuare ad infliggere questi danni. Con la tecnologia futura,
tuttavia, sapremo fare molto di più per il nostro beneficio e tuttavia arrecando meno danno alla Terra. E in
più, saremo in grado di costruire macchine per riaccomodare il pianeta, capaci di correggere i danni già
inflitti. Le cellule non sono le sole cose che desideriamo riparare.

Consideriamo il problema dei rifiuti tossici. Siano essi nell'aria, nel suolo o nell'acqua, i rifiuti ci preoccupano
perché possono danneggiare i sistemi viventi. Ma qualsiasi materiale che interagisca con le macchine
molecolari della vita è al tempo stesso influenzabile da altre forme di macchine molecolari. Ciò significa che
sapremo progettare delle macchine spazzine che rimuovano questi veleni (6) da qualsiasi luogo possano
arrecare danno alla vita.

Alcuni rifiuti, come la diossina, consistono di molecole dannose ma composte da atomi che sono invece
innocui se considerati singolarmente. Le macchine spazzine renderanno innocui i rifiuti di questo tipo,
modificando la disposizione dei loro atomi. Altri rifiuti, come il piombo e gli isotopi radioattivi, contengono
atomi dannosi in ogni caso. Le macchine spazzine li raccoglieranno per redisporli in uno qualsiasi degli
innumerevoli modi possibili. Il piombo proviene dalle rocce della Terra e gli assemblatori potrebbero quindi
accorparlo tutto insieme, costruendo rocce di piombo nelle stesse miniere da cui esso proviene. Anche gli
isotopi radioattivi potrebbero venire isolati dalle cose viventi, sia costruendo con essi delle rocce stabili, che
grazie ad altri metodi drastici. Utilizzando sistemi di trasporto spaziale economici ed affidabili potremmo
seppellire gli isotopi radioattivi nelle aride rocce prive di vita della Luna. Utilizzando delle nanomacchine,
potremmo seppellirli in contenitori auto-riparanti e auto-sotterranti delle dimensioni di colline e alimentate
dalla luce solare. Questi contenitori sarebbero più sicuri di qualsiasi tanica o roccia passive.

Con gli assemblatori-replicatori saremo anche capaci di rimuovere i miliardi di tonnellate di diossido di
carbonio che la nostra civiltà brucia-carburanti ha scaricato nell'atmosfera. I climatologi ritengono che
l'accumulazione di strati di diossido di carbonio, intrappolando l'energia solare, scioglierà almeno in parte le
calotte polari e provocherà, attorno alla metà del ventunesimo secolo, l'innalzamento del livello dei mari e
l'inondazione delle coste. Gli assemblatori-replicatori, tuttavia, renderebbero sufficientemente economica
l'energia solare da eliminare la necessità di carburanti fossili (7). Nanomacchine alimentate dal sole saranno
in grado, come fanno già gli alberi, di estrarre diossido di carbonio dall'aria (8) e spezzare le sue molecole
per liberarne l'ossigeno. A differenza degli alberi, le nanomacchine saranno capaci di sviluppare delle
profonde radici in cui immagazzinare il carbonio, per depositarlo infine di nuovo nelle vene minerarie di
carbone e nei giacimenti di petrolio da cui esso proviene.

Le future macchine di guarigione della Terra potranno anche aiutarci a recuperare paesaggi devastati e
ripristinare ecosistemi danneggiati. Gli scavi minerari hanno raschiato e butterato la Terra; l'incuranza l'ha
immondata. La lotta ai fuochi forestali ha lasciato prosperare il sottobosco, sostituendo l'ariosità da
cattedrale delle foreste, con una fitta boscaglia che alimenta fuochi ancora più pericolosi. Utilizzeremo robot
sofisticati ed economici per invertire questi effetti ed altri. Poiché tali robot saranno capaci di smuovere rocce
e suolo, essi disegneranno nuovamente l'aspetto dei paesaggi dilaniati. Capaci di diserbare e di smaltire,
nelle foreste naturali essi si sostituiranno all'efficacia estirpatrice dei fuochi senza doverle danneggiare o
devastare. Capaci di sollevare e smuovere gli alberi, essi alleggeriranno i suoli troppo densi, consentendo la
reforestazione di nude colline. Fabbricheremo dispositivi della dimensione di scoiattoli con una predilezione
per la vecchia immondizia. Fabbricheremmo dispositivi simili ad alberi con radici profondamente diffuse, e
ripuliremo il suolo dai pesticidi e dagli acidi in eccesso. Fabbricheremo netturbini delle dimensioni di insetti

78
per far pulizia dei licheni e per divorare la vernice spray. Fabbricheremo qualsiasi altro dispositivo sia
necessario a ripulire il disastro lasciato dalla civiltà del ventesimo secolo.

Dopo aver fatto pulizia, ricicleremo la maggior parte di queste macchine, lasciando in circolazione solo
quelle che ancora sono necessarie per proteggere l'ambiente da una civiltà in ogni caso più pulita poiché
basata sulla tecnologia molecolare. Questi dispositivi, più duraturi dei primi, integreranno gli ecosistemi
naturali dove potrebbe ancora risultare necessario, per bilanciare e curare gli effetti dell'umanità. Renderli
efficaci, non dannosi e nascosti, sarà un'arte che richiederà non solo l'aiuto dell'ingegneria automatizzata,
ma anche la conoscenza della natura e un certo senso artistico.

Con le tecnologie di riparazione cellulare saremo persino in grado di resuscitare alcune specie dalla loro
apparente estinzione. Il quagga africano, un'animale simile alla zebra, si è estinto circa un secolo fa, ma una
pelle di quagga è tuttora conservata sotto sale in un museo Tedesco. Alan Wilson della University of
California a Berkeley, ed i suoi collaboratori (9), hanno utilizzato degli enzimi per estrarre frammenti di DNA
dai tessuti muscolari connessi a questa pelle. Hanno clonato i frammenti in un batterio, li hanno confrontati
con quelli di una zebra ed hanno riscontrato (come ci si attendeva) che i geni delle due specie mostravano
uno stretto rapporto evolutivo. Sono anche riusciti ad estrarre e replicare del DNA da una pelle di bisonte
vecchia un secolo, nonché da alcuni mammuth vecchi di millenni che si sono conservati integralmente nel
perfamafrost artico. Questi successi sono ben lontani dalla clonazione di una intera cellula o di un intero
organismo; la clonazione di un singolo gene ne lascia grosso modo altri 100.000 non clonati, e la clonazione
di ogni singolo gene in una cellula non equivale alla riparazione della cellula, sebbene dimostri che il
materiale ereditario di queste specie è riuscito a sopravvivere fino ad oggi.

Come ho descritto nel capitolo precedente, macchine che confrontino diverse copie danneggiate di
molecole di DNA saranno anche in grado di ricostruire il suo originale privo di danni, ed i miliardi di cellule in
una pelle essiccata contengono miliardi di copie del DNA. Da tali copie saremo in grado di ricostruire DNA
non danneggiato, ed attorno ad esso sapremo costruire cellule non danneggiate di qualsiasi tipo
desideriamo. Alcune specie di insetti passano l'inverno in forma di cellule uovo, per poi essere riportate alla
vita dal calore della primavera. Analogamente, le specie "estinte" passeranno attraverso il ventesimo secolo
come cellule muscolari e pelle, per essere convertiti in uova fertili ed essere infine essere riportate alla vita
da macchine ripara-cellule.

La Dottoressa Barbara Durrant, psicologa della riproduzione presso lo Zoo di San Diego, sta conservando
in un congelatore crionico alcuni campioni di tessuti prelevati da specie in via d'estinzione. Ne potrebbe
derivare qualcosa di più prezioso di quello che la maggior parte della gente odierna potrebbe attendersi.
Preservare semplicemente dei campioni di tessuto non preserva la vita di un animale o di un ecosistema, ma
potrebbe preservare l'ereditarietà genetica delle specie campionate. Saremmo degli incoscienti se non
stipulassimo questa polizza assicurativa contro la perdita permanente delle specie. Sicché, la prospettiva di
macchine ripara-cellule incide sulle nostre scelte odierne.

L'estinzione non è un problema nuovo. Circa 65 milioni di anni fa scomparve la maggior parte delle specie
allora esistenti, incluse tutte le specie di dinosauri. Nel libro di pietra della Terra, la storia dei dinosauri
termina su una pagina consistente in un sottile strato di argilla. L'argilla è ricca di iridio, un elemento piuttosto
comune in asteroidi e comete. La migliore teoria corrente afferma che dal cielo cadde qualcosa che colpì
violentemente la biosfera terrestre. L'impatto sprigionò una energia equivalente all'esplosione di cento milioni
di milioni di tonnellate di TNT, provocando la diffusione di polveri ed instaurando un "inverno asteroidale" di
estensione planetaria.

Negli eoni trascorsi da quando le cellule viventi si sono per la prima volta raggruppate assieme a formare i
vermi, la Terra ha sofferto cinque grandi estinzioni. Appena 34 milioni di anni fa, ossia quasi 30 milioni di
anni dopo la morte dei dinosauri, uno strato di gocce vitree si depositò sul fondo del mare. Al di sopra di
quello strato, i fossili di molte specie non compaiono più. Quelle gocce si erano formate per solidificazione
degli spruzzi fusi causati da un impatto.

Il "Cratere Meteoritico" in Arizona è la testimonianza di un impatto esplosivo più piccolo e più recente,
equivalente a quello di una bomba da quattro milioni di tonnellate di TNT. Ancor più di recente, il 30 Giugno
1908, una palla di fuoco squarciò il cielo Siberiano e spazzò al suolo gli alberi di una foresta su un'area del
diametro di un centinaio di chilometri.

Come la gente comune ha a lungo sospettato, i dinosauri morirono perché erano stupidi. Non che fossero
troppo stupidi per nutrirsi, camminare o badare alle proprie uova, dato che comunque sopravvissero per 140
milioni di anni; essi erano semplicemente troppo stupidi per costruire telescopi capaci di individuare gli

79
asteroidi, e per costruire navette spaziali in grado di deviarli dalla rotta di collisione con la Terra. Lo spazio
ha ancora molte rocce da lanciarci addosso, ma ormai stiamo mostrando segni di una intelligenza adeguata
ad affrontarle. Quando nanotecnologia e ingegneria automatizzata ci doteranno di una tecnologia spaziale
più capace, ci risulterà molto facile sorvegliare e deflettere gli asteroidi; di fatto potremmo farlo persino con la
tecnologia disponibile oggi. Potremo non solo guarire la Terra, ma anche proteggerla.

Longevità e Pressione Demografica


Di solito siamo tutti alla ricerca di una vita lunga e in salute, e tuttavia la prospettiva di un successo drastico
ci disorienta. Una longevità maggiore potrebbe danneggiare la qualità della vita? Cosa comporterebbe per i
nostri problemi immediati la prospettiva di una vita lunga? Nonostante la maggior parte di questi effetti non
possa prevedersi, per altri la previsione è possibile.

Per esempio, le macchine ripara-cellule estenderanno la durata della vita ma al contempo incrementeranno
anche la popolazione. Se tutto il resto restasse invariato, gente in più significherebbe maggiore affollamento,
maggiore inquinamento e maggiore scarsità. Ma tutto il resto non rimarrà affatto uguale: l'essenza di quello
stesso progresso fatto di ingegneria automatizzata e nanotecnologia che produrrà infine le macchine ripara-
cellule, ci verrà in aiuto per guarire la terra, proteggerla e vivere su di essa più spensieratamente. Saremo in
grado di produrre ciò che ci è necessario, nonché il nostro lussuoso superfluo, senza per questo inquinare la
nostra aria o acqua. Sapremo appropriarci di risorse e fabbricare cose senza per questo devastare il
paesaggio con le miniere o ingombrarlo densamente di industrie. Con assemblatori efficienti che fabbrichino
prodotti duraturi, potremo produrre cose di più gran valore ma generando meno rifiuti. Se in qualche modo
riusciremo a sfruttare le nostre nuove capacità per fini buoni, molta più gente potrà essere in grado di vivere
sulla Terra, e nel contempo infliggendo meno danno sia alla Terra stessa che a chiunque altro viva su di
essa.

Se si guardasse al cielo notturno interpretandolo soltanto come un muro nero e ci si attendesse che da un
momento all'altro la corsa tecnologica debba frenare bruscamente su un rispettoso punto di arresto,
verrebbe naturale temere che le persone longeve sarebbero un opprimente fardello per la "povera ed
affollata terra dei nostri figli". Questa paura deriva dall'illusione che la vita sia un gioco a somma zero, e che
essere di più significhi necessariamente dover spartire in fette più piccole una torta piuttosto esigua. Ma nel
momento in cui diventeremo capaci di riparare le cellule, saremo anche capaci di costruire eccellenti
assemblatori-replicatori ed eccellenti navette spaziali. I nostri "poveri" discendenti si divideranno un mondo
della dimensione dell'intero sistema solare, dotato di materia, energia e potenziale spazio di vita in quantità
tali che quelle del nostro intero pianeta avranno al confronto le dimensioni di uno gnomo.

Tutto questo creerà spazio sufficiente per un'era di crescita e prosperità di gran lunga superiore ad ogni
altra precedente. Tuttavia, lo stesso sistema solare è pur sempre finito, e le stelle sono distanti. Sulla Terra
persino le industrie più pulite, basate sugli assemblatori, genereranno inquinamento calorico. Le
preoccupazioni incentrate su demografia e risorse manterranno la loro importanza, perché la crescita
esponenziale dei replicatori (come quella delle persone) potrà infine sovrastare l'offerta di qualsiasi
disponibilità finita di risorse.

Ma questo significa che dovremmo sacrificare vite umane per ritardare il momento cruciale? Qualche
persona potrebbe anche sacrificarsi volontariamente, ma se ne otterrebbe ben poco beneficio. In verità,
l'estensione della vita avrà poco effetto sui problemi di base: l'esponenzialità della crescita demografica
rimarrà tale, sia che la gente muoia giovane sia che resti indefinitamente in vita. Un martire volontario che
morisse in gioventù potrebbe ritardare la crisi solo di una frazione di secondo, ma persino una persona
mediocre e tuttavia coscienziosa potrebbe essere di ben più grande aiuto se fondasse un movimento
attivista di persone longeve intenzionate a risolvere questo problema di lungo termine. Dopotutto, molte
persone fino ad ora sono vissute ignare dell'esistenza di limiti alla crescita demografica sulla Terra. Chi altri,
se non i longevi, avranno interesse a prepararsi adeguatamente per il raggiungimento dei definitivi, ma molto
distanti, limiti ultimi alla crescita nei mondi al di là della Terra? Quelli preoccupati dei limiti di lungo termine
serviranno meglio l'umanità mantenendosi vivi piuttosto che mantenendo vive le loro preoccupazioni.

La longevità crea anche la minaccia della stagnazione culturale. Se si trattasse di un problema


inestricabilmente associato alla longevità, non vedremmo proprio cosa potremmo fare a riguardo - sparare ai
più vecchi quando si arroccano su punti di vista troppo ostinati, forse? Per fortuna ci sono due fattori che
contribuiranno in qualche modo ad attenuare il problema. In primo luogo, in un mondo con una frontiera
aperta i giovani saranno in grado di varcarla per costruire nuovi mondi, sperimentare nuove idee, ed infine

80
persuadere i più vecchi a cambiare oppure lasciarseli semplicemente alle spalle. In secondo luogo, le
persone avanti negli anni saranno comunque giovani nel corpo e nella mente. L'invecchiamento rallenta sia il
pensiero che l'apprendimento, così come rallenta altri processi fisici; il ringiovanimento li accelererà
nuovamente. Poiché muscoli e tendini giovani rendono più flessibile il corpo, forse la giovinezza dei tessuti
cerebrali manterrà analogamente più flessibili le menti, persino dopo che avranno sperimentato lunghi anni
di saggezza.

Gli Effetti dell'Anticipazione


La longevità non sarà il più grande dei problemi futuri. Essa potrebbe persino aiutarci a risolvere gli altri.
Consideriamo i suoi effetti sulla volontà della gente di cominciare le guerre. Invecchiamento e morte
rendono più accettabile il massacro in combattimento: come fa dire Omero a Sarpedone, l'eroe di Troia
nell'Iliade: "O amico mio, se noi, abbandonando questa guerra, potessimo sfuggire alla vecchiaia e alla
morte, io non sarei qui a lottare invano; ma ora, poiché sono molti i modi di morire che incombono su noi e a
cui nessun uomo può sperare di sfuggire, lanciamoci nella battaglia dando gloria ad altri uomini, o a vincerla
per la nostra" (10).

Se davvero fosse la speranza di sfuggire all'età ed alla morte a muovere la gente in battaglia, non sarebbe
una buona cosa? L'assenza di queste motivazioni potrebbe scoraggiare piccole guerre che potrebbero infine
crescere fino ad un olocausto nucleare. Ma allo stesso tempo potrebbe indebolire la nostra risoluzione ad
auto-difenderci da una tirannia estesa lungo una vita intera, per non parlare di quanta vita ancora abbiamo
da difendere. La riluttanza di certe persone a morire per il potere dei loro governanti aumenterebbe questo
rischio.

Le azioni sono sempre modellate dalle aspettative. Le nostre istituzioni ed i nostri progetti personali
riflettono entrambi la nostra aspettativa che tutti gli adulti attualmente viventi moriranno entro poche decadi.
Riflettiamo su come questa assunzione alimenti furiosamente l'urgenza di acquisire, ignorando il futuro per
inseguire un fugace piacere. Consideriamo come essa accechi la nostra visione del futuro, ed oscuri i
benefici a lungo termine della cooperazione. Erich Fromm scrive: "Se l'individuo vivesse cinquecento o mille
anni, questo contrasto (fra i suoi interessi e quelli della società) potrebbe essere inesistente o quantomeno
venirne considerevolmente ridotto. Egli potrebbe vivere, e raccogliere con gioia ciò che ha seminato con
dolore; la sofferenza di un periodo storico che porti frutto in quello successivo, potrebbe fruttare anche per
lui". Il fatto che la maggior parte delle persone di oggi vivano ancora esclusivamente per il presente, non è il
punto principale della questione; piuttosto, esso è: ci potrebbe essere un significativo cambiamento per il
meglio?

L'aspettativa di vivere una lunga vita in un futuro migliore potrebbe ben rendere alcuni mali politici meno
mortali. I conflitti umani sono di gran lunga troppo profondi e forti per essere sradicati da un qualunque
semplice cambiamento, tuttavia la prospettiva di un domani di immenso benessere potrebbe quantomeno
attenuare l'impulso a lottare per le briciole odierne. Il problema della conflittualità è grande, e per
fronteggiarlo abbiamo bisogno di tutto l'aiuto che possiamo ottenere.

La prospettiva del deterioramento personale e della morte, ha sempre reso i pensieri sul futuro meno
piacevoli. In tempi più recenti, visioni di inquinamento, di povertà, e di annichilazione nucleare, hanno reso i
pensieri sul futuro quasi troppo orribili da sopportare. Tuttavia, con almeno una speranza di un futuro
migliore e di un tempo per goderselo, si potrebbe guardare avanti più di buon grado. E guardando avanti,
saremo capaci di vedere più lontano. Avendo un interesse personale nel futuro, ce ne cureremmo di più. E
speranza e preveggenza accresciute, porteranno beneficio sia alle persone di oggi che ai posteri; esse
miglioreranno le nostre possibilità di sopravvivenza.

Vivere vite più lunghe significa avere più gente, ma senza peggiorare gravemente i problemi demografici di
domani. L'aspettativa di vite più lunghe in un mondo migliore, porterà benefici reali, incoraggiando la gente a
riflettere di più sul futuro. Dopotutto, la longevità e l'annuncio del suo arrivo sembrano una buona cosa per la
società, proprio come la certezza di vite accorciate a soli trent'anni sarebbero una cosa cattiva. Molte
persone desiderano per se stessi vite lunghe e in salute. Quali sono le prospettive per le generazioni
presenti?

81
Progressi nell'Estensione della Vita
Ascoltiamo le parole di Gilgamesh, Re di Uruk:

"Ho guardato oltre la barriera ed ho visto i corpi fluttuare sul fiume, e so che è quella anche la mia sorte.
Perché io so che, chiunque sia il più alto degli uomini non può raggiungere i cieli, ed il più grande non può
abbracciare tutta la Terra" (11).

Quattro millenni sono trascorsi da quando gli scribi Sumeri incisero delle tavolette d'argilla per scrivervi
"L'Epica di Gilgamesh", ed i tempi sono cambiati. Uomini non più alti della media hanno ora raggiunto i cieli e
circumnavigato la Terra. Siamo nell'era spaziale, nell'era della biotecnologia, nell'era dei passi avanti
tecnologici più rivoluzionari; è necessario disperarsi ancora di fronte alla barriera degli anni? O dovremmo
imparare l'arte di estendere la vita, in tempo utile per salvare noi stessi e quelli che amiamo dalla
dissoluzione?

Il ritmo del progresso biomedico contiene promesse allettanti. Le principali malattie dell'età (malattie
cardiache, ictus e cancro), hanno cominciato ad arrendersi a trattamenti opportuni. Studi sui meccanismi
dell'invecchiamento hanno cominciato a dar frutto, e i ricercatori hanno raccolto alcuni successi in
esperimenti mirati ad estendere l'arco di vita attesa per alcuni animali. Mano a mano che altra conoscenza si
costruirà sulla conoscenza precedente, e che gli strumenti già esistenti condurranno a nuovi strumenti,
sembra certo che il ritmo di accumulazione dei progressi accelererà. Persino senza disporre al momento di
macchine ripara-cellule, abbiamo ragione di attenderci progressi importanti verso il rallentamento e la
parziale inversione del processo di invecchiamento.

Nonostante gente di tutte le età beneficerà di questi progressi, i giovani ne beneficeranno in misura
maggiore. Quelli che vivranno abbastanza a lungo, raggiungeranno un'epoca in cui l'invecchiamento sarà
divenuto pienamente reversibile: tale epoca sarà, al più tardi, quella delle avanzate macchine ripara-cellule.
Sarà allora, se non addirittura prima, che le persone guadagneranno sempre più salute mano a mano che
invecchiano, migliorando col tempo come il vino piuttosto che guastarsi come il latte. Esse, se lo desiderano,
potranno riguadagnare una salute eccellente e vivere per un lungo, lungo, tempo.

In quell'epoca di replicatori e di volo spaziale economico, la gente possederà sia la longevità che spazio e
risorse a sufficienza per godersela. Una domanda che potrebbe amaramente rotolar fuori dalla lingua è:
"Quando? Quale sarà l'ultima generazione a invecchiare e morire, e quale la prima a oltrepassare il limite?".
Molte sono oggi le persone che condividono l'inespressa aspettativa che l'invecchiamento verrà un qualche
giorno sconfitto. Ma quelli che vivono ora sono condannati a morte dalla sfortuna della loro nascita
prematura? La risposta si dimostra essere sia chiara che sbalorditiva.

L'ovvio percorso verso la longevità comprende la necessità di vivere abbastanza a lungo da farsi
ringiovanire dalle future macchine di riparazione cellulare. I progressi della biochimica e della tecnologia
molecolare estenderanno la vita, e nel tempo che guadagneranno potranno estendere la vita ancora di più.
Per estendere la vita e mantenere una condizione di buona salute, in un primo momento useremo dei
farmaci appropriati, una appropriata dieta e l'esercizio fisico. Entro qualche decade, i progressi nella
nanotecnologia probabilmente realizzeranno le prime macchine di riparazione cellulare, e con l'aiuto
dell'ingegneria automatica queste prime macchine saranno prontamente seguite da macchine più avanzate.
Le date devono rimanere una mera ipotesi, ma una ipotesi che è pur sempre utile più di quanto lo sia un
semplice punto interrogativo.

Immaginiamo qualcuno che adesso ha trent'anni. In altri trent'anni, la biotecnologia sarà progredita
enormemente, e tuttavia un trentenne di oggi sarà diventato un sessantenne. I dati statistici, senza prendere
in considerazione nessun progresso nella medicina, dicono che un cittadino statunitense trentenne può al
momento aspettarsi di vivere per quasi altri cinquant'anni, il che significa fino agli anni '30 del ventunesimo
secolo (NdT- Il presente libro è stato scritto nel 1986). I normali progressi di routine (del tipo di quelli
dimostrati sugli animali) che si verificheranno da qui fino al 2030, pare aggiungeranno altri probabili anni alla
vita, forse persino decadi. La semplice fase primordiale della tecnologia di riparazione cellulare potrebbe
estendere la vita di diversi decadi. Per riassumere, quindi, sembra probabile che la medicina del 2010, 2020,
e 2030 estenderà la vita del nostro trentenne fino al 2040-2050. In quell'epoca, se non addirittura prima, i
progressi medici potrebbero permettere il suo ringiovanimento fino alla sua condizione attuale di trentenne.
Sicché, quelli che sono oggi sotto i trenta (e forse anche quelli apprezzabilmente più vecchi) possono
guardare avanti, quanto meno a titolo di tentativo, con qualche ragionevole speranza di vederci una

82
medicina futura in grado di sorpassare il loro processo di invecchiamento e di consegnarli salvi ad un era di
riparazioni cellulari caratterizzata, di salute vigorosa e di estensione di vita indefinita.

Se questa fosse l'intera storia, la distinzione fra gli ultimi umani avviati sulla strada di una morte precoce e i
primi sulla strada di una lunga vita potrebbe forse rappresentare l'ultimo dei divari generazionali. Inoltre, la
bruciante incertezza riguardo il proprio destino potrebbe motivare la tentazione di relegare l'intero argomento
nelle segrete del subconscio in cui rinchiudiamo le speculazioni fastidiose.

Ma è davvero questa la nostra situazione? Sembra esserci un'altra strada per salvare delle vite, una basata
sulle macchine ripara-cellule nonostante queste non siano ancora disponibili oggi. Come descritto nel
capitolo precedente, le macchine riparatrici sapranno guarire i tessuti fintanto che si è preservata la loro
struttura essenziale. La capacità di un tessuto di metabolizzare e riparare se stesso perde la sua
importanza; la discussione sulla biostasi illustra proprio questo. La biostasi, come descritto, utilizzerà dei
dispositivi molecolari per arrestare le funzioni delle cellule e preservare la loro struttura tramite il cross-
linking, cioè legando l'una all'altra le macchine molecolari delle cellule. Le nanomacchine invertiranno la
biostasi grazie alla riparazione dei danni molecolari, ossia rimuovendo i legami incrociati fra le macchine
molecolari ed aiutando le cellule (e quindi i tessuti, gli organi, e l'intero corpo) a ritornare al funzionamento
normale.

Riuscire a raggiungere un'era di avanzate macchine ripara-cellule sembra la chiave per una vita lunga ed in
salute, poiché quasi tutti i problemi medici saranno allora curabili. Uno potrebbe impegnarsi nello sforzo di
restare vivo ed attivo lungo tutti gli anni che intercorrono fra oggi e quel momento, in modo da riuscire a
giungervi entro l'arco della sua vita residua; ma questa è semplicemente la via più ovvia, la via che richiede
un minimo di preveggenza. I pazienti odierni spesso soffrono di collasso delle funzioni cardiache mentre le
strutture del cervello che incorporano memoria e personalità restano invece intatte. In tali casi, non potrebbe
esserci qualche tecnologia medica odierna che sia in grado di arrestare il processo biologico in un modo che
le tecnologie mediche di domani saprebbero invertire? Se così fosse, la maggior parte delle morti odierne
sarebbero in realtà diagnosi premature e non necessarie.

83
Capitolo 9: Una porta sul futuro
Londra, Aprile 1773.
A Jacques Dubourg (1)
Le sue osservazioni sulle cause della morte, e gli esperimenti con i quali si propone di richiamare alla vita
coloro che sembra siano stati uccisi da un fulmine, dimostrano in egual misura la sua sagacia e la sua
umanità. Pare che la dottrina della vita e della morte, in generale sia però tutt'altro che ben compresa[…]
Vorrei che fosse possibile[…] inventare un metodo per imbalsamare le persone che sono annegate, di
modo che possano essere richiamate alla vita in un qualsiasi momento comunque distante nel tempo;
Avendo un desiderio davvero ardente di poter vedere gli stati d'America fra un centinaio d'anni da oggi, io
preferirei una morte ordinaria causata dall'immersione, fino ad allora e in compagnia di qualche amico, in un
barile di Madera, per poi essere richiamato alla vita dal tepore del sole del mio caro paese! Ma […] in tutta
probabilità, noi viviamo in un secolo ancora troppo poco avanzato, e troppo vicino all'infanzia della scienza
perché si possa vedere nel nostro tempo una tale arte maturare fino alla perfezione.
- B. FRANKLIN

Benjamin Franklin cercava una procedura per arrestare e riavviare il metabolismo, ma all'epoca nessuno ne
conosceva una. Viviamo in un secolo di gran lunga più avanzato del suo da far si che la biostasi sia ormai
disponibile - per schiudere un futuro di salute a pazienti altrimenti privi di ogni possibilità che non sia la
dissoluzione conseguente alla loro morte?

Possiamo arrestare il metabolismo in molti modi, ma la biostasi, per essere utilizzabile, deve anche essere
reversibile. E da ciò scaturisce una curiosa situazione. Se si possa o meno mettere dei pazienti in uno stato
di biostasi con l'impiego delle tecniche presenti dipende esclusivamente dalla eventuale disponibilità futura di
tecniche capaci di invertire il processo. La procedura è perciò composta da due parti, delle quali al momento
ne padroneggiamo solo una.

Se la biostasi può mantenere inalterato un paziente per anni, allora le tecniche future dovranno includere
anche dei sofisticati sistemi di riparazione cellulare. Dobbiamo perciò giudicare il successo delle attuali
procedure di biostasi alla luce delle abilità ultime della futura medicina. Prima che macchine ripara-cellule si
profilino chiaramente all'orizzonte, tali abilità, ed i conseguenti requisiti precisi per una biostasi di successo,
restano grossolanamente incerti. Attualmente, i requisiti di base sembrano piuttosto ovvi.

I Requisiti per la Biostasi


Le Macchine molecolari possono costruire cellule partendo da zero, come dimostrato dalla divisione
cellulare naturale. Possono anche costruire da zero interi organismi, come dimostrato dallo sviluppo degli
embrioni. I medici saranno in grado di utilizzare le tecnologie di riparazione cellulare per dirigere lo sviluppo
di nuovi organi, partendo da cellule appartenenti al paziente stesso. Ciò dota i medici moderni di grandi
margini di libertà nella attuazione delle procedure di biostasi: anche se queste procedure danneggiassero o
distruggessero la maggior parte degli organi di un paziente, non gli procurerebbero comunque alcun danno
irreversibile. I loro colleghi del futuro, dotati di strumenti migliori, saranno in grado di riparare o rimpiazzare
gli organi danneggiati. La maggior parte delle persone dovrebbe essere ben contenta di avere un cuore
nuovo, o dei reni rinnovati, o una pelle più giovane (2).

Ma il cervello è un problema ben diverso. Un medico che permetta la distruzione del cervello di un paziente,
permette la distruzione del paziente stesso in quanto persona distinta, qualunque cosa possa accadere al
resto del corpo. Il cervello conserva gli schemi della memoria, della personalità, del "sé". I pazienti colpiti da
un colpo apoplettico perdono solo una parte del loro cervello e tuttavia soffrono, in conseguenza di tali danni,
di problemi che vanno dalla cecità parziale, alla paralisi, alla perdita del linguaggio, alla riduzione
dell'intelligenza, fino ad alterazioni della personalità o peggio ancora. Gli effetti precisi dipendono dalla
precisa locazione del danno. Ciò suggerisce che la distruzione completa del cervello provocherebbe, tutte
insieme, la cecità totale, la paralisi, l'incapacità totale di parola, e la completa assenza di attività mentale, e
ciò sia che il corpo continui a respirare, sia che smetta di farlo.

Come scrisse Voltaire, "Per risorgere, per essere la stessa persona che eri, devi avere la tua memoria
perfettamente intatta e presente; è la memoria che fa la tua identità. Se la tua memoria si perdesse, saresti
ancora lo stesso uomo?". L'Anestesia interrompe la coscienza senza distruggere la struttura del cervello, e
le procedure di biostasi devono fare la stessa cosa, per un tempo ben più lungo. Ciò solleva interrogativi

84
sulla natura fisica delle strutture soggiacenti alla memoria e alla personalità.

La neurobiologia, e un ben informato senso comune, concordano sulla natura di base della memoria. Mano
a mano che formiamo i nostri ricordi e ci sviluppiamo come individui, il nostro cervello cambia. Questi
cambiamenti influenzano il funzionamento del cervello, modificando i suoi schemi di attività: Quando
ricordiamo, il nostro cervello fa qualcosa; quando agiamo, pensiamo, o avvertiamo delle sensazioni, il nostro
cervello fa qualcosa. Il cervello lavora per mezzo di macchinario molecolare. Dei cambiamenti duraturi nel
funzionamento del cervello implicano corrispondenti cambiamenti duraturi in questo macchinario molecolare
- a differenza della memoria di un computer, il cervello non è progettato perché possa essere svuotato e
nuovamente riempito col preavviso di un solo attimo. La personalità e la memoria a lungo termine sono
durature.

Lungo l'intero corpo, cambiamenti duraturi delle funzionalità implicano cambiamenti duraturi del macchinario
molecolare soggiacente a quelle funzioni. Quando i muscoli diventano più forti o più rapidi, le loro proteine
cambiano in numero e distribuzione. Quando un vivente si adatta a far fronte all'assunzione di alcool, anche
il contenuto delle sue proteine cambia. Quando il sistema immunitario impara a riconoscere un nuovo tipo di
virus influenzale, il contenuto delle proteine, ancora una volta, cambia. Poiché le macchine basate sulle
proteine svolgono compiti come il movimento dei muscoli, la frammentazione di tossine e il riconoscimento
dei virus, l'esistenza di questa relazione non è inaspettata.

Nel cervello, le proteine modellano le cellule nervose avvolgendo le loro superfici, legando una cellula alla
successiva, controllando le correnti ioniche di ogni impulso neurale, producendo le molecole utilizzate dalle
cellule nervose per comunicare fra le sinapsi, e molto, molto altro. Quando le stampanti stampano parole,
mettono giù schemi di inchiostro; quando le cellule nervose cambiano il loro comportamento, esse
modificano i loro schemi di proteine. La stampa, inoltre, incide la carta, e le cellule nervose vengono anche
loro modificate ben più che semplicemente nelle loro proteine, nonostante l'inchiostro sulla carta e le
proteine nel cervello possano da sole bastare per determinare questi schemi in modo non equivoco. Le
trasformazioni coinvolte sono tutt'altro che impercettibili(3). I ricercatori hanno riscontrato che i cambiamenti
a lungo termine nel comportamento delle cellule nervose sono associati a "impressionanti cambiamenti
morfologici"(4) nelle sinapsi: queste, infatti, cambiano visibilmente in forma e struttura.

Sembra perciò che la memoria a lungo termine non sia poi quello schema terribilmente delicato che
comunemente si pensa, pronto ad evaporare via dal cervello ad ogni scusa. Memoria e personalità sono
infatti fermamente incorporati nel modo in cui le cellule del cervello si sono sviluppate ed accresciute
assieme, in schemi formati attraverso anni di esperienza. Memoria e personalità non sono più materiali dei
personaggi di un romanzo; eppure, proprio come loro, esse sono incorporate in strutture di materia. Memoria
e personalità non fuggono via nel momento in cui un paziente esala l'ultimo respiro. Infatti, molti pazienti
sono stati recuperati dalla cosiddetta "morte clinica", anche senza l'aiuto di macchine ripara-cellule. Gli
schemi della mente vengono distrutti soltanto "quando" e "se" i medici che assistono il paziente consentono
al suo cervello di procedere verso la dissoluzione. Questa caratteristica, ancora una volta, permette ai
medici una considerevole libertà di azione nella attuazione delle procedure di biostasi: tipicamente, essi
hanno bisogno di non arrestare il metabolismo finché non sono cessate le funzioni vitali(5).

Pare quindi che preservare le strutture cellulari e gli schemi proteici del cervello, preservi anche la struttura
della mente, e del "sé" associato ad essa. I biologi sanno già come preservare così bene i tessuti. La
tecnologia della resurrezione deve attendere l'arrivo delle macchine di riparazione cellulare, ma la tecnologia
della biostasi pare essere già saldamente in nostra mano.

Metodi di Biostasi
L'idea che possediamo già i metodi di biostasi può sembrare sorprendente, poiché potenti nuove abilità
raramente spuntano fuori in una notte. Infatti, le tecniche sono vecchie, solo la comprensione della loro
reversibilità è nuova. I biologi svilupparono i due principali approcci alla biostasi per altre ragioni.

Per decadi, i biologi hanno usato i microscopi elettronici per studiare la struttura di cellule e tessuti. Per
preparare i campioni, sfruttano un processo chimico chiamato fissazione allo scopo di mantenere al loro
posto le strutture molecolari. Un metodo molto popolare usa molecole di glutaraldeide, catene flessibili di
cinque atomi di carbonio con un gruppo reattivo di atomi di idrogeno e ossigeno ad ogni termine di catena. I
biologi fissano i tessuti pompando una soluzione di glutaraldeide lungo i canali sanguinei, consentendo alle
molecole di glutaraldeide di diffondersi nelle cellule. Una molecola vaga all'interno della cellula, rotolando

85
casualmente in giro, fino a che uno dei suoi capi terminali entra in contatto con una proteina (o altre
molecole reattive della cellula) e si lega ad essa. L'altro termine della catena fluttua libero fino a che, a sua
volta, entra in contatto con qualche altra molecola reattiva della cellula. E tutto ciò, di solito risulta nella
concatenazione, tramite il glutaraldeide, di due molecole che nella cellula erano soltanto "vicine".

Questo processo di cross-linking [Ndt- Vedi Glossario], concatena tutte le strutture molecolari e le macchine
molecolari in modo che risultino infine saldamente connesse in un blocco unico; altri reagenti chimici
possono quindi essere aggiunti per completare il lavoro o rafforzare la compattezza del tutto. I microscopi
elettronici mostrano che tali procedure di fissazione preservano le cellule e le strutture interne ad esse(6),
incluse le cellule e strutture del cervello.

Il primo passo dell'ipotetica procedura di biostasi che ho descritto nel capitolo 7, coinvolge dei semplici
dispositivi molecolari in grado di entrare nelle cellule, bloccare il loro macchinario molecolare e legare
insieme le strutture, concatenandole perché stiano al loro posto. Le molecole di glutaraldeide si adattano a
questa descrizione piuttosto bene. Il passo successivo in questa procedura coinvolge altri dispositivi
molecolari in grado di rimuovere l'acqua, per impacchettarla solidamente attorno alle molecole di una cellula.
Anche questo corrisponde ad un processo già noto.

Alcuni agenti chimici come glicolpropilene, glicoletilene, e dimetilsolfossido possono diffondersi nelle cellule
e sostituirsi alla maggior parte della loro acqua, pur provocando pochi danni. Essi sono noti come
"crioprotettori" poiché possono proteggere le cellule dai danni provocati dalle basse temperature. Se
rimpiazzano una sufficiente quantità dell'acqua contenuta in una cellula, il raffreddamento non causerà il
congelamento ma farà semplicemente diventare sempre più vischiosa la soluzione protettiva, che si
trasformerà così mano a mano in un liquido dalla consistenza dapprima simile a quella di un leggero
sciroppo, poi a quella del catrame caldo, poi quella del catrame freddo, per divenire infine qualcosa di simile
ad un resistente vetro. Infatti, in accordo alla definizione scientifica del termine, la soluzione protettiva ha
capacità di contenimento analoghe a quelle del vetro; il processo di solidificazione senza congelamento(7) è
detto "vetrificazione". Embrioni di topo(8) dapprima vetrificati e quindi conservati in azoto liquido, sono
successivamente in grado di svilupparsi in topolini sani.

Il processo di vetrificazione impacchetta saldamente il vitreo proteggente attorno alle molecole di ogni
cellula; la vetrificazione quindi, si adatta alla descrizione che ho dato del secondo stadio della biostasi.
Fissazione e vetrificazione, utilizzate assieme, sembrano procedure adeguate ad assicurare una biostasi sul
lungo termine. Per invertire questa forma di biostasi, delle macchine di riparazione cellulare verranno
programmate per rimuovere il proteggente vetroso e le concatenazioni fra le molecole della cellula e il
glutaraldeide, per poi passare a riparare e rimpiazzare le molecole, ripristinando così cellule, tessuti ed
organi, proprio in questo ordine.

La fissazione in congiunzione con la vetrificazione, non è la prima procedura che è stata proposta per la
biostasi. Nel 1962 Robert Ettinger, un professore di fisica all'Highland Park College in Michigan, pubblicò un
libro(9) suggerendo che i futuri progressi nella criobiologia potrebbero condurre a tecniche per una
procedura di congelamento di facile reversibilità e applicabile a pazienti umani. Inoltre suggeriva che i
medici, utilizzando tecnologie future, potrebbero essere in grado di riparare e riportare alla vita pazienti che
fossero stati congelati con le tecniche odierne, purché il congelamento fosse stato eseguito entro brevissimo
tempo dopo l'avvenuta cessazione di segnali vitali. Egli fece notare che le temperature da azoto liquido
possono preservare i pazienti per secoli, se necessario, alterandoli ben poco. Egli suggeriva, inoltre, che
forse la scienza medica disporrà un giorno di macchine favolose, capaci di ripristinare i tessuti congelati
lavorando su una molecola alla volta. Il suo libro diede il via al movimento crionico.

I crionici si sono concentrati sul congelamento perché molte cellule umane spontaneamente(10) si riattivano
dopo che siano state sottoposte ad un accorto processo di congelamento e disgelo. E' un mito comune
quello secondo cui il congelamento farebbe esplodere le cellule; infatti, il danno da congelamento è ben più
sottile di questo, anzi talmente sottile che spesso non lascia segni duraturi. Lo sperma congelato produce
regolarmente bambini in salute. Alcuni umani attualmente in vita sono sopravvissuti ad un processo di
congelamento spinto fino alle temperature da azoto liquido, da loro subìto quando erano ancora in precoce
stato embrionale. I criobiologi stanno attivamente ricercando modi di congelare e scongelare organi
vitali(11), per permettere ai chirurghi di conservarli in previsione di un trapianto da effettuare in un tempo
differito.

La prospettiva delle future tecnologie di riparazione cellulare ha rappresentato un tema importante fra i
crionici (12). Tuttavia essi hanno finora mostrato la tendenza a concentrarsi maggiormente sulle procedure
che preservano il funzionamento delle cellule, e lo hanno fatto per ovvie ragioni. I criobiologi hanno

86
mantenuto vitali delle cellule umane congelate per anni. I ricercatori hanno migliorato i loro risultati
sperimentando vari miscugli di composti chimici crioprotettivi e controllando attentamente le velocità di
raffreddamento e riscaldamento. La complessità della criobiologia offre abbondanti possibilità per ulteriori
sperimentazioni. Questa combinazione di tangibile e sorprendente successo, e di promettenti obiettivi per
ulteriori studi, ha reso la ricerca di un processo di congelamento facilmente reversibile, uno scopo vivido e
attraente per i crionici. Un successo nel congelare e riportare alla vita un mammifero adulto sarebbe infatti
indiscutibilmente evidente e persuasivo.

Inoltre, anche una conservazione parziale della funzione dei tessuti lascia intendere che c'è stata una
eccellente preservazione della struttura dei tessuti stessi. Le cellule che possono rivivere (o quasi rivivere)
anche senza un particolare aiuto, avranno bisogno di scarsa riparazione.

Essendo la comunità dei crionici piuttosto cauta, l'enfasi tradizionalista che hanno posto sulla importanza
della preservazione delle funzioni dei tessuti, ha incoraggiato comunque la pubblica confusione. Gli
sperimentatori hanno congelato interi mammiferi adulti e successivamente li hanno scongelati senza
attendere il momento in cui potranno farsi aiutare dalle macchine ripara-cellule. I risultati sono stati, ad un
livello superficiale, scoraggianti: gli animali non sono riusciti a tornare in vita (13). Il pubblico e la comunità
medica, entrambi ignari della prospettiva delle macchine di riparazione cellulare, hanno perciò interpretato la
biostasi come qualcosa di apparentemente inconcludente.

E, dopo la proposta di Ettinger, pochi criobiologi hanno scelto di sbilanciarsi sul futuro della tecnologia
medica con dichiarazioni non supportate. Come Robert Prehoda affermò nel 1967 (14) in un suo libro:
"Quasi tutti gli esperti degli stati di metabolismo ridotto, credono che il danno cellulare causato dalle attuali
tecniche di congelamento non possa essere rimediato". Naturalmente questi sono gli esperti sbagliati a cui
domandare. La questione richiede l'intervento di esperti di tecnologia molecolare e di macchine di
riparazione cellulare. Questi criobiologi avrebbero dovuto dire semplicemente che la correzione del danno da
congelamento dovrebbe apparentemente richiedere riparazioni a livello molecolare, e che essi non avevano
personalmente studiato una tale materia. Invece, hanno involontariamente indotto in equivoco il pubblico su
una materia medica di importanza vitale. Le loro affermazioni hanno scoraggiato l'uso di tecniche di biostasi
potenzialmente funzionanti (15).

Le cellule sono composte per la maggior parte da acqua. A temperature sufficientemente basse, le
molecole d'acqua si uniscono per formare un fine ma solido reticolo di cross-links. Poiché ciò preserva le
strutture neurali (16) e quindi gli schemi della mente e della memoria, Robert Ettinger ha apparentemente
individuato un approccio potenzialmente funzionante per la biostasi. Mano a mano che progredirà la
tecnologia molecolare e che la gente svilupperà una maggiore confidenza con le sue conseguenze, la
reversibilità della biostasi (basata sul congelamento, o sulla fissazione, o sulla vetrificazione o su altri
metodi) diverrà ancora più ovvia a sempre più gente.

Inversione della Biostasi


Immaginiamo che un paziente sia spirato a causa di un attacco cardiaco. I medici tentano di resuscitarlo,
ma senza successo, ed infine rinunciano al tentativo di ripristinare le sue funzioni vitali. A questo punto,
tuttavia, corpo e cervello del paziente sono non più funzionanti solo in apparenza, poiché la maggior parte
delle cellule e dei tessuti sono infatti ancora vivi, e presentano ancora attività metabolica. Avendo il paziente
preventivamente dettato opportune disposizioni, esso viene prontamente messo in biostasi, per prevenire la
sua dissoluzione irreversibile e nell'attesa di tempi migliori.

Gli anni passano. Il paziente cambia ben poco, ma la tecnologia progredisce enormemente. I biochimici
imparano a progettare le proteine. Gli ingegneri usano le macchine proteiche per costruire assemblatori, e
quindi usano gli assemblatori per realizzare compiutamente una nanotecnologia dalle capacità estese e
generali. Con la disponibilità di strumenti del tutto nuovi, la conoscenza biologica esplode. Gli ingegneri
biomedici, utilizzando la conoscenza di nuova acquisizione, l'ingegneria automatizzata e gli assemblatori,
sviluppano delle macchine di riparazione cellulare di crescente sofisticazione. Per cui, imparano ad arrestare
ed invertire l'invecchiamento. I medici, a questo punto, sfruttano l'utilizzo delle tecnologie di riparazione
cellulare per resuscitare i pazienti posti in biostasi, cominciando da quelli per i quali si sono usate le tecniche
di biostasi più avanzate, e continuando con quelli che sono stati messi in biostasi con l'uso di tecniche meno
recenti e più rudimentali. Infine, dopo aver resuscitato con successo anche gli animali che furono messi in
biostasi con l'impiego delle vecchie tecniche degli anni '80, i medici tornano ad occuparsi del nostro paziente
colpito da attacco cardiaco.

87
Nella prima fase dei preparativi, il paziente giace in una tanica di azoto liquido circondata da adeguate
apparecchiature. Il proteggente vetroso blocca ancora in una salda stretta il macchinario molecolare di ogni
cellula del paziente. Questo proteggente deve essere rimosso, ma un semplice riscaldamento potrebbe
permettere ad alcune strutture cellulari di liberarsi prematuramente.

Dei dispositivi chirurgici appositamente progettati per l'impiego a basse temperature, raggiungono,
attraverso l'azoto liquido, il torace del paziente. Qui essi rimuovono il materiale solido che sigilla i tessuti per
aprirsi un accesso verso le principali arterie e vene (17). Un esercito di nanomacchine equipaggiate per
rimuovere il proteggente si introduce attraverso queste aperture, ripulendo prima i principali vasi sanguinei e
in seguito i capillari. Ciò libera diversi percorsi, che diventano perciò disponibili per la normale attività dei
tessuti (18) lungo tutto il corpo del paziente. Altre macchine chirurgiche più grandi, collegano dei tubi al
torace del paziente e pompano dei fluidi nel suo sistema circolatorio. Il fluido sciacqua via le macchine
iniziali, quelle addette alla rimozione del materiale proteggente (ed in seguito apporterà alle macchine di
riparazione i materiali primari necessari per svolgere le riparazioni, e farà defluire via il calore prodotto).

Ora, le macchine pompano nel sistema circolatorio un fluido dall'aspetto latteo contenente migliaia di
miliardi di dispositivi che entrano nelle cellule e rimuovono il proteggente vetroso (19), molecola dopo
molecola. Essi lo sostituiscono con una sorta di impalcatura molecolare temporanea (20) che lascia ampio
spazio per consentire alle macchine di riparazione di lavorare agevolmente. Mano a mano che queste
macchine di rimozione del proteggente riportano a nudo le biomolecole, inclusi i componenti strutturali e
meccanici della cellula, esse le legano alla impalcatura con dei cross-links temporanei. (Se il paziente ha
subito un processo di fissazione tramite impiego di cross-links, anche questi cross-links dovrebbero ora
essere rimossi e temporaneamente sostituiti da altri). Quando sia indispensabile scostare le molecole dalla
loro posizione, le macchine le assegnano una etichetta numerica (21), che memorizzano per poter
successivamente ripristinare il corretto posizionamento della molecola. Come anche altre macchine di
riparazione cellulare avanzate, anche questi dispositivi lavorano sotto la direzione di un nanocomputer
presente localmente su ogni sito di lavoro.

Quando hanno terminato, queste macchine specializzate per funzionare alle basse temperature, si ritirano.
Tramite una sequenza di cambiamenti graduali nella composizione e nella temperatura, una opportuna
soluzione acquosa sostituisce il precedente fluido crionico, ed il paziente viene riscaldato al di sopra delle
temperature di congelamento. Nuove macchine ripara-cellule vengono pompate nei vasi sanguinei e
penetrano nelle cellule. Iniziano le riparazioni.

Piccoli dispositivi esaminano le molecole e riferiscono la loro struttura e posizione a più grandi computer
interni alla cellula (22). Il computer identifica le molecole, comanda ogni necessaria riparazione molecolare,
e identifica le strutture cellulari in base ai loro schemi molecolari. Dove un qualche danno abbia alterato le
disposizioni delle strutture nella cellula, il computer dirige i dispositivi di riparazione per ripristinare la
disposizione appropriata, utilizzando dei cross-links temporanei dove necessario. Nel frattempo, le arterie
del paziente vengono ripulite e il muscolo cardiaco, danneggiato anni prima, viene riparato.

Alla fine, il macchinario molecolare delle cellule sarà tornato al suo stato originario di ordine funzionante,
mentre altre riparazioni più elementari hanno corretto gli schemi danneggiati degli insiemi di cellule,
ripristinando così una condizione di salute in tessuti ed organi. L'impalcatura viene rimossa dalle cellule,
assieme alla maggior parte dei cross-links temporanei e delle macchine di riparazione. La maggior parte
delle molecole attive di ognuna delle cellule resta però bloccata, per prevenire l'insorgere di una attività che
sarebbe prematura in quanto non correttamente equilibrata.

All'esterno del corpo, il sistema di riparazione ha prodotto del sangue fresco, sviluppandolo a partire dalle
stesse cellule del paziente. Questo sangue viene ora trasfuso nel paziente per riempire nuovamente il suo
sistema circolatorio, ed agisce con l'ausilio di una pompa esterna nel ruolo di temporaneo cuore artificiale. I
dispositivi rimasti in ogni cellula correggono ora le concentrazioni dei sali, degli zuccheri, dell'ATP e di altre
piccole molecole, in gran parte grazie allo sbloccaggio selettivo del nanomacchinario nativo di ogni singola
cellula. Mano a mano che procede la liberazione del macchinario naturale, il metabolismo riprende, passo
dopo passo; il muscolo cardiaco viene finalmente sbloccato e condotto fin sul margine di incipiente
contrazione. Il battito cardiaco riprende, ed il paziente ritorna a vivere sebbene ancora in uno stato di
anestesia. Mentre i medici controllano che tutto stia procedendo bene, il sistema di riparazione chiude
l'apertura nel torace, congiungendo i tessuti ai tessuti, uno dopo l'altro e senza lasciare cuciture o cicatrici. I
dispositivi che sono rimasti nelle cellule si disassemblano l'uno con l'altro, dissolvendosi in molecole nutritive.
Mano a mano che il paziente si sposta dallo stato di anestesia verso uno di sonno ordinario, alcuni visitatori
entrano nella stanza, come da lungo tempo pianificato.

88
Per finire, il sognatore si sveglierà riposato, alla luce di un nuovo giorno, e alla vista dei suoi vecchi amici.

Mente, Corpo ed Anima


Prima di prendere in considerazione la resurrezione, comunque, qualcuno potrebbe chiedersi che cosa
accada all'anima di una persona in biostasi. Alcune persone potrebbero rispondere che l'anima e la mente
sono aspetti della stessa cosa, aspetti di uno schema incorporato nella sostanza del cervello, la quale è
attiva durante la vita attiva mentre è invece quiescente durante la biostasi. Assumiamo comunque, per un
momento, che lo schema della mente, della memoria e della personalità, abbandoni il corpo alla morte,
trasportata via da qualche elusiva sostanza. Le eventualità sembrano abbastanza chiare. La morte in questo
caso significa ben altro che un irreversibile danno del cervello, dovendo invece definirsi come una
irreversibile dipartita dell'anima. Questo renderebbe la biostasi una procedura priva di scopo ma in ogni caso
innocua: dopo tutto, i capi religiosi non hanno espresso alcuna preoccupazione che la semplice
preservazione del corpo possa in qualche modo imprigionare un'anima. Secondo questa visione delle cose,
perché la resurrezione possa risultare in un successo, essa dovrebbe presumibilmente necessitare anche
della cooperazione dell'anima. E' infatti già accaduto che la posa in biostasi di un paziente, sia stata
accompagnata sia da cerimonie Cattoliche che Giudaiche.

Con o senza la biostasi, la riparazione cellulare non può portare l'immortalità. La morte fisica, per quanto
grandemente posticipata, resterà radicata nella natura dell'universo. La biostasi e la successiva riparazione
cellulare non sembrano quindi alimentare nessuna fondamentale teologia. La biostasi somiglia più ad una
anestesia totale, seguita poi da una operazione chirurgica salva-vita: entrambe le procedure, biostasi ed
anestesia, interrompono la continuità della coscienza per prolungare la vita. Parlare di "immortalità" quando
la prospettiva è solo la longevità equivarrebbe ad ignorare i fatti o utilizzare impropriamente le parole.

Reazioni e Discussioni
La prospettiva della biostasi sembra tagliata su misura per provocare reazioni di "shock da futuro". La
maggior parte della gente ritiene che l'odierna accelerazione dei cambiamenti sia sufficientemente
scioccante quando giunge un poco alla volta. Ma la validità dell'opzione della biostasi è una implicazione
odierna di una intera serie di passi avanti tecnologici futuri. Ovviamente, questa prospettiva stravolge i difficili
aggiustamenti psicologici con cui la gente affronta il declino fisico.

Stando così le cose, ho costruito gli argomenti a favore della possibilità di macchine di riparazione cellulare
e biostasi partendo da fatti comunemente noti della biologia e della chimica. Ma cosa ne pensano i biologi
professionisti riguardo ai problemi di base? In particolare, credono (1) che le macchine di riparazione
saranno in grado di correggere il tipo di danno da cross-linking prodotto dalla fissazione, e (2) che la
memoria sia effettivamente incorporata da una forma fisica preservabile?

Dopo una discussione sulle macchine molecolari e sulle loro capacità - una discussione che non ha toccato
nessuna implicazione di carattere medico - il Dottor Gene Brown, professore di biochimica e presidente del
dipartimento di biologia del MIT, ha acconsentito ad essere citato come autore dell'affermazione seguente:
"Dati tempo e sforzi sufficienti per sviluppare macchine molecolari artificiali e per condurre studi dettagliati
sulla biologia molecolare della cellula, dovrebbero emergere capacità generali molto estese. Fra queste,
potrebbe esserci la capacità di separare le proteine (o altre biomolecole) da strutture a cui sono vincolate da
cross-links, e di identificare, riparare e rimpiazzare tali proteine". Questa affermazione individua una parte
significativa del problema di riparazione delle cellule. Essa è stata consistentemente approvata, in seguito a
discussioni analoghe nei due casi, sia da un campione di biochimici e di biologi molecolari selezionati presso
il MIT, che da un altro campione di biochimici selezionato presso Harvard.

Dopo una discussione sul cervello e sulla natura fisica della memoria e della personalità - ancora una volta
una discussione che non ha toccato alcuna implicazione medica - il Dottor Walle Nauta (docente di neuro-
anatomia al MIT) ha acconsentito ad essere citato come autore della seguente affermazione: "Sulla base
della nostra attuale conoscenza della biologia molecolare dei neuroni, penso che i più concorderanno che le
modificazioni prodotte durante il consolidamento della memoria a lungo termine siano rispecchiate da
corrispondenti trasformazioni nel numero e nella distribuzione di particolari molecole proteiche presenti nei
neuroni del cervello". Analogamente all'affermazione del Dottor Brown, anche questa individua un punto
chiave riguardo la corretta funzionalità della biostasi. Anche questa è stata consistentemente approvata da

89
altri esperti, dopo essere stata discussa in un contesto idoneo ad isolare gli esperti da qualunque pregiudizio
emozionale che sarebbe potuto risultare dalle implicazioni mediche dell'affermazione. Inoltre, poiché questi
punti sono strettamente e direttamente correlati ai campi di specializzazione rispettivi del Dottor Brown e del
Dottor Nauta, i due dottori sono esperti appropriati a cui porre domande su tali questioni.

A quanto pare, quindi, l'impulso umano verso la sopravvivenza dovrebbe spingere molti milioni di persone
verso l'impiego della biostasi (almeno come ultima risorsa), una volta che queste persone si siano convinte
della sua possibilità di funzionare. Mano a mano che la tecnologia molecolare progredirà, la comprensione
delle macchine ripara-cellule si diffonderà e si radicherà nella cultura popolare. Le opinioni degli esperti
supporteranno l'idea in misura via via crescente. La biostasi diverrà sempre meno insolita, ed il suo costo
crollerà. Pare probabile che molte persone potrebbero infine considerare la biostasi come la norma, come un
trattamento salva-vita standard per pazienti ormai spirati.

Ma fino a che le macchine di riparazione cellulare non saranno dimostrate, la fin troppo umana tendenza ad
ignorare ciò che non abbiamo potuto verificare con i nostri occhi rallenterà l'accettazione della biostasi.
Milioni di persone non saranno sfiorati da nessun dubbio nel passare dall'espirazione alla dissoluzione, per
abitudine o per tradizione e giustificandosi con deboli argomentazioni. L'importanza di una chiara
preveggenza in questa materia rende importante considerare le argomentazioni possibili prima di chiudere la
discussione sull'estensione della vita e passare a trattare altre questioni. Quindi, perché la biostasi non
dovrebbe apparirci come una idea naturale ed ovvia?

Perché la macchine di riparazione cellulare non esistono ancora

Potrebbe sembrare strano salvare una persona dalla dissoluzione nell'attesa di acquisire la capacità di
ripristinare la sua salute, visto che la tecnologia di riparazione non esiste ancora. Ma non è molto più strano
risparmiare denaro per mandare in futuro un figlio all'università? Dopotutto, anche lo studente in età da
universitario non esiste ancora. Risparmiare denaro ha senso perché il figlio crescerà fino alla maturità;
risparmiare una persona dalla dissoluzione ha senso perché la tecnologia molecolare maturerà.

Ci aspettiamo che un figlio cresca fino alla maturità perché abbiamo visto molti altri bambini crescere fino
alla maturità; possiamo attenderci che questa tecnologia maturerà perché abbiamo visto molte altre
tecnologie maturare. Vero è che alcuni bambini soffrono di deficienze congenite, come pure ne soffrono
alcune tecnologie, ma spesso gli esperti possono stimare il potenziale di un bambino o di una tecnologia
mentre l'uno e l'altra sono ancora giovani.

La tecnologia microelettronica è partita da pochi granellini e filamenti disposti su una fettina di silicio, ma è
cresciuta fino ai computer basati sui chip. I fisici come Richard Feynman(24) videro, in parte, quanto lontano
questa tecnologia sarebbe andata.

La tecnologia nucleare è partita dalla scissione in laboratorio di pochi atomi sottoposti ad un


bombardamento di neutroni, ma è cresciuta fino ai reattori nucleari da miliardi di watt e alle bombe nucleari.
Leo Szilard vide, in parte, quanto lontano questa tecnologia sarebbe andata.

La tecnologia dei razzi a combustibile liquido è partita da rudimentali razzi lanciati da un campo nel
Massachusetts, ma è cresciuta fino alle navi lunari e gli space shuttle. Robert Goddard vide, in parte, quanto
lontano questa tecnologia sarebbe andata.

L'ingegneria molecolare è partita dalla chimica ordinaria e dall'impiego di macchine molecolari prese a
prestito dalle cellule viventi, ma essa, come già altre tecnologie, crescerà immensamente. Ed anch'essa
porta con sé conseguenze del tutto peculiari.

Perché delle macchine così minuscole mancano di sensazionalità

Abbiamo la tendenza ad attenderci risultati sensazionali solo da fatti sensazionali, ma il mondo spesso non
sembra cooperare con questo nostro atteggiamento. La natura consegna i suoi trionfi e i suoi disastri
entrambi avvolti in banale carta marrone da imballaggi.

FATTO BANALE: Certi interruttori elettrici possono stare in uno solo di due stati: acceso o spento. Questi
interruttori possono essere prodotti molto piccoli in dimensioni, e poco dispendiosi in termini di consumo
d'energia elettrica.

90
LA SUA SENSAZIONALE CONSEGUENZA: Se adeguatamente connessi, questi interruttori formano
computer, i motori della rivoluzione dell'informazione.

FATTO BANALE: L'etere non è eccessivamente velenoso, e tuttavia riesce ad interferire temporaneamente
con l'attività del cervello.

LA SUA SENSAZIONALE CONSEGUENZA: La fine dell'agonia inflitta dalla chirurgia su pazienti coscienti,
apre una nuova era nella medicina.

FATTO BANALE: Muffe e batteri competono per il cibo, sicché alcune muffe hanno sviluppato la capacità di
secernere veleni per uccidere i batteri.

LA SUA SENSAZIONALE CONSEGUENZA: La penicillina, la sconfitta di molte malattie batteriche e il


salvataggio di milioni di vite umane.

FATTO BANALE: Le macchine molecolari possono essere utilizzate per maneggiare molecole e per
costruire interruttori meccanici di dimensione molecolare.

LA SUA SENSAZIONALE CONSEGUENZA: Macchine ripara-cellule dirette da nanocomputer, rendono


possibile curare potenzialmente qualunque malattia.

FATTO BANALE: Memoria e personalità sono incorporate in strutture cerebrali che è possibile preservare.

LA SUA SENSAZIONALE CONSEGUENZA: Le tecniche attuali possono prevenire la dissoluzione,


permettendo alla generazione presente di avvantaggiarsi delle macchine di riparazioni cellulare di domani.

Di fatto, le macchine molecolari non sono poi così banali. Poiché i tessuti sono fatti di atomi, ci si dovrebbe
ben aspettare che macchine capaci di maneggiare atomi e modificare le loro disposizioni debbano avere
conseguenze mediche drammatiche.

Perché tutto ciò sembra troppo incredibile

Ma noi viviamo nel secolo dell'incredibile. In un articolo intitolato "L'idea del progresso" in Astronautics and
Aeronautics, l'ingegnere aereospaziale Robert T. Jones(25) ha scritto: "Nel 1910, l'anno in cui sono nato,
mio padre era un pubblico ministero. Egli ha percorso tutte le polverose strade della contea di Maconn in un
calesse trainato da un singolo cavallo. Lo scorso anno io ho volato ininterrottamente da Londra a San
Francisco passando sulle regioni polari, trascinato attraverso l'aria da motori con potenza di 50.000 cavalli
vapore". Ai giorni di suo padre, l'idea di aereoplani di questo tipo sconfinava nella fantascienza, essendo
semplicemente troppo incredibile per essere presa in considerazione.

In un articolo intitolato "Basic Medical Research: A Long-Term Investment" nel Technology Review, la rivista
redatta presso il MIT, il Dottor Lewis Thomas(26) ha scritto: "Quarant'anni fa, proprio prima di subire una
trasformazione da arte a scienza e tecnologia, si riteneva scontato che la medicina che insegnavamo fosse
esattamente la medicina che avremmo avuto per tutta la durata delle nostre vite. Se qualcuno avesse
tentato di raccontarci che il potere di controllo delle infezioni batteriche era appena dietro l'angolo, che la
chirurgia a cuore aperto o i trapianti di reni sarebbero divenuti possibili entro un paio di decadi, che certi tipi
di cancro sarebbero divenuti curabili con la chemioterapia, e che presto avremmo conquistato una
esauriente comprensione biochimica della genetica, e delle malattie con cause genetiche, avremmo reagito
con una disinteressata incredulità. Non abbiamo alcuna ragione di credere che la medicina non cambierà
ancora. Ciò che suggerisce questo ricordo è che dovremmo mantenere le nostre menti molto ben aperte nel
futuro".

Perché tutto questo sembra troppo bello per essere vero.

Di fatto, tutte le più recenti novità sui modi per evitare esiti fatali della maggior parte delle malattie,
potrebbero sembrare troppo belle per essere vere - come è giusto che sia poiché tali novità non sono che
una piccola parte di una storia più vasta ed equilibrata. Ed in effetti, i pericoli della tecnologia molecolare
riequilibrano aspramente le sue promesse. Nella parte terza mi occuperò di delineare le ragioni per le quali
la nanotecnologia deve considerarsi più pericolosa delle armi nucleari.

Fondamentalmente, tuttavia, la natura non si cura affatto del nostro senso del bene e del male come pure
non si cura della nostra tendenza ad immaginare un equilibrio fra le due cose. In particolare, la natura non

91
odia gli esseri umani abbastanza da alzare una barricata contro di noi. In passato sono già svaniti altri
antichi orrori.

Anni fa, i chirurghi si sforzavano di amputare le gambe con rapidità. Robert Liston di Edimburgo, in Scozia,
una volta segò da lato a lato la coscia di un paziente in un tempo record di 33 secondi e rimuovendo durante
l'operazione tre dita appartenenti ai suoi assistenti. I chirurghi lavoravano rapidamente per accorciare
l'agonia dei loro pazienti, poiché questi rimanevano coscienti.

Se le malattie terminali in assenza di biostasi sono un incubo oggi, consideriamo la chirurgia nei giorni dei
nostri antenati: il bisturi che fende le carni, il sangue che sgorga, la sega che stride contro le ossa di un
paziente cosciente. Già nell'ottobre del 1846, W. T. G. Morton e J. C. Warren rimossero un tumore da un
paziente anestetizzato da etere; Arthur Slater ha testimoniato che il loro successo "fu giustamente salutato
come la grande scoperta dell'epoca". Con tecniche semplici e basate su un agente chimico conosciuto, il
risveglio dall'incubo del bisturi e della sega, durato fin troppo, era finalmente giunto.

Con la fine dell'agonia, la chirurgia divenne più diffusa, e con essa anche le infezioni chirurgiche e quindi
l'orrore delle morti di routine causate dalla cancrena delle carni interne al corpo. Tuttavia, nel 1867 Joseph
Lister pubblicò(27) i risultati dei suoi esperimenti con il fenolo, stabilendo i principi della chirurgia antisettica.
Con tecniche semplici basate su un noto agente chimico, l'incubo di essere decomposti in vita venne
drammaticamente allontanato. E poi giunsero i farmaci sulfamidici e la penicillina, che posero fine a molte
malattie mortali in un colpo solo. E la lista continua.

Altri drammatici passi avanti tecnologici si sono già verificati in passato, alcuni grazie a nuovi utilizzi di
reagenti chimici già noti, come nel caso dell'anestesia e della chirurgia antisettica. Sebbene questi progressi
potessero sembrare troppo belli per essere veri, si dimostrarono realmente possibili. La salvezza di vite
umane grazie all'impiego di reagenti chimici già noti o delle procedure di biostasi può, nella stessa misura,
dimostrarsi una realtà.

Perché i medici attualmente non utilizzano la biostasi.

Robert Ettinger propose una tecnica di biostasi nel 1962. Egli affermò che il Professor Jean Rostand aveva
proposto lo stesso approccio già qualche anno prima, pronosticandone il suo eventuale impiego in medicina.
Perché la biostasi per congelamento non riesce a divenire popolare? In parte a causa della sua spesa
iniziale, in parte a causa della inerzia umana ed in parte perché resta oscuro ai più cosa s'intenda per
macchine di riparazione cellulare. Tuttavia, anche il radicato conservatorismo tipicamente associato alla
professione medica ha giocato un suo ruolo. Consideriamo ancora una volta la storia della anestesia.
Nel 1846, Morton e Warren sorpresero il mondo con la "scoperta dell'epoca", l'anestesia da etere. Appena
due anni più tardi, Horace Wells utilizzò l'anestesia con protossido di azoto, e due anni dopo ancora
Crawford W. Long effettuò una operazione utilizzando etere. Nel 1824, Henry Hickman anestetizzò con
successo degli animali impiegando dell'ordinario diossido di carbonio; in seguito spese anni tentando di
convincere i chirurghi Inglesi e Francesi a sperimentare il protossido di azoto come anestetico. Nel 1799,
ben quarantasette anni prima della grande "scoperta" ed anni prima che gli assistenti di Liston perdessero le
loro dita, Sir Humphry Davy scrisse(28): "Poiché il protossido di azoto sembra capace di disinnescare il
dolore fisico, potrebbe eventualmente essere impiegato durante le operazioni chirurgiche".

Tuttavia, in un epoca ancora più tarda come quella del 1839, la conquista del dolore sembrava ancora, a
molti medici, un sogno impossibile da realizzare. Il Dottor Alfred Velpeau dichiarò: "L'abolizione del dolore in
chirurgia è una chimera. E' assurdo che oggi si vada alla sua ricerca. 'Bisturi' e 'dolore' sono due parole della
chirurgia che, nella coscienza del paziente, dovranno sempre accompagnarsi. A questa compulsiva
combinazione non resta che adattarsi".

Molti temevano il dolore della chirurgia più della morte stessa. Forse è giunto il momento di risvegliarsi
dall'ultimo dei nostri incubi medici.

Perché non è stato dimostrato che possa funzionare.

E' vero che nessun esperimento può attualmente dimostrare che un paziente può resuscitare da una
condizione di biostasi. Ma l'esistenza di una domanda generalizzata per una tale dimostrazione conterrebbe
implicitamente un assunto nascosto, ossia che la medicina si è avvicinata talmente ai limiti finali del possibile
che non dovrà mai più preoccuparsi della eventualità di nuovi progressi futuri. Una tale domanda potrebbe
sembrare cauta e ragionevole, ma di fatto puzza di tracotante arroganza.

92
Sfortunatamente, una dimostrazione è esattamente quello che i medici hanno tentato di realizzare, e per
buone ragioni: essi desiderano evitare procedure inutilizzabili che potrebbero portar danno. Forse basterà la
noncuranza nei confronti della biostasi per produrre il più ovvio ed irreversibile dei danni.

Tempo, Costo ed Azione Umana


La scelta, per la gente, di utilizzare o meno, la biostasi, dipenderà dalla circostanza che essa pensi o meno
che valga la pena tentare un tale azzardo. La valutazione di questo azzardo chiama in causa il valore che si
da alla vita (che è una questione personale), il costo della biostasi (che pare ragionevole in base agli
standard della medicina moderna), la probabilità che la tecnologia potrà funzionare (che pare eccellente), e
la probabilità che l'umanità sopravvivrà, svilupperà la tecnologia e riporterà in vita le persone poste in
biostasi. Questo ultimo punto concentra su di sé la maggior parte della incertezza complessiva.

Assumiamo che gli esseri umani e la società libera sopravviva (nessuno può calcolare la probabilità che si
realizzi una tale ipotesi, ma dare per scontato un fallimento scoraggerebbe gli sforzi concreti per promuovere
il successo). Se ciò avverrà, la tecnologia continuerà a progredire. Lo sviluppo degli assemblatori richiederà
anni. Studiare le cellule ed apprendere come riparare i tessuti dei pazienti in biostasi, richiederà ancor più
tempo. Come stima ipotetica, lo sviluppo di sistemi di riparazione e il loro adattamento per una applicazione
alla resurrezione richiederà dalle tre alle dieci decadi, sebbene progressi nella ingegneria automatizzata
potrebbero accelerare il processo.

Il tempo richiesto sembra comunque senza importanza. Per la maggior parte dei pazienti sarà molto più
importante quale sarà la condizione di vita il giorno del loro risveglio, e se saranno presenti amici e parenti,
piuttosto che quale sarà la data di calendario. Grazie all'abbondanza di risorse, la condizione fisica della vita
potrebbe essere in effetti molto buona. La presenza di amici e parenti è tutt'altra questione.

In un sondaggio di recente pubblicazione, oltre la metà degli interpellati ha dichiarato che, se fosse data loro
una possibilità di scegliere liberamente, vorrebbero vivere al massimo per cinquecento anni. I sondaggi
informali mostrano perciò che la maggior parte della gente preferisce la biostasi alla dissoluzione, se la
biostasi può far riconquistare loro una buona salute e la opportunità di esplorare un nuovo futuro in
compagnia dei loro vecchi amici e parenti. Una minoranza di persone ha detto che "vorrebbero andar via
quando verrà il momento" ma essi generalmente concordano che, finché gli si offre la possibilità di vivere
ulteriormente, il loro momento non sarà ancora arrivato. Sembra che molta gente odierna condivida il
desiderio di Benjamin Franklin, ma lo fa in un secolo che è capace di soddisfarlo. Se la biostasi facesse
sufficienti proseliti (o se altre tecnologie di estensione della vita facessero dei progressi sufficientemente
rapidi), allora un paziente resuscitato non si risveglierebbe in un mondo di estranei, ma vedendo i sorrisi di
volti familiari.

Ma la gente in biostasi verrà davvero resuscitata? Le tecniche per mettere in biostasi dei pazienti sono già
note, ed il costo di tali tecniche potrebbe anche diventare basso, quanto meno al confronto di quello di grossi
interventi chirurgici o cure e degenze ospedaliere prolungate. Le tecnologie della resurrezione, tuttavia,
saranno complesse e dispendiose da sviluppare. La gente del futuro si impegnerà nel loro sviluppo?

Sembra probabile che gli uomini del futuro lo faranno. Essi potrebbero anche sviluppare la nanotecnologia
senza pensare in modo prioritario alle applicazioni mediche, ma in tal caso riusciranno di sicuro a divenire
capaci di sviluppare computer migliori. Potrebbero sviluppare delle macchine ripara-cellule senza pensare in
modo prioritario alla resurrezione, ma poi la realizzeranno di certo per poter curare se stessi. Potrebbero non
sentirsi spinti a compiere un gesto di carità impersonale come quello di programmare le macchine per la
resurrezione, ma d'altronde essi avranno abbondanza di tempo, di benessere materiale e di sistemi di
ingegneria automatizzata, e per alcuni di loro, quelli che attendono in biostasi, sarebbero sentimentalmente
importati. Sembra perciò certo che le tecniche saranno effettivamente sviluppate.

Verrà un tempo in cui, grazie ai replicatori e alle risorse spaziali, la gente avrà benessere e spazio per
vivere oltre mille volte più grande di quello che abbiamo oggi. La resurrezione stessa richiederà perciò meno
energia e materiali, persino rispetto a quelli che sono gli standard odierni. Quindi, la gente del futuro che
dovrà occuparsi delle resurrezioni, riterrà che esista ben poco conflitto fra i propri interessi personali e le loro
preoccupazioni umanitarie. Le normali motivazioni umane sembrano sufficienti ad assicurare che la
popolazione attiva del futuro sveglierà quelli che si trovano in biostasi.

93
La prima generazione che riconquisterà la sua giovinezza senza essere costretta a ricorrere alla biostasi,
potrebbe anche già essere fra noi oggi. La prospettiva della biostasi semplicemente fornisce, a più gente,
motivo maggiore di attendersi la longevità. Essa offre una opportunità per i vecchi e una forma di
assicurazione per i giovani. Mano a mano che i progressi nella biotecnologia condurranno verso la
progettazione di proteine, gli assemblatori e la riparazione cellulare, e mano a mano che le implicazioni
verranno recepite, l'aspettativa per una vita lunga si diffonderà. La biostasi, allargando la strada d'accesso
verso la longevità, incoraggerà un interesse più intenso per il futuro. E ciò incoraggerà gli sforzi per
prepararci ai pericoli che abbiamo davanti.

94
Capitolo 10: I limiti dello sviluppo
La scacchiera è il mondo, i pezzi sono i fenomeni dell'universo, le regole di gioco sono quelle che noi
chiamiamo leggi della natura
T. H. HUXLEY

Nell'ultimo secolo abbiamo sviluppato aereoplani, navette spaziali, energia nucleare e computer. Nel
prossimo svilupperemo assemblatori, replicatori, ingegneria automatizzata, volo spaziale economico,
macchine di riparazione cellulare e molto altro. Questa serie di passi avanti tecnologici potrebbe suggerire
che la corsa tecnologica progredirà senza limiti. Secondo questo modo di vedere, infrangeremo tutte le
barriere immaginabili, lanciandoci a capofitto in un infinito inconoscibile; ma sembra proprio che questa
visione sia falsa.

Le leggi della natura e le condizioni del mondo limiteranno quello che faremo. Senza limiti, il futuro sarebbe
completamente sconosciuto, una cosa informe che si fa beffe dei nostri sforzi di previsione e pianificazione.
Se invece ha dei limiti, il futuro resta pur sempre una turbolenta incertezza ma è comunque obbligato a
scorrere entro certi confini.

Dai limiti naturali impariamo qualcosa riguardo ai problemi e alle opportunità che fronteggiamo. I limiti
definiscono i confini del possibile, indicandoci quali risorse possiamo utilizzare, quanto velocemente la
nostra nave spaziale potrà volare, e le cose che le nostre nanomacchine potranno o non potranno fare.
Discutere i limiti è rischioso: possiamo essere più sicuri che qualcosa sia possibile piuttosto che
qualcos'altro non lo sia. Gli ingegneri possono discuterne utilizzando approssimazioni e casi speciali. E
dotati di strumenti, materiali e tempo adeguati, possono anche dimostrare le possibilità in modo diretto.
Anche quando elaborano dei disegni di progetto esplorativi, possono restare ben all'interno del reame del
possibile se stanno attenti a mantenersi ben lontano dai limiti. Gli scienziati, al contrario, non possono
dimostrare una teoria di carattere generale, ed ogni loro dichiarazione generale di impossibilità è di per se
stessa una sorta di teoria generale. Nessun esperimento specifico (poiché si riferisce necessariamente ad
un qualche specifico luogo ed un qualche specifico istante) può dimostrare l'impossibilità assoluta di
qualcosa (impossibilità ovunque e sempre). E nemmeno è possibile effettuare un numero indefinitamente
grande di esperimenti.

Tuttavia, le leggi scientifiche generali forniscono delle descrizioni dei limiti del possibile. Nonostante gli
scienziati non possano provare una legge generale, hanno comunque evoluto la nostra migliore immagine
disponibile di come funzioni l'universo. Ed anche se esperimenti esotici ed eleganti trattazioni matematiche
trasformeranno ancora il nostro concetto di legge fisica, ben pochi limiti ingegneristici ne risulteranno
spostati. La relatività non ha influenzato il progetto di automobili.

La mera esistenza di limiti definitivi non significa che essi stiano sul punto di soffocarci, e tuttavia molte
persone ne hanno derivato l'idea che i limiti metteranno presto fine alla crescita. Questo concetto semplifica
la loro immagine di un futuro perché lascia fuori dal quadro gli strani nuovi sviluppi a cui la crescita condurrà.
Altra gente preferisce la nozione ancora più sfocata di crescita limitata, un concetto che offusca la loro
immagine del futuro suggerendo che esso sarà del tutto incomprensibile.

Le persone che confondono la scienza con la tecnologia, tendono a fare confusione riguardo ai limiti. Come
fa notare il progettista software Mark S. Millert, esse immaginano che nuova conoscenza significhi sempre
nuovo know-how; alcuni immaginano anche che conoscere tutto ci permetterebbe di poter fare tutto. I
progressi nella tecnologia, in effetti, apportano nuovo know-how, aprendo così nuove possibilità. Ma i
progressi nelle scienze basilari, più modestamente, si limitano a redisegnare la nostra mappa dei limiti
definitivi; e questo, spesso rivela delle nuove impossibilità. Le scoperte di Einstein, per esempio, mostrarono
che nulla poteva pareggiare in velocità la corsa di un raggio luminoso.

La Struttura del Vuoto


La velocità della luce è un vero limite? Fra la gente, qualcuno un tempo parlava di "barriera del suono"
credendo che fosse qualcosa che dovesse impedire ad un aereoplano di superare la velocità del suono.
Finché, alla Base Edwards dell'Air Force, nel 1947, Chuck Yeager squarciò il cielo di ottobre con un
rimbombo sonico. Oggi, certe persone parlano della "barriera della luce" chiedendosi se anche questa, potrà
cadere.

95
Sfortunatamente per gli scrittori di fantascienza, questo parallelo è superficiale. Nessuno potrebbe mai
sostenere che la barriera del suono fosse stata un reale limite fisico. Meteoriti e pallottole la infrangono
quotidianamente, e persino le sferzate di una frusta lo fanno. Ma nessuno ha osservato qualcosa muoversi
più veloce della luce. Alcuni puntini distanti osservati grazie ai radiotelescopi, a volte sembrano muoversi più
veloci della luce, ma alcuni semplici trucchi di prospettiva ottica possono facilmente spiegare come ciò possa
accadere. Alcune particelle ipotetiche denominate "tachioni " dovrebbero muoversi più veloci della luce, se
esistessero. Ma nessuno le ha ancora trovate, e le teorie correnti non prevedono la loro esistenza. Gli
sperimentatori sono riusciti a spingere i protoni fino a velocità pari a più del 99,9995 percento della velocità
della luce, con risultati perfettamente in accordo con le previsioni di Einstein. Se la particella viene
accelerata ulteriormente, la sua velocità cresce verso valori più vicini alla velocità della luce in molto più
impercettibile, ma nel contempo la sua energia (la sua massa) cresce quasi senza limite.

Sulla Terra, una persona può camminare o navigare solo fino a certe distanze, ma in ogni caso nessun orlo
o barriera misteriosa blocca improvvisamente il suo cammino. Semplicemente, la Terra è tonda. Il limite di
velocità nello spazio non implica una "barriera della luce" più di quanto i limiti di distanza sulla Terra
implichino un muro. Lo spazio stesso, il vuoto che detiene tutta l'energia e la materia, ha delle proprietà. Una
di queste è la sua geometria, la quale può essere descritta guardando al tempo come una speciale
"dimensione". Questa geometria fa sì che la velocità della luce receda mano a mano che una nave spaziale
accelera, come l'orizzonte recede innanzi ad una nave in movimento sul mare: la velocità della luce, come
l'orizzonte, è sempre ugualmente remota in ogni direzione. Ma l'analogia finisce qui. Questa somiglianza non
ha nulla a che fare con la curvatura dello spazio. È sufficiente ricordare che la velocità limitante non è nulla
di così grossolano o frangibile come sarebbe una ipotetica "barriera della luce" (1). Gli oggetti possono
sempre andare più veloci di quanto stiano andando, soltanto non possono andare più veloci della luce.

La gente ha a lungo sognato di conquistare il controllo gravitazionale. Nell'edizione del 1962 di Profiles of
the Future, Arthur C. Clarke scrisse (2): "Di tutte le forze, la gravità è la più misteriosa e la più implacabile", e
proseguì suggerendo che un qualche giorno svilupperemo dei dispositivi adatti a controllare la gravità.
Tuttavia, la gravità è davvero così misteriosa? Nella teoria della relatività generale, Einstein descrive la
gravità come curvatura nella struttura spazio-temporale del vuoto. La matematica che esprime tale
descrizione è elegante e precisa nonché tale da poterne ricavare predizioni che hanno superato ogni verifica
sperimentale finora escogitata.

La gravità non è ne più ne meno implacabile di altre forze. Nessuno può sottrarre ad un masso la sua
gravità, ma neanche può sottrarre ad un elettrone la sua carica elettrica o ad una corrente il suo campo
magnetico. Sappiamo controllare i campi elettrici ed i campi magnetici tramite lo spostamento delle particelle
che li generano; possiamo in modo analogo controllare i campi gravitazionali spostando delle comunissime
masse. Sembra quindi che non possiamo imparare il segreto del controllo di gravità, perché lo conosciamo
già.

Un bambino con una piccola calamita può sollevare un chiodo, usando un campo magnetico per sovrastare
la trazione gravitazionale. Ma, per sfortuna degli aspiranti ingegneri gravitazionali, usare la gravità per
sollevare un chiodo richiederebbe una massa spaventosa. Se il pianeta Venere fosse appeso proprio sopra
la vostra testa, si riuscirebbe a farlo a malapena, quantomeno finché il pianeta non vi cade addosso.

Gli ingegneri generano onde elettromagnetiche facendo oscillare cariche elettriche avanti ed indietro in una
antenna; si potrebbero generare onde gravitazionali agitando una roccia nell'aria. Ma, ancora una volta,
l'effetto gravitazionale è debole. Nonostante una stazione radio con potenza di un kilowatt non sia nulla di
straordinario, l'agitarsi e il ruotare di tutte le masse dell'intero sistema solare non riesce ad irradiare un
altrettanto kilowatt di potenza in onde gravitazionali.

Comprendiamo sufficientemente bene la gravità; semplicemente essa non è di molta utilità nella costruzione
di macchine che siano più leggere della Luna. Ma alcuni dispositivi che utilizzano masse più grandi riescono
a funzionare. Una diga idroelettrica fa parte di una macchina gravitazionale (l'altra parte è la Terra) che
estrae energia dalla caduta di masse. Macchine che usino "buchi neri", sulla base della formula E=mc2
saprebbero estrarre energia dalla caduta di masse, con una efficienza superiore al cinquanta percento.
Calando giù in un buco nero un singolo secchio pieno d'acqua, se ne ricaverebbe altrettanta energia di
quella che si otterrebbe scaricando diverse migliaia di miliardi di secchi d'acqua attraverso i generatori di una
diga alta un chilometro.

Poiché le leggi della gravità descrivono come si curva il vuoto, esse si applicano anche a speculazioni come
quelle delle "space warps" (deformazioni spaziali) di stile fantascientifico. Pare che dei tunnel da un punto
all'altro dello spazio sarebbero instabili, persino ammesso che si possa anzitutto crearli. Ciò impedirebbe alle

96
navi spaziali del futuro di raggiungere punti molto distanti grazie ad un viaggio a velocità superiori a quelle
della luce che venga ottenuto passando attraverso una sorta di scorciatoia che aggiri lo spazio intercorrente.
E questo pone anche un limite alla possibilità di viaggio, che a sua volta impone un limite alla espansione e
allo sviluppo.

Le leggi di Einstein sembrano dare una descrizione accurata della geometria complessiva del vuoto. Se è
così, i limiti che ne risultano sembrano inevitabili: ci si può sbarazzare di quasi qualunque cosa, ma non del
vuoto stesso.

Sembra altrettanto impossibile sfuggire ad altre leggi e limiti, e per ragioni analoghe. Infatti, i fisici hanno
iniziato, in misura sempre maggiore, a guardare a tutte le leggi della natura in termini di struttura del vuoto.
Le onde gravitazionali sono un certo tipo di increspature ondulatorie del vuoto; i buchi neri sono un certo tipo
di distorsioni del vuoto. Analogamente, le onde radio sono un altro tipo di ondulazioni del vuoto, le particelle
elementari sono un altro tipo molto differente di increspature (che in alcune teorie assomigliano a minuscole
corde vibranti). In quest'ottica, esiste quindi una sola sostanza nell'universo: il vuoto. Ma si tratta comunque
di una sostanza che si presenta in una notevole varietà di forme, inclusi quegli schemi di particelle che noi
chiamiamo "materia solida". Questa visione suggerisce l'inevitabile qualità delle leggi naturali. Se una
singola sostanza riempie l'universo, essa è l'universo, per cui le sue proprietà limitano tutto quello che
possiamo fare (3).

La stranezza della fisica moderna, però, induce molta gente a non credere in essa. Le rivoluzioni che hanno
condotto fino alla meccanica quantistica ed alla relatività, hanno fatto nascere espressioni come "il principio
di indeterminazione", "la natura ondulatoria della materia", "la materia è energia" e "la curvatura dello spazio-
tempo". Un'aria di paradosso circonda queste idee e quindi la fisica stessa. È comprensibile che le nuove
tecnologie ci sembrino strane, ma perché anche le antiche ed immutabili leggi della natura dovrebbero
trasformarsi in qualcosa di bizzarro e scioccante?

I nostri cervelli e linguaggi si sono evoluti per trattare con cose enormemente più grandi degli atomi e che si
muovono ad una minuscola frazione della velocità della luce. Cervelli e linguaggi svolgono un lavoro
passabile, nonostante abbiano impiegato secoli per imparare a descrivere il moto di un sasso in caduta. Ma
abbiamo oramai spinto la nostra conoscenza molto al di là dell'antico mondo dei sensi. Abbiamo scoperto
cose (onde di materia, curvatura dello spazio) che sembrano bizzarre, nonché altre che sono semplicemente
al di là della nostra capacità di visualizzazione. Ma "bizzarro" non vuol dire misterioso e impredicibile. La
matematica e gli esperimenti funzionano ancora, e consentono agli scienziati di variare e selezionare le
teorie, evolvendole per adattarle ad una realtà peculiare. Le menti umane si sono dimostrate notevolmente
flessibili, ma non costituisce una così grande sorpresa scoprire che non sempre possiamo visualizzare
l'invisibile.

Parte del motivo per cui la fisica sembra così strana è che la gente desidera ardentemente le stranezze, e
tende a diffondere memi che descrivono le cose come strane. Alcune persone preferiscono quelle idee che
stratificano il mondo in livelli, e riempiono questi livelli di misteri di grado-B. Naturalmente, queste persone
preferiscono e diffondono quei memi grazie ai quali la materia pare essere immateriale e la meccanica
quantistica pare più simile ad una branca della psicologia.

La relatività, come direbbero queste persone, rivela che la materia (quella chiara vecchia roba che la gente
pensa di comprendere) è davvero energia (quella subdola, misteriosa roba che fa succedere le cose).
Questo suscita un sorriso incerto riguardo ai misteri dell'universo. Potrebbe essere più chiaro se si dicesse
che la relatività rivela che l'energia è, in tutte le sue forme, una forma di materia, ossia che l'energia ha
massa. Infatti le vele solari funzionano basandosi su questo principio, ossia grazie all'impatto di una massa
su una superficie. La luce stessa si manifesta "impacchettata" in forma di particelle.

Consideriamo anche il principio di indeterminazione di Heisenberg, ed il fatto ad esso correlato che


"l'osservatore esercita sempre una influenza sull'osservato". Il principio di indeterminazione è intrinseco alla
matematica usata per descrivere la materia ordinaria (dando agli atomi la loro propria dimensione), ma
"l'effetto dell'osservatore" che vi è associato è stato presentato in alcuni libri popolari come una magica
influenza della coscienza sul mondo. Invece, l'idea di fondo è più prosaica. Immaginiamo di osservare il
moto della polvere sotto un raggio luminoso: quando osservate le luci riflesse di certo le influenzate, perché
ne assorbite una parte. Analogamente la luce (con la sua massa) influenza il moto della polvere: si scontra
con la polvere esercitando su essa una forza. Il risultato non è un effetto della vostra mente sulla polvere,
ma della luce sulla polvere. Nonostante le misurazioni quantistiche presentino certe peculiarità di una
sottigliezza che va molto oltre quella di questo esempio (4), non esiste nulla in che implichi che la mente
riesca a modificare la realtà.

97
Infine, consideriamo il "paradosso dei gemelli". La Relatività prevede che, se uno dei due individui di una
coppia di gemelli volasse a velocità prossime a quelle della luce fino ad un'altra stella per poi tornare
indietro, al suo ritorno il gemello viaggiatore sarebbe più giovane di quello rimasto a casa. Infatti, le
misurazioni condotte con orologi accuratissimi hanno dimostrato che un moto molto rapido è associato ad un
effetto di rallentamento del tempo. Ma questo non è un "paradosso"; è semplicemente un fatto della natura.

La Fisica Verrà Stravolta Ancora?


Nel 1894 l'eminente fisico Albert A. Michelson affermò: "Le più importanti e fondamentali leggi e fatti delle
scienze fisiche sono stati tutti scoperti, ed essi sono oramai così fermamente stabiliti che la possibilità di
sostituirli, in conseguenza di nuove scoperte, è estremamente remota […] Le nostre future scoperte saranno
necessariamente limitate alla sesta posizione decimale delle misure".

Ma nel 1895, Roentgen scoprì i raggi X. Nel 1896, Becquerel scoprì la radioattività. Nel 1897, Thomson
scoprì l'elettrone. Nel 1905, Einstein formulò la teoria della Relatività Ristretta (spiegando così le
osservazioni sperimentali condotte da Michelson nel 1887 e riguardanti la velocità della luce). Nel 1905,
Einstein presentò anche la teoria fotonica della luce. Nel 1911, Rutherford scoprì i nuclei atomici. Nel 1915,
Einstein formulò la teoria della Relatività Generale. Dal 1924 al 1930, de Broglie, Heisenberg, Bohr, Pauli, e
Dirac svilupparono i fondamenti della meccanica quantistica. Nel 1929, Hubble mostrò l'evidenza
dell'espansione dell'universo. Nel 1931, Michelson morì.

Michelson ha commesso un errore memorabile. La gente ancora cita la sua affermazione ed elenca quello
che ne è seguito a sostegno del punto di vista che non dovremmo (mai?) dichiarare nessuna comprensione
consolidata delle leggi naturali, o dei limiti del possibile. Dopo tutto, se Michelson era così sicuro e tuttavia
così in errore, non dovremmo temere di ripetere il suo sbaglio? La grande rivoluzione della fisica ha indotto
alcune persone a concludere che la scienza non smetterà mai di condurci a nuove importanti sorprese -
persino sorprese importanti per gli ingegneri. Ma abbiamo davvero probabilità di imbatterci ancora in uno
sconvolgimento così importante?

Forse no. Il contenuto della meccanica quantistica era una sorpresa, e tuttavia prima che questa apparisse
era evidente che la fisica era grossolanamente incompleta. Prima della meccanica quantistica avreste potuto
avvicinarvi ad un qualsiasi scienziato, rivolgergli uno smagliante sorriso malizioso, dare dei colpetti sulla sua
scrivania e chiedergli: "Che cosa tiene assieme le cose? Perché questa scrivania è marrone e solida, mentre
l'aria è trasparente e gassosa?". La vostra vittima avrebbe potuto dire qualcosa di piuttosto vago riguardo
agli atomi e alle loro disposizioni (5), ma alle vostre pressioni per una spiegazione migliore ne avreste
ricavato al massimo una risposta del tipo: "Chi lo sa? I fisici non possono ancora spiegare la materia!". Col
senno di poi è fin troppo facile fare queste considerazioni, e tuttavia, in un mondo fatto di materia ed abitato
da gente che utilizza utensili materiali, questa ignoranza sulla natura della materia era una lacuna nella
conoscenza umana che Michelson probabilmente doveva aver notato. Era una lacuna non nella "sesta cifra
decimale" ma nella prima.

Vale anche la pena osservare il contesto nel quale Michelson aveva ragione. Le leggi di cui parlava
includevano la legge di gravitazione di Newton e le leggi dell'elettromagnetismo di Maxwell. Ed infatti, sotto
certe condizioni, che in ingegneria sono piuttosto comuni, queste leggi sono state modificate solo "nella
sesta cifra decimale". Le leggi di Einstein su gravità e moto sono in stretto accordo con quelle di Newton
fatta eccezione per le situazioni in cui esistono condizioni estreme di attrazione gravitazionale e velocità; le
leggi dell'elettrodinamica quantistica di Feynman, Schwinger e Tomonaga, sono in stretto accordo con quelle
di Maxwell, fatta eccezione per le situazioni in cui esistono condizioni estreme di dimensioni ed energia.

Ulteriori rivoluzioni sono senza dubbio in agguato nei pressi dei confini di queste teorie. Ma pare che questi
siano lontani dal mondo delle cose viventi e delle macchine che costruiamo. La rivoluzione della relatività e
della meccanica quantistica ha cambiato la nostra conoscenza della materia e della energia, ma materia ed
energia stesse sono rimaste invariate - esse sono reali e non si interessano delle nostre teorie. I fisici
utilizzano ora un insieme unico di leggi per descrivere come interagiscano i nuclei atomici e gli elettroni negli
atomi, nelle molecole, nelle macchine molecolari, nelle cose viventi, nei pianeti e nelle stelle. Queste leggi
non sono ancora completamente generali; la ricerca per una teoria unificata di tutta la fisica continua. Ma
come afferma il fisico Stephen W. Hawking(6), "Al momento abbiamo un certo numero di leggi parziali che
governano il comportamento dell'universo sotto tutte le condizioni eccetto le più estreme". E per gli standard
ingegneristici, queste condizioni estreme, sono straordinariamente estreme.

98
I fisici annunciano con regolarità l'osservazione di nuove particelle fra i detriti prodotti da collisioni fra
particelle accelerate ad energie estreme, ma non potreste mai crearvi una scorta di queste nuove particelle
accumulandole in una scatola. E questo è un fatto molto importante da riconoscere, perché se una particella
non può essere conservata, non può servire come componente di una macchina stabile. Le scatole e il loro
contenuto sono fatte di elettroni e nuclei. A loro volta i nuclei sono composti da protoni e neutroni. Gli atomi
di idrogeno hanno un singolo protone nel loro nucleo; gli atomi di piombo hanno ottantadue protoni e oltre un
centinaio di neutroni. Un neutrone isolato si disintegra in pochi minuti. Sono note solo poche altre particelle
stabili(7): i fotoni, ossia le particelle della luce, sono utilizzabili e possono essere intrappolate per un certo
tempo; i neutrini sono quasi non rilevabili e non possono essere intrappolati. Queste particelle (fotoni esclusi)
hanno le loro corrispondenti antiparticelle. Tutte le altre particelle note si disintegrano in pochi milionesimi di
secondo o anche meno. Quindi, i soli blocchi di costruzione conosciuti per qualsiasi hardware sono elettroni
e nuclei (o, per speciali applicazioni molto sporadiche, le loro antiparticelle); questi blocchi di costruzione si
combinano in modo ordinario per formare atomi e molecole.

Tuttavia, a dispetto della potenza della fisica moderna, la nostra conoscenza presenta ancora ovvie lacune.
Il labile stato in cui si trova la teoria delle particelle elementari lascia incerti alcuni limiti. Potremmo trovare
nuove particelle stabili e "inscatolabili" come per esempio monopòli magnetici o quark liberi; se ciò avverrà,
queste particelle saranno senz'altro suscettibili di una utilizzazione. Ma non potremmo mai scoprire un nuovo
tipo di campo di forza con effetti su lunga distanza, o nuove forme di radiazione, poiché ciò appare
improbabile in modo via via crescente. Infine, alcuni nuovi modi di far scontrare fra loro delle particelle,
potrebbero migliorare la nostra capacità di convertire particelle note in altre particelle note.
Ma in generale, dell'hardware complesso richiede schemi di particelle stabili e complessi. Al di fuori di quello
che è l'ambiente di una stella collassata, ciò significa schemi di atomi che sono ben descritti dalla meccanica
quantistica relativistica. Le frontiere della fisica si sono mosse in avanti. Su un livello teorico, i fisici cercano
una descrizione unificata delle interazioni di tutte le possibili particelle, anche delle particelle dalla vita più
breve. Su un livello sperimentale, essi studiano gli schemi di detriti subatomici creati da collisioni di alta
energia negli acceleratori di particelle. Finché da una tale collisione non scaturisce nessuna nuova particella
stabile ed utilizzabile, e finché una tale particella non viene neanche scoperta fra i residui di qualche tumulto
cosmico del passato, gli atomi rimarranno gli unici blocchi di costruzione disponibili per dell'hardware stabile.
E l'ingegneria resterà un gioco giocato con pezzi già conosciuti in accordo a regole di gioco già conosciute.
Nuove particelle potrebbero al più aggiungere nuovi pezzi, non eliminare regole già esistenti.

I Limiti dell'Hardware
Il macchinario molecolare rappresenta davvero il capolinea del sentiero verso la miniaturizzazione? L'idea
che il macchinario molecolare potrebbe essere un passo verso un più piccolo "macchinario nucleare" appare
abbastanza naturale. Un giovane (uno studente del corso di laurea di economia alla Columbia University),
avendo sentito parlare della tecnologia molecolare e della sua capacità di manipolare atomi, concluse
immediatamente che la tecnologia molecolare potrebbe fare quasi qualsiasi cosa, anche agire a distanza su
delle bombe nucleari già lanciate in caduta libera, per trasformarle in innocui mattoni di piombo.

La tecnologia molecolare non può fare cose come questa. Trasformare plutonio in piombo (agendo a
distanza o meno) è qualcosa che è ben oltre portata della tecnologia molecolare, e per la stessa ragione per
cui trasformare il piombo in oro era ben oltre la portata della chimica nota ad un alchimista. Le forze
molecolari hanno poco effetto sui nuclei atomici. Il nucleo contiene oltre il 99,9 percento della massa di un
atomo ed occupa una parte su un milionesimo di miliardesimo del suo volume. A confronto del nucleo, il
resto di un atomo (una nuvola elettronica) è meno di una insignificante lanugine. Provare a modificare un
nucleo punzecchiandolo con una molecola(8) è persino più futile che provare a deformare ed appiattire un
cuscinetto a sfera d'acciaio rotolandovi contro una palla di zucchero filato. La tecnologia molecolare può
cambiare l'ordine e la disposizione degli atomi, ma non può raggiungere l'interno di un nucleo per cambiare il
tipo di atomo.

Le nanomacchine non possono essere di alcun aiuto per la costruzione di macchine di scala nucleare, e
tuttavia tali macchine potrebbero anche esistere. Per quel che appare non è affatto così, almeno sotto
qualsiasi condizione fra quelle che possiamo creare in un laboratorio. Le macchine devono avere un certo
numero di parti in stretto contatto, ma i nuclei, quando strettamente impacchettati assieme, si respingono
l'uno con l'altro con ferocia. Quando la scissione nucleare devastò Hiroshima, la maggior parte dell'energia
venne rilasciata dalla violenta repulsione elettrostatica fra i nuclei dei due frammenti appena separati della

99
bomba. La ben nota difficoltà di ottenere la fusione nucleare deriva dallo stesso problema di repulsione
nucleare.

Oltre alla scissione ed alla fusione, i nuclei possono essere in grado di emettere o assorbire vari tipi di
radiazione. In una tecnica comunemente impiegata, essi vengono fatti roteare in modi che sono portatori di
informazione utile, permettendo ai medici di prelevare immagini mediche basate sulla risonanza magnetica
nucleare. Ma tutti questi fenomeni si affidano solo alle proprietà di nuclei ben separati (9). I nuclei isolati
sono troppo semplici per funzionare come macchine o come circuiti elettronici. I nuclei possono essere
obbligati ad avvicinarsi l'uno all'altro, ma solo se sottoposti alle pressioni immense che si trovano in una
stella collassata. Fare dell'ingegneria in un tale ambiente presenterebbe delle difficoltà sostanziali (10),
persino se avessimo a disposizione nelle vicinanze una stella collassata.

Questo ci riporta alla questione di base. Che cosa potremmo compiere tramite una appropriata disposizione
di atomi? Alcuni limiti sembrano già chiari. I più forti materiali possibili avranno dieci volte la forza del più
forte fra i cavi di acciaio odierni (il materiale più forte per fabbricare un cavo sembra essere la carbina, una
forma di carbonio con atomi disposti in catene ordinate). Sembra inoltre che, in condizioni ordinarie di
pressione, le vibrazioni del calore possano distruggere la maggior parte dei solidi refrattari solo sotto
temperature che si aggirano attorno a quattromila gradi centigradi (circa cinquecento gradi in più della
temperatura che esiste sulla superficie solare).

Queste brute proprietà della materia - forza e resistenza al calore - non possono essere notevolmente
migliorate per mezzo di una complessa e più ordinata disposizione di atomi. La migliore disposizione,
probabilmente, sembra essere piuttosto semplice e regolare. Altri obiettivi piuttosto semplici includono le
capacità di trasmissione del calore, isolamento dal calore (11), trasmissione elettrica, trasmissione della
luce, riflessione della luce ed assorbimento della luce.

Per alcuni di questi obiettivi, i propositi di perfezione condurranno verso schemi di progettazione molto
semplici; per altri, condurranno verso problemi progettuali di complessità al di là di ogni speranza di
soluzione. La progettazione del miglior commutatore elettrico che sia possibile, per un suo utilizzo come
componente base di un computer, sarà enormemente più complessa. Infatti ciò che consideriamo "il miglior
commutatore possibile" dipende da molti fattori, inclusi i costi della materia, dell'energia, del tempo di
realizzazione, e del tipo di elaborazioni a cui è destinato il computer. In un progetto ingegneristico, ciò che
noi chiamiamo "il meglio" dipende da un numero elevatissimo di fattori, a loro volta dipendenti da molti
desideri umani mal definiti e mutevoli. Inoltre, anche dove "il meglio" sia ben definito, potrebbe non valer la
pena, a confronto dell'entità di miglioramento effettivamente ottenibile, affrontare il costo per la ricerca
dell'incremento di miglioramento ultimo possibile, ossia quello che distingue "il meglio" dal "semplicemente
eccellente". Tuttavia, possiamo ignorare tutti questi problemi riguardanti complessità e costi di progettazione,
quando ciò che ci interessa è solo considerare quali siano i limiti realmente esistenti.

Per definire un limite, si dovrebbe scegliere una direzione o una scala di qualità. Definendo come "la
migliore possibile" una certa direzione, esisterà di sicuro un "meglio" definitivo ed ultimo. Le disposizioni di
atomi determinano le proprietà dell'hardware, ed in accordo con la meccanica quantistica il numero delle
disposizioni possibili è finito - di certo persino più grande di un numero astronomicamente grande, e tuttavia
pur sempre non infinito. Ne segue matematicamente che, stabilito un chiaro obiettivo, alcune di queste
disposizioni potrebbero essere le migliori possibili o prossime alle migliori. Come accade negli scacchi, il
numero limitato di pezzi e di spazi limita il numero di disposizioni e quindi il numero delle possibilità. Ma sia
negli scacchi che nell'ingegneria, la varietà possibile all'interno di questi limiti è comunque potenzialmente
inesauribile.

La semplice conoscenza delle leggi della materia non è sufficiente a dirci dove siano esattamente i limiti.
Possiamo tuttavia affrontare la complessità di progettazione. La nostra conoscenza di dove risiedano certi
limiti resta incerta: "Noi sappiamo solo che i limiti sono fra qui (qualche passo indietro) e lì (quel punto vicino
all'orizzonte)". Gli assemblatori ci apriranno la strada verso i limiti, dovunque essi siano, e i sistemi di
ingegneria automatizzata accelereranno i progressi lungo la strada. Il meglio assoluto spesso si dimostrerà
essere elusivo, ma il secondo in classifica spesso sarà quasi altrettanto buono (12).
Mano a mano che ci avvicineremo ai limiti autentici, le nostre capacità smetteranno di crescere, via via in
sempre più aree della tecnologia. I progressi in questi campi non si arresteranno semplicemente per una
decade o un secolo, ma in maniera permanente.

Alcuni potrebbero esitare alla parola "permanente" pensando "Nessun miglioramento in mille anni? In un
milione di anni? Ma questa è una esagerazione!". E tuttavia, quando raggiungeremo i veri limiti fisici, non
andremo avanti ulteriormente. Le regole del gioco sono intrinseche alla struttura del vuoto, sono implicite

100
nella struttura dell'universo. Nessuna redisposizione di atomi, nessun cozzare di particelle, nessuna
legislazione o lamentela o sommossa sposterà i limiti naturali di un pizzico. Oggi potremmo anche non
valutare correttamente dove si trovino i limiti reali, ma è certo che essi resteranno dove sono.

Questo sguardo sulle leggi della natura mostra i limiti alla qualità delle cose. Ma noi incontriamo anche limiti
di quantità, limiti che sono imposti non solo dalle leggi della natura ma anche dal modo in cui materia ed
energia sono disposte nell'universo affinché siano più o meno a nostra disposizione. Gli autori de The Limits
to Growth, come hanno fatto anche molti altri, hanno tentato di descrivere questi limiti senza prima
esaminare i limiti imposti alla tecnologia. E ciò ha prodotto risultati equivoci.

Entropia: Un Limite all'Uso di Energia


Di recente, alcuni autori hanno descritto l'accumulazione del calore disperso ed il disordine come limiti ultimi
all'attività umana. In The Lean Years - Politics in the Age of Scarcity, Richard Barnet scrive (13): "È ironico
che la riscoperta dei limiti coincida con due delle più audaci conquiste tecnologiche della storia dell'umanità.
Una è l'ingegneria genetica, la visione fugace di un potere in grado di modellare l'autentica roba della vita.
L'altra è la colonizzazione dello spazio. Questi progressi alimentano fantasie di potere, ma non lacerano la
camicia di forza ecologica nota come 'Seconda Legge della Termodinamica': Un sempre più grande
consumo di energia produce una sempre più grande quantità di calore, che pur non scomparendo mai può
essere conteggiata come un costo permanente dell'energia. Poiché l'accumulazione di calore può causare
catastrofi ecologiche, questi costi limitano l'avventura umana nello spazio, come limitano con altrettanta
certezza quella sulla Terra". Jeremy Rifkin (con Ted Howard) ha scritto un intero libro (14) sui limiti
termodinamici e sul futuro dell'umanità, intitolato Entropy: A New World View.

L'entropia è una misura scientifica standard del calore disperso e del grado di disordine. Dovunque una
attività consumi energia utilizzabile, essa produce entropia; l'entropia del mondo perciò cresce
costantemente ed irreversibilmente. Alla fine, la dissipazione di energia utilizzabile distruggerà le basi della
vita. Come dice Rifkin, questa idea potrebbe sembrare troppo deprimente per pensarci, ma egli afferma che
dovremmo affrontare le implicazioni terribili dell'entropia, e le conseguenze sull'umanità e la Terra. Ma
queste implicazioni sono davvero così terribili?

Barnet scrive che l'accumulo di calore è un costo energetico permanente che limita l'attività umana. Rifkin
afferma che "l'inquinamento è la somma totale di tutta l'energia disponibile nel mondo che è stata
trasformata in energia non disponibile". Questa energia non disponibile è principalmente in forma di calore
disperso e di bassa temperatura; quel tipo di calore che fa scaldare un apparecchio televisivo in funzione.
Ma questo calore si accumula realmente come teme Barnet? Se fosse così, la Terra dovrebbe crescere
costantemente in temperatura, divenendo più calda minuto dopo minuto ed anno dopo anno. In questo
momento dovremmo stare arrostendo, a meno che i nostri antenati non avessero l'aspetto di solidi congelati.
In qualche modo, tuttavia, i continenti si comportano in modo da diventare freddi durante la notte, ed ancora
più freddi durante l'inverno. Durante le epoche glaciali, persino l'intera Terra si è raffreddata.

Rifkin affonda un'altra stilettata. Afferma che "l'erosione costante di materia terrestre fa sì che la crosta
terrestre vada costantemente assottigliandosi. Le montagne vengono livellate ed i suoli spazzati via ogni
secondo che passa". Dicendo "spazzati via" Rifkin non intende scagliati via nello spazio o spazzati via
dall'esistenza; egli intende semplicemente che gli atomi delle montagne e dei suoli vengono a disporsi alla
rinfusa con tutti gli altri atomi della Terra. Ciò nonostante, sempre stando alle sue affermazioni, questo
processo conduce verso la nostra rovina. Il rimescolamento degli atomi trasforma questi in "materia non
disponibile" in conseguenza della "quarta legge della termodinamica" avanzata dal'economista Nicholas
Georgescu-Roegen: "In un sistema chiuso, l'entropia materiale deve infine raggiungere un massimo", o
(equivalentemente) "La materia non disponibile non può essere riciclata". Rifkin afferma che la Terra è un
sistema chiuso, che scambia energia ma non materia con il suo ambiente spaziale circostante, per cui "qui
sulla terra l'entropia materiale è costantemente in incremento e dovrà infine raggiungere un massimo",
mettendo in difficoltà la vita terrestre e portandola alla morte.

Una situazione davvero sinistra: la Terra si è degenerata per miliardi di anni. Sicuramente la fine deve
essere vicina!

Ma tutto questo può realmente esser vero? Lo sviluppo della vita ha portato maggior ordine sulla Terra, non
meno; la formazione dei depositi di minerali grezzi ha fatto la stessa cosa. L'idea che la Terra sia andata
degenerando sembra, come minimo, peculiare (ma in proposito, Rifkin pensa all'evoluzione come ad una

101
nicchia temporanea). D'altro canto, poiché materia ed energia sono essenzialmente la stessa cosa, come
può in primo luogo questa unica cosa essere soggetta ad una legge valida che sappia distinguere la sola
cosiddetta "entropia materiale"?

Rifkin presenta il caso di una bottiglia, che diffonda profumo nell'aria di una stanza circostante, come un
esempio di "dissipazione di materia", ossia di entropia materiale in crescita - di materia che diventa
"indisponibile". La diffusione di sale in acqua all'interno di una bottiglia è un altro esempio rappresentativo.
Prendiamo in considerazione, allora, una verifica sperimentale della "quarta legge della termodinamica"
condotta in un esperimento che potremmo chiamare "l'Esperimento della Bottiglia Acqua-Sale".

Immaginiamo una bottiglia avente sul fondo una parete di partizione, che divide il fondo in due bacini. In uno
c'è del sale, e nell'altro c'è dell'acqua. Un tappo di sughero sigilla il collo della bottiglia: ciò chiude il sistema,
rendendo applicabile ad esso la cosiddetta quarta legge della termodinamica. Il contenuto della bottiglia è in
uno stato organizzato: quindi la sua entropia materiale non è al massimo - ancora.

Ora prendiamo la bottiglia ed incliniamola. Se l'acqua, dal suo bacino, passa anche all'altro bacino, e se si
agita la bottiglia facendola ruotare, si ottiene che l'acqua dissolve il sale e l'entropia cresce furiosamente! In
un tale sistema chiuso, la " quarta legge della termodinamica" afferma che questo incremento della entropia
materiale dovrebbe essere permanente. Tutti gli allarmi di Rifkin riguardo la stagnazione e l'inevitabile
incremento dell'entropia della Terra si basano su questo principio.

Per vedere se c'è qualche base di fondatezza per la nuova visione del modo di Rifkin, incliniamo la bottiglia
per far fluire tutta l'acqua salata in uno solo dei due bacini. Questo non dovrebbe fare nessuna differenza
perché il sistema resta comunque un sistema chiuso. Mettiamo ora dritta la bottiglia, esponendo alla luce del
sole il lato con l'acqua salata, e all'ombra il lato vuoto. La luce splende e il calore trapela dentro, ma il
sistema resta chiuso come la stessa Terra. Ma, osservate, la luce solare fa evaporare l'acqua, ed essa si
condensa nel bacino vuoto! Acqua pura che, lentamente, riempie il bacino vuoto, lasciandosi dietro il sale.
Rifkin stesso afferma che "nella scienza, una sola intransigente eccezione è sufficiente ad invalidare una
legge". E questo esperimento mentale, che imita il modo in cui i depositi naturali di sale si sono formati sulla
Terra, invalida la legge sulla quale egli basa il suo intero libro. Le piante si comportano analogamente. La
luce solare ci porta energia dallo spazio; il calore che viene nuovamente irradiato indietro, verso lo spazio,
porta via entropia (della quale ne esiste un solo tipo). Perciò, l'entropia può decrescere in un sistema chiuso
ed i fiori possono sbocciare sulla Terra epoca dopo epoca.

Rifkin parla correttamente quando dice che "è possibile invertire il processo dell'entropia in un luogo e su un
periodo di tempo circoscritti, ma solo consumando energia e quindi incrementando l'entropia complessiva
dell'ambiente". Ma sia Rifkin che Barnet incorrono nello stesso equivoco: quando dicono "ambiente", essi
intendono la "Terra" - ma la legge si applica all'ambiente nella sua totalità, e questa totalità è l'universo. In
effetti Rifkin e Barnet non considerano sia la luce del Sole che il freddo buio del cielo notturno.
Secondo lo stesso Rifkin, la sua idea distrugge la nozione della storia intesa come un progresso,
trascendendo il comune punto di vista moderno sul mondo. Egli richiama al sacrificio, affermando che
"nessuna nazione del Terzo Mondo potrà nutrire speranze di conquistare l'abbondanza materiale che esiste
in America". Egli teme panico e spargimenti di sangue. Rifkin conclude informandoci che "la Legge
dell'Entropia risponde alla questione centrale che ogni cultura lungo l'intera storia si è posta: Come
dovrebbero comportarsi gli esseri umani nel mondo?". La sua risposta? "L'imperativo morale ultimo, quindi, è
di sprecare quanta meno energia sia possibile"(15).

Ciò sembrerebbe significare che dovremmo risparmiare quanta più energia è possibile, cercando di
eliminare gli sprechi. Ma qual'è il più grande spreco di energia che ci sia nelle nostre vicinanze? Il Sole,
ovviamente: esso spreca energia milioni di miliardi di volte più velocemente di quanto fanno gli uomini. Se
fosse preso sul serio, l'imperativo morale ultimo di Rifkin suonerebbe come l'ordine urgente: "Spegnete il
Sole!".

Questa sciocca conseguenza avrebbe dovuto stroncare il credito che è stato prestato a Rifkin. Egli, come
molti altri, hanno visioni del mondo che hanno il sapore di arroganza pre-Copernicana.: essi presumono che
la Terra sia l'intero mondo e che quello che la gente fa sia automaticamente di importanza cosmica.
Esiste realmente una autentica legge dell'entropia, ovviamente: la seconda legge della termodinamica. A
differenza della contraffatta "quarta legge", essa è descritta in tutti i libri di testo ed utilizzata dagli ingegneri
nel loro lavoro di progettazione. Essa effettivamente limita quello che possiamo fare. L'attività umana genera
calore, e la limitata capacità della Terra di irradiare calore impone un limite fermo alla quantità di attività
industriale che è possibile svolgere sulla Terra. Allo stesso modo, abbiamo anche bisogno di pannelli simili
ad ali per irradiare via il calore di risulta, generato dalle attività delle nostre navi spaziali. Alla fine, la legge

102
dell'entropia - al termine di un periodo di tempo immensamente esteso - condurrà al degrado irreversibile
dell'universo come lo conosciamo oggi, e ciò pone dei limiti alla massima estensione temporale della vita, ed
alla vita stessa.

Ma perché flagellare la carcassa del libro Entropy di Rifkin? Semplicemente perché il sistema di
informazione odierno presenta spesso persino delle idee nate morte come fossero vive. Incoraggiando false
speranze o false paure e guidando l'azione in direzioni sbagliate, queste idee possono inficiare gli sforzi
della gente attivamente preoccupata dei problemi mondiali di ampio respiro.

Fra le persone i cui elogi sono apparsi sulla quarta di copertina del libro di Rifkin ("un lavoro ispirato"
"brillante lavoro" "di importanza fondamentale" "dovrebbe essere preso a cuore ") ci sono anche un
professore di Princeton, un ospite di talk-show televisivi, e due senatori degli Stati Uniti. Un seminario al MIT
("The Finite Earth: World Views for a Sustainable Future - La terra Limitata: Scenari Mondiali per un Futuro
Sostenibile") glorificava il libro di Rifkin.

Tutti i promotori del seminario provenivano da dipartimenti non tecnici. Nella nostra società tecnologica, la
maggior parte dei senatori mancano di formazione tecnologica, così pure come la maggior parte dei
professori e degli ospiti di talk-show. Georgescu-Roegen stesso, l'inventore della "quarta legge della
termodinamica", possiede ampie credenziali - ma solo come sociologo.

La minaccia dell'entropia è un esempio di lampante non-senso, e tuttavia i suoi inventori e sostenitori non
vengono derisi sulla pubblica scena. Immaginate un migliaio, un milione di distorsioni analoghe, alcune
sottili, alcune sfacciate, ma tutte che deformano la comprensione pubblica del mondo. Immaginate ora un
gruppo di nazioni democratiche che soffra di una infestazione di memi di questo tipo mentre tenta di
adeguarsi ad un'epoca di rivoluzione tecnologica dal ritmo in accelerazione. Abbiamo quindi un problema
reale. Per rendere più probabile la nostra sopravvivenza, abbiamo bisogno di modi migliori di estirpare i
nostri memi, di fare spazio perché si sviluppi una comprensione sensata. Nei capitolo 13 e 14 riporterò due
proposte di come si potrebbe fare proprio questo.

I Limiti delle Risorse


Una legge di Natura limita la qualità della tecnologia, ma nell'ambito di questi limiti useremo gli
assemblatori-replicatori per produrre navi spaziali di prim'ordine. Con queste, apriremo l'accesso allo spazio
in ampiezza e profondità.

La Terra odierna ha cominciato a sembrare piccola, ridestando preoccupazioni legate al timore che
potremmo esaurire le sue risorse. Tuttavia, l'energia totale che usiamo è meno di una parte su diecimila
rispetto a quella con cui il sole inonda la Terra; non ci preoccupiamo quindi del rifornimento di energia in
quanto tale, ma del rifornimento di energia in forme convenienti come gas e petrolio. Le nostre miniere a
malapena scalfiscono la superficie del globo; non ci preoccupiamo della semplice quantità di risorse, ma
della loro convenienza e costo. Quando svilupperemo nanomacchine non inquinanti per raccogliere energia
solare e risorse dalla Terra, la Terra stessa sarà in grado di sostenere una civiltà di gran lunga più grande e
benestante di qualsiasi altra vista prima d'ora, e tuttavia allo stesso tempo soffrirà meno danno di quello che
le infliggiamo oggi. Il potenziale della Terra fa apparire insignificanti, al confronto, le risorse che usiamo
attualmente.

Eppure, la terra non è che un granello. I detriti asteroidali lasciati dalla formazione dei pianeti forniranno
materiali sufficienti per costruire mille volte l'area della terraferma Terrestre. Il Sole inonda il sistema solare
con un miliardo di volte la potenza che raggiunge la sola Terra. Le risorse del sistema solare sono realmente
immense, e l'utilizzo delle risorse della Terra apparirà insignificante, al confronto.

Eppure, il sistema solare non è che un granello. Le stelle che affollano il cielo notturno sono dei soli, e
l'occhio umano può vedere solo quelli più vicini. La nostra galassia contiene cento miliardi di soli, e molti
senza dubbio riversano la loro luce su pianeti morti e asteroidi in attesa di venire a contatto con la vita. Le
risorse della nostra galassia possono far apparire persino il sistema solare insignificante, al confronto.

Eppure, la nostra galassia non è che un granello. Luci più antiche di quanto siano antiche le nostre specie ci
mostrano galassie al di la della nostra. L'universo visibile contiene cento miliardi di galassie, ognuna con uno
sciame di miliardi di soli. Le risorse dell'universo visibile fanno apparire persino la nostra galassia
insignificante, al confronto.

103
E con ciò, raggiungiamo i limiti quanto meno di ciò che ci è noto, se non proprio i limiti delle risorse. Il
sistema solare sembra comunque sufficiente a rispondere alla limitatezza delle risorse della Terra, e se il
resto dell'universo restasse non rivendicato da nessun altro, la nostra prospettiva per l'espansione sarebbe
sufficiente per far girare la testa più di una volta. Ciò significa che gli assemblatori-replicatori e il volo
spaziale economico metteranno fine alle nostre preoccupazioni per le risorse?

In un certo senso, schiudere l'accesso allo spazio polverizzerà i nostri limiti alla crescita, poiché di fatto non
conosciamo fine all'universo. Nonostante questo, Malthus era essenzialmente nel giusto.

Malthus
Nel suo saggio del 1798 sui Principi Demografici (Essay on the Principle of Population), Thomas Robert
Malthus, un ecclesiastico inglese, presentava l'antenato di tutti gli odierni argomenti riguardanti i limiti allo
sviluppo. Egli notò che il libero incremento demografico tendeva periodicamente verso un raddoppio della
popolazione, e quindi la popolazione seguiva un ritmo di espansione numerica di tipo esponenziale. Tutto ciò
è sensato: poiché tutti gli organismi discendono da replicatori di successo, essi tendono a replicarsi ogni
qualvolta viene data loro la possibilità di farlo. Per semplificare le sue argomentazioni, Malthus partì
dall'assunto che le risorse - ossia le disponibilità di cibo - potessero incrementarsi ogni anno solo di una
certa quantità fissata e costante (un processo denominato espansione numerica lineare, poiché il suo grafico
corrisponde ad una linea). Poiché i matematici dimostrano che qualsiasi crescita di tipo esponenziale,
comunque fissato sia il suo ritmo di incremento, riesce infine a raggiungere e a superare una crescita lineare
dal ritmo comunque fissato, Malthus concluse che lo sviluppo della popolazione, se non tenuto sotto
controllo, avrebbe infine esuberato la produzione di cibo.

Gli autori hanno ripetuto variazioni di questa idea fin da allora, persino in libri come The Population Bomb e
Famine - entrambi del 1975! - e tuttavia la produzione di cibo riesce ancora a tenere il passo con il ritmo di
crescita della popolazione. Africa a parte, anzi, la produzione di cibo è spesso in esubero. Dove ha sbagliato
Malthus?

Nel fondamento della sua idea egli non ha realmente sbagliato: lo ha fatto principalmente sui dettagli e nelle
sue considerazioni riguardanti i tempi. La crescita demografica sulla Terra deve effettivamente affrontare dei
limiti, poiché la Terra e spazialmente limitata e tale resta sia per le attività agricole che per qualsiasi altra
attività. Malthus ha fallito nel prevedere quando i limiti inizieranno a pungolarci, principalmente perché ha
fallito nel prevedere anticipatamente i progressi nella tecnologia agricola, dai raccolti di prodotti modificati
geneticamente ai fertilizzanti.

Alcuni adesso fanno notare che la crescita esponenziale supererà la scorta fissata di risorse della Terra
(16), un argomento più semplice di quello avanzato da Malthus. Sebbene le tecnologie spaziali possono
infrangere questi limiti, esse non spazzeranno via tutti i limiti. Anche se l'universo fosse infinitamente esteso,
noi non potremmo tuttavia viaggiare infinitamente veloci. Le leggi della natura limitano il ritmo dello sviluppo:
la vita proveniente dalla Terra non potrà diffondersi più veloce della luce.

Una espansione a ritmo costante aprirà invece nuove risorse con un ritmo che cresce mano a mano che la
frontiera spaziale si sposta in profondità e si allarga in estensione. E questo non equivale ad una crescita
lineare ma cubica. E tuttavia Malthus aveva sostanzialmente ragione: la crescita esponenziale sorpasserà la
crescita cubica con la stessa facilità con cui sorpasserebbe una crescita lineare. I calcoli mostrano che una
incontrollata crescita demografica, sia essa accompagnata o meno dall'esistenza di una indefinita longevità,
surclasserebbe la disponibilità di risorse all'incirca entro uno o due millenni, al massimo. La possibilità di una
crescita esponenziale illimitata resta quindi una fantasia, persino nello spazio.

Qualcuno Potrebbe Fermarci?


Altre civiltà si sono già impadronite delle risorse dell'universo? Se così fosse, questa circostanza
rappresenterebbe un limite allo sviluppo. I fatti riguardanti l'evoluzione e i limiti tecnologici ci aiutano a
gettare qualche utile luce sulla questione.

Poiché molti sistemi stellari di tipo solare sono vecchi di molte centinaia di milioni di anni più del nostro
sistema solare, alcune civiltà (ammesso che ne esistano in numero sostanziale) dovrebbero essere molte
centinaia di milioni di anni più avanti della nostra. Ci dovremmo perciò aspettare che qualcuna di queste

104
civiltà abbia fatto quel che tutti sanno che la vita fa: diffondersi quanto più lontano possibile. La terra non è
verde solo negli oceani in cui la vita ha avuto inizio ma anche sulle spiagge, sulle colline, e sulle montagne.
Le piante verdi si sono sviluppate anche nelle stazioni in orbita; se prospereremo, le piante della Terra si
diffonderanno verso le stelle. Gli organismi si diffondono quanto più lontano possono farlo, dopo di che si
diffondono ancora un tantino più lontano. I colonizzatori diretti in America navigarono ed affondarono,
sbarcarono e soffrirono la fame, ma alcuni sopravvissero per fondare nuove nazioni. Gli organismi sono
soggetti, in qualsiasi posto si trovino, alle pressioni descritte da Malthus, perché essi si sono evoluti per
sopravvivere e diffondere geni e memi, entrambi impegnati a spingere nella stessa direzione. Se esistono
delle civiltà extraterrestri, e se anche una piccola frazione di queste si è comportata come ha fatto la vita
sulla Terra, esse dovrebbero oramai già essersi sparse nello spazio.

Al pari della nostra civiltà, esse dovrebbero tendere ad evolvere tecnologie che si avvicinino verso i limiti
imposti dalle leggi di natura. Vorrebbero imparare come viaggiare a velocità vicine a quelle della luce, e la
competizione o la pura curiosità dovrebbero spingere alcune di esse a farlo. Infatti, solo delle società
altamente organizzate e altamente stabili potrebbero riuscire a reprimere talmente bene la pressione
competitiva da evitare una espansione esplosiva a velocità prossime a quelle della luce (17). Inoltre, dopo
centinaia di milioni di anni, le civiltà che si sono diffuse di più dovrebbero oramai essersi diffuse quanto basta
per incontrare ognuna delle eventuali altre, e per spartirsi l'intero spazio con queste.

Se queste civiltà sono davvero dappertutto, allora hanno dimostrato grande riserbo e si sono ben nascoste.
Esse dovrebbero aver avuto il controllo delle risorse dell'intera galassia per molti milioni di anni, ed aver
fronteggiato i limiti allo sviluppo su scala cosmica. Una civiltà avanzata e stretta dai suoi limiti ecologici,
quasi per stessa definizione, non dovrebbe far spreco ne di materia che di energia. Tuttavia noi vediamo
sprechi di questo tipo in qualsiasi direzione, tanto lontano quanto riusciamo a guardare nelle spirali delle
galassie: i loro bracci a spirale contengono nuvole di polvere che rappresenta lo spreco di materia, la quale è
illuminata da luce di stelle altrettanto sprecata.

Se civiltà così avanzate sono esistite, adesso il nostro sistema solare dovrebbe ricadere nello spazio di
dominio di una di esse. E se così fosse, dovremmo necessariamente stare al loro gioco - non potremmo far
nulla per minacciarle, e loro potrebbero studiarci a loro piacimento, con o senza la nostra cooperazione. Se
esse avanzassero una precisa pretesa, la gente di buon senso dovrebbe ascoltarle. Ma se esse esistono
davvero, allora devono essersi ben nascoste - e dovrebbero mantenere segreti i loro progetti riguardanti la
Terra.

L'idea che l'umanità sia sola nell'universo visibile è consistente con quello che possiamo vedere nel cielo, e
con ciò che conosciamo sull'origine della vita. Nessuna ritrosia degli alieni è necessaria per spiegare i fatti.
Alcuni dicono che siccome ci sono così tante stelle, fra esse devono sicuramente esistere altre civiltà. Ma ci
sono molte meno stelle nell'universo visibile di quante molecole ci siano in un bicchiere d'acqua. Ed
esattamente come un bicchiere d'acqua non necessariamente contiene ogni possibile elemento o composto
chimico (anche se si trattasse del liquame di scarto fuoriuscito da qualche impianto chimico) (18), così le
altre stelle non necessariamente ospitano altre civiltà.

Sappiamo che la competizione fra replicatori tende a diffondere i replicatori fino ai loro limiti ecologici e che
tuttavia, ovunque lungo tutto l'universo, le risorse restano tuttora inutilizzate. Non abbiamo ricevuto nessun
commiato dalle stelle, e apparentemente non abbiamo alcun guardiano dello zoo a guardia degli umani,
neanche uno particolarmente tollerante. Potrebbe non esserci nessuno lassù. E se essi non esistono, non
abbiamo bisogno di prendere in considerazione i loro piani. Se invece esistono, dovremmo abbandonare i
nostri piani assecondando i loro imperscrutabili desideri, e non sembra esserci alcun modo per preparasi
adeguatamente a questa eventualità. Per cui, per ora e forse per sempre, possiamo tranquillamente fare
progetti sul nostro futuro senza preoccuparci dei limiti eventualmente imposti da altre civiltà.

Sviluppo nell'Ambito dei Limiti


Che ci sia o meno qualcun altro là fuori, noi ormai siamo sulla sua strada. Lo spazio ci attende, con le sue
aride rocce e la sua luce solare, simili alle aride rocce e alla luce solare dei continenti della Terra di miliardi
di anni fa, prima che la vita strisciasse fuori dai mari. I nostri ingegneri stanno evolvendo memi che ci aiutano
a creare raffinate navi ed insediamenti spaziali: colonizzeremo agevolmente le terre del sistema solare. E più
in là del ricco sistema solare interno c'è la nuvola cometaria - un vasto terreno di coltura che si assottiglia
man mano che si allontana verso lo spazio interstellare, e si inspessisce nuovamente giungendo attorno ad
altri sistemi stellari, con nuovi soli e sterile roccia che attendono il tocco della vita.

105
Nonostante una interminabile crescita esponenziale resti una fantasia, la diffusione della vita e della civiltà
non deve affrontare alcun confine già nettamente stabilito. L'espansione procederà, se sopravviveremo,
perché siamo parte di un sistema vivente e perché la vita ha la tendenza a diffondersi. I pionieri si
sposteranno verso l'esterno in un numero infinito di mondi. Altri resteranno indietro, costruendo insediamenti
delle loro culture in tutte le oasi dello spazio. In ogni insediamento, verrà il tempo in cui la frontiera si
allontanerà da lì per spostarsi più lontano, ed in seguito ancora più lontano. Per la maggior parte del nostro
futuro, la maggior parte della gente e i loro discendenti convivranno con l'esistenza di limiti alla crescita.

I limiti alla crescita possono piacerci o meno, ma la loro reale esistenza è indipendente dai nostri desideri.
Esistono dei limiti per qualsiasi meta chiaramente definita che ci si proponga.

Ma sulle frontiere, dove gli standard sono in costante cambiamento, questa idea dei limiti diventa irrilevante.
Nell'arte o nella matematica il valore di un lavoro dipende da standard molto complessi, soggetti a dispute e
a cambiamenti. Uno di questi standard è la novità, e questa non può mai esaurirsi. Dove gli obiettivi cambino
e la complessità sia dominante, i limiti non rappresentano necessariamente un vincolo. In campi e attività
come la creazione di una sinfonia o di una canzone, la pittura o le mondanità, il software o i teoremi, i film o
altre delizie ancora mai immaginate, sembra non esserci mai fine. Le nuove tecnologie alimenteranno nuove
arti, e nuove arti porteranno a nuovi standard.

Il mondo della materia bruta offre spazio per un grande sviluppo, pur nell'ambito di limiti. Il mondo della
mente e degli schemi, tuttavia, ha spazio per un'evoluzione e una trasformazione praticamente senza fine. Il
"possibile" sembra quindi essere sufficientemente spazioso.

Uno Sguardo ai Limiti


L'idea che i grandi progressi restino comunque vincolati da limiti ben fermi, non si è evoluta per farci
piacere, ma per essere accurata. I limiti tracciano le possibilità, ed alcune potrebbero essere sgradevoli o
terrificanti. Abbiamo bisogno di prepararci per i passi avanti tecnologici che sono innanzi a noi, nonostante
molti studiosi del futuro pretendano di poter affermare che non si verificherà alcun passo avanti.

Questa scuola di pensiero è associata con il libro The Limits to Growth (I Limiti dello Sviluppo) (19),
pubblicato come rapporto del Club di Roma. Il professor Mihajlo D. Mesarovic in seguito è stato co-autore
del libro Mankind at the Turning Point (Umanità al Punto di Svolta) (20), pubblicato come il secondo rapporto
del Club di Roma. Il professor Mesarovic attualmente sviluppa modelli al computer analoghi ai modelli
utilizzati in "The Limits to Growth" - ognuno dei quali è composto da un insieme di numeri ed equazioni
intese per descrivere le future trasformazioni su scala mondiale di popolazione, economia ed ambiente.
Nella primavera del 1981, egli ha visitato il MIT per partecipare a "The Finite Earth: Worldviews for a
Sustainable Future", ossia lo stesso seminario che ha elogiato "Entropy", il libro di Rifkin. In quella occasione
egli ha descritto un modello inteso per dare una descrizione grossolana del prossimo secolo. Quando gli è
stato chiesto se lui, o qualche altro dei suoi colleghi, avesse preso in considerazione un qualche progresso
drastico per il futuro descritto, per esempio un progresso d'entità comparabile a quello dell'industria
petrolifera, dell'aeronautica, dell'automobile, dell'energia elettrica o dei computer - e perché no, magari
anche di sistemi robotici auto-replicanti o economici sistemi di trasporto spaziale? - egli ha risposto in modo
diretto: "No!".

Alcuni modelli del futuro sono, inequivocabilmente, descrizioni di bancarotte. Eppure alcune persone
sembrano desiderose - addirittura bramose - di credere che i passi avanti tecnologici cesseranno
improvvisamente, e che una corsa tecnologica globale che ha accumulato slancio per secoli, nell'immediato
futuro dovrà frenare bruscamente fino ad arrestarsi.

L'abitudine di trascurare o negare la possibilità di progressi tecnologici è un problema comune. Alcune


persone credono in certi confortevoli limiti perché hanno ascoltato persone rispettabili snocciolare
argomentazioni apparentemente plausibili a sostegno di questa tesi. E tuttavia sembra che alcune persone
reagiscano più ai loro desideri che ai fatti, persino dopo questo secolo di progresso in continua
accelerazione. I limiti confortevoli semplificano la nostra visione del futuro, rendendo più facile la sua
comprensione e consentendoci di riflettere su di essa sentendoci più a nostro agio. La credulità di una
persona nei confronti dei limiti confortevoli è indicativa anche della sua tendenza verso una certa
preoccupazione e senso di responsabilità. Dopotutto, se le forze naturali arresteranno la corsa tecnologica in
modo conveniente ed automatico, allora non dovremmo preoccuparci di provare a comprendere e
controllare questa corsa.

106
Ancor più paradossalmente, questo escapismo non viene avvertito come tale. La contemplazione di visioni
di declino globale dovrebbe produrre la sensazione di non potersi tirare indietro di fronte alla inevitabilità di
dover affrontare circostanze ardue. E invece, una tale visione del futuro non sembra essere nulla di
sostanzialmente nuovo: ci obbliga semplicemente a rassegnarci a vivere le ben note miserie dell'Europa del
passato o del Terzo Mondo del presente. Per affrontare la realtà è necessario un coraggio autentico, il
coraggio di affrontare l'accelerazione del cambiamento in un mondo che non ha nessun freno automatico. E
ciò costituisce una sfida intellettuale, morale e politica di grande sostanza.

Gli avvertimenti riguardanti i falsi limiti producono un danno doppio. Da una parte discreditano la percezione
dei limiti reali, spuntando un utensile intellettuale indispensabile alla comprensione efficace del nostro futuro.
Ma dall'altra, peggio ancora, questi allarmi distolgono l'attenzione dai nostri problemi autentici. Nel mondo
occidentale c'è una vivida tradizione politica che alimenta la diffidenza verso la tecnologia. Estendere un
atteggiamento che in primo luogo disciplina lo scetticismo per mezzo della verifica sperimentale della
tecnologia, confrontandola con realtà effettiva e quindi scegliendo strategie funzionanti per guidare il
cambiamento, può contribuire fortemente alla sopravvivenza della vita e della civiltà. Ma l'insieme di persone
preoccupate della tecnologia e del futuro è una risorsa limitata. Il mondo non può permettersi il lusso di
disperdere i propri sforzi in futili campagne per spazzare indietro la marea globale della tecnologia con la
stretta ramazza dei movimenti occidentali di protesta. I problemi all'orizzonte richiedono strategie molto più
raffinate.

Nessuno può tuttavia dire per certo quali problemi si dimostreranno essere i più importanti, o quali strategie
si dimostreranno essere le migliori per risolverli. Tuttavia, possiamo già vedere nuovi problemi di grande
importanza, e possiamo selezionare strategie che paiono promettenti in misura variabile. In breve, possiamo
vedere il futuro quanto basta per individuare gli obiettivi che vale la pena di perseguire.

107
Parte Terza: PERICOLI E SPERANZE

Capitolo 11: Motori di distruzione


Non vi è alcun dubbio che l'esercito più formidabile mai visto sulla terra sia quello composto da una sorta di
soldati che, per la loro minuscola dimensione, non sono visibili.
Sir WILLIAM PERRY, parlando dei microbi, 1640

Gli assemblatori-replicatori e le macchine pensanti pongono minacce basilari alla vita sulla Terra. Gli
organismi odierni hanno capacità ben lontane dai limiti del possibile, e le nostre macchine stanno evolvendo
molto più velocemente di quanto stiamo facendo noi stessi. Appare probabile che nell'arco di poche decadi
possano sorpassarci. Se non impareremo a convivere in sicurezza con esse, il nostro futuro sarà tanto
eccitante quanto breve. Non possiamo sperare di intuire in anticipo tutti i problemi, ma rivolgendo la nostra
attenzione verso le questioni più grandi e più basilari, possiamo forse prevedere le sfide più ardue e ricavare
qualche idea su come affrontarle.

Di certo verranno scritti libri interi sugli sconvolgimenti sociali in arrivo: Cosa succederà all'ordine globale
quando gli assemblatori e l'ingegneria automatica elimineranno la necessità del commercio internazionale?
Come cambierà la società quando gli individui potranno vivere indefinitamente? Cosa faremo quando gli
assemblatori-replicatori potranno costruire qualsiasi cosa, o quasi, senza necessità di lavoro umano? Cosa
faremo quando i sistemi di IA potranno pensare più velocemente degli umani? (E prima di saltare alla
conclusione che la gente dovrà perdere ogni speranza di poter creare o fare una qualsiasi cosa, gli autori di
questi libri potrebbero prendere in esame il modo in cui i corridori considerano le automobili, o quello in cui i
pittori considerano le macchine fotografiche.)

Di fatto diversi autori hanno già previsto e discusso alcune di queste problematiche. Ognuna di esse è una
questione di importanza straordinaria, ma la più fondamentale di tutte è la questione della sopravvivenza
della vita e della libertà. Dopotutto, se la vita o la libertà verranno annientate, allora le nostre idee sui
problemi sociali non avranno più alcuna importanza.

La Minaccia delle Macchine


Nel Capitolo 4, ho descritto alcune delle cose che gli assemblatori-replicatori faranno per noi, se li
utilizzeremo propriamente. Alimentati da carburanti o dalla luce solare, essi saranno in grado di fabbricare
quasi qualunque cosa (incluse altre copie di se stessi) a partire da materiali comuni.
Anche gli organismi viventi sono alimentati da carburanti o dalla luce del sole, ed anche loro possono creare
copie di se stessi a partire da materiali ordinari. Ma a differenza dei sistemi basati sugli assemblatori, non
possono costruire "quasi qualunque cosa".

L'evoluzione genetica ha limitato la vita a restare vincolata a sistemi basati su DNA, RNA e ribosomi, ma
l'evoluzione "memetica" condurrà verso macchine simili a quelle viventi, basate su nanocomputer ed
assemblatori. Ho già descritto in che modo le macchine molecolari costruite dagli assemblatori saranno
differenti dal macchinario molecolare della vita costruito dai ribosomi. Gli assemblatori saranno in grado di
costruire tutto quello che i ribosomi possono costruire, e molto altro ancora; i replicatori basati sugli
assemblatori saranno quindi in grado di fare tutto quello che la vita può fare, ed altro ancora. E ciò, da un
punto di vista evolutivo, pone una ovvia minaccia alle lontre, alle persone, ai cactus ed alle felci - alla
intricata tessitura della biosfera ed a tutto quello che apprezziamo.

I primi computer transistorizzati vinsero ben presto la sfida contro i più avanzati fra i computer a valvole,
perché erano basati su dispositivi tecnicamente superiori. Per la stessa ragione anche i più rozzi fra i primi
replicatori basati sugli assemblatori potranno vincere sui più avanzati organismi moderni. "Piante" con
"foglie" non più efficienti delle odierne celle solari potranno adeguatamente competere con piante reali,
affollando la biosfera di un immangiabile fogliame. "Batteri" resistenti ed onnivori potrebbero competere
nell'ambiente contro batteri reali: essi potrebbero diffondersi come soffi di polline, replicarsi rapidamente, e
ridurre la biosfera in polvere nell'arco di giorni. Replicatori pericolosi potrebbero facilmente essere troppo
resistenti, troppo piccoli, e di diffusione troppo rapida perché li si possa arrestare - per lo meno se non ci
prepareremo in alcun modo. Abbiamo già abbastanza problemi a controllare i virus o i moscerini della frutta
(1).

108
Fra le persone consapevoli della nanotecnologia, questa minaccia è divenuta nota come il problema della
"melassa grigia" (gray goo). Per quanto delle masse di replicatori incontrollati non si presenteranno
necessariamente né grigi né melensi, nell'aspetto, il termine "gray goo" sottolinea che replicatori in grado di
cancellare la vita potrebbero allo stesso tempo apparire come qualcosa di meno attraente di una unica
massa di tubercoli composta da un'unica specie vivente. Pur essendo "superiori" in senso evolutivo, non
necessariamente sarebbero qualcosa a cui potremmo attribuire un qualche valore. Ci siamo evoluti per
amare un mondo ricco di cose viventi, ricco di idee e di diversità, e non c'è quindi alcuna ragione di
apprezzare il gray goo per il solo fatto che esso sarebbe effettivamente capace di diffondersi ubiquamente.
Infatti, prevenendo il gray goo, daremo prova della nostra superiorità evolutiva.

La minaccia del gray goo mette perfettamente in chiaro una cosa: non possiamo permetterci certi tipi di
incidenti con gli assemblatori che sono in grado di replicarsi.

Nel capitolo 5, ho descritto alcune delle cose che i sistemi avanzati di IA potranno fare per noi se li
utilizzeremo propriamente. Nel caso più estremo, essi potranno anche incorporare gli schemi del pensiero e
lavorare a ritmi che nessun cervello di mammifero potrebbe eguagliare. Sistemi IA che lavorino assieme,
come la gente fa, saranno in grado di capacità di pensiero superiori non solo a quelle degli individui ma
anche a quelle di intere società. Ancora una volta, l'evoluzione dei geni ha vincolato la vita a determinati
limiti. Ancora una volta, l'evoluzione a cui i memi vengono sottoposti dagli esseri umani, ed eventualmente
dalle macchine, farà progredire il nostro hardware ben oltre i limiti della vita. E di nuovo, da un punto di vista
evolutivo, tutto questo pone una ovvia minaccia.

La conoscenza accresce il potere ed il potere accresce ulteriormente la conoscenza. A seconda della loro
natura e dei loro obiettivi, i sistemi avanzati di IA potrebbero raccogliere abbastanza conoscenza e potere da
sostituirsi a noi, se non ci saremo preparati adeguatamente. E come accadrà per i replicatori, la semplice
"superiorità" evolutiva non renderà necessariamente i vincitori migliori degli sconfitti, secondo qualsiasi
parametro di giudizio che non sia la bruta abilità di competizione.

Questa minaccia mette perfettamente in chiaro una cosa: abbiamo bisogno di trovare modi di vita che siano
compatibili con l'esistenza della macchine pensanti, affinché queste possano divenire dei cittadini osservanti
delle leggi.

Motori di Potere
Certi tipi di replicatori e di sistemi di IA potrebbero obbligarci ad un confronto con forme di hardware capaci
di azione rapida, efficace ed indipendente. Ma la novità di questa minaccia - proveniente dalle stesse
macchine - non dovrebbe renderci ciechi di fronte ad un pericolo ben più tradizionale. Replicatori e sistemi di
IA possono anche servire come grandi motori di potere, se adoperati senza freni da stati sovrani.

Lungo l'intera storia umana, gli stati hanno sviluppato tecnologie per estendere il loro potere militare, ed essi
senza dubbio giocheranno un ruolo dominante nello sviluppo di replicatori e di sistemi di IA. Gli stati
potrebbero sfruttare i replicatori per costruire, rapidamente, facilmente ed in quantità, interi arsenali di armi
avanzate. Gli stati potrebbero sfruttare dei replicatori "speciali" in modo più diretto, allo scopo di diffondere
una sorta di guerra batteriologica - di un tipo peculiare, basata principalmente su un tipo molto più pratico di
"germi", perché programmabili e controllati da dei computer. A seconda delle loro capacità, i sistemi IA
potrebbero servire da progettisti di armi, da strateghi o da combattenti (2). Gli stanziamenti militari di fondi
supportano infatti ricerche sia nell'ambito delle tecnologie molecolari che in quello dell'intelligenza artificiale.

Gli stati possono sfruttare gli assemblatori o i sistemi avanzati di IA per ottenere progressi radicali repentini
e destabilizzanti. Ho precedentemente discusso sulle ragioni per cui c'è da attendersi che l'avvento dei
replicatori comporterà trasformazioni relativamente improvvise. Essendo i replicatori capaci di replicarsi
repentinamente, potrebbero diventare numericamente abbondanti nell'arco di pochi giorni. Essendo in grado
di fare quasi qualunque cosa, potrebbero essere programmati per duplicare armi già esistenti ma costruite
stavolta con materiali superiori. Essendo capaci di lavorare con componenti standard e ben compresi
(atomi), potrebbero altrettanto rapidamente realizzare cose che siano state progettate precedentemente,
prima che si compiesse il passo avanti tecnologico degli assemblatori. I prodotti risultanti dalla progettazione
anticipata, potrebbero includere germi programmabili e altre cose malefiche ed inedite. Per tutte queste
ragioni, uno stato che realizzi il passo avanti degli assemblatori, potrebbe rapidamente mettere in piedi una
forza militare decisiva - se non proprio nell'arco di una notte, quantomeno con una velocità senza precedenti.

109
Gli stati potrebbero impiegare sistemi di IA altrettanto avanzati per altri scopi analoghi. L'ingegneria
automatizzata faciliterà la progettazione anticipata accelerando lo sviluppo degli assemblatori. Sistemi IA
capaci di costruire altri sistemi IA ancora migliori, provocheranno una dirompente esplosione della
disponibilità di capacità tecniche, con effetti difficili da prevedere. Sia i sistemi IA che gli assemblatori-
replicatori doteranno gli stati della possibilità di accrescere le loro capacità militari di diversi ordini di
grandezza, nonché in tempi brevi.

I replicatori possono essere più potenti delle armi nucleari: devastare la Terra con le bombe richiede masse
di congegni hardware esotici e isotopi rari, ma per distruggere tutta la vita con i replicatori basta un semplice
granello composto da elementi ordinari. I replicatori faranno compagnia alle armi nucleari come potenziale
causa di estinzione, ampliando la preoccupazione morale per l'estinzione potenziale su di un contesto molto
più esteso.

A dispetto del loro potenziale in termini di macchine di distruzione, nanotecnologia e sistemi IA si prestano
ad utilizzi molto più subdoli di quelli possibili con le armi nucleari. Una bomba può solo spazzare via le cose.
Ma le nanomacchine e i sistemi IA potrebbero essere utilizzati per infiltrare, sequestrare, modificare o
governare un territorio o il mondo intero. Anche la polizia più spietata non ha alcuna possibilità d'utilizzo per
le armi nucleari, mentre ne ha per cimici elettroniche, droghe, omicidi ed altri meccanismi flessibili di potere.
Con la tecnologia avanzata, gli stati saranno in grado di consolidare il loro potere sulla gente.

Come hanno già fatto geni, memi, organismi ed hardware, anche gli stati si sono evoluti. Le loro istituzioni si
sono diffuse (con variazioni) grazie a sviluppo, scissioni, imitazioni e conquiste. Gli stati in guerra lottano
come belve feroci, ma sfruttando i loro cittadini come ossa, cervelli e muscoli. I prossimi passi avanti
tecnologici metteranno gli stati a confronto con nuove pressioni e nuove opportunità, spronando gli stati ad
attuare trasformazioni radicali della loro condotta. Per noi, tutto ciò rappresenta, naturalmente, motivo di
preoccupazione. Gli stati, storicamente, sono sempre stati degli eccellenti macellai ed oppressori.

Da un certo punto di vista, uno stato è semplicemente la somma delle persone che compongono i suoi
apparati organizzativi: le azioni di queste persone si sommano tutte insieme per dar forma alle azioni dello
stato. Ma la stessa cosa può dirsi di un cane e delle sue cellule costituenti, eppure un cane è chiaramente
ben più di un blocco di cellule. Sia i cani che gli stati hanno evoluto dei sistemi e delle strutture che
influenzano il comportamento delle loro parti. Per migliaia di anni i cani si sono in gran parte evoluti per
piacere agli uomini, poiché sono sopravvissuti ed hanno potuto riprodursi solo in dipendenza dai desideri
umani. Per migliaia di anni anche gli stati si sono evoluti, sebbene sotto pressioni selettive diverse. Gli
individui possono esercitare molto più potere sui loro cani che sui "loro" stati. Tuttavia, anche gli stati
possono beneficiare del gradimento della gente e la concretezza della loro esistenza dipende dalla loro
capacità di usare le persone, siano essi leaders, poliziotti o soldati.

Potrebbe sembrare paradossale dire che la gente ha un potere limitato sugli stati: dopo tutto, non c'è forse
la gente dietro ogni azione di uno stato? Ma nelle democrazie i capi di stato si lamentano della loro
debolezza di poteri, i deputati si piegano ai gruppi di interessi, i burocrati vengono vincolati ad agire entro le
regole, ed i cosiddetti "elettori in carica" maledicono in blocco questo disastro. Lo stato agisce e la gente lo
influenza, e tuttavia nessuno può dire di avere controllo su di esso. Negli stati totalitari, l'apparato di potere
ha una tradizione, una struttura ed una logica interna che non lascia libero nessuno, né i governanti né i
governati. Persino i "re" devono agire secondo modalità limitate dalle tradizioni della monarchia e dalle
pratiche del potere, se vogliono restare regnanti. Gli stati non sono umani, per quanto composti da umani.

A dispetto di tutto questo, la storia dimostra comunque che i cambiamenti restano possibili, persino
cambiamenti per il meglio. Ma i cambiamenti passano sempre da un sistema semi-autonomo e non-umano
ad un altro egualmente non-umano, per quanto più umano. Nella nostra speranza di miglioramento non
dobbiamo confondere gli stati che indossano una facciata umana con gli stati dotati di istituzioni umane.

Descrivere gli stati come un quasi-organismo cattura solo un aspetto della complessa realtà, e tuttavia
lascia intuire come essi dovrebbero evolvere in risposta ai passi avanti tecnologici in arrivo. La crescita del
potere di un governo, che ha il suo spettacolare apice nei paesi totalitari, lascia intuire una direzione.

Gli stati potrebbero diventare più simili agli organismi nel dominare in modo più completo le loro parti.
Utilizzando gli assemblatori-replicatori, gli stati potrebbero saturare l'ambiente umano di dispositivi di
sorveglianza. Sfruttando l'abbondanza di sistemi IA capaci di comprendere il linguaggio umano, essi
potrebbero ascoltare le conversazioni di chiunque senza dover per questo impegnare metà della
popolazione come ascoltatori. Utilizzando della nanotecnologia come quella proposta per le macchine di
riparazione cellulare, essi potrebbero economicamente sedare, lobotomizzare o in qualche altro modo

110
modificare popolazioni intere. Questa possibilità sembra essere solo una estensione possibile di una trama
di potere fin troppo familiare. Il mondo ha già governi che spiano, torturano e usano droghe; la tecnologia
avanzata, semplicemente, estenderà queste possibilità.

Ma d'altronde, con la tecnologia avanzata gli stati non avrebbero più bisogno di controllare la gente -
potrebbero invece semplicemente disfarsene. Dopo tutto, la maggior parte delle persone nella maggior parte
degli stati serve come forza-lavoro, oppure come futura forza-lavoro, o infine come addetti alla formazione
delle futura forza-lavoro, e la maggior parte dei lavoratori sono esclusivamente impegnati nel fabbricare,
spostare e sviluppare prodotti. Uno stato dotato di assemblatori-replicatori non ha bisogno che qualcuno
svolga questo tipo di lavoro. Inoltre, i sistemi IA avanzati possono sostituire gli ingegneri, gli scienziati, gli
amministratori e persino i capi di governo. La combinazione di nanotecnologia ed IA avanzata renderà
possibile realizzare robot intelligenti ed efficaci, e con tali robot uno stato può prosperare anche se nel
frattempo si andasse a disfare di qualcuno o persino (in linea di principio) di chiunque.

Le implicazioni di questa possibilità dipendono dalla funzione per cui lo stato esiste, se cioè lo stato esista
per servire la gente o se la gente esista per servire lo stato.

Nel primo caso avremmo uno stato modellato da esseri umani per servire certi scopi umani; le democrazie
tendono, quanto meno, verso una rozza approssimazione di questo ideale. L'esistenza di un governo
controllato democraticamente che non abbia più bisogno della gente, essenzialmente implicherebbe che non
ci sarebbe più bisogno di usare la gente nel ruolo di burocrati o di contribuenti. Ciò apre possibilità inedite,
alcune delle quali potrebbero dimostrarsi desiderabili.

Nel secondo caso avremmo uno stato evolutosi per sfruttare gli esseri umani, forse secondo linee d'azione
totalitarie. Gli stati hanno avuto bisogno della gente in qualità di lavoratori, poiché infatti il lavoro umano è
stato il necessario fondamento del potere. Inoltre, il genocidio è sempre stato di attuazione costosa e
problematica. E tuttavia, in questo secolo diversi stati totalitari hanno massacrato i loro cittadini a milioni. La
tecnologia avanzata renderà non necessari i lavoratori e facile il genocidio. La storia suggerisce che gli stati
totalitari potrebbero quindi eliminare del tutto la loro popolazione. Non c'è nulla di consolante in tutto ciò.
Sembra che uno stato intenzionato ad assoggettarci biologicamente, ed al tempo stesso in grado di farlo,
semplicemente ci ucciderebbe.
La minaccia della tecnologia avanzata in mano ai governi, rende perfettamente chiara una cosa: non
possiamo permetterci di avere uno stato oppressivo che ci guidi fino all'avvento dei prossimi passi avanti
tecnologici.

I problemi di base che ho fini qui delineato sono ovvi: nel futuro, come nel passato, le nuove tecnologie
tenderanno di per se stesse verso utilizzi accidentali o abusivi. Poiché i replicatori e le macchine pensanti ci
doteranno di nuovi grandi poteri, il potenziale per incidenti ed abusi crescerà nella stessa misura. Queste
possibilità pongono una minaccia autentica alle nostre vite.
Alla maggior parte della gente piace avere una probabilità di vita, nonché di poter scegliere liberamente il
modo in cui vivere. Questa meta potrebbe sembrare troppo utopica, quanto meno in alcune parti del mondo.
Un tale obiettivo non significa dover forzare chiunque a conformarsi ad un qualche schema d'ordine
superiore; Piuttosto, significa principalmente evitare schiavitù e morte. E tuttavia, come il raggiungimento di
un sogno utopico, esso condurrà verso un futuro di meraviglie.

Dati quindi questi problemi di vita o di morte, e questo obiettivo generale, possiamo prendere in
considerazione le contromisure che potrebbero aiutarci nel successo. La nostra strategia dovrebbe
coinvolgere persone, principi ed istituzioni, ma dovrebbe anche affidarsi a strategie che, inevitabilmente,
coinvolgeranno la tecnologia.

Sistemi Affidabili
Per usare in tutta sicurezza tecnologie così potenti, dobbiamo fabbricare hardware del quale possiamo
fidarci. Per averne fiducia, dobbiamo essere in grado di giudicare accuratamente fatti di tipo tecnico, una
abilità che a sua volta dipenderà in parte dalla qualità delle istituzioni di giudizio. Tuttavia, cosa ancor più
fondamentale, questa abilità dipenderà anche dalla effettiva possibilità fisica di realizzare hardware
affidabile. E questa è una questione di affidabilità dei componenti ed affidabilità dei sistemi.

Spesso fabbrichiamo componenti affidabili, persino in mancanza dell'aiuto degli assemblatori. "Affidabile"
non significa "indistruttibile" - qualunque cosa può rompersi se posta troppo vicina ad una esplosione

111
nucleare. Non significa neanche "tenace" - un apparecchio televisivo potrebbe essere affidabile, e tuttavia
non sopravvivere ad un rimbalzo su un pavimento di cemento. Piuttosto, diciamo che una certa cosa è
"affidabile" quando possiamo contare sul fatto che essa funzionerà svolgendo il compito per cui è progettato.

Un componente affidabile non deve necessariamente essere la perfetta incarnazione di una perfetta
progettazione: ha solo bisogno di essere una incarnazione abbastanza buona di una progettazione
abbastanza previdente. Un ingegnere che progetti ponti potrebbe anche essere incerto riguardo la forza dei
venti, il peso del traffico e la forza dell'acciaio, ma ipotizzando venti forti, traffico pesante e acciaio debole
può progettare un ponte in grado di reggere.

I guasti inattesi dei componenti, di solito derivano da difetti dei materiali. Ma gli assemblatori costruiranno
componenti in cui esiste solo un trascurabile numero di atomi la cui disposizione è erronea - anzi, persino
materiali del tutto privi di atomi fuori posto, se necessario (3). Ciò renderà i componenti perfettamente
uniformi e, in senso lato, perfettamente affidabili. Le radiazioni, tuttavia, potranno ancora causare danni,
perché non esiste materiale su cui un raggio cosmico non possa inaspettatamente colpire un atomo
allontanandolo dalla sua posizione (4). In un componente sufficientemente piccolo (persino in un dispositivo
di memoria di un computer moderno), una singola particella di radiazione può causare un guasto.

Ma i sistemi possono lavorare anche se le loro parti si guastano; la chiave sta nella ridondanza.
Immaginiamo un ponte sorretto da cavi, i quali possano degradarsi in base al caso, ognuno dei quali si
rompe, in un momento impredicibile, all'incirca una volta lungo un periodo di un anno. Se il ponte potesse
cadere quando un cavo si rompe, il ponte stesso sarebbe troppo pericoloso da utilizzare. Immaginiamo,
tuttavia, che un singolo cavo rotto richieda un giorno per essere riparato (perché squadre di operai possono
intervenire prontamente per cambiare il cavo in seguito ad una richiesta d'intervento) e che inoltre se il ponte
richiede cinque cavi per potersi sostenere, sia stato realizzato con sei cavi di sostegno. Quindi, se un cavo si
rompe, il ponte continua a reggersi. Arrestando il traffico e sostituendo il cavo rotto, gli operai del ponte
possono ripristinare la sicurezza. La distruzione del ponte è possibile solo se un secondo cavo dovesse
rompersi nello stesso giorno in cui si è rotto il primo. Sostenuto da sei cavi, ognuno con una probabilità di
rottura in uno specifico giorno pari a 1 su 365, il ponte probabilmente resisterà circa dieci anni.

Sebbene sia pur sempre un miglioramento, questa situazione resta comunque temibile. E tuttavia un ponte
con dieci cavi (i cinque necessari più cinque extra) cadrà solo nel caso che 6 cavi si dovessero rompere tutti
nello stesso giorno: il sistema di sospensione ha quindi una probabilità di reggere per oltre dieci milioni di
anni. Con quindici cavi, il tempo di vita atteso del ponte diventa pari ad oltre mille volte l'età attuale della
Terra. La ridondanza può comportare una esplosione esponenziale del grado di sicurezza.

La ridondanza funziona meglio quando i componenti ridondanti sono effettivamente indipendenti. Se non ci
fidiamo della loro progettazione, dobbiamo usare componenti progettati indipendentemente; se esiste la
probabilità che una bomba, una pallottola o un raggio cosmico possano danneggiare diversi componenti
circostanti, allora dobbiamo ricorrere più diffusamente a parti ridondanti. Gli ingegneri che vogliano fornire
trasporto affidabile fra due isole non dovrebbero semplicemente aggiungere cavi ad un ponte. Essi
dovrebbero costruite due ponti ben distinti che utilizzino progettazioni differenti, quindi aggiungere un tunnel,
un traghetto, ed un paio di aereoporti a terra.

Anche gli ingegneri che progettano computer sfruttano la ridondanza. La Stratus Computer Inc., per
esempio, ha realizzato una macchina che utilizza quattro unità centrali di elaborazione (disposte in due
coppie) (5) per svolgere il lavoro di una sola, ma per farlo in modo molto più affidabile. Di ogni coppia viene
continuamente esaminata la sua consistenza interna, ed una coppia guasta può essere sostituita da un'altra
mentre la coppia gemella continua ad elaborare.

Una forma anche più potente di ridondanza è quella della progettazione di diversità (6). Nell'hardware di un
computer ciò significa l'impiego di diversi computer con progettazioni differenti, i quali lavorano tutti in
parallelo. In questo caso la ridondanza può non solo porre rimedio ai guasti di un pezzo di hardware, ma
anche ad errori nella sua progettazione.

Molto si è lavorato sul problema di scrivere programmi per computer grandi e privi di errori; molta gente
considera un tale programma impossibile da sviluppare e da manutenere. Ma i ricercatori dello UCLA
Computer Science Department hanno dimostrato che la progettazione diversificata può essere usata anche
nel software: diversi programmatori hanno affrontato in modo indipendente lo stesso problema, e
successivamente tutti i loro programmi sono stati fatti girare in parallelo rendendo il risultante sistema
software resistente agli errori di programmazione che si manifestavano in alcune sue parti.

112
Possiamo sfruttare la ridondanza per controllare i replicatori(7). Come le macchine di riparazione cellulare
confrontano filamenti multipli di DNA per essere in grado di correggere le mutazioni nei geni delle cellule, i
replicatori potrebbero confrontare copie multiple delle loro istruzioni (o che utilizzare altri efficaci sistemi di
correzione degli errori (8)) per essere in grado di resistere alle mutazioni nei loro "geni". Anche in questo
caso la ridondanza può produrre una esplosione esponenziale della sicurezza.
Possiamo costruire sistemi che siano estremamente affidabili, ma questo comporta dei costi. La ridondanza
rende i sistemi più pesanti, più massicci, più dispendiosi e meno efficienti. La nanotecnologia, tuttavia,
fabbricherà la maggior parte delle cose in modo che siano più leggere, più piccole, più economiche e più
efficienti. Questo rende la ridondanza e l'affidabilità obiettivi più pratici da perseguire.

Al momento, è raro che si desideri pagare il costo di sistemi il più possibile sicuri; tolleriamo guasti più o
meno desiderati e di rado prendiamo in considerazione i limiti reali dell'affidabilità. Ciò influenza il nostro
giudizio su ciò che effettivamente può essere ottenuto. C'è anche un fattore psicologico che distorce il nostro
senso di quale sia il grado di affidabilità con cui le cose possono essere prodotte: i guasti ci restano
fermamente in mente, ma i quotidiani successi ottengono ben poca attenzione. I media amplificano questa
tendenza riportando i guasti più drammatici accaduti in tutto il mondo, mentre ignorano l'infinita lista di tediosi
successi. E quel che è peggio, i componenti dei sistemi ridondanti potrebbero guastarsi in modi visibili,
suscitando allarmismi: immaginate come i media riferirebbero la rottura di un cavo di sostegno per un ponte,
anche quando il ponte sia del tipo super-sicuro, con quindici cavi, descritto precedentemente. E poiché ogni
componente ridondante aggiunto si somma alla probabilità complessiva della rottura di un componente,
potrebbe persino sembrare che l'affidabilità complessiva del sistema stia peggiorando mano a mano che il
sistema si avvicina alla perfezione.

Apparenze a parte, i sistemi ridondanti, costruiti con componenti abbondanti e non privi di difetti, spesso
sono perfettamente affidabili. Sistemi in cui la ridondanza sia stata estesamente impiegata, potrebbero
sopravvivere persino alle pallottole o alle bombe.

Ma che dire degli eventuali errori di progettazione? Anche avere una dozzina di parti ridondanti non è poi
una gran cosa se queste condividono un errore fatale di progettazione. La diversificazione progettuale è una
risposta a tale questione; l'impiego di accurate procedure di collaudo è un'altra buona risposta. Possiamo
affidabilmente evolvere buoni progetti senza essere buoni progettisti: abbiamo bisogno solo di essere bravi
nel collaudo, nella manutenzione, e dotati di molta pazienza. La natura ha evoluto del macchinario
molecolare funzionante tramite un processo completamente privo di mente di manutenzione e di collaudo.
Essendo dotati di menti, possiamo fare altrettanto o anche meglio.
Potrebbe risultarci facile progettare dell'hardware affidabile se riuscissimo a sviluppare affidabili sistemi di
ingegneria automatizzata. Ma questo problema solleva la questione ben più ampia di come sviluppare
sistemi di intelligenza artificiale che risultino affidabili. Abbiamo pochi problemi a realizzare sistemi di IA con
hardware affidabile, ma che dire del loro software?

Analogamente a sistemi IA e menti umane attuali, i sistemi avanzati di IA saranno delle combinazioni
sinergetiche di molte parti più semplici. Ogni parte sarà ben più specializzata e ben meno intelligente del
sistema complessivo. Alcune parti andranno alla ricerca degli schemi presenti in immagini, suoni, o in altri
dati, ed avanzeranno proposte su ciò che questi dati potrebbero significare. Altre parti confronteranno e
giudicheranno le proposte avanzate dalle prime. Così come i sistemi di riconoscimento di schemi nel sistema
visivo umano soffrono di errori ed illusioni ottiche, così sarà anche nei sistemi IA per i loro sotto-sistemi
dedicati al riconoscimento di schemi. (Di fatto, alcuni sistemi avanzati che realizzano la funzione della
visione nelle macchine, già soffrono delle stesse illusioni ottiche che ci sono familiari). E proprio come altre
parti della mente umana possono spesso identificare e compensare le illusioni, altrettanto potranno fare altre
parti dei sistemi IA.

Come accade nelle menti umane, l'intelligenza delle macchine coinvolgerà sia delle parti mentali(9) che
avanzeranno alcune prime ed esitanti ipotesi, sia altre parti mentali che scarteranno la maggioranza delle
ipotesi cattive prima di dedicare maggiore attenzione alle ipotesi restanti o di influire su decisioni importanti.
Le parti mentali che rigettano le idee d'azione basandosi su criteri di etica, corrispondono a ciò che noi
chiamiamo coscienza. I sistemi IA con molte parti, avranno spazio a sufficienza per la ridondanza e la
diversificazione di progettazione delle parti, rendendo quindi possibile l'affidabilità.
Un autentico e flessibile sistema IA deve evolvere idee. Per far questo, esso deve individuare o formare
ipotesi, generare variazioni, sperimentarle, e quindi modificare o scartare quelle che si rivelano inadeguate.
L'eliminazione di una qualsiasi di queste capacità renderebbe il sistema stupido, cocciuto o insensato
("questa macchina arrabattata non può pensare e non vuole imparare dai suoi sbagli - buttiamola!"). Per
evitare di restare intrappolati negli iniziali equivoci concettuali, bisogna prendere in considerazione punti di

113
vista che sono in conflitto, vedendo quanto bene spieghino i dati e se un punto di vista possa spiegarne un
altro.

La comunità scientifica lavora attraverso un processo analogo. E in un articolo intitolato "The Scientific
Community Metaphor" (10), William A. Kornfeld e Carl Hewitt del MIT Artificial Intelligence Laboratory hanno
suggerito che i ricercatori dell'IA dovrebbero scrivere i loro programmi in modo che ricalchino ancor più
strettamente la struttura evolvente della comunità scientifica. Essi evidenziano il pluralismo della scienza,
ossia la diversificazione delle sue figure in competizione: propositori, sostenitori e critici. Senza propositori, le
idee non possono apparire; senza sostenitori non possono crescere; e senza critici ad estirparle, le cattive
idee possono proliferare abnormemente rispetto a quelle buone. Tutto ciò ha valore sia per la scienza, che
per la tecnologia, nonché per ciò che accade fra le diverse parti delle nostre menti.

L'esistenza di un mondo pieno di propositori, promotori e critici, così diversi e ridondanti, è ciò che rende
affidabile il progresso della scienza e della tecnologia. L'esistenza di un numero maggiore di propositori,
rende più frequente la generazione di buone proposte; L'esistenza di un numero maggiore di critici rende più
vulnerabili le cattive proposte. Ne risultano perciò idee migliori e più numerose. Una analoga forma di
ridondanza, può aiutare i sistemi IA a sviluppare idee plausibili.

La gente si fa guidare nelle proprie azioni da certi standard di verità ed etica, e dovremmo essere in grado
di evolvere dei sistemi IA che facciano la stessa cosa, ma in modo più affidabile. Capaci di pensare un
milione di volte più velocemente di noi, essi avranno più tempo per una seconda riflessione. Pare quindi che
si possa rendere affidabili i sistemi IA, quanto meno per quelli che sono gli standard umani (11).

Ho spesso fatto delle analogie fra sistemi IA e singole menti umane, ma la rassomiglianza non deve
necessariamente essere stretta. Un sistema che possa imitare una persona non ha bisogno di essere come
una persona nell'aspetto, ed è invece molto probabile che un sistema di ingegneria automatizzata non lo
sarà affatto. Una proposta (denominata "sistema Agora", termine preso a prestito dal greco, dove è usato
per indicare il luogo di incontro e di mercato) (12) consisterebbe di molti pezzi di software indipendenti, i
quali interagiscono offrendosi l'un l'altro dei servizi in cambio di denaro. La maggior parte dei pezzi
sarebbero degli ingenui specialisti, alcuni in grado di suggerire una scelta di progetto, altri in grado di
analizzarne una. Proprio come l'ecologia della Terra ha evoluto degli organismi straordinari, così questa
economia dei computer potrebbe evolvere progetti straordinari - e forse secondo un processo altrettanto
privo di mente. Ed in più, un tale sistema sarebbe sparpagliato su molte macchine e composto da molte parti
scritte da molte persone, per cui esso sarebbe vario e robusto, e sarebbe inoltre difficile che un unico gruppo
se ne impadronisca e ne abusi.

Alla fine, in un modo o nell'altro, i sistemi di ingegneria automatizzata saranno capaci di progettare le cose,
in modo molto più affidabile di quello possibile a qualsiasi attuale gruppo di ingegneri umani (13). La nostra
sfida sarà quella di progettare correttamente tali sistemi. Abbiamo bisogno di istituzioni umane che,
affidabilmente, sviluppino sistemi affidabili.

Le istituzioni umane hanno evoluto sistemi artificiali, e questi sistemi possono spesso risolvere problemi
impossibili da risolvere per i loro singoli membri. Ciò rende tali sistemi una sorta di "sistema di intelligenza
artificiale". Le compagnie commerciali, gli eserciti e i laboratori di ricerca ne sono tutti esempi, come lo sono
le libere strutture del mercato e della comunità scientifica. Persino i governi potrebbero essere visti come
sistemi di intelligenza artificiale - sistemi grossolani, indolenti e ottusi, ma pur sempre sovra-umani
nell'essenza della loro capacità. E cos'altro potrebbero essere i controlli di costituzionalità delle leggi ed i
bilanci statali, se non un tentativo di accrescere l'affidabilità di un governo grazie alla diversificazione e alla
ridondanza delle istituzioni? Quando costruiremo macchine intelligenti, le useremo affinché si controllino e si
bilancino l'una con l'altra.

Applicando dei sani principi, potremmo diventare capaci di sviluppare anche delle affidabili istituzioni di
orientamento tecnico, che siano dotate di forti controlli e bilanciamenti, e che li impieghino per guidare lo
sviluppo dei sistemi di cui necessitiamo per riuscire a gestire i passi avanti tecnologici in arrivo.

Strategie per arrivare agli Assemblatori


Una qualche forza del mondo (che sia degna di fiducia o meno) si conquisterà una posizione di supremazia
nello sviluppo degli assemblatori; chiamiamola "la forza dominante". A causa della importanza strategica
degli assemblatori, la forza dominante sarà probabilmente una qualche organizzazione o istituzione

114
totalmente controllata da qualche governo o gruppo di governi. Per semplificare i termini della questione,
supponiamo per il momento che noi (i "buoni", quelli che tentano di comportarsi "saggiamente") fossimo in
grado di influenzare le politiche che guidano la forza dominante. Per i cittadini degli stati democratici,
l'esercizio della propria influenza su tali politiche sembra essere una buona attitudine da adottare.

Che cosa dovremmo fare per migliorare le nostre probabilità di conquistarci un futuro in cui valga la pena di
vivere? E che cosa possiamo fare?

Possiamo cominciare considerando quello che non deve accadere: non dobbiamo permettere che neanche
un singolo assemblatore-replicatore del tipo sbagliato venga liberamente disperso nell'ambiente di un mondo
impreparato. Una preparazione assoluta pare impossibile, (come descrivo nel seguito), ma sembra
comunque che la preparazione dovrebbe a sua volta basarsi su sistemi costruiti da assemblatori, i quali
potranno essere fabbricati solo dopo che la fabbricazione di replicatori pericolosi sia già diventata possibile.
La progettazione anticipata può aiutare la forza dominante a preparasi adeguatamente, nonostante che
persino le più energiche azioni di previsione paiano proprio inadeguate a prevenire un'epoca di pericoli. E la
ragione di tale inadeguatezza è piuttosto diretta: i replicatori pericolosi saranno enormemente più semplici da
progettare rispetto ai sistemi che possono contrastarli, proprio come un batterio è di gran lunga più semplice
rispetto ad un sistema immunitario. Abbiamo bisogno di strategie per frenare la nanotecnologia finché non
avremo imparato a domarla.

Una strategia ovvia è l'isolamento: la forza dominante potrà contenere i sistemi replicatori entro mura
multiple oppure in laboratori posti nello spazio. Replicatori molto semplici saranno del tutto privi di
intelligenza, e non saranno perciò progettati perché possano evadere dall'isolamento e diffondersi
selvaggiamente. Il loro contenimento non sembra una sfida particolarmente ardua.

Ancora meglio, saremo in grado di progettare replicatori che, in virtù della loro stessa progettazione, non
possano evadere e diffondersi selvaggiamente. Possiamo fabbricarli dotandoli di contatori interni (come
quelli delle cellule) che limitino le loro replicazioni ad un numero fissato. Possiamo costruirli in modo che
necessitino di speciali "vitamine" sintetiche, o di condizioni ambientali bizzarre che possano esistere solo in
laboratorio. Sebbene si potrebbero fabbricare replicatori dotati di tenacia e voracità superiori a quelle di
qualsiasi moderna peste, possiamo realizzarli anche in modo che siano utili ma innocui. Poiché li
progetteremo partendo da zero, i replicatori non avranno bisogno di possedere neanche le più rudimentali
fra le abilità di sopravvivenza che l'evoluzione ha costruito nelle nostre cellule.

Inoltre, essi non hanno bisogno di evolvere, Possiamo fornire ai replicatori copie ridondanti delle loro
istruzioni "genetiche", corredate da meccanismi di riparazione atti a correggere qualsiasi mutazione.
Possiamo progettarli perché smettano di lavorare molto prima che si possa accumulare un numero di
alterazioni sufficienti a rendere significativamente possibile una mutazione duratura. Infine, possiamo
progettarli dotandoli di caratteristiche che siano d'ostacolo alla loro evoluzione, anche nel caso dovesse
verificarsi qualche mutazione .

Gli esperimenti mostrano che la maggior parte dei programmi per computer (a parte quelli specificatamente
progettati per sistemi IA (14), come per esempio EURISKO del Dr. Lenat) raramente rispondono alle
mutazioni con impercettibili trasformazioni; piuttosto, essi smettono semplicemente di funzionare. Poiché non
possono cambiare in modi utilizzabili, non possono neanche evolvere. A meno che non siano stati
appositamente progettati, i replicatori diretti da nanocomputer saranno soggetti allo stesso limite. Gli
organismi moderni sono relativamente capaci di evolvere, e ciò in parte è anche dovuto al fatto che essi
discendono da antenati che evolvevano. Essi si sono perciò evoluti per evolvere; E questa è una delle
ragioni che giustifica la complessità della riproduzione sessuale e del rimescolamento di segmenti
cromosomici durante la produzione di cellule spermatiche e cellule-uovo. Possiamo semplicemente evitare,
perciò, di dotare i replicatori di simili capacità (15).

Per la forza dominante, dovrebbe essere facile rendere utili, innocui e stabili gli assemblatori-replicatori.
Riuscire invece ad evitare che gli assemblatori vengano rubati ed abusati, è un problema ben diverso e ben
più grosso, poiché si tratta di un gioco ben diverso, combattuto contro avversari intelligenti. Come prima
strategia, potremmo ridurre l'incentivo al furto di assemblatori rendendoli disponibili in forme sicure. Questo,
dovrebbe altresì ridurre l'incentivo allo sviluppo indipendente di assemblatori da parte di altri gruppi. La forza
dominante, dopotutto, verrà immediatamente seguita a ruota da altre forze.

115
Assemblatori Limitati

Nel capitolo 4 ho descritto come un sistema di assemblatori in una vasca, possa costruire un eccellente
motore per un razzo. Ho anche evidenziato che sapremo realizzare sistemi assemblatori che operino come
semi, assorbendo la luce solare e materiali ordinari e accrescendosi fino a diventare quasi qualunque cosa.
Questi sistemi a scopo-specifico, di per se stessi non saranno replicanti, o quanto meno lo saranno solo
limitatamente ad un numero di replicazioni fissato. Essi semplicemente costruiranno quello che sono
programmati a costruire, e solo quando verrà detto loro di costruirlo. Chiunque non sia dotato di specifici
strumenti costruiti da assemblatori, dovrebbe essere incapace di riprogrammarli perché svolgano altri
compiti.

Con l'impiego di assemblatori caratterizzati da questo tipo di limitazioni, la gente sarà in grado di fabbricare
qualsiasi cosa desideri e in qualsiasi quantità desideri, soggetta solo alle limitazioni implicite nelle macchine
stesse. Se nessuna di queste macchine è programmata per fabbricare armi nucleari, nessuno le fabbricherà;
se nessuna è programmata per fabbricare replicatori pericolosi, nessuno li fabbricherà. Se alcune macchine
sono programmate per fabbricare case, automobili, computer, spazzolini da denti e quant'altro, allora questi
prodotti diventeranno economici ed abbondanti. Le macchine costruite tramite degli "assemblatori limitati" ci
permetteranno di schiudere l'accesso allo spazio, guarire la biosfera, e riparare le cellule umane. Gli
assemblatori limitati possono portare un benessere quasi illimitato sia alla gente che al mondo.

Questa strategia renderà più facile l'esercizio di una pressione morale mirata a rendere immediatamente
disponibili gli assemblatori limitati. Ma, in ogni caso, gli assemblatori limitati lasceranno ancora insoddisfatte
altre legittime necessità. Gli scienziati avranno bisogno di assemblatori liberamente programmabili per
condurre i loro studi; gli ingegneri ne avranno bisogno per la verifica sperimentale delle loro progettazioni.
Queste necessità possono essere soddisfatte con l'impiego di "laboratori sigillati per assemblatori".

Laboratori Sigillati per Assemblatori

Immaginate un accessorio per computer della dimensione del vostro pollice, con un display in cima che
serva per mostrarvi lo "stato-dell'arte". La superficie di questo oggetto ha un aspetto monotono simile a
plastica grigia, con un numero di serie stampigliato sopra; e tuttavia, questo laboratorio sigillato per
assemblatori è esso stesso un oggetto costruito da assemblatori, e contiene moltissime cose. All'interno,
fissato appena sotto il display, c'è un grande computer nanoelettronico sul quale viene eseguito un software
di simulazione molecolare avanzata (basato sullo stesso software che viene utilizzato durante lo sviluppo
progettuale degli assemblatori). Se il nanocomputer "casalingo", costruito anch'esso da assemblatori, è
connesso con il laboratorio per assemblatori, e quest'ultimo è con l'interruttore d'alimentazione su "on", il
display mostrerà una immagine tridimensionale di ciò che il computer del laboratorio sta simulando, una
immagine nella quale gli atomi sono rappresentati come sfere colorate. Con un joystick, potete dirigere il
braccio dell'assemblatore simulato affinché costruisca delle cose. Dei programmi appositi possono
velocizzare il movimento del braccio, e voi potete così costruire sullo schermo, in un semplice batter
d'occhio, strutture anche molto elaborate. La simulazione funziona sempre alla perfezione poiché il
nanocomputer imbroglia: quando muovete il braccio simulato per spostare molecole simulate, il computer
dirige un braccio vero per spostare molecole vere. Quindi, lo stesso computer verifica i risultati e, se ne
riscontra la necessità, corregge i suoi calcoli (16).

All'estremità di questo oggetto della dimensione di un pollice, c'è una sfera costituita da molti livelli
concentrici. Cavi sottili convogliano dentro la sfera, attraversandone i suoi livelli, energia d'alimentazione e
segnali elettrici; Questi cavi consentono al nanocomputer posto in cima di comunicare con i dispositivi al
centro della sfera. Il livello più esterno è composto da sensori. Ogni tentativo di rimuovere o penetrare
questo livello fa scattare un segnale diretto verso un livello più interno, vicino al nucleo. Il livello successivo a
quello esterno è uno spesso guscio sferico di diamante composito pretrattato, ossia che è stato sottoposto a
stiramento delle sue regioni più esterne e a compressione di quelle più interne. Questo secondo livello
circonda un successivo livello di isolamento termico, che a sua volta circonda un guscio della dimensione di
un grano di pepe e composto da blocchi microscopici, opportunamente disposti, di metallo ed ossidante. Tali
blocchi sono connessi a dei dispositivi elettrici ignitori. Quando viene penetrato, il livello più esterno
composto dai sensori fa scattare gli ignitori. La carica di demolizione è composta dai blocchi di metallo e
ossidante, per cui essa brucia in una frazione di secondo e produce un gas di ossidi metallici più denso
dell'acqua e quasi altrettanto caldo della superficie del sole. Ma la fiamma è minuscola in estensione e di
breve durata, per cui la sfera di diamante riesce comunque a confinare l'enorme pressione sviluppata.

116
Questa carica demolitrice circonda un guscio composito più piccolo, che a sua volta circonda un altro livello
di sensori altrettanto in grado di attivare la carica demolitrice. Questi sensori circondano la cavità che
contiene infine il vero e proprio "laboratorio sigillato per assemblatori".

Precauzioni così elaborate giustificano il termine "sigillato". Nessuno dall'esterno potrebbe aprire il
laboratorio senza provocare la distruzione del suo contenuto, e nessun assemblatore o struttura costruita da
assemblatori potrebbe evadere dal suo interno. Il sistema è progettato per consentire la fuoriuscita di
informazioni ma non di replicatori o strumenti pericolosi. Ogni livello di sensori è costituito da molti altri,
ridondanti, livelli di sensori (17), ognuno pensato per rilevare ogni possibile penetrazione, ed ognuno pronto
a sopperire alle eventuali mancanze degli altri. La penetrazione, attivando la carica demolitrice, innalzerebbe
la temperatura del laboratorio oltre il punto di fusione di tutte le possibili sostanze contenute al suo interno,
rendendo perciò impossibile la sopravvivenza dei dispositivi pericolosi. Questi meccanismi protettivi sono
tutti coalizzati contro qualcosa che ha un milionesimo della sua dimensione - il che significa che qualunque
cosa sia dentro il laboratorio, essa occupa uno spazio sferico dal diametro non più grande di quello di un
capello umano.

Sebbene sia molto piccolo secondo gli standard ordinari, questo ambiente di lavoro ha spazio a sufficienza
per milioni di assemblatori e milioni di miliardi di atomi. Tali laboratori sigillati per assemblatori consentiranno
alla gente di costruire e sperimentare dispositivi, persino dispositivi come replicatori voraci, in condizioni di
completa sicurezza. I bambini potranno usare gli atomi all'interno come fossero un insieme di pezzi di un
gioco di costruzioni dal numero di parti quasi illimitato. Gli appassionati si scambieranno programmi per
costruire diversi congegni. Gli ingegneri costruiranno e sperimenteranno nuove nanotecnologie. I chimici, gli
scienziati dei materiali e i biologi costruiranno apparati e eseguiranno esperimenti. In laboratori come questi
costruiti attorno a campioni biologici, ingegneri biomedici svilupperanno e sperimenteranno le prime
macchine ripara-cellule.

Nel corso di questo lavoro, la gente svilupperà in modo naturale progetti utili, siano essi circuiti per
computer, materiali resistenti, dispositivi medici o qualsiasi altra cosa. Dopo una verifica pubblica della loro
sicurezza, gli oggetti prodotti potrebbero essere resi disponibili anche fuori dai laboratori sigillati,
programmando alcuni assemblatori limitati perché li costruiscano. Laboratori sigillati e assemblatori limitati
saranno una coppia di entità complementari: i primi ci consentiranno di inventare liberamente; i secondi ci
permetteranno di godere in sicurezza dei frutti delle nostre invenzioni. Avere la possibilità di una pausa fra la
fase di progettazione e la fase di rilascio, ci aiuterà a evitare sorprese mortali.
I laboratori sigillati daranno alla società intera la possibilità di applicare la propria creatività ai problemi della
nanotecnologia. E questo ci preparerà più rapidamente ai tempi in cui una forza indipendente imparerà a
costruire qualcosa di maligno.

Nascondere Informazioni

In un'altra strategia per guadagnare tempo, la forza dominante potrà tentare di bruciare i ponti che essa
stessa ha costruito fra la tecnologia di mole e la tecnologia molecolare. Questo significa distruggere le
registrazioni delle modalità seguite per ottenere i primi assemblatori (oppure di rendere tali registrazioni
completamente inaccessibili). La forza dominante potrebbe essere in grado di sviluppare i primi e rozzi
assemblatori in modo tale che nessuno conosca i dettagli di realizzazione eccetto che per una piccola
frazione dell'intero sistema. Immaginiamo di sviluppare assemblatori attraverso il percorso delineato nel
capitolo 1. Le macchine proteiche che sfrutteremo per costruire i primi rozzi assemblatori diventerebbero
presto obsolete. Se distruggiamo le registrazioni della progettazione delle proteine (18), gli sforzi di
duplicazione di tali progettazioni verrebbero ostacolati, sebbene ciò non ostacolerebbe l'ulteriore progresso
della nanotecnologia.

Se i laboratori sigillati e gli assemblatori limitati saranno diffusamente disponibili, la gente non avrà alcuna
motivazione economica o scientifica per sviluppare nuovamente ed indipendentemente la nanotecnologia, e
l'aver bruciato i ponti dalla tecnologia di mole renderà più difficile uno sviluppo indipendente. E tuttavia
queste strategie, non possono essere nulla più che semplici tattiche per guadagnare un po' di tempo. Esse
infatti non arresteranno lo sviluppo indipendente; l'umana urgenza di potere stimolerà sforzi che potranno
infine risultare nel successo. Solo una politica dettagliata, universale e condotta su scala totalitaria potrebbe
arrestare lo sviluppo indipendente su un tempo indeterminato. Se questa politica fosse condotta da qualsiasi
cosa simile ad un moderno governo, essa rappresenterebbe di certo una cura grosso modo pericolosa
quanto lo è la malattia. Ed anche in tal caso, la gente potrebbe mantenere per sempre una vigilanza
perfetta?

117
Pare che dovremo infine imparare a vivere in un mondo in cui esisteranno replicatori inaffidabili. Una sorta
di strategia potrebbe essere quella di nasconderli dietro un muro o di farli operare molto lontano. Ma si tratta
di metodi effimeri: i replicatori pericolosi potrebbero infrangere il muro o percorrere la distanza che li tiene
separati da noi. E nonostante i muri possano essere realizzati a prova di replicatori, nessun muro fisso può
essere a prova di una malizia su larga scala e ben organizzata (19). Abbiamo bisogno di un approccio più
robusto e più flessibile.

Scudi Attivi

Pare quindi che potremo costruire nanomacchine che, in qualche modo, agiscano in modo analogo ai
globuli bianchi del sistema immunitario umano: ossia dispositivi che possono combattere non solo virus e
batteri, ma anche replicatori pericolosi di ogni tipo. Attribuiamo quindi ad una difesa automatica di questo
tipo la denominazione di "scudo attivo", per distinguerla dal tipo di difesa passiva rappresentata da una
semplice parete fissa.

A differenza degli ordinari sistemi di ingegneria, gli scudi attivi affidabili devono fare ben più che
semplicemente tener testa alla natura o ad utenti maldestri. Essi devono anche far fronte ad una sfida
ancora più grande - ossia fronteggiare l'intero spettro di minacce che forze intelligenti, a seconda delle
circostanze, possono progettare e costruire. La costruzione e il miglioramento di prototipi di scudi, equivarrà
ad una corsa agli armamenti, portata avanti da entrambe le parti in gioco sotto forma di ricerche di
laboratorio. Ma lo scopo qui sarà quello di ricercare i requisiti minimi per una difesa che sia affidabilmente
duratura.

Nel capitolo 5 ho descritto come il Dr. Lenat ed il suo programma EURISKO hanno evoluto delle flotte di
successo e coerenti con le regole di un gioco di simulazione di guerra navale. In maniera analoga, possiamo
tradurre in un gioco lo sforzo mortalmente serio di sviluppare scudi affidabili, utilizzando come campi da
gioco "laboratori sigillati per assemblatori" di varie dimensioni. Potremmo sguinzagliare un'orda di ingegneri,
hackers dei computer, biologi, hobbisti e sistemi di ingegneria automatizzata, invitandoli tutti a mettere in
campo i loro sistemi l'uno contro l'altro in giochi limitati solo dalla condizione di partenza, dalle leggi della
natura e dalle pareti che delimitano i laboratori sigillati. Questi competitori evolveranno minacce e scudi in
una serie infinità di microbattaglie. Quando gli assemblatori ci doneranno l'abbondanza, la gente avrà tempo
a sufficienza per un gioco tanto importante. Alla fine, possiamo mettere alla prova i sistemi di scudo più
promettenti in un ambiente spaziale analogo alla Terra. Il successo renderebbe possibile un sistema in
grado di proteggere la vita umana e la biosfera Terrestre dalle cose peggiori che un pugno di replicatori
dispersi può fare.

Il Successo è Possibile?
Con le nostre attuali incertezze, non possiamo ancora descrivere con precisione né le minacce né le difese.
Ma ciò significa che non possiamo riporre fiducia alcuna sulla possibilità di realizzare delle difese efficaci? A
quanto pare, invece, possiamo farlo; dopo tutto, c'è una certa differenza fra sapere che una certa cosa è
possibile e sapere come farla. E per questo particolare caso, il mondo ci mostra vari esempi di successi
ottenuti in condizioni analoghe.

Non c'è nulla di fondamentalmente inedito nel difendersi da invasioni di replicatori; la vita l'ha fatto per ere.
Gli assemblatori-replicatori, sebbene insolitamente potenti, saranno sistemi fisici non dissimili da quelli che
già conosciamo. L'esperienza suggerisce che possono essere controllati.

I virus sono macchine molecolari che invadono le cellule; le cellule utilizzano macchine molecolari (come
enzimi di restrizione ed anticorpi) per difendersi dai virus. I batteri sono cellule che invadono gli organismi; gli
organismi utilizzano cellule (come i globuli bianchi del sangue) per difendersi dai batteri. Analogamente, le
società utilizzano polizie per difendersi dai criminali ed eserciti per difendersi dagli invasori. Su un livello
meno fisico, le menti usano sistemi memetici, come il metodo scientifico, per difendersi dall'insensatezza, e
le società usano istituzioni, come i tribunali, per difendersi dal potere di altre istituzioni.

L'esempio biologico dell'ultimo paragrafo mostra che persino dopo un miliardo di anni di corsa agli
armamenti, le macchine molecolari hanno mantenuto delle difese di successo contro i replicatori molecolari. I
fallimenti sono stati comunque molto comuni, ma il successo indica che una difesa è possibile. Questi
successi suggeriscono che dovremmo infatti usare delle nanomacchine per difenderci da altre

118
nanomacchine. Nonostante gli assemblatori porteranno molti progressi, non sembra esserci alcuna ragione
per cui essi dovrebbero permanentemente restare in equilibro di forze contro i sistemi di difesa.

Gli esempi appena riportati, alcuni dei quali riguardano i virus, mentre altri riguardano invece le istituzioni,
sono sufficientemente variegati da suggerire che una difesa di successo si basa su principi generali. Ci si
potrebbe domandare: perché tutti questi sistemi difensivi funzionano? Ma rigiriamo la domanda: Perché
dovrebbero fallire? Ogni conflitto forgia sistemi simili a quelli degli avversari, non lasciando all'attaccante
alcun vantaggio ovvio (20). In ogni conflitto, inoltre, gli attaccanti affrontano una difesa che è ben insediata. I
difensori lottano sul loro proprio terreno, e ciò da loro il vantaggio di avere posizioni preparate, conoscenza
dettagliata del luogo, scorte di risorse ed abbondanza di alleati: quando il sistema immunitario riconosce un
germe, può immobilizzare le risorse di un intero corpo. Tutti questi vantaggi sono generali e basilari, ed
hanno poco a che fare con i dettagli della tecnologia. Possiamo dotare le nostre difese attive degli stessi
vantaggi di cui godono i replicatori pericolosi. E tali difese non devono necessariamente starsene sedute ed
inattive intanto che le armi vengono accumulate, non più di quanto il sistema immunitario debba starsene
seduto ed inattivo mentre i batteri si moltiplicano.

Sarebbe difficile prevedere l'esito dal finale aperto di una corsa agli armamenti fra potenze equipaggiate con
assemblatori-replicatori. Ma pare probabile che prima che questa situazione possa insorgere, la forza
dominante acquisisca un temporaneo ma schiacciante vantaggio militare. Se l'esito di una corsa agli
armamenti dovesse essere in dubbio, la forza dominante probabilmente impiegherà la sua forza per
assicurare che a nessun avversario sia consentito di raggiungerlo. Se così fosse, allora, gli scudi attivi non
dovrebbero mai vedersi costretti a resistere ad attacchi che si basino sull'impiego delle risorse di mezzo
continente o di mezzo sistema solare; esse saranno invece come una forza di polizia o un sistema
immunitario, poiché dovranno affrontare soltanto attacchi basati unicamente sulle risorse che possono
essere raccolte in segreto e all'interno del territorio protetto.

In ognuno dei casi di difesa di successo che ho citato in precedenza, gli attaccanti ed i difensori si sono
sviluppati attraverso processi in massima parte analoghi. Il sistema immunitario, modellato dall'evoluzione
genetica, affronta minacce anch'esse modellate dall'evoluzione genetica. Gli eserciti, modellati dalle menti
umane, affrontano analoghe minacce. Allo stesso modo, sia le difese attive che i replicatori pericolosi
saranno modellati dall'evoluzione memetica. Ma se la forza dominante può sviluppare sistemi di ingegneria
automatizzata che lavorino un milione di volte più velocemente rispetto agli ingegneri umani, e se potrà
utilizzare tali sistemi anche solo per un anno, essa costruirà difese attive basate sui ripensamenti di un
milione di anni di progresso ingegneristico. Con tali sistemi saremo in grado di esplorare i limiti del possibile
abbastanza bene da costruire una difesa affidabile contro tutte le possibili minacce.

Anche senza conoscere i dettagli delle minacce e delle difese, ci sono ragioni di credere che la difesa sia
possibile. Ed anche gli esempi di memi che vigilano su altri memi, o di istituzioni che vigilano su altre
istituzioni, suggeriscono che i sistemi IA possono vigilare su altri sistemi IA.

Nel costruire difese attive, saremo in grado di utilizzare la potenza dei replicatori e dei sistemi IA per
moltiplicare i tradizionali vantaggi delle forze di difesa: possiamo dotare le difese di una forza schiacciante,
grazie alla ridondanza dell'hardware costruito da assemblatori ed il cui progetto è basato sull'equivalente di
un milione di anni di progresso tecnologico. Possiamo costruire difese attive che abbiano forza e affidabilità
tali da far vergognare i sistemi passati.

Nanotecnologia e Intelligenza Artificiale possono anche dotarci degli strumenti di distruzione definitivi, ma
esse non sono intrinsecamente distruttive. Con la appropriata cautela, possiamo impiegarle per costruire gli
strumenti di pace definitivi.

119
Capitolo 12: Strategie e Sopravvivenza
Colui che non ricorre a nuovi rimedi, deve attendersi nuove disgrazie; poiché il tempo è il più grande
innovatore.
FRANCESO BACONE

Nei capitoli precedenti ho delimitato dettagliatamente il solido terreno delle possibilità tecnologiche. Ora,
però, mi devo ulteriormente avventurare nei reami delle politiche e delle azioni umane. Questo terreno è
meno solido, ma i fatti tecnologici ed i principi evolutivi forniscono ancora una volta i punti fermi dai quali
partire per esplorare il territorio. La corsa tecnologica, guidata dalle pressioni evolutive, ci sta conducendo
verso rischi senza precedenti; abbiamo bisogno di escogitare strategie per fronteggiare questi rischi. Poiché
innanzi a noi vediamo pericoli così grandi, ha senso considerare di arrestare la nostra corsa frenetica. Ma
come potremmo riuscirci?

Restrizioni Personali
A livello individuale, potremmo astenerci dallo svolgere ricerche che conducano verso capacità pericolose.
Ed infatti, la maggior parte della gente se ne astiene, poiché la maggior parte della gente, in primo luogo,
non è composta da ricercatori. Ma questa strategia non arresta i progressi: nel nostro mondo così
diversificato, altri porteranno avanti il lavoro.

Repressione Locale
Una strategia di limitazione personale (almeno in questa materia) odora di semplice inazione. Ma che dire di
una strategia d'azione politica condotta a livello locale da gruppi di pressione che domandino leggi per la
repressione di certi tipi di ricerche? Questa, vorrebbe essere una azione personale mirata al rafforzamento
di una inazione collettiva. Sebbene essa possa ottenere successi nel sopprimere la ricerca in una città, un
distretto, un paese o una alleanza, si tratta di una strategia che non può aiutarci a guidare la conquista della
posizione di supremazia, lasciando invece che qualche altra forza, una fuori dal nostro controllo, la
raggiunga. Un movimento popolare di questo tipo arresterebbe la ricerca solo laddove le persone di tal
movimento detengono il potere, e i suoi più grandi successi potenziali risulterebbero meramente nello
sgombrare la strada ad uno stato più repressivo, affinché esso possa diventare la forza dominante.

Dove siano coinvolte armi nucleari, si possono avanzare argomenti a favore di un disarmo unilaterale e di
una resistenza non-violenta (o, quanto meno, non-nucleare). Le armi nucleari possono essere utilizzate per
distruggere l'establishment militare e diffondere il terrore, ma non possono essere impiegate per occupare
dei territori o comandare sulla gente - almeno non direttamente. Le armi nucleari non sono riuscite a
sopprimere le situazioni di guerriglia e le agitazioni sociali, sicché una strategia di disarmo e resistenza ha
un certo grado di sensatezza.

La repressione unilaterale della nanotecnologia e dell'IA, al contrario, corrisponderebbe ad un disarmo


unilaterale in una situazione in cui la resistenza non può funzionare. Uno stato aggressivo potrebbe usare
queste tecnologie per sequestrare e dominare (o sterminare) anche una nazione interamente composta da
Gandhi, o persino composta da combattenti per la libertà armati e indomiti.

Questa circostanza merita di essere evidenziata enfaticamente. Senza un qualche nuovo modo per
riformare gli stati del mondo oppressivi, la semplice repressione totale della ricerca non può risultare in un
successo totale. In assenza di un successo totale, un successo importante potrebbe essere un disastro per
le democrazie. Persino se non si approdasse a nulla, gli sforzi di questo tipo potrebbero assorbire il lavoro e
la passione degli attivisti, sprecando in una futile strategia le già scarse risorse umane. Inoltre, gli sforzi di
repressione potrebbero inimicarsi i ricercatori coinvolti, fomentando lotte dissidenti fra alleati potenziali e
sprecando ulteriori risorse umane. La futilità e il divisionismo di questa strategia, la rendono una strategia da
evitare.

Nonostante tutto, la repressione possiede una innegabile attrattiva. Essa è semplice e diretta; "Il pericolo
arriva? Fermiamolo!". Inoltre, i successi degli sforzi locali di repressione promettono gratificazioni a breve
termine: "Il pericolo arriva? Possiamo fermarlo qui ed ora, tanto per cominciare!". Queste partenze
potrebbero rivelarsi false partenze, ma nessuno lo noterebbe. Sembra probabile che l'idea della semplice

120
repressione riesca a sedurre molte menti. Dopo tutto, la repressione locale di pericoli locali ha una lunga
tradizione di successi; arrestare una sorgente inquinante locale, per esempio, riduce l'inquinamento a livello
locale. I tentativi di repressione locale dei pericoli globali sembrano analoghi, comunque differente sia il loro
effetto. Abbiamo bisogno di organizzazioni locali e di pressioni politiche, ma attorno ad entrambe andrebbero
costruite delle strategie in grado di funzionare.

Accordi di Repressione Globale


Secondo un approccio più promettente, potremmo applicare delle pressioni locali per la negoziazione di una
messa al bando d'estensione mondiale. Una simile strategia potrebbe avere una qualche probabilità di
controllare le armi nucleari. Ma tentare di arrestare la nanotecnologia e l'intelligenza artificiale porrebbe
problemi di ordine ben differente, per almeno due ragioni.

In primo luogo, queste tecnologie sono meno ben definite rispetto a quelle delle armi nucleari: poiché le
tecnologie nucleari attuali richiedono certi isotopi di metalli rari, esse sono ben distinte da altre attività.
Questa particolare attività può quindi venir ben definita e (in linea di principio) messa al bando. Ma la
biochimica moderna conduce già, a piccoli passi, verso la nanotecnologia, così come la moderna tecnologia
informatica conduce a piccoli passi verso l'IA. Nessuna linea definisce un punto di separazione naturale. E
poiché ogni piccolo progresso apporterà benefici medici, militari ed economici, come potremmo negoziare un
accordo mondiale a proposito del "dove" fermarsi?

In secondo luogo, queste tecnologie sono più potenti delle armi nucleari: poiché reattori e sistemi d'arma
sono piuttosto grandi, delle ispezioni potrebbero limitare la dimensione di una forza segreta e quindi limitare
la sua potenza. Ma i replicatori pericolosi sarebbero microscopici, e il software IA sarebbe intangibile. Come
potrebbe chiunque essere sicuro che un qualche laboratorio non si stia avvicinando alla soglia di un passo
avanti tecnologico strategico? Sul lungo termine, come potrebbe chiunque essere sicuro che un qualche
hacker all'interno del suo scantinato non sia ormai proprio sulla soglia di un passo avanti tecnologico
strategico? Le contromisure ordinarie di sorveglianza non funzionerebbero, e ciò rende la negoziazione e il
mantenimento di un bando mondiale quasi impossibile.

Le pressioni per i giusti tipi di accordo internazionale, renderebbero più sicuro il nostro cammino, ma è
evidente che gli accordi che si limitino semplicemente a sopprimere i progressi pericolosi non possono
funzionare. Ancora una volta, la pressione locale deve essere parte di una strategia funzionante.

Repressione Globale Forzata


Se gli accordi pacifici non funzionano, si potrebbe considerare l'uso di forza militare per reprimere i
progressi pericolosi. Ma a causa dei problemi di vigilanza, la pressione militare da sola non basterebbe. Per
sopprimere i progressi attraverso l'uso della forza, occorrerebbe invece che una potenza conquisti ed occupi
altre potenze ostili (1), e che sia armata con armi nucleari al fine di garantire con fermezza una politica di
sicurezza. Inoltre, la potenza conquistatrice sarebbe essa stessa dotata di un potere militare massiccio, unito
ad una ben dimostrata intenzione di farne uso. Perciò, una tale potenza potrebbe davvero essere
considerata affidabile per quel che riguarda l'auto-repressione dei propri sforzi di ricerca? Ed anche se così
fosse, sarebbe da considerarsi affidabile per il mantenimento di una interminabile e onnipresente vigilanza
sul mondo intero? In caso contrario, è molto probabile che la minaccia emerga in segreto, e per di più in un
mondo nel quale gli sforzi aperti verso gli scudi attivi sono stati prevenuti. Il probabile risultato sarebbe il
disastro.

La potenza militare nelle democrazie comporta grandi benefici, ma da sola essa non risolve i nostri
problemi. Non possiamo acquisire sicurezza attraverso una strategia di conquista e di repressione della
ricerca.

Queste strategie per arrestare la ricerca, siano esse basate sulla inazione personale, sulla inazione locale,
sulla negoziazione di accordi o sulla conquista del mondo, sembrano tutte destinate a fallire. Eppure,
l'opposizione ai progressi ha un suo ruolo da giocare, perché abbiamo bisogno di ritardi selettivi
intelligentemente diretti per posporre le minacce fino al momento in cui saremo davvero preparati per
affrontarle. Le pressioni degli attivisti allarmisti saranno essenziali, ma per aiutare il progresso e non per
arrestarlo.

121
Progresso Unilaterale
Se i tentativi di sopprimere le ricerche su IA e nanotecnologia appaiono futili e pericolosi, che dire del corso
di azione opposto, ossia uno sforzo di sviluppo completo e unilaterale? Anche questo sforzo presenta dei
problemi. Noi, in democrazia, probabilmente non possiamo produrre un grosso passo avanti strategico in
condizioni di perfetta segretezza. Troppa gente ne verrebbe coinvolta, e per troppi anni. Poiché le dirigenze
Sovietiche verrebbero a sapere dei nostri sforzi, le loro reazioni sarebbero improntate su una ovvia
preoccupazione, e tali dirigenze guarderebbero sicuramente ad un grosso passo avanti tecnologico in
termini di una grossa minaccia. Se la nanotecnologia fosse sviluppata come parte di un programma militare
segreto, gli analisti del loro servizio di spionaggio temerebbero lo sviluppo di un armamentario sottile e
decisivo, probabilmente basato su "germi" programmabili. In base alle circostanze, i nostri opponenti
potrebbero scegliere di sferrare un attacco a freddo. E' importante che le democrazie mantengano la
supremazia su queste tecnologie, ma saremo più sicuri se potremo in qualche maniera combinare questa
forza con delle politiche inequivocabilmente non minacciose.

Equilibrio di Potere
Se perseguiamo una qualunque delle strategie delineate fino ad ora, inevitabilmente scateniamo dei forti
conflitti. I tentativi di reprimere nanotecnologia e IA, getteranno nell'arena i desideri dei repressori contro gli
interessi vitali dei gruppi di ricerca, delle istituzioni militari e dei pazienti bisognosi di assistenza medica. I
tentativi di conquistare un vantaggio unilaterale per mezzo di queste tecnologie getteranno nell'arena le
democrazie cooperative contro gli interessi vitali dei nostri avversari. Tutte le strategie scateneranno conflitti,
ma è proprio inevitabile che tutte le strategie vadano a dilaniare così pesantemente le società occidentali o il
mondo?

Per cercare una via di mezzo potremmo tentare di raggiungere un equilibrio di potere basato su un
equilibrio tecnologico. Ciò potrebbe apparentemente estendere una situazione che ha costituito una misura
pacificatrice per quattro decadi. Ma la parola chiave qui è "apparentemente": i prossimi passi avanti
tecnologici saranno troppo bruschi e destabilizzanti perché possa continuare il vecchio equilibrio. In passato,
una nazione poteva soffrire di un ritardo tecnologico di diversi anni e tuttavia poteva ancora mantenere un
approssimativo equilibrio militare rispetto ai suoi avversari. Con i replicatori rapidi o con l'IA avanzata, un
ritardo di un singolo giorno potrebbe risultare fatale. Un equilibrio stabile sembra troppo improbabile per
sperarci.

Sviluppo Cooperativo
In linea di principio, esiste un modo di assicurare un equilibrio tecnologico fra le democrazie cooperative ed
il blocco Sovietico: potremmo sviluppare cooperativamente le tecnologie, condividendo i nostri strumenti e le
nostre informazioni. Nonostante tutto ciò presenti degli ovvi problemi, rappresenta quantomeno qualcosa di
più pratico da perseguire di quel che potrebbe intuitivamente sembrare.
E' possibile negoziare la cooperazione? Vengono subito in mente tentativi falliti di negoziare controlli efficaci
sulle minacce legate agli armamenti, e rispetto a tali tentativi la cooperazione potrebbe sembrare ancora più
complicata e difficile da impostare. Ma è proprio così? Nel controllo degli armamenti, ogni parte sta tentando
di ostacolare le azioni delle altre parti; ciò rafforza la relazione antagonista fra le due parti. Inoltre, ciò
scatena conflitti all'interno di ogni fazione, fra gruppi in favore della limitazione delle armi e gruppi che
esistono per costruire armi. E, cosa ancor peggiore, i negoziati ruotano attorno alle terminologie e ai loro
significati, ma ogni parte ha il suo proprio linguaggio ed un certo interesse a manipolare i significati per
adattarli ai propri interessi.

La cooperazione, al contrario, coinvolge entrambe le parti nell'operare verso una meta comune; e questo
tende a diradare la natura antagonista della relazione. Inoltre, essa potrebbe attenuare i conflitti fra fazioni
interne alle due parti, poiché gli sforzi di cooperazione creerebbero progetti, invece di distruggerli. Infine,
entrambe le parti discuterebbero i loro sforzi in un linguaggio comune, il linguaggio della matematica e dei
diagrammi impiegati in scienza e in ingegneria. E poi, la cooperazione produce risultati visibili e ben
delineati. Nella metà degli anni '70, Stati Uniti e Unione delle Repubbliche Sovietiche volarono in una
missione spaziale congiunta ed, almeno fino al momento in cui non si svilupparono nuove tensioni politiche,
esse stavano elaborando dei tentativi di pianificazione congiunta per una stazione spaziale comune. Questi
episodi non rappresentavano degli isolati accidenti, sia nello spazio che al suolo; i progetti congiunti e gli
scambi tecnici hanno avuto luogo per anni. Nonostante tutti i problemi che la cooperazione comporta, essa

122
si è dimostrata almeno altrettanto facile del controllo degli armamenti, e forse persino più facile se si
considera il grande sforzo profuso in quest'ultimo.

Paradossalmente, dove siano coinvolte IA e nanotecnologia, l'approccio cooperativo ed il controllo efficace


degli armamenti dovrebbero essere caratterizzati da una rassomiglianza di base. Verificare un accordo sul
controllo degli armamenti richiede una costante e approfondita ispezione, condotta da esperti di una delle
due parti nei laboratori dell'altra parte: una relazione altrettanto stretta quanto la più completa cooperazione
immaginabile.

Ma come potrebbe attuarsi la cooperazione? Essa potrebbe assicurare l'equilibrio ma l'equilibrio non
assicura la stabilità. Se due pistoleri si fronteggiano l'uno contro l'altro, ognuno con le armi spianate e la
tensione alta, la loro potenza è equilibrata, ma quello che spara per primo può eliminare la minaccia
costituita dall'altro. Uno sforzo cooperativo teso allo sviluppo tecnologico che manchi di una accurata
pianificazione ed un accurato controllo, doterebbe ognuna delle due parti di armi spaventose, mentre al
contempo non fornirebbe nessuna delle due parti di uno scudo contro di esse. Chi potrebbe dirsi sicuro che
nessuna delle due parti troverà la maniera di sferrare in piena impunità un attacco disarmante contro l'altra
parte?

Ed anche se si potesse garantire ciò, che dire del problema di altri poteri - oppure che dire della minaccia
potenziale posta da appassionati dilettanti o da incidenti casuali?

Nell'ultimo capitolo ho descritto una soluzione per questi problemi: ossia sviluppo, collaudo e costruzione di
scudi attivi. Essi, ci offrono un rimedio nuovo per un problema nuovo, e nessuno ha ancora avanzato
suggerimenti per una valida alternativa a questo tipo di difese. Finché qualcuno non lo farà, sembrerebbe
saggio ragionare su come andrebbero costruiti gli scudi attivi, e se questi possano rendere possibile una
strategia in grado di funzionare.

Una Sintesi di Strategie


Restrizioni personali, azione locale, ritardo selettivo, accordo internazionale, potere unilaterale e
cooperazione internazionale: tutte queste strategie possono esserci di aiuto nell'impresa di sviluppare scudi
attivi.

Consideriamo la nostra situazione odierna. Le democrazie hanno, per decadi, guidato il mondo nella
maggior parte delle aree della scienza e della tecnologia; oggi siamo in testa in campi come il software per
computer e le biotecnologie. Tutte assieme, costituiamo la forza dominante. Non sembra esserci alcuna
ragione per la quale non dovremmo conservare questa supremazia e sfruttarla.

Come discusso nell'ultimo capitolo, la forza dominante sarà in grado di utilizzare svariate tattiche per gestire
il rivoluzionario passo avanti tecnologico degli assemblatori. Queste tattiche includono l'impiego di laboratori
sigillati per assemblatori, limitazioni sugli stessi assemblatori sviluppati, ed il mantenimento della segretezza
sui dettagli dello sviluppo iniziale degli assemblatori. Mentre beneficiamo dei frutti, grazie a queste (ed altre)
politiche, potremo lavorare allo sviluppo di scudi attivi in grado di garantirci una protezione permanente
contro i nuovi pericoli. Questo definisce una meta. Per raggiungerla, una strategia composta da due parti
sembra essere la migliore.

La prima parte implica un'azione interna alle stesse democrazie cooperative. Abbiamo bisogno di
mantenere una supremazia che sia sufficientemente rassicurante da procedere con cautela; se avvertissimo
che potremmo perdere la corsa, potrebbe anche accaderci di entrare in una condizione di pieno panico.
Procedere con cautela significa sviluppare istituzioni affidabili per gestire sia passi avanti tecnologici iniziali,
che lo sviluppo di scudi attivi. Gli scudi attivi che svilupperemo, a loro volta, dovranno essere progettati per
aiutarci ad assicurare un futuro in cui valga la pena di vivere, un futuro con spazio per la diversità.

La seconda parte di questa strategia coinvolge politiche riguardanti le potenze che ci sono attualmente
ostili. A questo proposito, il nostro scopo dovrà essere quello di mantenere l'iniziativa, minimizzando
contemporaneamente la minaccia che costituiamo per gli altri. L'equilibrio tecnologico non funziona, e non
possiamo permetterci di cedere la nostra posizione di dominanza. Questo ci lascia esclusivamente la forza e
la supremazia come unica nostra scelta realmente possibile, il che rende doppiamente difficile adottare un
atteggiamento che non costituisca minaccia. Ecco, ancora una volta, che necessitiamo di istituzioni stabili ed

123
affidabili: se potessimo dotarle di una grande inerzia innata per quel che riguarda i loro obiettivi, allora forse
persino i nostri avversari riporrebbero un certo grado di fiducia in esse.
Per rassicurare i nostri antagonisti (e noi stessi!) queste istituzioni dovrebbero essere tanto più aperte
quanto è possibile (2), in modo consistente con la loro missione. Potremmo adoperarci per costruire
istituzioni che offrano un ruolo alla collaborazione Sovietica. Invitandoli alla partecipazione, anche se essi
dovessero rifiutare i termini da noi proposti, offriremmo un certo grado di rassicurazione sulle nostre reali
intenzioni. Se i Sovietici accettassero, essi potrebbero conquistarsi una loro quota di merito nel
raggiungimento del nostro successo congiunto.

Ed ancora, se le democrazie saranno forti nel momento in cui i passi avanti tecnologici si avvicineranno, e
se eviteremo di minacciare il controllo di qualsiasi altro governo sul suo stesso territorio, i nostri avversari
probabilmente non vedranno nessun vantaggio nell'attaccarci. In tal modo, potremo presumibilmente fare a
meno anche della cooperazione, se ciò sarà necessario.

Scudi Attivi contro Armi Spaziali


Potrebbe essere utile considerare come potremmo applicare l'idea degli scudi attivi in campi più
convenzionali. Per tradizione, la difesa ha richiesto armi che fossero impiegabili per l'offesa. Questa è una
ragione per cui "difesa" è diventata sinonimo di "capacità di ingaggiare guerra" e per cui gli sforzi di "difesa"
danno agli avversari motivo di temere. Le difese spaziali che sono state proposte di recente sono appunto
una estensione di questo schema. Quasi qualunque sistema difensivo che possa distruggere dei missili in
attacco potrebbe anche distruggere le difese di un avversario, o rappresentare un ostacolo spaziale che
previene un avversario anzitutto dal costruire le sue "difese". Delle "difese" così fatte puzzano di offesa,
come devono appunto apparire per poter svolgere il loro compito. Ed ecco che la corsa agli armamenti si
incammina, per sua stessa natura, verso un'altra impennata pericolosa.
Difesa ed offesa devono proprio essere così inseparabili? La storia sembra confermarlo. Le mura possono
fermare gli invasori sono se sono difese da soldati, ma i soldati possono a loro volta marciare per invadere
altri territori. Quando immaginiamo un'arma, naturalmente immaginiamo mani umane a puntarla (3) e
capricci umani a decidere quando far fuoco; e la storia ci ha insegnato a temere il peggio.
E tuttavia oggi, per la prima volta nella storia, abbiamo imparato come costruire sistemi difensivi
radicalmente diversi da questo tipo di armi. Consideriamo un esempio basato sullo spazio. Al momento
possiamo progettare dispositivi che "sentono" (guarda, un migliaio di missili che sono stati appena stati
lanciati), "valutano" (sembra un tentativo di sferrare un attacco per primi!) ed "agiscono" (proviamo a
distruggere quei missili!). Se un sistema aprisse il fuoco solo contro un massiccio volo di missili, non
potrebbe mai essere impiegato per l'offesa o per realizzare un ostruzionista assedio spaziale. Ancora
meglio, potrebbe essere reso incapace di discriminare quale sia la parte sta attaccando. Sebbene serva gli
interessi strategici dei suoi costruttori, non sarebbe soggetto agli ordini giorno per giorno di alcun generale.
Verrebbe semplicemente a dar vita ad un ambiente pericoloso per un missile attaccante. Come un mare o
una catena di montagne nelle guerre passate, essa non minaccerebbe nessuna delle due parti mentre
costituirebbe per ognuna una protezione dall'altra (4).

Sebbene un tale sistema difensivo sfrutterebbe le stesse tecnologie delle armi (sensori, tracciatori, laser,
proiettili auto-guidati, e così via), questo sistema di difesa non sarebbe un sistema d'armamenti, poiché il suo
ruolo sarebbe fondamentalmente diverso. Sistemi di questo tipo hanno bisogno di un nome che li distingua:
essi sono, di fatto, una sorta di scudo attivo, un termine con cui si può descrivere un sistema automatico o
semiautomatico progettato perché possa proteggere senza minacciare. Difendendo entrambe le parti, ma al
contempo senza minacciarle, gli scudi attivi potrebbero indebolire l'anello vizioso della corsa agli armamenti.

Le questioni tecniche, economiche e strategiche sollevate dagli scudi attivi sono complesse e, nell'era pre-
assemblatori, potrebbero o meno essere risolte in modi praticabili. Se queste soluzioni saranno praticabili,
esisteranno allora diversi possibili approcci verso la loro attuazione. In uno di questi approcci, le democrazie
cooperanti costruirebbero scudi attivi unilateralmente. Per mettere in grado altre nazioni di verificare ciò che
il sistema potrà e (cosa più importante) non potrà fare, potremmo autorizzare ispezioni multilaterali su
progetti chiave, componenti, e passi di produzione. Così facendo non daremo via tutte le tecnologie
coinvolte, perché sapere cosa non equivale a sapere come. Secondo un altro approccio, invece, potremmo
costruire congiuntamente gli scudi, limitando il trasferimento di tecnologie al minimo indispensabile (5)
richiesto dalla cooperazione e dalla necessità di verifica dei limiti dei sistemi (utilizzando i principi discussi
nelle note).

124
Abbiamo molta più possibilità di mettere al bando le armi spaziali di quanta possibilità abbiamo di mettere al
bando la nanotecnologia, e questa potrebbe anche essere la maniera migliore di minimizzare i nostri rischi
sul breve termine. Nella scelta di una strategia sul lungo termine per il controllo della corsa agli armamenti,
tuttavia, dobbiamo considerare ben più che il prossimo passo. L'analisi che ho delineato in questo capitolo
suggerisce che gli approcci tradizionali al controllo sugli armamenti, basati sulla negoziazione di limitazioni
verificabili, non può adattarsi alla nanotecnologia. Se è proprio questa la situazione, abbiamo bisogno di
sviluppare approcci alternativi. Gli scudi attivi, che sembrano indispensabili, potrebbero infine offrire una
nuova e stabilizzante alternativa ad una corsa degli armamenti nello spazio. Esplorando questa alternativa,
esploreremo le problematiche di base comuni a tutti gli scudi attivi (6). Se svilupperemo gli scudi attivi
spaziali, guadagneremo esperienza e costruiremo degli accordi istituzionali, due cose che, in seguito,
potrebbero dimostrarsi essenziali per la nostra sopravvivenza.

Le difese attive sono una nuova opzione basata su una nuova tecnologia. Renderle funzionanti richiede una
creativa sintesi interdisciplinare di idee ingegneristiche, di strategia e di diplomazia internazionale. Esse
offrono opportunità inedite che potrebbero metterci in grado di uscire dai vecchi vicoli ciechi.
Apparentemente offrono una risposta all'antico problema di proteggere senza minacciare, sebbene non una
facile risposta.

Potere, Malvagità, Incompetenza ed Indolenza


Ho tracciato uno scenario per descrivere come nanotecnologia ed IA avanzata metteranno un grande
potere nelle mani della forza dominante, potere che può essere usato per distruggere la vita o per estenderla
ed affrancarla. Poiché non possiamo arrestare queste tecnologie, sembra che in qualche maniera dobbiamo
farvi fronte, per superare l'emergenza di una grande concentrazione di potere più grande di qualunque altra
mai vista prima nella storia.

Abbiamo bisogno di un sistema di istituzioni adeguate. Per gestire tecnologie complesse in tutta sicurezza,
questo sistema deve disporre di modi per giudicare i fatti rilevanti. Per gestire un grande potere in tutta
sicurezza, esso deve includere efficaci meccanismi di controllo e riequilibratura, e i suoi scopi e metodi
devono mantenersi aperti allo scrutinio pubblico. Infine, poiché esso ci aiuterà a porre le fondamenta di un
mondo nuovo, sarà meglio che sia guidato dai nostri comuni interessi, all'interno di una infrastruttura di
principi plausibili.

Non partiremo da zero; costruiremo sulle istituzioni che già abbiamo. Alla fine, esse ci appariranno diverse.
Non tutte le nostre istituzioni sono delle burocrazie insediate in grigi edifici; esistono anche istituzioni diffuse
e vitali come la libera stampa, le comunità di ricerca e le reti di attivisti. Queste istituzioni decentralizzate ci
aiutano a controllare le grigie macchine burocratiche.

Qui, in parte, abbiamo da fronteggiare una nuova versione dell'atavico e più generale problema di limitare
l'abuso di potere. Ciò non rappresenta una grande e fondamentale novità, e principi vecchi di secoli,
assieme a istituzioni di democrazia liberale, suggeriscono come tale problema potrebbe venir risolto. I
governi democratici possiedono già il potere fisico di far esplodere i continenti nonché di rapire, imprigionare
e uccidere i propri cittadini. Ma possiamo convivere con queste capacità perché questi governi sono
piuttosto docili e stabili.

I prossimi anni caricheranno le nostre istituzioni di ben più pesanti fardelli. I principi del governo di
rappresentanza, della libertà di parola, della condotta processuale, del ruolo della legge e della protezione
dei diritti umani, resteranno cruciali. Per prepararsi ai nuovi fardelli, abbiamo bisogno di estendere e
rinvigorire questi principi e le istituzioni che li supportano; la protezione della libertà di parola riguardo
argomenti tecnici potrebbe risultare cruciale. Nonostante abbiamo di fronte una grande sfida, c'è ragione di
sperare che possiamo misurarci con essa.

Naturalmente ci sono anche ovvie ragioni per dubitare che davvero si riesca a misurarsi con tale sfida. Ma
la disperazione è contagiosa e detestabile, e lascia la gente depressa. Per altro, la disperazione appare
ingiustificata, a dispetto di ben noti problemi: Malvagità - siamo troppo perfidi per fare la cosa giusta?
Incompetenza - siamo troppo stupidi per fare la cosa giusta? Indolenza - siamo troppo pigri per preparaci?

Sebbene sarebbe troppo avventato prevedere un futuro roseo, questi problemi non sembrano
insormontabili.

125
I governi democratici sono grandi e caotici, e talvolta anche responsabili di atrocità, eppure non sembrano
malvagi, considerati nel complesso, nonostante possano contenere uomini che meritano di essere etichettati
come tali. Di fatto, i loro capi conquistano il potere in gran parte grazie all'apparente sostegno di
convenzionali idee di benignità. Il nostro pericolo principale è che le politiche che sembrano benigne
possono condurre al disastro, oppure che delle politiche realmente benigne non siano concepite, divulgate e
realizzate in tempo per risultare efficaci. Le democrazie soffrono molto più di indolenza ed incompetenza che
non di malvagità.

L'incompetenza, naturalmente, sarà inevitabile, ma dovrà anche essere inevitabilmente fatale? Noi esseri
umani siamo per nostra natura stupidi ed ignoranti, sebbene talvolta operiamo per combinare assieme i
nostri frammenti di competenza e conoscenza al fine di realizzare grandi cose. Nessuno conosce come
arrivare fino alla Luna, e nessuno lo ha mai imparato, e tuttavia una dozzina di persone hanno passeggiato
sulla sua superficie. Abbiamo raggiunto vari successi in ambiti tecnici perché abbiamo imparato a costruire
istituzioni che attirano molte persone per lavorare assieme alla generazione e verifica sperimentalmente
delle idee. Queste istituzioni guadagnano affidabilità per mezzo della ridondanza, e la qualità dei loro risultati
dipende in larga misura da quanta attenzione dedichiamo e quanto duramente lavoriamo. Quando
concentriamo attenzione e risorse a sufficienza sulla affidabilità, spesso otteniamo dei successi. Questo è il
motivo per cui le missioni Lunari sono riuscite senza alcun incidente nello spazio, ed anche il motivo per cui
nessuna arma nucleare è stata lanciata o detonata accidentalmente. E questo è il motivo per cui potremmo
riuscire a gestire la nanotecnologia e l'IA, se verrà posta una attenzione sufficiente per assicurare di lavorare
con esse in maniera competente. Persone eccentriche e competenze limitate possono unirsi per formare
istituzioni stabili e competenti.

L'indolenza, sia intellettuale che morale, o anche fisica, sembra forse il nostro pericolo più grande.
Possiamo misurarci con le grandi sfide solo grazie a grandi sforzi. Ci saranno abbastanza persone che si
impegneranno in sforzi sufficienti? Nessuno può dirlo, perché nessuno può parlare per chiunque altro. Ma il
successo non richiede una illuminata mobilitazione improvvisa e universale. Esso richiede solo una
crescente comunità di persone impegnata nello sviluppo, divulgazione e realizzazione di soluzioni
funzionanti, e che queste persone ottengano un successo di entità crescente.

Ciò non è poi così implausibile. Le preoccupazioni riguardo la tecnologia sono divenute diffuse in tutto il
mondo, così come l'idea che l'accelerazione del cambiamento richiederà una preveggenza migliore. La
pigrizia non stringe tutti nella sua morsa, e l'esistenza di qualche pensatore fuorviato non riesce comunque a
deviare verso una strada sbagliata gli sforzi di chiunque. Le mortali pseudo-soluzioni (come quella della
repressione della ricerca) perderanno la battaglia delle idee se esisteranno persone a sufficienza che le
screditeranno. E nonostante abbiamo di fronte una grande sfida, il successo renderà possibile il compimento
di grandi sogni. Grandi speranze e paure possono smuovere abbastanza gente da mettere in grado la razza
umana di conquistarsi una vittoria assoluta.

Preoccupazione appassionata ed azione, non saranno sufficienti; abbiamo anche bisogno di politiche
sensate. E ciò richiede ben più che buone intenzioni e chiari obiettivi: dobbiamo anche mantenere traccia
delle connessioni fra i fatti del mondo, affinché si possa mettere in relazione quello che facciamo con quello
che effettivamente otteniamo. All'approssimarsi di una crisi tecnologica di complessità senza precedenti, ha
senso provare a migliorare le nostre istituzioni per giudicare fatti tecnici importanti. In che altro modo
potremmo guidare la forza dominante e minimizzare la minaccia terminale della nostra incompetenza?

Le istituzioni evolvono. Per evolvere istituzioni che siano migliori nello scovare i "fatti", dobbiamo copiare,
adattare ed estendere i nostri successi passati. Tali successi includono la stampa libera, la comunità
scientifica ed i tribunali. Essi, hanno tutti i loro meriti, ed alcuni di questi meriti possono essere combinate
assieme.

126
Capitolo 13: Scoprire i fatti
La paura non può essere bandita, ma può essere quieta e senza panico; e può essere mitigata dalla ragione
e dalla valutazione.
VANNEVAR BUSH

La società ha bisogno di modi migliori per comprendere la tecnologia, e ciò è ovvio da tempo. Le sfide che
ci attendono rendono semplicemente più urgente il nostro bisogno.

Le promesse della tecnologia ci lusingano in anticipo, e la pressione della competizione rende virtualmente
impossibile arrestarci. Mano a mano che la corsa tecnologica accelera, nuovi sviluppi ci sfrecciano davanti
sempre più veloci, ed è più probabile che si generi qualche equivoco fatale. Abbiamo bisogno di creare un
migliore equilibrio fra la nostra capacità di previsione e la nostra velocità di progresso. Non possiamo fare
molto per rallentare la crescita della tecnologia, ma possiamo accelerare la crescita della previsione. E con
una previsione migliore, avremo una migliore possibilità di imporre una virata alla corsa tecnologica, per
dirigerla verso direzioni sicure.

Sono stati proposti molti approcci per guidare la tecnologia. "La gente deve controllare la tecnologia" è uno
slogan convincente ma ha due possibili significati. Se significa che dobbiamo produrre tecnologia al servizio
dei bisogni umani è uno slogan di buon senso. Ma se significa che la gente, nella sua globalità, deve
prendere decisioni tecnologiche, diventa uno slogan davvero poco sensato. L'elettorato non può giudicare gli
intricati legami fra tecnologia, economia, ambiente, e vita; la gente manca della necessaria conoscenza. E
su questo è la gente stessa a concordare: in base ad una indagine della U.S. National Science Foundation
(1), l'85 percento degli adulti statunitensi crede che la maggior parte dei cittadini manchi della conoscenza
necessaria a scegliere quali tecnologie sviluppare. Il pubblico generalmente delega i giudizi tecnici a tecnici
esperti.

Sfortunatamente, lasciare il giudizio agli esperti causa problemi. In Advice and Dissent (2), Primack e von
Hippel fanno notare che "le dimensioni della Amministrazione possono avere come conseguenza il silenzio
in cui vengono tenute certe informazioni scomode e la confusione in cui viene mantenuto il pubblico; il
benessere pubblico può essere sacrificato impunemente alla convenienza delle burocrazie e al guadagno
privato". I legislatori subiscono più critiche quando un nuovo farmaco provoca una sola morte, di quelle che
ricevono quando l'assenza di un nuovo farmaco causa un migliaio di morti. E mal legiferano di conseguenza.
I burocrati militari hanno tutto l'interesse nello spendere denaro nascondendo gli errori e portando avanti i
loro progetti. Essi, di conseguenza, perseguono una cattiva gestione. Questo tipo di problema è così
basilare e naturale che difficilmente servono esempi ulteriori. Ovunque, segretezza e nebulosità, fanno
sentire più a loro agio i burocrati; ovunque, la convenienza personale deforma le affermazioni riguardanti i
fatti di pubblico interesse. Mano a mano che la tecnologia cresce in complessità ed importanza, la
pericolosità associata a questa tendenza cresce.
Alcuni autori considerano virtualmente inevitabile la necessità di un governo formato da tecnocrati riservati.
In Creating Alternative Futures, Hazel Henderson (3) argomenta che le tecnologie complesse "diventano
intrinsecamente totalitarie" poichè nessun elettore o legislatore può comprenderle. In The Human Future
Revisited, Harrison Brown analogamente arguisce (4) che la tentazione di scavalcare i processi democratici
quando si cerchi una soluzione a crisi complesse, comporta il pericolo che "se la civiltà industriale
sopravvive alla crisi finirà per acquisire, a ritmo crescente, una natura totalitaria". Stando davvero così le
cose, ciò potrebbe probabilmente significare il nostro disastro: non possiamo fermare la corsa tecnologica,
ed un mondo di stati totalitari basati su tecnologia avanzata, che non abbia bisogno ne di lavoratori ne di
soldati, potrebbe anche sbarazzarsi della maggior parte della popolazione.

Fortunatamente, democrazia e libertà hanno già prima d'ora affrontato sfide comparabili a questa. Gli stati
sono cresciuti fino ad una complessità troppo grande per una democrazia diretta, per cui si sono evoluti i
governi "rappresentativi". Il potere dello stato minacciava di schiacciare la libertà, ma si sono evolute le
regole legislative. La tecnologia è cresciuta fino ad una complessità troppo grande, ma questo non ci da
nessuna ragione per ignorare la gente, o per disfarci delle leggi ed acclamare un dittatore. Abbiamo bisogno
di modi per maneggiare la complessità tecnica in un contesto democratico, usando gli esperti come
strumenti per chiarire la nostra visione senza mettere nelle loro mani il controllo delle nostre vite. Ma gli
esperti tecnici odierni sono impantanati in un sistema di conflitti fra fazioni.

127
Un Caos di Esperti
Governo ed industria, ed i loro critici, spesso nominano comitati di esperti che si incontrano in segreto, o
addirittura non si incontrano affatto. Questi comitati si auto-attribuiscono una credibilità che si basa su quali
siano le persone componenti, non su come esse lavorino. Gruppi che compongono fazioni in reciproca
opposizione, scelgono di reclutare Premi Nobel in faziosa opposizione di idee.

Per conquistarsi influenza nella nostra democrazia di massa, i gruppi provano a silurarsi l'uno con l'altro.
Quando i loro punti di vista abbiano una attrattiva corporativa, li propongono al pubblico tramite campagne di
informazione pubblicitarie. Quando i loro punti di vista abbiano la possibilità di ottenere il supporto di
finanziamenti governativi, essi li propongono ai legislatori per mezzo di opportune pressioni. Quando i loro
punti di vista possiedano un drammatico potenziale di appello, li propongono al pubblico tramite campagne
di informazione sui media. I gruppi reclamizzano i loro esperti preferiti, la battaglia diventa pubblica, e pacifici
scienziati ed ingegneri vengono travolti dal clamore risultante.

Mano a mano che il conflitto pubblico si gonfia, la gente comincia a dubitare dei pronunciamenti degli
esperti. Giudica le loro affermazioni nel modo più ovvio: in base alla loro sorgente ("Naturale che dichiari che
le estrazioni petrolifere non siano dannose - lavora per la Exxon"; "Naturale che dica che la Exxon mente -
lavora per Nader").

Quando esperti dimostrati perdono la loro credibilità, i demagoghi possono entrare in battaglia in condizioni
di parità. I cronisti, che smaniano di assistere a controversie e di rado sono guidati da una pregressa
formazione tecnica, nel tentativo di mostrarsi equi portano tutte le fazioni dritte davanti al pubblico. Le caute
affermazioni di scienziati scrupolosi suscitano scarsa impressione; altri scienziati non vedono altra scelta che
quella di adottare lo stile dei demagoghi stessi. Il dibattito diventa tagliente e furioso, cresce la divisione, e il
fumo della battaglia oscura i fatti. Spesso ne segue la paralisi o l'assurdità.

Il nostro più grande problema è come gestiamo i problemi. Molti sono i dibattiti che infuriano sulla sicurezza
dell'energia nucleare, su quella delle centrali elettriche a carbone, e sui rifiuti chimici (5). Gruppi dalle buone
intenzioni e sostenuti da esperti di un certo nome, battono ripetutamente sempre sugli stessi stupidi fatti,
stupidi in tutto eccetto che nella loro importanza: Quali sono gli effetti di un basso livello di radioattività, e
quanto probabile è la fusione e lo sprofondamento nel sottosuolo del reattore nucleare? Quali sono le cause
e gli effetti delle piogge acide? Quanto bene potrebbero funzionare dei sistemi di difesa spaziali concepiti per
bloccare attacchi missilistici? Cinque casi di leucemia entro tre miglia da una discarica di rifiuti dimostrano
l'esistenza di un rischio mortale o sono puramente opera del caso?

Davanti a noi, argomenti di discussione ancora più grandi ci attendono: Quanto sono sicuri i replicatori?
Questi sistemi di scudi attivi sono prudenti e sicuri? Questa procedura di biostasi è reversibile? Possiamo
fidarci dei sistemi di Intelligenza Artificiale?

Le dispute su fatti tecnici alimentano dispute più estese sulla politica. Le persone potrebbero credere in
valori differenti (Cosa sarebbe preferibile avere, encefaliti o avvelenamento da pesticidi?) ma i loro punti di
vista su quali siano i fatti rilevanti spesso differiscono ancora di più (Con quale frequenza questa zanzara
veicola l'encefalite? Quanto è tossico questo pesticida?). Quando punti di vista differenti su fatti noiosi
conducono al disaccordo su politiche importanti, la gente potrebbe meravigliarsene: "Come è possibile che si
oppongano a noi su una questione tanto vitale senza che lo facciano in malafede?". Le dispute riguardo i
fatti possono in tal modo mettere l'uno contro l'altro degli alleati potenziali (6). E ciò ostacola i nostri sforzi di
comprendere e risolvere i problemi.

La gente ha disputato sui fatti per millenni; soltanto la recente predominanza di dispute su argomenti tecnici
è nuova. Le società hanno evoluto metodi per giudicare i fatti di pubblico interesse. Questi metodi
suggeriscono come dovremmo giudicare i fatti riguardanti la tecnologia.

Dalle Fazioni al Giusto Processo


Lungo tutta la storia, i gruppi hanno evoluto modi di risoluzione delle dispute; l'alternativa è stata la
creazione di contese del tutto chiuse e spesso mortali. Gli europei del medioevo usavano vari metodi di
risoluzione delle dispute, tutti invariabilmente migliori delle eterne contese.

Usavano provare a cimentarsi in battaglia: gli opponenti lottavano, e la legge dava ragione al vincitore.

128
Usavano la compurgazione: i vicini, sotto giuramento, testimoniavano l'onestà dell'accusato; e se esistevano
sufficienti testimonianze, l'accusa decadeva.

Usavano affidarsi al giudizio divino: in un esempio di tali prove, l'accusato veniva legato e gettato in un
fiume; se affondava era innocente, e colpevole se galleggiava. Usavano in giudizio espresso da comitati
riservatissimi: il concilio reale si incontrava per giudicare e approvare la sentenza che gli pareva più adatta.
In Inghilterra, un tale concilio si riuniva in una stanza denominata Star Chamber.

Questi metodi presumibilmente determinavano chi faceva cosa, ossia i fatti riguardanti gli eventi umani: Ma
il tutto era accompagnato da seri inconvenienti. Oggi usiamo modi analoghi di determinare "cosa provoca
cosa", ossia per determinare i fatti riguardanti scienza e tecnologia.

Usiamo provare a cimentarci in combattimento sulla stampa. Gli oppositori lanciano parole sferzanti contro
la causa dell'altra parte, danneggiandola politicamente. Sfortunatamente, questo assomiglia fin troppo
spesso ad una contesa infinita.

Usiamo la compurgazione: gli esperti giurano su certi fatti; se abbastanza di questi esperti giurano sugli
stessi fatti, i fatti vengono dichiarati veri.

Usiamo il giudizio di comitati riservati: esperti selezionati si incontrano per giudicare i fatti e raccomandare
azioni che sembrano loro appropriate. Negli Stati Uniti, essi spesso si riuniscono in comitati della National
Academy of Sciences.

Affidarsi al giudizio divino sembra essere invece passato di moda, ma i combattimenti a mezzo stampa
sembrano proprio come torture inflitte a tranquilli scienziati dotati di rispetto per se stessi. L'Inghilterra ha
abolito i procedimenti della Star Chamber nel 1641, considerando tale abolizione una grande conquista. Le
contese tramite combattimento, compurgazione, e giudizio divino sono analogamente divenute storia. Oggi
diamo valore a un giusto processo, quanto meno quando giudichiamo la gente.
Le procedure dei tribunali illustrano i principi di un giusto processo: le asserzioni devono essere specifiche.
Entrambe le parti devono avere una possibilità di parlare e di confrontarsi apertamente con l'altra parte,
nonché di confutare le asserzioni e di sottoporle ad esame incrociato. Il processo deve essere pubblico, al
fine di prevenire una sua corruzione occulta. Il dibattito deve anzitutto condurre alla scelta di una giuria la cui
imparzialità sia riconosciuta da entrambe le parti. Infine, un giudice deve arbitrare il processo ed imporre
l'osservanza delle regole.

Per vedere quale sia il valore di un giusto processo immaginate il suo opposto: un processo che calpesti
tutti questi principi darebbe la parola ad una parte e nessuna possibilità di un esame incrociato o di risposta
all'altra parte. Esso si condurrebbe in segreto, permetterebbe diffamazioni vaghe e sarebbe privo di un
giudice che faccia rispettare quelle poche leggi che potrebbero essere sopravvissute. I giurati verrebbero
convocati avendo già pronta la loro decisione. In breve, esso assomiglierebbe ad un linciaggio popolare
eseguito in un capannone serrato - o all'allestimento di un comitato per la stesura di una relazione.

L'esperienza mostra il valore di un giusto processo per giudicare i fatti riguardanti le persone; potrebbe tale
esperienza essere di qualche validità anche nel giudicare fatti riguardanti scienza e tecnologia? Quella del
"giusto processo" è una idea basilare non limitata ai tribunali di legge. Ad esempio, alcuni ricercatori nel
campo dell'Intelligenza Artificiale (7) stanno costruendo, per i loro programmi per computer, dei principi che
mettano tali programmi in grado di produrre giudizi corretti. Pare quindi che un "giusto processo" dovrebbe
essere utile per giudicare i fatti tecnici.

Infatti, la letteratura scientifica - il forum principale della scienza - incorpora già una forma di giusto
processo: nei buoni giornali, le affermazioni scientifiche devono essere specifiche. In teoria, dato un tempo
sufficiente e una certa perseveranza, in una disputa tutte le parti potrebbero dichiarare i loro punti di vista,
poiché i giornali restano aperti alla controversia. Sebbene gli avversari potrebbero anche non incontrarsi mai
faccia a faccia, essi si confrontano l'uno contro l'altro a distanza; Essi domandano e rispondono, a ritmi lenti,
tramite lettere ed articoli. Gli arbitri, come le giurie, valutano le dimostrazioni ed i ragionamenti. Gli editori,
come i giudici, fanno rispettare le regole della procedura. Le pubblicazioni mantengono il dibattito totalmente
aperto al pubblico scrutinio.

Sia nei giornali che nei tribunali, le idee in conflitto vengono illustrate e confrontate l'una contro l'altra, sulla
base di regole evolutesi per assicurare un combattimento equo e regolato. Tali regole a volte falliscono,
poiché vengono violate o perché sono di per sé inadeguate, ma esse sono tuttora le migliori che abbiamo

129
sviluppato. La conduzione imperfetta di un giusto processo si è dimostrata in ogni caso migliore della
assenza totale di un giusto processo.

Perché gli scienziati attribuiscono valore ai giornali arbitrati? Non perché essi credano a tutti i giornali
arbitrati, o perché credano a tutto ciò che viene scritto in ognuno di essi. Persino il miglior sistema possibile
per un giusto processo potrebbe non riuscire a spremere fuori un singolo rivolo di autentica verità. Piuttosto,
gli scienziati attribuiscono valore ai giornali arbitrati perché questi tendono a mostrare l'esistenza di
discussioni critiche sensate. Di fatto, i giornali devono farlo: poiché competono l'uno contro l'altro per la
carta, per il prestigio e per conquistarsi lettori, i giornali migliori devono di fatto essere buoni. I giornali
procedono lentamente e tuttavia dopo diversi gironi di pubblicazioni e critiche, riescono a distillare un certo
consenso generale.

L'esperienza mostra il valore sia dei tribunali che dei giornali. Le analogie che sono alla loro base,
suggeriscono che il loro valore derivi da una sorgente comune - ossia il "giusto processo". Un giusto
processo può anche fallire, ma è tuttora l'approccio migliore che conosciamo per scovare i fatti.
Oggi, tribunali e giornali non sono sufficienti. Le dispute tecniche di importanza vitale continuano ad andare
avanti, poiché non abbiamo alcun metodo rapido e regolato di estrapolarne i fatti (e delimitare la nostra
ignoranza). I tribunali non sono adatti a trattare con questioni tecniche. In questo, i giornali sono migliori dei
tribunali, ma sono comunque non privi di inconvenienti. Essi si sono sviluppati in tempi di tecnologia più
arretrata, ed evoluti per adattarsi ai limiti del processo di stampa, alla velocità della posta e alle necessità
della scienza accademica. Ma oggi, in un tempo in cui avremmo disperatamente bisogno di giudizi tecnici
migliori e più rapidi, ci troviamo in un mondo in cui esistono i telefoni, gli aerei, le fotocopiatrici, la posta
espresso e la posta elettronica. Possiamo usare le tecnologie moderne per accelerare il dibattito
tecnologico?

Naturalmente sì: gli scienziati sfruttano già diversi approcci. Gli aerei portano gli scienziati lungo tutto il
globo, per partecipare a conferenze in cui gli articoli vengono pubblicati e discussi. Ma le conferenze
gestiscono la controversia in modo molto carente; il decoro pubblico e le strette programmazioni dei tempi
limitano il vigore e la profondità del dibattito.

Gli scienziati si tengono in contatto anche tramite reti informali di ricerca, connesse tramite telefono, posta,
computer e macchine fotocopiatrici; questi mezzi accelerano lo scambio di informazioni e la discussione. Ma
essi sono essenzialmente istituzioni private. Ed inoltre, tali istituzioni non riescono a fornire una procedura
pubblica e credibile per appianare le differenze.

Le conferenze, i giornali e le reti di informazione, condividono alcune analoghe limitazioni. Esse tipicamente
si focalizzano sulle questioni tecniche di importanza scientifica, piuttosto che sulle questioni tecniche di
importanza rilevante per la politica pubblica. Per di più, di solito si focalizzano esclusivamente su questioni
puramente scientifiche. I giornali tendono a snobbare le questioni tecniche che mancano di intrinseco
interesse scientifico; essi spesso trattano tali questioni come argomenti del tutto inediti, senza preoccuparsi
di verificarli tramite arbitraggio. Ed in più, le nostre attuali istituzioni mancano di qualsiasi modalità equilibrata
per presentare la conoscenza nei casi in cui essa sia legata a controversie. Sebbene alcuni articoli scientifici
di rassegna spesso presentino e soppesino idee diverse, lo fanno comunque dal punto di vista di un singolo
autore.

Tutti questi inconvenienti condividono una comune sorgente: le istituzioni scientifiche si sono evolute per far
progredire la scienza, non per valutare i fatti a beneficio degli esecutori politici. Tali istituzioni assolvono il
loro scopo piuttosto bene, ma assolvono altri scopi in maniera piuttosto misera. Nonostante ciò non
costituisca un completo fallimento, resta insoddisfatta una necessità reale.

Un Approccio
Abbiamo bisogno di procedure migliori per dibattere i fatti tecnici - procedure che siano aperte, credibili, e
mirate a trovare i fatti di cui necessitiamo per formulare politiche assennate. Potremmo cominciare dal
copiare alcuni aspetti da altre procedure basate sul "giusto processo"; possiamo cioè modificare e raffinare
queste procedure alla luce dell'esperienza. Usando i mezzi moderni di comunicazione e di trasporto,
possiamo sviluppare un processo specializzato, snello ed analogo a quello dei giornali scientifici, e che
possa accelerare il dibattito pubblico su fatti cruciali; e questo sembra essere solo metà del lavoro da fare.
L'altra metà richiede di distillare i risultati del dibattito in scenari equilibrati del nostro stato di conoscenza (e

130
altrettanto rappresentativi del nostro stato di ignoranza). A questo scopo, sembrano essere utili procedure in
qualche modo simili a quelle dei tribunali (8).

Poiché la procedura (un fact forum, foro di discussione sui fatti) è inteso come mezzo per riassumere i fatti,
ogni parte comincerà esponendo quelli che per lei sono i fatti chiave, e li elencherà in ordine di importanza.
La discussione inizierà esaminando le affermazioni che ogni parte ha posto in cima alla lista. Attraverso vari
gironi di discussione, di esame incrociato delle argomentazioni di ogni parte e di negoziazione, l'arbitro del
forum cercherà di conquistare un accordo generalizzato sulle affermazioni. Dove rimanga il disaccordo, un
pannello tecnico riporterà la trascrizione delle opinioni in proposito, schematizzando quello che pare già noto
e quello che appare più incerto. I risultati prodotti dal forum dei fatti includeranno argomenti di fondo,
dichiarazioni di accordo, e le opinioni riportate sul pannello. Il tutto potrebbe assomigliare ad un insieme di
pezzi saggistici di una rivista scientifica, introdotti da un conciso articolo di panoramica che si limiti ad
affermazioni attinenti ai fatti e quindi prive di raccomandazioni di carattere politico.

Questa procedura deve differire sotto diversi aspetti da quella che si adotta in un tribunale. Per esempio, il
pannello tecnico, avendo nel forum la funzione di "giuria", deve essere tecnicamente competente. Un
condizionamento pregiudiziale potrebbe condurre il pannello ad un giudizio erroneo dei fatti, ma una sua
incompetenza tecnica risulterebbe altrettanto dannosa. Per questa ragione, la "giuria" di un forum dei fatti
deve essere selezionata secondo modalità che sarebbero invece pericolose se permesse in un tribunale.
Poiché i tribunali adoperano il potere della polizia, useremo giurie che siano state selezionate fra la totalità
della popolazione al fine di salvaguardare la nostra libertà. Ciò obbliga il governo a cercare il consenso di un
gruppo di cittadini, prima di procedere a punire qualcuno, vincolando di conseguenza l'azione del governo a
criteri diffusi nella comunità. In ogni caso, un forum dei fatti non punisce mai gente e nemmeno fa politica
pubblica. Il pubblico dovrebbe essere libero di assistere al processo e decidere se dare fiducia ai suoi
risultati. Questo doterà la gente di sufficiente controllo.

Tuttavia, per rendere un forum dei fatti equo ed efficace, avremo bisogno di una buona procedura per la
"selezione" dei componenti del pannello. I pannelli tecnici corrisponderanno grosso modo ai comitati di
esperti che vengono nominati dai governi o ai moderatori nominati dalle riviste scientifiche. Per assicurare
l'equità, un pannello deve essere selezionato non da una commissione, un politico o un burocrate, ma da un
processo che raccolga il consenso di entrambe le parti coinvolte nella disputa. Nei processi legali dei
tribunali, gli avvocati possono mettere in discussione e respingere ogni giurato che possa sembrare non
imparziale; possiamo utilizzare una procedura simile in un forum dei fatti, per la selezione del suo pannello.

Esperti che siano direttamente coinvolti in una disputa non possono contribuire alla stesura delle trascrizioni
da inserire nel pannello: infatti potrebbero sia condizionarlo che determinarne la sua faziosa
frammentazione. Il gruppo che sostiene un forum dei fatti dovrebbe cercare le persone incaricate di scrivere
il pannello fra coloro che sono competenti nei campi coinvolti. Questo pare essere un criterio pragmatico,
poiché i metodi del giudizio tecnico (spesso basati sugli esperimenti ed i calcoli) sono piuttosto generali. I
curatori del pannello, avendo familiarità con i fondamenti di un determinato campo, saranno in grado di
giudicare le dettagliate argomentazioni prodotte dagli specialisti di ognuna delle due parti.

I forum dei fatti assomiglieranno ai tribunali e alle riviste scientifiche anche sotto altri aspetti. Un comitato
simile al gruppo editoriale di un giornale nominerà un arbitro e alcuni curatori del pannello per ogni disputa. I
difensori di ognuna delle due parti, come fossero procuratori o autori, costruiranno e presenteranno le più
forti argomentazioni che sapranno mettere in piedi.

A dispetto di queste analogie, un forum dei fatti differirà da un tribunale: esso si concentrerà su questioni
tecniche. E non suggerirà alcuna azione. Mancherà quindi di potere esecutivo. Seguirà regolamenti tecnici
basati su prove ed argomenti. Differirà dai tribunali in un numero infinito di dettagli riguardo tono e
procedura. L'analogia con un tribunale è, in quanto tale, una semplice "analogia": ossia una fonte di idee
d'ispirazione.

Un forum dei fatti differirà anche da una giornale: esso procederà a ritmi altrettanto veloci di quel che
permettono la posta, le conferenze ed i messaggi elettronici, piuttosto che ritardare gli scambi di opinioni di
molti mesi, come avviene nella tipica pubblicazione di un giornale. Esso sarà incentrato su una singola
questione, piuttosto che essere concepito per coprire un intero campo scientifico. Riassumerà la conoscenza
per aiutare le decisioni, piuttosto che servire come primaria fonte di dati per la comunità scientifica.
Nonostante un insieme di forum dei fatti non possa sostituire un giornale, i forum ci aiuteranno a trovare e
pubblicizzare i fatti che potrebbero salvare le nostre vite.

131
Il Dottor Arthur Kantrowitz (un membro della National Academy of Sciences che è competente in campi che
vanno dalla tecnologia medica ai laser d'alta energia) ha ideato il concetto che ho appena descritto a grandi
linee (9). Ha parlato di tale idea dapprima denominandola "consiglio di investigazione scientifica". I giornalisti
la hanno prontamente ridenominata "tribunale della scienza". Io l'ho chiamata "forum dei fatti": Ho invece
riservato la denominazione di "tribunale della scienza" ad un forum dei fatti che venga impiegato (o proposto)
come istituzione governativa (10). Le proposte per un giusto processo condotto su dispute tecniche sono
tuttora in divenire; altre discussioni utilizzano denominazioni differenti.

Il Dottor Kantrowitz si è impegnato in un giusto processo riguardante dalla decisione degli Stati Uniti di
costruire un razzo gigantesco per raggiungere la Luna in un unico immenso balzo; egli, appoggiato dai
risultati riscontrati da un comitato di esperti (11), ha raccomandato alla NASA di utilizzare razzi più piccoli per
trasportare componenti in un'orbita bassa, e qui assemblarli assieme per costruire un veicolo che raggiunga
la Luna. Questo approccio promette un risparmio di miliardi di dollari e contemporaneamente lo sviluppo di
abilità di costruzione in ambiente spaziale. Nessuno ha risposto alle sue argomentazioni, per cui egli ha
fallito nel vincere la sua causa. Le menti sono ormai impostate verso ben definite inclinazioni, i politici sono
impegnati, il suo resoconto è stato conservato sotto chiave in una camera di sicurezza della Casa Bianca ed
il dibattito è stato chiuso. I fatti tecnici sono stati mestamente soppressi negli interessi di quelli che cercano
di costruire una nuova generazione di razzi giganteschi.

Ciò mostra una grave pecca delle nostre istituzioni, una pecca persistente che ci fa sprecare denaro e
incrementa il rischio di un errore disastroso. Il Dr. Kantrowitz raggiunge prontamente la conclusione oramai
ovvia: abbiamo bisogno di istituzioni mirate per condurre giusti processi su controversie riguardanti
argomenti tecnici.

Il Dr. Kantrowitz ha perseguito questo obiettivo (nella sua forma di "tribunali della scienza) per mezzo di
discussioni, relazioni, studi e conferenze. Per la sua idea dei tribunali scientifici è stato premiato da Ford,
Carter, e Reagan in qualità di candidati presidenziali. Dai presidenti, non ha ottenuto nulla, sebbene un
consiglio presidenziale appositamente composto abbia elaborato una dettagliata proposta di procedura (12).

Tuttavia, alcuni progressi sono stati compiuti. Nonostante io abbia usato il tempo futuro nel descrivere i
forum dei fatti, la loro sperimentazione è già stata avviata. Ma prima di descrivere un percorso verso un
giusto processo, ha senso prendere in considerazione alcune delle obiezioni.

Perché Non un Giusto Processo?


I critici di questa idea (quanto meno nella sua versione di tribunali della scienza) sono stati spesso l'uno in
disaccordo con l'altro. Alcuni hanno obbiettato che le dispute fattuali non sono importanti, o che possono
essere attenuate tenendole nascoste dietro porte chiuse; altri hanno obbiettato che le dispute fattuali sono
troppo profonde ed importanti perché l'applicazione di un giusto processo possa servire. Alcuni hanno
lanciato l'allarme sul fatto che i tribunali della scienza potrebbero essere pericolosi; altri hanno avvertito che
essi potrebbero essere impotenti. Queste critiche hanno tutte qualche valido contenuto: i giusti processi non
sarebbero una cura universale. Talvolta potrebbero non essere necessari, e talvolta potrebbero venir
abusati. Ma allo stesso modo, tuttavia, si potrebbe rigettare la validità della penicillina sulla base della sua
sporadica inefficacia, o della sua sporadica non necessità o dannosità.

Questi critici non propongono alcuna alternative, e raramente osservano che al giorno d'oggi portiamo
avanti comunque dei giusti processi, oppure che i processi attuali sono senza alcun valore. Dobbiamo
trattare con questioni tecniche complesse dalle quali dipendono milioni di vite; non saremmo forse
incoscienti se lasciassimo tali questioni a comitati riservati, a giornali indolenti, a battaglie sui media, al
giudizio tecnico dei politici? Se distruggessimo gli esperti, dovremmo accettare il giudizio di comitati riservati
formatisi in segreto oppure domandare un processo più aperto? Infine, possiamo con il nostro sistema
presente fronteggiare la corsa tecnologica globale verso la nanotecnologia e la intelligenza artificiale?

Le istituzioni per processi giusti ed aperti sembrano essere di importanza vitale. Permettendo a tutte la parti
di parteciparvi, imbriglieremo le energie del conflitto nella ricerca dei fatti. Limitare la possibilità degli esperti
di descrivere i fatti, ci aiuterà a fronteggiare la tecnologia senza consegnare le nostre decisioni nelle mani
dei tecnocrati. Individui, compagnie e ufficiali nominati, manterranno il pieno controllo delle politiche; gli
esperti tecnici potranno raccomandare altre politiche tramite altri canali.
Come possiamo distinguere i fatti dai valori? Lo standard proposto da Karl Popper sembra essere utile a
questo scopo: una affermazione è fattuale (ossia vera o falsa) se un esperimento o una osservazione

132
potrebbe in linea di principio confutarla. Ad alcune persone, l'idea di esaminare i fatti senza considerare i
valori ricorda l'idea di fare politica senza considerare i valori. E ciò sarebbe effettivamente assurdo: per loro
stessa natura, le decisioni politiche coinvolgono sempre sia i fatti che i valori. Causa ed effetto riguardano i
fatti, dicendoci quel che è possibile. Ma la politica coinvolge anche i nostri valori, i nostri motivi di azione.
Senza fatti accurati non possiamo ottenere i risultati che cerchiamo, ma senza valori - senza desideri e
preferenze - non potremmo anzitutto cercare alcunché. Un processo che scopra i fatti può aiutare le persone
a scegliere politiche che siano efficaci nel servire i loro valori.

I critici hanno espresso alcune preoccupazioni riguardo la possibilità che un tribunale della scienza
(praticamente) dichiarerà che la Terra è piatta, perciò ignorando un Aristarco di Samo o un Magellano
quando questi ultimi trovino evidenza del contrario. Errori, inclinazioni dettate dal pregiudizio e conoscenza
imperfetta saranno di certo tutte cause di equivoci memorabili. Ma i membri di un pannello tecnico non
hanno necessità di dichiarare una certezza contraffatta. Essi possono invece descrivere la nostra
conoscenza e delimitare i confini fra questa e la nostra ignoranza, talvolta affermando che semplicemente
non conosciamo i fatti, o quantomeno le prove attuali forniscono solo una idea approssimativa dei fatti. In
questo modo, essi proteggeranno le loro reputazioni di buoni giudici. Quando giungano delle nuove prove,
una questione può essere riaperta; le idee non hanno bisogno di essere salvaguardate dalla eventualità di
un secondo giudizio.

Se i forum dei fatti diverranno popolari e rispettati, essi guadagneranno influenza. Il loro successo li
renderebbe tali che sarà più difficile abusarne: molti gruppi in competizione li sosterrebbero, anche
economicamente, e gruppi che abusino della procedura tenderanno a conquistarsi una cattiva reputazione e
saranno quindi ignorati. Nessun singolo gruppo sostenitore sarà in grado di oscurare i fatti riguardanti un
argomento importante, se i forum dei fatti guadagneranno una sufficiente affidabilità per mezzo della
ridondanza.

Nessuna istituzione sarà mai in grado di eliminare corruzione ed errore, ma i forum dei fatti saranno guidati,
per quanto in modo imperfetto, da uno migliore standard per la conduzione di dibattito pubblico; essi
dovrebbero degenerare in gran misura prima di diventare peggiori del sistema che abbiamo oggi. La
giustificazione di base per i forum dei fatti è che (1) un giusto processo è l'approccio corretto da tentare, e (2)
riusciremo a far di meglio se lo tentiamo, piuttosto che se non lo facciamo.

Costruire un Giusto Processo


L'antropologa Margaret Mead venne invitata ad un colloquio sui tribunali scientifici per parlare contro tale
idea (13). Ma quando giunse il momento, essa parlò a favore dell'idea, sottolineando che "Abbiamo bisogno
di una nuova istituzione. Non c'è alcun dubbio su questo. Le istituzioni che abbiamo sono del tutto
insoddisfacenti. In molti casi inoltre non sono solo insoddisfacenti, ma implicano una prostituzione della
scienza ed una prostituzione del processo di creazione delle decisioni". La gente che non ha alcun interesse
consolidato nelle istituzioni esistenti, spesso è d'accordo con la sua valutazione.

Se scovare i fatti riguardanti la tecnologia è davvero così cruciale per la nostra sopravvivenza e se i giusti
processi sono davvero la chiave per scovare i fatti, allora cosa dovremmo fare in proposito? Non abbiamo
bisogno di iniziare per forza con delle procedure perfette; possiamo cominciare con dei tentativi informali per
migliorare la procedura di cui disponiamo al momento. Possiamo evolvere procedure migliori per variazione
dei nostri metodi e per selezione di quelli che funzionano meglio. Un processo giusto è una questione di
grado.

Le istituzioni esistenti potrebbero muoversi verso il giusto processo (14) modificando alcune delle loro
regole e tradizioni. Per esempio, le agenzie governative potrebbero regolarmente consultarsi con le parti in
opposizione prima di stabilire quali siano i componenti di un comitato di esperti. Esse potrebbero garantire
ad ognuna delle due parti il diritto di presentare prove, esaminare prove, ed esaminare gli esperti dell'altra
parte. Esse potrebbero aprire i loro procedimenti agli osservatori. Ognuno di questi passi rafforzerebbe la
correttezza del processo, trasformando processi non dissimili da quelli della "Star Chamber" in istituzioni più
degne di rispetto.

I benefici pubblici dei giusti processi, comunque, non necessariamente li renderanno popolari fra i gruppi
che chiedono la loro modifica. Non abbiamo sentito il boato di gruppi di interesse che si precipitano a
verificare sperimentalmente le loro affermazioni, ne le lacrime di gioia dei comitati all'apertura delle loro porte
per consentire di sottomettere il loro operato alla disciplina imposta da un giusto processo. E nemmeno

133
abbiamo sentito riferire di politici che abbiano rinunciato all'utilizzo di fatti spuri per nascondere le basi
politiche delle loro decisioni.

E tuttavia tre candidati alla presidenza U.S.A. hanno sottoscritto l'idea dei tribunali della scienza. Il
Committee of Scientific Society Presidents, che include ventotto delle società scientifiche di punta degli Stati
Uniti, ha sottoscritto l'idea. Lo U.S. Department of Energy ha utilizzato una "procedura analoga a quella dei
tribunali della scienza" per valutare alcune proposte in competizione per la produzione di energia tramite
fusione nucleare, e ha dichiarato che la procedura è efficiente e utile. Il Dottor John C. Bailar del National
Cancer Institute, dopo aver fallito nel far riconoscere a varie organizzazioni mediche la pericolosità dei raggi
X e del loro impiego massiccio in radiografia, ha proposto un tribunale della scienza sull'argomento. I suoi
avversari hanno allora fatto marcia indietro e modificato le loro politiche - apparentemente la semplice
minaccia dell'eventualità di un giusto processo sta già salvando vite. Nonostante questo, il vecchio corso
prosegue, quasi invariato.

Perché accade ciò? In parte perché la conoscenza è potere, e quindi viene gelosamente sorvegliata (15). In
parte perché gruppi potenti possono prontamente immaginare in che modo i giusti processi potrebbero
andare a loro svantaggio. In parte perché uno sforzo di migliorare i metodi sistematici di "risoluzione di
problemi" mancano del potenziale drammatico di una campagna allestita per combattere direttamente i
problemi; ossia il potenziale drammatico associato a un migliaio di attivisti alacremente impegnati nel
salvataggio dello stato della nave, ognuno dedito a tappare un singolo buco nello scafo.
I governi potrebbero tuttavia adoperarsi per realizzare i tribunali della scienza, ed ogni passo potrebbe
portare verso un maggior merito della procedura per un giusto processo. E tuttavia è ragionevole temere il
supporto del governo per i tribunali della scienza: il potere centralizzato tende a generare mostri in quantità.
Una "Agenzia Giudiziaria della Scienza" centralizzata potrebbe anche lavorare piuttosto bene mentre fa ben
poco danno evidente, e tuttavia comportare un gran costo poco visibile: la sua stessa esistenza (e l'assenza
di competizione) potrebbe bloccare miglioramenti basati su processi evolutivi.

Altre strade restano aperte. I forum dei fatti saranno in grado di esercitare influenza senza ricevere aiuto da
particolari poteri legali. Per avere un effetto potente, i loro risultati avranno soltanto bisogno di essere più
credibili delle asserzioni di una specifica persona, uno specifico comitato o una specifica corporazione o
gruppo di interesse. Un forum dei fatti ben condotto sarà caratterizzato da una certa credibilità in virtù della
sua stessa struttura. Alcuni forum potrebbero essere finanziati dalle università.
Infatti, il Dottor Kantrowitz ha recentemente condotto una procedura sperimentale presso la University of
California a Berkeley (16). Essa era incentrata attorno alla disputa pubblica fra il genetista Beverly Paigen ed
il biochimico William Havender riguardante i difetti di nascita e i rischi genetici presso il sito di discarica
chimica della Love Canal. I due scienziati hanno svolto il ruolo di avvocati; studenti di corsi di laurea hanno
svolto il ruolo di pannello tecnico. La procedura era composta da incontri distribuiti su diverse settimane, per
gran parte spesi nella discussione delle aree di accordo e disaccordo; essa si è conclusa con diverse
sessioni pubbliche di esame incrociato, che hanno immediatamente preceduto la stesura finale del pannello.
Sia gli avvocati che il pannello hanno concordato su undici affermazioni di fatto, e hanno evidenziato
chiaramente i loro rimanenti punti di disaccordo e le loro incertezze residue.
Arthur Kantrowitz e Roger Masters notano che "in contrasto con le difficoltà sperimentate nei molti tentativi
di realizzare un tribunale della scienza sotto auspici governativi, risultati incoraggianti sono stati ottenuti nel
primo serio tentativo di questo tipo che sia stato condotto in un ambiente universitario". Essi sottolineano che
le tradizioni e le risorse delle università, rendono le università stesse luoghi naturali in cui impegnarsi in tali
sforzi. E auspicano che ci avviino esperimenti di questo tipo in numero maggiore.

Tutto ciò mostra un modo decentralizzato di sviluppare istituzioni per giusti processi, un modo che ci
permetta di aggirare l'esistenza delle attuali burocrazie e interessi acquisiti. Nel far questo, possiamo
costruire su principi stabiliti e sperimentare le variazioni nella migliore tradizione evolutiva.
I leaders preoccupati di migliaia di problemi differenti - con leaders sui lati opposti delle barricate per ognuno
di tali problemi - possono unirsi nel supporto da dare alla realizzazione di giusti processi. Come fanno notare
Roger Fisher e William Ury dell'Harvard Negotiation Project (17), se si tenta di ottenere il consenso delle
parti avverse per mettere in piedi un giusto processo, e quando ogni parte è fermamente convinta di essere
nel giusto, esse tendono a favorire un arbitraggio imparziale. Infatti, entrambe le parti si aspettano di vincere
(18), per cui entrambe acconsentono a partecipare. I forum dei fatti dovrebbero quindi attrarre i sostenitori in
buona fede delle cause, e ripugnare i ciarlatani.

Mano a mano che il giusto processo diverrà uno standard, i sostenitori di cause fondate conquisteranno
vantaggio su coloro che rifiutano di cooperare - "Se non vogliono difendere la loro causa in pubblico, perché
dovremmo ascoltarli?". Inoltre, molte dispute si risolverebbero (o sarebbero evitate) senza gli svantaggi delle
procedure attuali: la prospettiva di un dibattito pubblico ed arbitrato incoraggerà i sostenitori delle cause a

134
controllare i loro fatti prima di iniziare il dibattito. Istituire un forum dei fatti potrebbe facilmente fare di più per
una causa assennata, di quanto potrebbe fare il reclutamento di un milione di sostenitori.

E tuttavia, oggi, leaders ben intenzionati potrebbero sentirsi obbligati a esagerare le loro cause
semplicemente per poter essere ascoltati al di sopra del rombo prodotto dai comunicati stampa dei loro
avversari. Queste persone, potrebbero mai contrastare a malincuore la disciplina di un forum dei fatti?
Sicuramente no; i giusti processi possono in primo luogo curare la malattia sociale che ci costringe ad
allontanarsi dai fatti. Proponendo i loro punti di vista in un forum dei fatti, queste persone potrebbero
recuperare il rispetto per se stessi che deriva dalla onestà intellettuale.

Dissotterrare la verità potrebbe minare una posizione presa particolarmente a cuore, ma non può
danneggiare gli interessi di un gruppo orientato verso esigenze autenticamente "pubbliche". Se è necessario
smuovere un po' di cose per far spazio alla verità, perché non farlo? Grandi leaders hanno visto cambiare le
loro posizioni per ragioni anche peggiori, ed anche i giusti processi comporteranno trasformazioni nelle
posizioni dei gruppi avversi.

Gregory Bateson ha affermato una volta che "nessun organismo può permettersi di esser conscio su
materie che dovrebbero essere affrontate a livello inconscio". Se l'organismo in questione è una democrazia,
il livello conscio corrisponde approssimativamente al dibattito sui mass media. Il livello inconscio è costituito
da qualsiasi processo che di solito funziona abbastanza bene fintanto che non è accompagnato da
clamorose proteste del pubblico. Nei media, come nella coscienza umana, una preoccupazione tende a far
passare in secondo piano un'altra preoccupazione. Questo è ciò che rende l'attenzione cosciente così
scarsa e preziosa. La nostra società ha bisogno di identificare i fatti che la riguardano con maggiore rapidità
ed affidabilità, e con meno contese faziose dei media che distolgano l'attenzione. Ciò lascerà il dibattito
pubblico libero di occuparsi dei suoi veri compiti - ossia giudicare le procedure atte a rintracciare i fatti,
decidere cosa vogliamo e aiutarci a scegliere una strada che ci conduca verso un mondo in cui valga la
pena di vivere.

Mano a mano che il cambiamento andrà accelerandosi, il nostro bisogno crescerà. Per giudicare i rischi di
un replicatore o l'attuabilità di uno scudo attivo, abbiamo bisogno di modi migliori per dibattere i fatti.
Invenzioni puramente sociali come i forum dei fatti ci aiuteranno, ma le nuove tecnologie sociali basate sui
computer sono promettenti in altrettanta misura. Anche queste arricchiranno le nostre procedure per la
conduzione di giusti processi.

135
Capitolo 14: La rete della conoscenza
I computer [...] sono entrati nelle nostre vite quotidiane e stanno diventando il sistema nervoso centrale della
nostra società.
TOHRU MOTO-OKA (1)

Per prepararsi al passo avanti degli assemblatori avanzati, la società deve imparare ad "imparare" più
velocemente. I forum dei fatti ci aiuteranno a farlo, ma le nuove tecnologie potrebbero aiutarci ancora di più.
Con esse, saremo in grado di diffondere, raffinare e combinare le nostre informazioni in modo di gran lunga
più rapido di quanto sia mai stato fatto prima.

Il sovraccarico informativo è diventato un ben noto problema: frammenti di conoscenza si accumulano


troppo velocemente perché le persone possano mettervi ordine e trarne fuori un senso. Migliaia di riviste
tecniche si occupano di migliaia di soggetti diversi. Gli articoli pubblicati ammontano a oltre un milione per
anno. I forum dei fatti ci aiutano a far pulizia delle menzogne, alleggerendo il nostro sforzo di dare senso al
mondo. Ma qualunque istituzione formale di questo tipo resterebbe comunque sommersa dal travolgente
moderno flusso di informazione: i forum dei fatti saranno in grado di trattare solo una frazione dei fatti,
sebbene una frazione importante, e inevitabilmente saranno in qualche modo flemmatici. Le istituzioni
formali possono intercettare solo una minuscola frazione delle energie intellettuali della nostra società.

Oggi, i nostri sistemi informativi sono d'ostacolo al nostro progresso. Per farsi un'idea intuitiva del problema,
immaginate di dover gestire un frammento di informazione: L'avete scoperta: ma come potreste diffonderla?
Qualcun altro l'ha pubblicata: ma come trovarla? L'avete trovata: e dove dovreste archiviarla? Avete
individuato un errore in essa: come potreste correggerla? Il vostro archivio cresce: come dovreste
organizzarlo?

Attualmente gestiamo l'informazione in maniera maldestra. I nostri "media" elettronici tradizionali sono vivaci
ed intriganti, ma sono malamente adattabili per divenire capaci di gestire dibattiti di lungo termine; come
potreste, nel ruolo di spettatore, archiviare, organizzare, o correggere l'informazione contenuta in un
documentario televisivo? In breve, come potreste trasformare queste informazioni in una ben integrata
porzione di un corpo di conoscenze in evoluzione? Possiamo gestire meglio dei dibattiti complessi usando i
"media" cartacei, tuttavia le settimane (o anni) di ritardo imposte da un tipico processo di pubblicazione
rallentano il dibattito, il quale procede come camminasse a carponi. Ed anche le pubblicazioni su carta sono
difficili da archiviare, organizzare e correggere. Le macchine tipografiche producono fasci di carta
inchiostrata; a prezzo di sforzi eroici, i bibliotecari e gli studiosi lavorano per collegare ed organizzare in
modo utile tutte questi fasci cartacei. Ma indici, riferimenti e correzioni, semplicemente aggiungono ulteriori
pagine ed edizioni, e seguire i collegamenti che essi rappresentano resta tuttora un compito tedioso.

Libri ed altri fasci di carta funzionano bene, a prezzo di qualche adattamento. Essi contengono molti dei
nostri tesori culturali e per ora non abbiamo nessun altro modo migliore di pubblicare la maggior parte di
queste cose. Tuttavia, la loro forma attuale lascia aperto molto spazio per il miglioramento.

I problemi che incontriamo nel diffondere, correggere ed organizzare le informazioni obbligano la nostra
conoscenza a rimanere relativamente scarsa, non corretta e disorganizzata. Poiché la conoscenza
consolidata è spesso difficile da trovare, altrettanto spesso ne facciamo a meno, col risultato di rimanere
apparentemente più ignoranti di quando abbiano necessità d'esserlo. Le nuove tecnologie possono aiutarci?

Le nuove tecnologie lo hanno già fatto prima d'ora. L'invenzione del torchio di stampa ha portato grandi
progressi; I servizi testuali basati sull'informatica ci promettono ancora di più. Comunque, per intuire in che
modo la nostra informazione potrebbe essere migliore, potrebbe aiutarci tentare di capire in che modo essa
potrebbe risultare peggiore. Consideriamo quindi, una immaginaria situazione caotica, ed una sua
immaginaria soluzione.

Il Racconto del Tempio

Tanto tempo fa, c'era un popolo con un problema di informazione. Nonostante avessero sostituito le loro
ingombranti tavolette d'argilla con la carta, la utilizzavano in modo bizzarro. Nel cuore della loro terra si
ergeva una cupola imponente. Sotto la cupola vi era la loro grande Camera degli Scrittori. All'interno di
questa camera c'era una grossa collinetta di foglietti di carta, ognuno dalla dimensione della mano di
bambino.

136
Di tanto in tanto, un erudito viaggiava fino a questo "tempio dello studio" per offrire la sua conoscenza. Un
consiglio di scribi avrebbe giudicato il valore della conoscenza offerta. Se questa si fosse dimostrata
preziosa, essa sarebbe stata trascritta su un foglietto, il quale sarebbe stato solennemente lanciato sul
mucchio.

Di tanto in tanto, altri industriosi eruditi venivano a cercare conoscenza, frugando nel mucchio alla ricerca
del foglietto desiderato. Alcuni di loro, più abili in queste ricerche, avrebbero potuto trovare un particolare
foglietto in meno di un mese. Gli scribi accoglievano sempre volentieri i ricercatori, poiché erano così rari.

Noi moderni possiamo vedere chiaramente il loro problema: in un mucchio disordinato, ogni foglietto
aggiunto seppellisce i restanti (come accade su molte odierne scrivanie). Ogni foglietto è separato, non
correlato agli altri, ed aggiungere un riferimento ad un altro foglietto sarebbe ben poco utile, visto che
cercare un foglietto richiede dei mesi. Se usassimo un tale mucchio per conservare la nostra informazione, i
nostri innumerevoli e dettagliati scritti di scienza e tecnologia diventerebbero quasi inutili. Le ricerche
richiederebbero anni, o intere vite.

Noi moderni abbiamo adottato una soluzione semplice: mettiamo in ordine le pagine. Mettiamo una pagina
dopo l'altra per comporre un libro, un libro dopo l'altro per riempire uno scaffale, e quindi riempiamo di
mensole un edificio per comporre una biblioteca. Mettendo in ordine le pagine possiamo trovarle, e seguire
molto più rapidamente i riferimenti. Se gli scribi avessero assunto degli eruditi per disporre i foglietti in pile
distinte per soggetto, la ricerca dei foglietti sarebbe divenuta più facile.

E tuttavia, di fronte a pile distinte di foglietti riguardanti la storia, la geografia e la medicina, dove avrebbero
dovuto mettere, questi eruditi, i foglietti riguardanti la geografia storica, o la epidemiologia geografica, o la
storia medica? Dove avrebbero dovuto mettere i foglietti riguardanti "La Storia della Diffusione della Grande
Peste?".

Ma nel nostro paese immaginario, gli scribi adottarono un'altra soluzione: si rivolsero ad un mago. Ma prima
di farlo, essi rinchiusero gli eruditi nella camera perché cucissero e legassero dei fili di connessione fra un
foglietto ed un altro. I fili di un particolare colore legavano un foglietto al successivo in una serie, un altro
colore conduceva ad un riferimento, un altro ad una nota critica, e così via. Gli eruditi intessevano una rete di
relazioni, rappresentate da una rete di connessioni. Infine il mago (dagli occhi scintillanti e una chioma
fluttuante) recitò un incantesimo, e l'intero caos si librò lentamente nell'aria per aleggiare come una nuvola
nella cupola. Dopo di ciò, un erudito che impugnasse un foglietto doveva solo afferrare dal suo bordo uno
dei fili che vi erano annodati, per tirarsi appresso tutti gli altri foglietti collegati. E i fili, magicamente, non si
ingarbugliavano mai.

Ora gli eruditi potevano collegare i foglietti riguardanti "La Storia della Diffusione della Grande Peste" ai
foglietti riguardanti la storia, la geografia e la medicina. Potevano aggiungere tutte le note e tutto il testo che
volevano, collegandoli nel modo più vantaggioso. Potevano aggiungere speciali foglietti d'indice, in grado di
mettere a portata di mano qualunque cosa fosse in lista. Potevano disporre i collegamenti ovunque
desiderassero, tessendo una rete di conoscenza che sapesse far corrispondere le connessioni con il mondo
reale.

Noi, con le nostre inerti pile di carta, potremmo solo invidiarli - se non avessimo i computer.

La Carta Magica Diventa Reale


Nel 1945, Vannevar Bush propose un sistema che denominò "memex". Era un dispositivo da scrivania,
zeppo di microfilm e meccanismi, e capace di visualizzare le pagine immagazzinate e di consentire all'utente
di aggiungervi delle note. Un sistema a microfilm memex non è mai stato costruito, ma il sogno ha
continuato a vivere.

Oggi, i computer ed i loro schermi hanno cominciato a diventare sufficientemente economici perché siano
abitualmente utilizzati come strumenti di scrittura e di lettura. Alcuni editori di riviste cartacee sono diventati
editori elettronici, producendo riviste, quotidiani e giornali accessibili solo attraverso le reti di computer. E
con i programmi giusti, i computer dedicati alla gestione di testi ci permetteranno di collegare questa
informazione in modi anche migliori del filo magico.

137
Theodor Nelson, l'iniziatore dell'idea, ha denominato ciò che ne risulta con il nome di "Ipertesto": ossia un
testo con collegamenti in molte direzioni, e non solo in una sequenza unidimensionale. Lettori, autori ed
editori che utilizzano i sistemi ipertestuali di solito non conoscono il funzionamento di computer e schermi,
proprio come di solito non conoscevano neanche i meccanismi della fotocomposizione o della stampa
litografica del passato. Un sistema ipertestuale funzionerà semplicemente come uno scritto magico;
chiunque ci giochi per un po' acquisisce subito familiarità con le sue capacità basilari. Tuttavia, una
descrizione della struttura di uno di questi sistemi (2) aiuterà nella spiegazione del funzionamento di un
ipertesto.

Nell'approccio adottato dallo Xanadu hypertext group (presso San Jose in California), il nucleo del sistema,
la parte "server", è una rete di computer capace di immagazzinare sia documenti che collegamenti fra i
documenti. Un sistema iniziale potrebbe essere rappresentato da una singola macchina desktop; ma alla
fine un intera crescente rete di macchine sarebbe capace di servire come una biblioteca elettronica. I
documenti memorizzati saranno in grado di rappresentare quasi qualsiasi cosa, sia romanzi che grafici, libri
di testo o persino programmi, ed infine anche musica o filmati.
Gli utenti saranno in grado di collegare qualsiasi parte del documento ad un'altra qualsiasi parte dello stesso
documento, o di un qualunque altro documento. Quando un lettore punta ad uno dei capi di un collegamento
(sia che esso venga mostrato sullo schermo come una sottolineatura, un asterisco una icona o un filo
colorato), il sistema preleva dalla memoria e visualizza il materiale corrispondente all'altro capo del
collegamento. Inoltre, esso registra le nuove versioni di un documento molto grande senza immagazzinare
copie addizionali; il sistema avrà unicamente la necessità di memorizzare le parti che sono state modificate.
Questo permette che l'immagazzinamento sul sistema delle precedenti versioni di un qualsiasi documento
pubblicato e modificato causi meno dispendio di memoria. Il sistema farà tutto ciò rapidamente, persino
quando la quantità totale di informazione immagazzinata divenga immensa. Una rete di tali macchine
potrebbe infine maturare in una biblioteca elettronica mondiale.
Per immaginare come tutto ciò dovrebbe apparire ad un utente, immaginate uno schermo della dimensione
di un libro aperto, riempito da caratteri con una dimensione che consenta una chiara lettura, come quelli che
state leggendo ora. Oggi lo schermo potrebbe assomigliare un apparecchio televisivo, ma entro pochi anni il
suo aspetto potrebbe essere più simile a quello di un libro, un oggetto dalla dimensione tale da poter essere
tenuto in grembo, con un cavo di connessione verso un dispositivo di immagazzinamento e distribuzione di
informazione. (Con la nanotecnologia potremmo eliminare il cavo: un oggetto della dimensione di un libro
sarà in grado di contenere un sistema ipertestuale comprendente riproduzioni fotografiche di tutte le pagine
distinte che esistono al mondo, immagazzinate in una memoria veloce realizzata da un nastro molecolare).

In questo libro - quello che avete adesso nelle vostre mani - potrei descrivere i libri di Theodor Nelson(3)
riguardanti gli ipertesti, le Macchine da Letteratura e le biblioteche computerizzate, ma non potreste vedere i
suoi libri su queste pagine. Le pagine in questione sono altrove, restando momentaneamente intrappolate in
uno degli scritti del suo autore. Ma se questo fosse un sistema ipertestuale ed io, o qualcun altro, avessimo
aggiunto l'ovvio collegamento, voi potreste puntare all'espressione "Macchine da Letteratura" qui presente,
ed un momento più tardi vedreste sostituirsi al testo di questa pagina la visualizzazione chiara dell'Indice del
libro di Nelson, o di una mia selezione di citazioni tratte dal suo libro. Da lì, potreste entrare nel suo libro e
vagare in esso, forse mentre un'altra porzione del vostro sistema di visualizzazione vi mostra ogni nota che
io ho collegato al suo testo. Potreste quindi ritornare qui (o verso pagine che forse ora mostrano anche le
sue note al mio testo) o muovervi ancora oltre , verso un altro documento collegato al suo. Senza lasciare la
vostra sedia, potreste avere una panoramica di tutti i principali scritti sugli ipertesti, spostandovi da un
collegamento ad un altro attraverso un qualsiasi numero di documenti.

Mantenendo traccia dei collegamenti (diciamo per esempio fra descrizioni di massima, bozze e materiali di
riferimento) gli ipertesti aiuteranno la gente a scrivere e a redigere lavori più ambiziosi. Utilizzando gli
ipertesti potremo tessere la nostra conoscenza per dar vita a unità coerenti. John Muir ha osservato che
"Quando proviamo a individuare isolatamente qualcosa, scopriamo che pare legata a qualsiasi altra cosa
nell'universo". Gli ipertesti ci aiuteranno a mantenere legate assieme le idee secondo modi che meglio
rappresentano la realtà.

Con gli ipertesti saremo meglio capaci di collezionare e organizzare conoscenza, accrescendo l'efficacia
operativa della nostra intelligenza. Ma perché la collezione di informazione si traduca in una maggiore
efficacia operativa, deve essere decentralizzata; una informazione frammentariamente sparpagliata su molte
menti non può essere facilmente inserita dentro il sistema da un gruppo composto da pochi specialisti. Lo
Xanadu group propose un soluzione semplice: permettere che chiunque potesse scrivere e che il sistema
retribuisse automaticamente ad ogni scrittore i relativi diritti d'autore ogni volta che qualcuno avesse letto il
suo materiale. La pubblicazione sarebbe stata favorita dalla possibilità di fornire alla gente ciò che essa
vuole.

138
Immaginate che voi stesso abbiate qualcosa da dire riguardo alcune idee o eventi. Immaginate alcuni
vecchi commenti dotati di un certo perspicace acume, e che oramai sono sbiaditi nella memoria sia degli
oratori che degli ascoltatori di tutto il mondo. Su un sistema ipertestuale, sarà facile pubblicare e trovare
commenti. Immaginate le domande che vi hanno confuso. Potreste pubblicare anche queste; qualcuno,
trovata la risposta che vi serve, pubblicherà una replica al vostro intervento.
Poiché chiunque sarà in grado sul sistema di scrivere testi e creare collegamenti, la rete di ipertesti
accumulerà grandi magazzini di conoscenza e di saggezza e ancor più grandi mucchi di completa
immondizia. Gli ipertesti comprenderanno vecchie news, pubblicità, graffiti, urla insensate e bugie - sicché
come potrebbe un lettore essere in grado di evitare le cose cattive e focalizzarsi su quelle buone? Potremmo
mettere su un comitato editoriale centrale, ma ciò potrebbe distruggere la apertura del sistema. Ordinare
informazioni costituisce di per se stesso un problema di informazione per il quale fortunatamente gli ipertesti
ci aiuteranno ad evolvere buone soluzioni.

Poiché gli ipertesti saranno capaci di fare quasi qualunque cosa di ciò che i sistemi cartacei possono fare,
possiamo almeno usare la soluzione che adottiamo già oggi. Autori ed editori si sono costruiti delle
reputazioni consolidate nell'ambito dei media cartacei, e molti di loro hanno cominciato a spostarsi verso la
pubblicazione elettronica. Su un sistema ipertestuale essi saranno in grado di pubblicare documenti coerenti
con i loro standard di reputazione. I lettori ben disposti verso di loro, potranno impostare i loro sistemi di
visualizzazione affinché mostrino solo questi documenti, ignorando automaticamente la nuova immondizia.
Per essi, il sistema ipertestuale apparirà come qualcosa che contiene solo materiale di pubblicisti rispettabili,
che in più, rispetto alla distribuzione su carta, sarà materiale caratterizzato da una maggiore accessibilità
perché distribuito elettronicamente e corredato da indici e collegamenti ipertestuali. L'autentica immondizia
sarebbe ancora lì, (quanto meno finché i suoi autori continueranno a pagare una piccola tariffa per la
conservazione in memoria del proprio materiale), e tuttavia essa non invaderà lo schermo di ogni lettore.

Ma saremo in grado di fare ancor meglio di così. Il consenso su un documento (dimostrato da collegamenti
e raccomandazioni) può venire da chiunque; i lettori presteranno più attenzione al materiale raccomandato
da qualcuno che stimano. Al contrario, i lettori che troveranno dei documenti che apprezzano, saranno in
grado di vedere chi li ha raccomandati; questo condurrà i lettori a scoprire gente che condivide i suoi stessi
interessi e preoccupazioni. Indirettamente, gli ipertesti aggregheranno la gente e accelereranno lo sviluppo e
la crescita di comunità.

Quando la pubblicazione sarà divenuta così facile e veloce, gli scrittori produrranno più materiale. Poiché gli
ipertesti incoraggeranno l'attività editoriale indipendente, gli editori stessi troveranno più lavoro da fare. I
documenti che citano, elencano e collegano altri documenti serviranno da antologie, giornali ed indici ad
accesso istantaneo. L'incentivo rappresentato dagli introiti dovuti ai diritti d'autore incoraggerà la gente a
trovare ciò che desidera. Appariranno ben presto guide alla letteratura presente, in competizione fra loro -
nonché guide alle guide.

Gli ipertesti collegano meglio di quanto facciano i riferimenti bibliografici cartacei, e non solo in termini di
velocità. I riferimenti cartacei permettono ad un lettore volenteroso di seguire collegamenti da un documento
ad un altro - ma tentate di scoprire in quali documenti ci sono dei riferimenti verso quello che state leggendo
attualmente! Oggi, trovare tali riferimenti richiede l'ingombrante presenza di un indice delle citazioni,
disponibile solo in apposite biblioteche di ricerca, ed orientato verso argomenti ristretti a campi limitati,
nonché obbligato ad aggiornamenti che vengono compiuti con ritardi di qualche mese. Gli ipertesti
collegheranno i lavori in entrambe le direzioni, permettendo ai lettori di trovare anche commenti su ciò che
stanno leggendo. Questo, di fatto, è proprio un drastico passo avanti tecnologico: un progresso che
sottopone le idee ad una analisi critica più completa, velocizzando perciò la loro evoluzione.

L'evoluzione della conoscenza - sia in filosofia che in politica, o in scienza, o in ingegneria - richiede la
generazione, la diffusione e la verifica di memi. Gli ipertesti accelereranno questo processo. I media cartacei
gestiscono questo processo di generazione e diffusione piuttosto bene, ma sono molto goffi per quel che
riguarda la gestione della verifica.

Una volta che una cattiva idea raggiunga la stampa, essa assume vita propria, e persino il suo autore può di
rado avere la possibilità di piantare un paletto nel suo cuore. Una confutazione devastante di una cattiva
idea diventa semplicemente un'altra pubblicazione, un altro foglietto di carta. Giorni o anni più tardi, resta
ancora improbabile che i lettori che hanno incontrato o incontrano l'idea contraffatta siano anche
casualmente capitati sulla sua confutazione. E così il nonsenso sopravvive e prospera. Solo con l'avvento
degli ipertesti, i critici saranno in grado di piantare i loro stiletti nelle carni dei loro bersagli. Solo con gli
ipertesti gli autori possono essere in grado di ritrattare i loro errori, e facendolo non grazie al rogo delle
biblioteche o imbastendo una massiccia campagna pubblicitaria, ma semplicemente revisionando i loro testi

139
ed etichettando la vecchia versione come "ritrattata". Gli autori avranno il mezzo per rimangiarsi le loro
parole in tutta tranquillità; questo li compenserebbe, in parte per l'accresciuta ferocia della critica.

I critici useranno chiare confutazioni per trafiggere a morte le insensatezze (come per esempio quello dei
falsi limiti allo sviluppo), spazzandole via dall'arena intellettuale - sebbene senza eliminare le loro
registrazioni - con quasi la stessa velocità con cui esse diventano visibili. Le guide alle buone critiche
aiuteranno i lettori a vedere se una idea è sopravvissuta alle obiezioni più agguerrite sollevate fino a quel
momento. Oggi, l'assenza di critiche conosciute non significa molto, poiché i brevi commenti critici sono
difficili da pubblicare e ardui da trovare. In un consolidato sistema ipertestuale, tuttavia, le idee che siano
sopravvissute a tutte le critiche note saranno sopravvissute ad una vera sfida. Esse si saranno conquistate
una credibilità autentica e crescente.

Collegare la Nostra Conoscenza


I pregi impliciti negli ipertesti si estendono molto in profondità; e questo è il motivo per cui essi sono così
grandi. Gli ipertesti ci consentiranno di rappresentare la conoscenza in maniera più naturale. La conoscenza
umana forma una rete priva di interruzioni, ed i problemi umani sconfinano largamente oltre i vaghi confini
che delimitano i vari campi. Le schiere ordinate di libri svolgono un ben misero lavoro come rappresentanti
della struttura della nostra conoscenza. Le biblioteche, inventando modi migliori di indicizzare, referenziare e
disporre fogli sfusi, hanno lavorato per rendere queste schiere di libri più simili a reti, e tuttavia, a dispetto dei
nobili sforzi compiuti e delle vittorie riscosse dai bibliotecari, una ricerca bibliografica è tuttora qualcosa che
spaventa chiunque, fatta eccezione per una minoranza specializzata del pubblico di lettori. I bibliotecari
hanno evoluto pian piano soluzioni orientate in direzione degli ipertesti, e tuttavia la meccanica della carta è
tuttora d'intralcio per questo obiettivo. I sistemi ipertestuali ci consentiranno di compiere un passo da gigante
nella stessa direzione verso cui ci siamo mossi fin dall'invenzione della scrittura.

La nostra stessa memoria funziona tramite associazioni, cioè per mezzo di collegamenti che rendono
richiamabili le nostre re-classificazioni delle informazioni memorizzate. Anche i ricercatori nel campo della IA
trovano che il meccanismo dell'associazione sia essenziale per la costruzione di conoscenza utilizzabile dai
loro sistemi; questi ricercatori programmano ciò che loro chiamano "reti semantiche" per costruire sistemi di
rappresentazione della conoscenza, Sulla carta, le associazioni fra parole ci forniscono un aiuto prezioso;
nella mente, un vocabolario funzionante si basa su associazioni rapide e flessibili fra parole. Di fatto, nella
memoria, le correlazioni forniscono il contesto che dona significato alle nostre idee. Utilizzando gli ipertesti la
gente assocerà idee grazie a collegamenti pubblicati, arricchendo le stesse idee di significato, e rendendole
ancor più parte della nostra stessa mente.

Quando modifichiamo la nostra mente riguardo alla concezione che abbiamo del mondo, e la concezione di
dove esso stia andando, trasformiamo la nostra rete di conoscenza. Trasformazioni ragionate spesso ci
richiedono di confrontare schemi di idee in competizione fra loro.

Per giudicare la specifica visione del mondo presentata da un libro, un lettore deve spesso ricordare o
rileggere spiegazioni da recuperare dalle pagine precedenti - o da un contestato articolo apparso l'anno
precedente. Ma la memoria umana è fallace, e scavare alla ricerca di un vecchio articolo spesso sembra
richiedere troppo lavoro. Ben conoscendo tale problema, gli autori spesso esitano incerti fra l'alternativa di
includere troppo materiale nel loro lavoro (annoiando i loro lettori) e quella di tralasciare molte cose
importanti (lasciando punti deboli nella loro discussione). Inevitabilmente, essi fanno entrambe le cose,
contemporaneamente.

I lettori degli ipertesti saranno in grado di vedere se le fonti collegate supportano una idea o se altre fonti
connesse contengono critiche che la demoliscono. Gli autori scriveranno corposi e stimolanti sunti delle loro
idee e le collegheranno alle loro estese e noiose spiegazioni. Mano a mano che gli autori esporranno le loro
idee e i critici le discuteranno, entrambi tesseranno in parallelo intere reti contrastanti di visioni del mondo,
punto su punto. I lettori non saranno ancora in grado di giudicare perfettamente o istantaneamente le idee
presentate, ma saranno quanto meno in grado di giudicarle meglio e più rapidamente. In questo modo, gli
ipertesti ci aiuteranno in uno dei compiti più grandi del nostro tempo: giudicare cosa sia davanti a noi, e
correggere il nostro pensiero per adeguarlo alle prospettive di ciò che scuoterà le fondamenta delle nostre
consolidate visioni del mondo. Gli ipertesti rafforzeranno la nostra preveggenza.

Per allora, molte delle utili applicazioni di un maturo sistema ipertestuale saranno divenute ovvie - o
quantomeno altrettanto ovvie di quanto lo possono essere oggi, prima di aver mai avuto l'occasione di

140
sperimentarle direttamente. Il supporto alla diffusione di news giornalistiche è una di queste ovvie
applicazioni.

Le news modellano la nostra visione del mondo, ma i media attuali pongono dei limiti a ciò che i giornalisti
possono ritrarre. Spesso, le storie riguardanti la tecnologia e gli eventi del mondo hanno senso solo
nell'ambito di un contesto più generale, ma le limitazioni di spazio e le frenetiche scadenze di pubblicazione
strappano via il contesto associato alle storie. Ciò indebolisce la nostra comprensione degli eventi.
Utilizzando gli ipertesti, i cronisti troveranno facile collegare le news del giorno a più estese discussioni
precedenti. Per di più, la gente coinvolta nelle storie e i casuali osservatori delle stesse, saranno in grado di
dire la loro, collegando così i loro commenti alla storia riportata dal cronista.
La pubblicità lubrifica gli ingranaggi dell'economia, spingendoci (anche in malafede) verso i prodotti
disponibili. Dei consumatori ben informati potrebbero anche evitare l'acquisto di beni mediocri ed in
sovraprezzo, ma la necessità di cercare fra i beni disponibili e confrontarli, inghiottirebbe notevoli quantità di
tempo. Su un sistema ipertestuale, invece, alcune compagnie che offrono servizi per i consumatori
compileranno cataloghi comparativi, collegando l'una all'altra le descrizioni di prodotti in reciproca
competizione per verificarle e riferire ai consumatori.

Per quel che riguarda l'istruzione, impariamo meglio quando siamo interessati a quel che stiamo leggendo.
Ma la maggioranza dei libri presenta idee solo in una unica sequenza, e solo ad un livello di difficoltà, senza
preoccuparsi della preparazione pregressa o dell'interesse di chi legge per apprendere. Anche in questo
caso, la domanda popolare favorirà la crescita di utili reti ipertestuali. La gente creerà collegamenti fra
presentazioni analoghe, ma concepite per livelli di difficoltà differenti. Gli studenti saranno in grado di leggere
una presentazione pensata su un agevole livello di difficoltà, sbirciando su discussioni parallele che
scendono un tantino più in profondità. La facilità di assimilazione del materiale più ostico ne risulterà
accresciuta, poiché i collegamenti verso nozioni e definizioni basilari consentirà al lettore di prendersi pause
per riordinare le idee - istantaneamente, privatamente e senza imbarazzo. Altri collegamenti potrebbero
condurre in tutte le direzioni verso materiale correlato; i collegamenti in una descrizione sulla barriera
corallina potrebbero condurre verso testi sull'ecologia dei coralli o sulle storie di squali affamati. Potremmo
soddisfare un nostro interesse momentaneo quasi istantaneamente, ed apprendere diverrà più divertente.
Sempre più gente potrebbe considerarlo qualcosa che genera assuefazione.

Con gli ipertesti la procedura del giusto processo si irrobustirà. Poiché gli ipertesti sono aperti verso tutte le
direzioni, permettendo di formulare domande, di rispondervi, e così via, il dibattito condotto a mezzo
ipertesto sarà dotato di una implicita procedura di giusto processo di alta qualità. Di fatto, gli ipertesti
saranno un media ideale per la conduzione di forum dei fatti. Le procedure dei forum, a loro volta, saranno
complementari agli ipertesti perché distilleranno i risultati dei loro dibattiti d'ampio respiro in affermazioni
chiare (sebbene ottenute per tentativi) riguardanti fatti tecnici di importanza chiave.
Un effetto finale ovvio degli ipertesti sarà quello di ridurre il problema delle citazioni fuori contesto: i lettori
saranno in grado di recuperare il contesto originario associato ad ogni citazione, facendolo riapparire nel
sistema con la semplice pressione di un pulsante. Questa sarà una caratteristica preziosa, e non solo per la
prevenzione della rappresentazione travisata della posizione di un autore; i benefici indiretti potrebbero
essere ancor più grandi. Strappare dal loro contesto di fondo affermazioni ragionevoli può sembrare
assurdo, ma gli autori degli ipertesti sapranno che le citazioni "assurde" condurranno i lettori direttamente
verso il contesto originale dell'autore. Ciò favorirà una scrittura più ardita, dando ai memi basati sulle prove e
sul ragionamento un vantaggio rispetto a quelli basati sulla pura convenienza o timidezza.

Forse il più importante (sebbene il meno evidente) beneficio degli ipertesti sarà una nuova capacità di
vedere l'esistenza di lacune. Per sopravvivere ai prossimi anni, dobbiamo saper valutare correttamente idee
complesse, e ciò richiede di saper giudicare se un argomento è pieno di lacune. Ma al momento abbiamo
problemi ad individuare le lacune.

Ancora più difficile è riconoscere l'assenza di lacune fatali, e tuttavia questa è la chiave per riconoscere un
argomento fondato. Gli ipertesti ci aiuteranno anche in questo. I lettori esamineranno importanti
argomentazioni, e dove riscontrino delle lacune le correderanno di cospicue obiezioni. Queste obiezioni
renderanno le lacune così consistentemente visibili che l'assenza di buone obiezioni costituirà una chiara
assenza di lacune conosciute. Potrebbe essere difficile apprezzare quanto tutto ciò sia importante: la mente
umana tende a non riconoscere i problemi causati dalla nostra incapacità di vedere l'assenza di lacune, per
non parlare poi delle opportunità che questa incapacità ci fa sfuggire.
Per esempio, immaginate di avere una idea, e di star cercando di decidere se sia plausibile e valga la pena
pubblicarla. Se l'idea non è ovvia, potreste dubitare della sua veridicità e non pubblicarla. Ma se sembra
ovvia, potreste con tutta ragione presumere che sia stata già pubblicata, anche se proprio non sapete
trovare dove. Gli ipertesti, poiché rendono più facile trovare le cose, renderanno più facile vedere se

141
qualcosa non sia ancora stata pubblicata. Rendendo le lacune della nostra conoscenza più visibili, gli
ipertesti ci stimoleranno a colmare tali lacune.

Per comprendere e guidare la tecnologia, abbiamo bisogno di trovare gli errori - incluse le omissioni - nelle
proposte tecnologiche complesse. Poiché assolviamo questo compito in modo così carente, incorriamo in
molti equivoci, e la visibilità di questi equivoci rende la nostra incompetenza un fatto evidente e minaccioso.
Ciò incoraggia la prudenza, e tuttavia favorisce anche la paralisi: poiché abbiamo difficoltà ad accorgerci
della presenza di lacune, temiamo che siano ovunque, anche dove non esistono affatto. Gli ipertesti ci
aiuteranno a costruire fiducia in noi stessi dove tale fiducia sia giustificata grazie ad una più affidabile
esposizione dei problemi.

Pericoli degli Ipertesti


Come molti altri utili strumenti, gli ipertesti potrebbero essere utilizzati per far danno. Sebbene ci aiuteranno
a mantenere traccia dei fatti, potrebbero anche aiutare i governanti a mantenere traccia di noi. Tuttavia, in un
bilancio complessivo, essi potrebbero servire la libertà. Pensati per essere intrinsecamente decentralizzati -
con molte macchine, molti scrittori, molti editori - gli ipertesti potrebbero aiutare i cittadini più di quanto
possano aiutare coloro che li governano. Le banche dati governative cresceranno di dimensioni in ogni caso,
indipendentemente dagli ipertesti. I sistemi ipertestuali potrebbero persino aiutarci a tenerle d'occhio.

Affidarsi completamente alla pubblicazione elettronica comporta altri pericoli. I governi degli Stati Uniti,
come quelli d'altri paesi, hanno spesso interpretato l'ideale che una volta veniva enunciato come "libertà di
parola" e di "stampa" intendendolo esclusivamente come libertà di parlare e di vendere carta stampata. I
governi hanno infatti regolamentato l'uso della radio e della televisione, richiedendo a questi media di servire
una concezione del pubblico interesse piuttosto orientata verso l'interpretazione che le burocrazie avevano
di esso. I limiti pratici che obbligano a vincolare il numero di canali trasmittenti sul largo raggio, hanno fornito
qualche scusa per questa imposizione, ma tali scuse devono fermarsi qui. Dobbiamo estendere i principi
della libertà di parola ai nuovi media.

Saremmo inorriditi se i governanti ordinassero agli agenti di irrompere nelle biblioteche per bruciare libri.
Dovremmo ugualmente inorridire se i governanti tentassero di cancellare documenti pubblici dalle librerie
elettroniche. Se gli ipertesti dovranno veicolare le nostre tradizioni, allora ciò che è stato pubblicato deve
restare tale. Una biblioteca elettronica non sarebbe meno di una biblioteca solo perché è priva di scaffali o di
carta. La cancellazione non produrrebbe fumo o fiamme, ma la puzza del rogo di libri resterebbe.

Dal Desktop alla Libreria Mondiale


Alcuni dei benefici che ho descritto deriverebbero solo da un grande ed altamente evoluto sistema
ipertestuale - uno che già svolga la funzione di forum per dibattiti d'ampio respiro e che sia sulla buon strada
per divenire una biblioteca elettronica mondiale. Un sistema di questo tipo potrebbe anche non arrivare a
piena maturazione prima dell'arrivo della rivoluzione degli assemblatori e della IA. Perché gli ipertesti
conquistino terreno, piccoli sistemi devono guadagnare applicazione pratica, e perché gli ipertesti ci aiutino a
gestire la corsa tecnologica, i sistemi piccoli devono ottenere effetti che vanno al di la della loro dimensione.
Fortunatamente, possiamo attenderci benefici sostanziali fin quasi dal principio.

Singole macchine ipertestuali saranno in grado di servire contemporaneamente per diversi utilizzi. Anche
senza essere collegati ad ogni cosa del mondo esterno, essi aiuteranno le compagnie, le associazioni e i
gruppi di ricerca, a gestire informazioni complesse.

Tuttavia, creare collegamenti con l'esterno sarà facile. Il numero di basi di dati pubbliche che sono
disponibili, si è sviluppato dalla dozzina della metà degli anni '60 fino a qualche centinaio nella metà degli
anni '70, e qualche migliaio nella metà degli anni '80. Le compagnie hanno reso queste basi di dati
pubblicamente disponibili grazie alle reti di computer. I sistemi ipertestuali saranno in grado di prelevare
materiali da tali basi di dati, per cui dovranno immagazzinare solo i codici di accesso verso di esse piuttosto
che il testo attuale. Questa informazione sarà solo apparentemente residente nel sistema ipertestuale, ma la
bontà di tale soluzione sarà sufficiente per molti scopi.

La gente utilizzerà i primi sistemi per fornire ad una comunità un servizio di connessione telefonica come
quelli esistenti negli attuali bulletin board systems. Gruppi di discussione dedicati a interessi specifici sono

142
già emersi sulle reti di computer; tali gruppi trovano che gli ipertesti siano un media migliore per lo scambio
di informazione e punti di vista.

I primi sistemi ipertestuali ci aiuteranno anche a costruire e avviare delle organizzazioni. L'ordinaria
conferenza a mezzo computer (che semplicemente manda avanti e indietro dei brevi messaggi) già aiuta i
gruppi a comunicare. I vantaggi di una conferenza non "faccia a faccia" includono costi più bassi (nessun
bisogno di viaggiare) una interazione meno aspra (nessuna necessità di attendere o di interrompere la
gente) ed una migliore visibilità delle caratteristiche delle menti partecipanti (grazie a messaggi più chiari e
meno conflitti derivati da particolari protagonismi). Le comunicazioni ipertestuali estenderanno tali benefici
dando ai partecipanti strumenti migliori per riferire, confrontare e riassumere. Poiché i dibattiti a mezzo
ipertesti non hanno bisogno di un singolo editore, alle organizzazioni è perciò consentito di divenire più
aperte.

Utilizzare un servizio ipertestuale tramite il telefono e da un computer domestico durante le ore non di punta
probabilmente costerà all'inizio diversi dollari per ogni ora. Questo costo crollerà nel tempo. Per diverse
decadi fino ad oggi, l'effettivo costo dei computer è sceso di circa un fattore dieci ogni dieci anni, e il costo
delle comunicazioni si è ridotto anch'esso. I sistemi di ipertesto saranno affrontabili da un numero
sostanziale di persone quasi nello stesso momento in cui essi diverranno disponibili. Sembra che entro dieci
anni, il costo calerà abbastanza da essere compatibile con l'utilizzo di questi sistemi da parte di un mercato
di massa.

La possibilità della pubblicazione elettronica è già stata colta al volo. La Academic American Encyclopedia,
strutturata come un semplice ipertesto, è stata resa disponibile a 90.000 sottoscrittori, incluse 200 librerie e
scuole. Il Time magazine riferisce (4) che i bambini usano il sistema con entusiasmo. I terminali nelle librerie
possono già accedere al testo dei titoli di quotidiani, rotocalchi e giornali professionali.

Non abbiamo bisogno di attendere un sistema universale per beneficiare universalmente dei suoi benefici,
poiché gli ipertesti inizieranno a fare la differenza molto prima. Abbiamo bisogno che gli ipertesti siano a
portata di mano di studenti, scrittori, ricercatori e dirigenti, e per la stessa ragione per cui abbiamo bisogno di
libri di testo nelle scuole, di strumenti nei laboratori e di utensili nelle officine. Alcuni libri hanno fatto una
grande differenza, persino quando letti da meno di una persona su mille, poiché hanno originato un ondata
di nuove idee, in seguito propagatasi lungo tutta la società. Gli ipertesti faranno la stessa cosa, aiutandoci a
raffinare idee che potranno in seguito diffondersi più estesamente anche tramite la carta stampata e i media
radiotelevisivi.

Ipertesti e Carta Stampata


Come si potrebbe confrontare la rivoluzione degli ipertesti con la rivoluzione di Gutenberg? Alcuni numeri
suggeriscono la risposta.

La stampa con caratteri mobili abbatte drasticamente i costi dei libri. Ne quattordicesimo secolo, l'Avvocato
Reale di Francia aveva solo settantasei libri, e tuttavia essi venivano considerati componenti di una
biblioteca molto grande. Un libro richiedeva settimane di lavoro esperto - e i copisti erano necessariamente
dei letterati. Le masse contadine non avrebbero mai potuto né permettersi né leggere dei libri.

Oggi, un anno di lavoro può permettere l'acquisto di quattromila libri. Molte case ne contengono centinaia; le
grosse biblioteche ne contengono milioni. La stampa taglia i costi dei libri di un centinaio di volte o anche più,
aprendo la possibilità dell'alfabetizzazione ed educazione di massa, e della rivoluzione mondiale tecnologica
e democratica in corso.

E gli ipertesti? Gutenberg mostrò all'Europa come disporre caratteri di metallo per stampare pagine; gli
ipertesti ci permetteranno di redisporre del testo già immagazzinato e inviarlo lungo tutti i paesi alla velocità
della luce. La stampa accumula pile di libri nelle case e montagne di libri nelle biblioteche; gli ipertesti
avranno l'effetto di portare queste montagne di libri ad ogni terminale. Gli ipertesti estenderanno la
rivoluzione di Gutenberg grazie all'incremento della quantità di informazione disponibile (5).

E tuttavia, un altro vantaggio pare essere ancora più grande. Oggi, seguire un riferimento in una biblioteca
di solito richiede minuti - con un po' di fortuna qualche centinaio di secondi - ma richiede anche giorni o più
se il materiale non è molto popolare quindi è assente, oppure è troppo popolare e quindi esaurito. Gli
ipertesti decurtano questi ritardi da centinaia di secondi a circa un secondo. Sicché, dove la rivoluzione di

143
Gutenberg riduceva il costo del lavoro per la produzione di testi in misura di varie centinaia, la rivoluzione
degli ipertesti ridurrà il costo del lavoro necessario per trovare un testo in misura di varie centinaia. Questa,
di fatto, sarebbe una rivoluzione.

Come ho discusso, rendere più convenienti i riferimenti ai collegamenti trasformerà la tessitura del testo,
portando ad una rivoluzione non semplicemente nella quantità ma anche nella qualità. Questo incremento in
qualità assumerà molte forme. Indici migliori renderanno più facile rintracciare informazione. Migliori
discussioni critiche estirperanno le insensatezze ed aiuteranno a rafforzare le idee plausibili. Migliori
presentazioni della globalità evidenzieranno le lacune nella nostra conoscenza.
Con informazione abbondante, disponibile e d'alta qualità, sembreremo più intelligenti. E ciò aumenterà le
nostre possibilità di gestire correttamente i passi avanti tecnologici in arrivo. Cosa potrebbe essere più utile?
La prossima volta che vedrete diffondersi una falsità o vedrete una cattiva decisione derivare dalla pura
ignoranza, fermatevi un attimo, e riflettete sugli ipertesti.

144
Capitolo 15: Abbondanza di mondi e tempo
La difficoltà risiede, non tanto nelle nuove idee, quanto nello sfuggire a quelle vecchie che, per quelli che
sono stati educati nel modo in cui la maggior parte di noi lo è stata, si ramificano in ogni angolo delle nostre
menti.
JOHN MAYNARD KEYNES

Ho descritto come i progressi della chimica e della biotecnologia condurranno verso gli assemblatori, che a
loro volta ci porteranno ai nanocomputer, ai replicatori, ed alle macchine ripara-cellule. Ho descritto come i
progressi del software ci condurranno verso l'ingegneria automatizzata e verso l'intelligenza artificiale.
Assieme, questi progressi renderanno possibile un futuro ricco di possibilità, una delle quali è la nostra
stessa distruzione. Tuttavia, se utilizzeremo i forum dei fatti e gli ipertesti per rafforzare la nostra
preveggenza, potremo evitare l'annichilazione, per muoverci oltre …ma verso dove?
Verso una trasformazione d'estensione mondiale che può, se risulterà in un successo, portare abbondanza
e longevità a tutti quelli che le desiderano (1). E questa è una prospettiva che, come è piuttosto naturale,
scatena sogni di utopia.

Un problema classico dell'utopia, come tutti ben sanno, è che dovrebbe essere statica, noiosa e terribile;
infatti, altrimenti non sarebbe affatto un'utopia. Ciò nonostante, i sogni degli utopisti hanno cambiato ed
ancora cambiato la storia, moltissime volte, in meglio o in peggio. Sogni pericolosi hanno condotto la gente
ad uccidere in nome dell'amore, e schiavizzare in nome della fratellanza. Fin troppo spesso i sogni sono stati
impossibili da realizzare, ed il tentativo di inseguirli è stato disastroso.

Abbiamo bisogno di sogni più utili per guidare le nostre azioni. Un sogno utile deve mostrarci una meta
possibile e desiderabile, ed i passi intrapresi verso quella meta devono produrre risultati positivi. Per aiutarci
a cooperare nella conduzione della corsa tecnologica, abbiamo bisogno di mete che facciano presa su gente
con sogni differenti; ma quali mete ci occorrono? Pare che ci debba essere spazio per la diversità.
Analogamente, quali dei sogni oggi scelti, così vicino all'alba dell'intelligenza, potrebbero dimostrarsi
preoccupanti per il nostro futuro potenziale? Pare che ci debba essere spazio per il progresso.

Solo un certo tipo di futuro sembra risultare sufficientemente di largo respiro da possedere un'attrattiva
generalizzata: un futuro aperto, di libertà, diversità e pace, che abbia spazio per l'inseguimento di molti sogni
differenti; un futuro aperto, e desiderabile in egual misura da persone molto diverse fra loro; I piani grandiosi,
come quello di stabilire un ordine mondiale uniforme, sembrano invece più pericolosi. L'imperativo "un
mondo o nessun mondo", significherebbe l'imposizione di un singolo sistema sociale su un mondo di ostili
potenze nucleari, il che pare una giusta ricetta verso il disastro. "Molti mondi o nessuno" sembrerebbe
essere la nostra scelta reale, se potremo sviluppare scudi attivi per assicurare la pace.

Potremmo essere capaci di realizzare tutto questo. Utilizzando dei sistemi di ingegneria automatizzata come
quelli descritti nel capitolo 5, saremo in grado di esplorare i limiti del possibile a ritmi milioni di volte superiori
rispetto a quelli umani. Saremo quindi in grado di delineare i limiti ultimi della corsa tecnologica, inclusa la
corsa agli armamenti. Assieme all'impiego di scudi attivi basati su tale conoscenza, sembra quindi che
potremo assicurare una pace stabile e duratura (2).

La tecnologia avanzata non ha bisogno di modellare il mondo pressandolo contro un unico stampo. Molta
gente un tempo aveva timore che macchine e organizzazioni sempre più grandi potessero dominare il nostro
futuro, stritolando la diversità e i desideri umani. Di fatto, le macchine possono svilupparsi nella direzione di
un accrescimento sempre maggiore, ed alcune lo fanno. Le organizzazioni possono svilupparsi verso un
accrescimento sempre maggiore, ed alcune lo fanno. Ma macchine sgradevoli e sferraglianti, e burocrazie
immense cominciano già ad avere l'aspetto di abiti fuori moda, a confronto dei microcircuiti, delle
biotecnologie e delle organizzazioni fluide.

Oggi possiamo vedere le linee generali del quadro delineato sulla scala umana da una più alta tecnologia,
quelle di un mondo in cui le macchine non sferragliano e gli impianti chimici non puzzano e i sistemi di
produzione non usano la gente come fossero semplici ingranaggi meccanici. La nanotecnologia ci mostra
che i progressi possono condurre verso un differente stile di tecnologia. Assemblatori ed intelligenza
artificiale ci permetteranno di creare prodotti complessi senza organizzazioni complesse. Gli scudi attivi ci
permetteranno di assicurare la pace senza un massiccio complesso militare-industriale. Queste tecnologie
allargheranno le nostre scelte, liberandoci dai nostri vincoli e creando disponibilità di spazio per una più
grande diversità ed indipendenza. Instaurare un'era di abbondanza richiederà soltanto che, un giorno, le

145
vaste e non rivendicate risorse dello spazio siano divise in modo da distribuirne ad ognuno una significativa
porzione.

Nelle poche restanti sezioni, darò uno sguardo su alcune possibilità estreme che le nuove risorse e i nuovi
motori della creazione apriranno per noi; estremi che spaziano dalla fantascienza ai modi di vita dell'età della
pietra. Considerate gli estremi presentati nel seguito come degli intensi colori primari, da mescolare sulla
vostra tavolozza per dipingere il futuro che più vi piace.

Nanotecnologia e Vita Quotidiana


Una tecnologia avanzata potrebbe mettere fine alla vita oppure estenderla, ma potrebbe anche trasformare
la sua qualità. I prodotti basati sulla nanotecnologia pervaderanno le vite quotidiane della gente che
sceglierà di utilizzarli. Alcune conseguenze saranno triviali; altre potrebbero essere profonde.

Alcuni prodotti produrranno effetti in termini di semplificazione dell'ordinaria manutenzione casalinga


(altrettanto sostanziali degli effetti di riduzione delle cause di litigio domestico). Non dovrebbe rappresentare
un indice di grande ingegnosità, per esempio, pensare di realizzare ogni prodotto casalingo, dai piatti ai
tappeti, in maniera che risulti essere auto-pulente, mantenendo così permanentemente sana l'aria della
casa. Per delle nanomacchine progettate a questo scopo, lo sporco potrebbe essere cibo.

Altri sistemi basati sulla nanotecnologia, potrebbero produrre del cibo fresco: carne genuina, grano,
vegetali, ecc…, prodotti direttamente in casa e lungo tutto l'anno. Questi cibi derivano dallo sviluppo di
cellule secondo certi schemi, sviluppo che costruisce così piante e animali; le cellule potrebbero quindi
essere obbligate a svilupparsi secondo gli stessi schemi anche in altri luoghi. Gli sviluppatori domestici di
cibo consentiranno alla gente di sostenere delle diete ordinarie senza uccidere nessuno. Il movimento per i
diritti degli animali (il precursore di un movimento per la protezione di tutte le entità coscienti e senzienti?)
approverà entusiasticamente.

La nanotecnologia renderà possibile schermi ad alta risoluzione capaci di proiettare immagini differenti su
ogni occhio; il risultato sarà una televisione tridimensionale così reale che lo schermo sembrerà come una
finestra su un altro mondo. Schermi di questo tipo potrebbero corredare l'elmetto di una tuta spaziale simile
a quella descritta nel capitolo 6. La tuta stessa, piuttosto che esser programmata per applicare alla pelle
forze e trame di pressione definite dall'esterno, potrebbe invece applicare forze e trame di pressione definite
da un complesso programma interattivo. La combinazione di una tuta e di un elmetto di questo tipo,
potrebbe simulare la maggior parte delle visioni e delle sensazioni di un intero ambiente, sia esso un
ambiente reale o immaginario. La nanotecnologia renderà possibile delle vivide forme d'arte e la creazione di
mondi fantastici estremamente più avvincenti di qualsiasi libro, gioco o film.

Le tecnologie avanzate renderanno possibile un intero nuovo mondo di prodotti al cui confronto ciò che oggi
è considerato conveniente sembrerà sconveniente e pericoloso. Perché gli oggetti non dovrebbero essere
leggeri, flessibili, duraturi e cooperativi? Perché le pareti non dovrebbero apparirci in qualunque aspetto
desiderato, e non dovrebbero poter trasmettere solo i suoni che desideriamo udire? Perché dovremmo
costruire edifici e veicoli che stritolano o arrostiscono i propri occupanti? Per quelli che lo desidereranno,
l'ambiente della vita quotidiana potrà assomigliare a quello delle più sfrenate fra le descrizioni che è possibile
trovare nella fantascienza.

Altri Sogni Fantascientifici


Verso molti degli estremi del possibile ci sono i sogni della fantascienza, per coloro che desiderano viverli.
Essi spaziano dalle case che cooperano con noi per il nostro comfort alle prospettive del duro lavoro su
pianeti distanti. Gli autori di fantascienza hanno immaginato moltissime cose, alcune possibili ed altre in
evidente contraddizione con le leggi naturali conosciute. Alcuni hanno sognato del volo spaziale, ed il volo
spaziale è giunto. Alcuni hanno sognato di robot, ed i robot sono arrivati. Alcuni hanno sognato del volo
spaziale economico e di robot intelligenti, ed anche questi sogni sono prossimi a realizzarsi. Ma esistono
ancora altri sogni che paiono possibili.

Gli autori hanno scritto della condivisione diretta di pensieri ed emozioni da una mente all'altra. La
nanotecnologia sembra probabilmente in grado di rendere possibile una qualche forma di questo sogno,
grazie alla connessione di strutture neurali per mezzo di trasduttori e segnali elettromagnetici. Sebbene

146
limitata dalla velocità della luce, questa sorta di telepatia sembra altrettanto possibile di quanto lo è la
telefonia.

Astronavi, colonie spaziali e macchine intelligenti diverranno tutte cose possibili. Ma sono tutte cose che
risiedono all'esterno della nostra pelle, mentre gli scrittori hanno anche narrato di trasformazioni interne alla
nostra pelle, che diverranno altrettanto possibili. Conquistare completamente la salute nel corpo e nella
mente è una delle forme di tali possibilità, e tuttavia alcune persone vorranno di più. Esse saranno alla
ricerca di cambiamenti ad un livello più profondo che non la semplice conquista di salute ed abbondanza.
Alcuni cercheranno appagamento nel mondo dello spirito; sebbene questa ricerca risieda oltre la portata
della tecnologia puramente materiale, nuove possibilità fisiche forniranno punti di partenza, nonché tempo a
sufficienza per tentare. La tecnologia alla base dei sistemi di riparazione cellulare permetterà alla gente di
trasformare i propri corpi in modi che vanno dal triviale al sorprendente, ed infine al bizzarro. Tali
trasformazioni avranno ben pochi limiti ovvi. Alcune persone potrebbero spogliarsi della forma umana al pari
di un bruco che si trasformi per spiccare il volo; altre potrebbero portare il modello umano verso un nuovo
nirvana di perfezione. Altre persone ancora, infine, semplicemente si cureranno le loro verruche,
ignoreranno le nuove farfalle e se ne andranno a pesca.

Gli scrittori hanno sognato di viaggi nel tempo verso il passato , ma a tal riguardo la natura non sembra
cooperare (3). Tuttavia la biostasi apre la porta del viaggio temporale verso il futuro, poiché può far si che gli
anni trascorrano nell'arco di un battito di ciglia. La stanchezza potrebbe spingere alla ricerca di un futuro
molto più distante, forse nell'attesa di una lenta maturazione nel campo delle arti oppure in altri campi sociali,
o nell'attesa della creazione di interi mondi su tutta la galassia. Se le cose andranno davvero così, si
potrebbe passare da un'epoca all'altra alla ricerca di un futuro che ci sembri adatto.
Strani futuri restano aperti, associati a mondi oltre la nostra immaginazione.

Semplicità Avanzata
E. F. Schumacher, autore di Small Is Beautiful, ha scritto: "Non ho dubbi che sia possibile dare una nuova
direzione allo sviluppo tecnologico, una direzione che lo riporti indietro verso i reali bisogni dell'uomo, il che
significa anche: verso la vera scala dimensionale umana. L'uomo è piccolo, e di conseguenza piccolo è
bello". Schumacher non stava scrivendo a proposito di nanotecnologia, ma davvero una tecnologia avanzata
fatta su misura per la scala umana, potrebbe contribuire ad una vita più semplice?

In tempi preistorici, la gente utilizzava due tipi di materiali: i prodotti dei processi naturali di mole (pietra,
acqua, aria ed argilla) ed i prodotti del macchinario molecolare naturale (ossa, legno, pelle e lana). Oggi noi
utilizziamo questi stessi materiali assieme a dei complessi processi di mole, per fabbricare i prodotti della
nostra civiltà industriale globale. Se in passato il nostro sistema tecnologico é cresciuto al di là della portata
della scala umana, sono in massima parte da commiserare solo la nostra tecnologia di mole e la stupidità
delle nostre macchine: per realizzare sistemi complessi dobbiamo renderli più grandi. Per renderli capaci,
dobbiamo riempirli di gente. Il sistema risultante si è ormai allargato su tutti i continenti, intrappolando la
gente in una ragnatela globale. Esso ci ha offerto una via di fuga dalla dura fatica di dover condurre fattorie
per assicurarci la nostra sussistenza, ed ha prolungato le nostre vite portandoci benessere, ma lo ha fatto ad
un costo che qualcuno considera troppo alto.
La nanotecnologia ci apre ora nuove possibilità. I sistemi autoreplicanti saranno capaci di produrre il cibo,
aver cura della nostra salute, fornirci asilo e soddisfare altre nostre necessità. Essi compiranno tutto ciò
senza burocrazie o grosse industrie. Comunità piccole ed autosufficienti potranno raccoglierne tutti i benefici.

Una misura sperimentale della libertà che una tecnologia offre, è il grado di libertà che lascia alla gente di
scegliere se ritornare a modi di vita più primitivi. La tecnologia moderna ha fallito da questo punto di vista; la
tecnologia molecolare invece riuscirà in tutto ciò. Per misurare il grado di libertà offerto dalla nanotecnologia,
immaginiamo di ritornare allo stile di vita dell'età della pietra, ma non semplicemente ignorando la tecnologia
molecolare, quanto piuttosto mentre continuiamo comunque ad utilizzarla.
Gli abitanti dell'età della pietra, mancando di una istruzione come quella moderna, non avrebbero potuto
comprendere il macchinario molecolare, ma questo poco importa. Fin dai tempi antichi, gli abitanti di queste
epoche hanno utilizzato il macchinario molecolare di lieviti, semi, e capre, pur senza comprenderli a livello
molecolare. Se cose così complesse ed indisciplinate come lo sono le capre, sono adatte a stili di vita
primitivi, allora ci sono sicuramente anche altre forme di macchinario molecolare che sono altrettanto
qualificate per questo scopo. Le cose viventi mostrano che il macchinario interno ad un sistema auto-
replicante può anche non esserci noto, persino più di quanto si possa ignorare quello che c'è all'interno di
una automobile. Per cui, un gruppo di persone può tranquillamente coltivare "piante" ed allevare "animali"

147
per facilitare la severa durezza dell'esistenza, e continuare a condurre uno stile di vita fondamentalmente
identico a quello dell'età della pietra. Queste persone potrebbero anche auto-limitarsi a piante ed animali
ordinari, modificati solo tramite la semplice ingegneria di millenni di selezionamenti artificiali delle specie
coltivate o allevate.

Con possibilità così ampie, alcune persone potrebbero persino scegliere di vivere come facciamo oggi: con i
rumori del traffico, e gli stessi cattivi odori e pericoli di oggi; con i denti cariati e gli stridenti trapani del
dentista; con le giunture dolenti e le rughe della pelle; con le loro gioie disturbate ed intralciate da paure, da
fatiche e dall'approssimarsi della morte. Ma a meno di una totale amnesia che faccia loro dimenticare
l'esistenza di possibilità migliori, quante persone desidererebbero davvero rassegnarsi a vite come queste?
Forse pochissime.

Possiamo immaginare di condurre una vita ordinaria in una colonia spaziale? Un insediamento spaziale
dovrebbe essere grande, complesso e localizzato nello spazio: ma anche la Terra è grande, complessa e
localizzata nello spazio. I mondi nello spazio possono essere altrettanto auto-sostenuti rispetto alla Terra, e
grandi quanto interi continenti, inondati dalla luce del sole, saturi d'aria e contenuti in un bio-cilindro se non
addirittura in una biosfera.

I mondi nello spazio non necessariamente dovranno essere dei prodotti della diretta progettazione umana.
Soggiacente a molta della bellezza della natura, c'è un certo tipo di disordinato ordine. Le venature di una
foglia, i rami di un albero, le ramificazioni di un bacino fluviale, contengono tutte una libertà di forme
incanalata nell'ambito di schemi che assomigliano a ciò che i matematici chiamano "frattàli" (4). I paesaggi
dello spazio non dovranno necessariamente essere modellati come campi da golf o periferie residenziali.
Alcuni potranno essere modellati con l'ausilio di computer programmati per riflettere una profonda
conoscenza dei processi naturali, e per combinare tale conoscenza in realizzazioni guidate da scopi umani,
svolgendo tutto ciò con una naturalezza che nessuna mente o mano umana può direttamente produrre.
Montagne e valli selvagge verranno rispecchiate nella modellazione di forme di rocce e terre di sogno
scolpite nelle acque elettroniche di una sognante era virtuale. I mondi nello spazio saranno veri mondi.

Spazio a Sufficienza per i Sogni


Questa quindi è la dimensione che il futuro promette. Sebbene continueranno ad esistere limiti allo sviluppo,
saremo in grado di raccogliere la potenza energetica del sole in misura un milione di miliardi di volte
maggiore di tutta la potenza attualmente impiegata dall'uomo. Dalle risorse del nostro sistema solare saremo
in grado di creare aree di territorio un milione di volte più estese di quelle terrestri. Con gli assemblatori, con
l'ingegneria automatizzata e con le risorse dello spazio, potremo rapidamente conquistare un benessere in
quantità e qualità ben superiore a quella immaginata nei sogni del passato. Resteranno dei limiti ultimi
all'estensione della vita umana, ma la tecnologia per la riparazione cellulare metterà a disposizione di tutti
una salute perfetta e una longevità indefinita. Questi progressi ci porteranno nuovi motori di distruzione, ma
renderanno anche possibili scudi attivi e sistemi di controllo degli armamenti capaci di stabilizzare la pace.

In breve, abbiamo una possibilità per un futuro con spazio a sufficienza per molti mondi e molte scelte, e
con tempo sufficiente per poter esplorare entrambe. Una tecnologia ben addomesticata può far recedere i
nostri limiti, consentendo che le forme della tecnologia modellino molto meno le forme dell'umanità stessa. In
un futuro aperto di abbondanza, spazio e diversità, i gruppi di persone saranno liberi di costituire qualsiasi
forma di società essi desiderino, liberi di fallire o di diventare un fulgido esempio per il mondo. A meno che il
vostro sogno non sia quello di dominare chiunque altro, ci sono possibilità che altre persone desiderino
condividerlo. E se sarà così, allora voi e questi altri potreste scegliere di unirvi per dar forma ad un mondo
nuovo. Se una promettente partenza dovesse poi rivelarsi fallimentare, se essa risolvesse troppi problemi
oppure troppo pochi, avreste il modo di riprovarci ancora. I nostri problemi attuali non sono quelli di saper
costruire o progettare utopie, ma di cercare una possibilità per provare a realizzarle.

Preparativi
Potremmo anche fallire. Gli assemblatori-replicatori e l'IA potrebbero condurci a problemi dalla complessità
senza precedenti, e minacciare di arrivare con una repentinità senza precedenti. Non possiamo attendere
che si verifichi un errore fatale, per decidere solo in seguito cosa fare in proposito; dobbiamo impiegare
queste nuove tecnologie per costruire scudi attivi prima che i sintomi minacciosi compaiano.

148
Fortunatamente per le nostre possibilità, i passi avanti tecnologici imminenti diverranno costantemente
sempre più ovvi. Essi probabilmente cattureranno l'attenzione pubblica, garantendo almeno un certo grado
di preveggenza. Ma più presto cominceremo a stendere dei piani, migliori saranno le nostre probabilità. Il
mondo diverrà presto un luogo ospitale per i memi che si propongono di descrivere delle politiche assennate
per gestire i passi avanti tecnologici degli assemblatori e della IA. E a quel punto, tali memi si diffonderanno
e rafforzeranno, indipendentemente al fatto che lo meritino o meno. Le nostre probabilità saranno migliori se,
quando verrà il momento, sarà stato elaborato un sensato corredo di idee, e se esso avrà cominciato a
diffondersi - opinione e politica pubbliche avranno maggiore probabilità di scattare in direzioni assennate
quando la crisi si avvicinerà. La situazione rende importante già da ora una attenta discussione e una
adeguata educazione pubblica. Guidare la tecnologia richiederà anche delle nuove istituzioni, e le istituzioni
non si evolvono nell'arco di una notte. Questo rende importante già da ora lavorare sugli ipertesti e sui forum
dei fatti. Se saranno già pronti all'uso, essi cresceranno in popolarità all'approssimarsi della crisi.

A dispetto della enorme attrattiva esercitata da un futuro di apertura, alcune persone si opporranno ad esso.
Gli affamati di potere, gli idealisti intolleranti, ed una manciata di persone assolutiste nel loro odio verso
l'umanità intera, giudicheranno ripugnante la prospettiva della libertà e della diversità. Ma il punto
fondamentale è: queste persone influenzeranno la politica pubblica in modo sostanziale? Inevitabilmente, i
governi sovvenzioneranno, ritarderanno, classificheranno, gestiranno, abbozzeranno o guideranno i
rivoluzionari progressi tecnologici. Le democrazie cooperative potrebbero commettere errori fatali, ma se li
commetteranno è probabile che ciò accadrà più come risultato della pubblica confusione nel giudicare quali
siano le politiche che provocano determinate conseguenze.

Ci sarà una più genuina opposizione ad un futuro di apertura, sulla base di valori e obiettivi differenti (e
spesso non esplicitamente dichiarati), ma ci saranno disaccordi ancora più grandi su specifiche proposte,
sulla base di differenti credenze riguardanti materie di fatto. E nonostante la maggior parte dei disaccordi
deriverà da differenze di giudizio, molti altri deriveranno inevitabilmente dalla semplice ignoranza. Persino
fatti solidi e ben attestati resteranno, in un primo momento, poco noti. Quel che è peggio, la prospettiva di
tecnologie così fondamentali come quelle degli assemblatori, della IA e della macchine di riparazione
cellulare, deve inevitabilmente rovesciare, tutte assieme in una volta sola, molte vecchie idee fortemente
radicate. Questo causerà conflitti nelle menti della gente (lo so bene, avendone sperimentati alcuni). In
alcune menti, i conflitti farebbero scattare il riflesso del "rigetta-il-nuovo" che è finora servito all'umanità come
il più basilare dei sistemi immunitari mentali. E questo riflesso farà sì che l'ignoranza sarà molto tenace.

E c'è ancora di peggio, ossia che la diffusione di mezze-verità sarà causa di danni ulteriori. Perché possano
funzionare appropriatamente, alcuni memi devono essere messi in relazione con altri. Se ad esempio l'idea
della nanotecnologia fosse libera dall'idea dei suoi pericoli, la nanotecnologia sarebbe un pericolo ancora più
grande di quello che già costituisce di per sé stessa. Ma in un mondo già pieno di diffidenza verso la
tecnologia, questo rischio sembra improbabile. E tuttavia altri frammenti incompleti di idee si diffonderanno,
seminando incomprensione e conflitto.

L'idea dei forum dei fatti, quando venga considerata senza distinguere fra fatti, valori, e politiche, ha il
sapore di qualcosa di tecnocratico. Gli scudi attivi, se proposti senza menzionare gli ipertesti o i forum dei
fatti, potrebbero sembrare cose su cui è impossibile fare affidamento. I pericoli e l'inevitabilità della
nanotecnologia condurrebbero alla disperazione coloro che ignorassero l'esistenza dell'idea degli scudi attivi.
Il pericolo della nanotecnologia, se allo stesso tempo non se ne comprendesse bene la sua inevitabilità,
fomenterà futili sforzi locali mirati ad arrestare la sua avanzata globale. Gli scudi attivi, quando non motivati
dal loro requisito ultimo di controllare la tecnologia molecolare, sgomenteranno qualcuno per la loro
apparente problematicità eccessiva. Quando si parla di "progetti difensivi" senza distinguere fra difesa ed
offesa, gli scudi attivi sgomenteranno qualcuno per la loro apparente minacciosità nei confronti della pace.

Analogamente, l'idea della longevità, se non affiancata all'aspettativa di abbondanza e di nuove frontiere,
sembrerà perversa. L'abbondanza, immaginata senza uno sviluppo spaziale, suona pericolosa per
l'ambiente. L'idea della biostasi, per coloro che nulla conoscono sulla riparazione cellulare e confondono
l'espirazione con la dissoluzione, suona assurda.

Se non ci fossero le copertine dei libri o i collegamenti ipertestuali a tenerle assieme, le idee tenderebbero a
frammentarsi man mano che si diffondono. Abbiamo bisogno di sviluppare e diffondere una comprensione
unitaria del futuro, ossia la comprensione di un sistema di pericoli ed opportunità fittamente intrecciate.
Questo nostro bisogno richiede lo sforzo di molte menti. L'incentivo allo studio ed alla diffusione delle
informazioni necessarie sarà sufficientemente forte: gli argomenti sono infatti affascinanti ed importanti, e
molta gente vorrà unirsi ad amici, familiari e colleghi, nelle discussioni e riflessioni su quel che ci attende. Se
spingiamo nella giusta direzione - imparando, insegnando, discutendo, cambiando direzione - ed infine

149
ancor spingendo, potremmo ancora guidare la corsa tecnologica verso un futuro con spazio a sufficienza per
i nostri sogni.

Eoni di evoluzione e millenni di storia ci hanno preparato questa sfida, e l'hanno sommessamente
presentata alla nostra generazione. I prossimi anni ci porteranno fino al punto di svolta più importante di tutta
la storia della vita sulla Terra. Guidare la vita e la civiltà attraverso questa transizione è il compito più grande
del nostro tempo.

Se avremo successo (e se sopravviveremo), potremmo essere onorati dalle domande incessanti dei nostri
seccanti pronipoti: "Com'era quando eri ragazzo, prima della rivoluzione tecnologica?" e " Che si prova ad
invecchiare?" e "Cosa hai pensato quando hai sentito che stava per arrivare il 'Passo Avanti'?" e "E quindi
che hai fatto?". Con le vostre risposte, racconterete un'ennesima volta la storia di come vincemmo il futuro.

150
Postfazione, 1985
Nel campo che ho descritto il passo degli eventi è molto rapido. Nell'ambito dell'ultimo mese o giù di li, un
certo numero di sviluppi si sono verificati o sono giunti alla mia attenzione:
Svariati gruppi stanno attualmente lavorando alla progettazione di proteine(1), e il Centro per le Ricerche
Avanzate nelle Biotecnologie, di recente costituzione, progetta di supportare questo sforzo. Un gruppo del
Dipartimento Nazionale degli Standard ha combinato due tecniche di simulazione molecolare in un modo
che è d'importanza cruciale per la progettazione di assemblatori. Altri progressi si sono compiuti anche
nell'impiego di computer per progettare la sintesi chimica(2).

La marcia verso l'elettronica molecolare continua. Forrest Carter ed il suo gruppo al Laboratorio di Ricerca
della Marina Statunitense(3) ha in corso dei lavori sperimentali , e su The Economist è stato riportato(4) che
"il governo giapponese ha recentemente aiutato a stanziare un fondo di 30 milioni di dollari finalizzato alle
ricerche nel campo dell'elettronica molecolare".

Altri progressi possono aiutarci a gestire più intelligentemente il furioso incedere della rivoluzione degli
assemblatori. Al Dartmouth College, Arthur Kantrowitz ha completato due procedure sperimentali(5) per la
costituzione di forum dei fatti che esaminino le tecnologie del sistema difensivo recentemente proposto e
basato su missili balistici. Nel frattempo, alla Brown University(6), l'Istituto per le Ricerche sull'Informazione e
la Scolarizzazione sta sviluppando, per gli studenti, un computer workstation con capacità ipertestuali: un
prototipo di un sistema inteso per un impiego nelle università di tutto il mondo.

I progressi nella tecnologia andranno avanti, cosi come i progressi riguardo i modi per guidare il progresso
tecnologico stesso. Con un poco di fortuna e molti sforzi, potremo operare per fare le scelte giuste in tempo.

Note

151
Postfazione, 1990
Che cosa correggerei in Motori di Creazione, oggi, dopo qualche anno di discussioni, critiche e progressi
tecnologici? La prima dozzina di pagine riporterebbe i progressi più recenti della tecnologia, ma la
conclusione rimarrebbe la stessa: ci stiamo muovendo verso gli assemblatori, verso un'era di manifattura
molecolare ottenuta attraverso l'inespensivo controllo della struttura della materia. Non ci sarebbero
modifiche sulla tesi centrale del libro.

Per riassumere qualche indicatore del progresso tecnologico: Motori di Creazione specula sul "quando"
conquisteremo la meta intermedia fondamentale della progettazione da zero di molecole proteiche, ma ciò è
stato effettivamente compiuto nel 1988 da William F. DeGrado del Du Pont e dai suoi colleghi(1). Nel 1987,
un premio Nobel è stato assegnato(2) in condivisione a Donald J. Cram dell' UCLA, Jean-Marie Lehn della
Université Luois Pasteur e Charles Pedersen del Du Pont per lo sviluppo di sintesi molecolare con proprietà
di tipo proteico. All'IBM, il gruppo di John Foster ha osservato e modificato singole molecole(3) utilizzando la
tecnologia del Microscopio a Scansione ad Effetto Tunnel (STM: scanning tunneling microscope); questo
microscopio (o il correlato microscopio a forze atomiche) potrebbe fornire nell'arco di pochi anni un
meccanismo posizionale per un rozzo proto-assemblatore. Gli strumenti basati sui computer per la
progettazione e la modellizzazione delle molecole(4) migliorano rapidamente. In breve, i progressi verso la
nanotecnologia sotto forma di sistemi di ingegnerizzazione molecolare stanno incalzando molto più
rapidamente di quel che Motori di Creazione suggerisce.

L'idea della nanotecnologia si è profondamente ed estesamente diffusa, sia grazie allo stesso Motori di
Creazione (anche per merito delle sue edizioni del 1990 per il Giappone e la Gran Bretagna) che grazie ad
altre pubblicazioni. Un recente sommario è apparso nel Britannica yearbook(5) del 1990: "Science and the
Future". Personalmente sono stato invitato a conferire nella maggior parte delle migliori università tecniche
ed in molti dei migliori laboratori di ricerca delle aziende statunitensi. Quando ho tenuto il primo corso
universitario di nanotecnologia, alla Stanford University, la stanza ed il corridoio erano pieni zeppi di gente
fin dal primo giorno, e gli studenti ultimi arrivati assistevano aggrappati al di la di una finestra. L'interesse
diventa forte e crescente.

Quale è stata la reazione della comunità tecnica, ossia di quelli meglio predisposti ad individuare e
segnalare idee erronee? Per quello che ho appurato (ad esempio quando mi trovavo di fronte alle domande
sollevate da un auditorio di tecnici) le tesi centrali di questo libro appare solida; esse hanno ben retto le
critiche. Il che non vuol dire che tutti le abbiamo accettate, ma semplicemente che per ognuna delle ragioni
suggerite per rigettarle è stata evidenziata la fallacità. (Le mie scuse ai critici occulti con critiche sostanziali
da avanzare: per favore, alzatevi e parlate!). Una molteplicità di articoli tecnici(6) (sui nanocomputer
meccanici, sugli ingranaggi ed i cuscinetti meccanici molecolari, ecc…) sono ora disponibili, ed un libro
tecnico è attualmente in preparazione (NdT: Nanosystems - di Eric Drexler, oramai già edito da diversi anni).
Dopo una serie di convegni locali, il Foresight Institute ha sponsorizzato nell'Ottobre 1989 la prima
importante conferenza sulla nanotecnologia (un suo resoconto è nel numero del 4 Novembre di Science
News); un volume con gli atti del congresso è attualmente in preparazione.

Alla conferenza è divenuto chiaro che il Giappone, già da svariati anni, sta trattando l'ingegneria di sistemi
molecolari come una delle basi della tecnologia del ventunesimo secolo. Se il resto del mondo desidera
assistere a degli sviluppi cooperativi della nanotecnologia, sarebbe meglio svegliarsi e cominciare a fare la
propria parte.
Certi scenari e certe proposte nell'ultimo terzo di Motori di Creazione potrebbero prestarsi ad essere
riformulati in veste più attuale, ma c'è quantomeno un problema che è stato presentato in modo equivoco.
Nel capitolo 11 si parla della necessità di evitare fughe incontrollate ed accidentali di assemblatori
autoreplicanti; oggi, io enfatizzerei maggiormente che esiste ben poco interesse a costruire un replicatore
anche solo vagamente somigliante ad uno di un tipo capace di sopravvivere autonomamente in natura.
Consideriamo le automobili: per funzionare richiedono benzina, lubrificante, liquido refrigerante, e così via.
Nessun semplice incidente può mettere in grado un'automobile di pascolare selvaggia e rifornirsi di nuovo
carburante a partire dalla linfa degli alberi; questo richiederebbe ingegneri geniali ed un duro lavoro.
Sarebbe invece piuttosto probabile, per dei replicatori molto semplici progettati per lavorare in cisterne
isolate piene di fluidi densi di assemblatori, fabbricare prodotti incapaci di autoreplicazione e finalizzati
all'utilizzo esterno. Sarebbe molto improbabile che dei replicatori costruiti in conformità con semplici modalità
di regolazione potrebbero essere una qualsiasi cosa in grado di sfuggire selvaggiamente al controllo e
circolare liberamente. Il problema, che è davvero enorme, non è quello di un incidente ma quello degli abusi.

152
Alcuni hanno erroneamente dedotto che il mio scopo sia quello di promuovere la nanotecnologia; invece il
mio scopo è quello di promuovere e comprendere la nanotecnologia e le sue conseguenze, il che è del tutto
un altro campo di interesse. Nonostante ciò, sono attualmente convinto che più presto cominceremo un serio
sforzo di sviluppo, più tempo avremo a disposizione per un serio dibattito pubblico. Perché? Perché i dibattiti
seri cominciano solo quando si avviano degli sforzi seri, e più presto cominceremo, più labile e controllabile
sarà la tecnologia di base. Una partenza prematura significherà quindi un progresso più lento e perciò più
tempo per valutare le conseguenze.

Se desiderate mantenervi informati sugli sviluppi in queste aree, e sugli sforzi di comprenderle ed
influenzarle, vi preghiamo di contattarci presso:

The Foresight Institute: http://www.foresight.org

153
Postfazione, 1996
Motori di Creazione tenta di prevedere il mondo verso cui la tecnologia ci sta conducendo, e negli anni
trascorsi dalla sua prima pubblicazione, la tecnologia si è portata molto più avanti in direzione di quel mondo.

Il primo capitolo illustra come l'ingegneria delle proteine, tramite la produzione di macchine molecolari come
quelle prodotte dalle cellule, potrebbe indicare un percorso verso sistemi molto più avanzati, e si mantiene
cauto riguardo il tempo richiesto per risolvere i principali problemi di base. Due anni dopo la pubblicazione,
William DeGrado presso il DuPont ha riportato il primo solido successo nella progettazione ex-novo di
proteine. Esiste oramai sia un giornale scientifico intitolato Protein Engineering, che un flusso crescente di
risultati raggiunti. E c'è in più che alcuni percorsi aggiuntivi verso lo stesso scopo, basati su diversi metodi e
molecole, sono ormai emersi. Il premio Nobel per la Chimica del 1988 è stato assegnato a Cram, Pedersen,
e Lehn per il loro lavoro riguardante la costruzione di grandi strutture molecolari a partire da parti
autoassemblanti. Il premio Feynman per la Nanotecnologia del 1995 è stato assegnato a Nadrian Seeman
della New York University per la progettazione e la sintesi di strutture composte da filamenti di DNA
congiunti a formare una impalcatura cubica. I chimici hanno cominciato a parlare di fare "nanochimica". Negli
ultimi anni, l'autoassemblaggio molecolare è emerso come un campo di ricerca pienamente legittimo.

Nelle sue sezioni dedicate alle note, Motori di Creazione menziona la possibilità che alcuni sistemi
meccanici - microscopi sonda in grado di modellare punte su superfici con precisione atomica - potrebbero
essere impiegati per posizionare utensili molecolari. Poiché quindi, Donald Eigler presso l' IBM ha dimostrato
in modo vivido e memorabile la capacità di spostare atomi, ossia scrivendo "IBM" su una superficie a mezzo
della deposizione di 35 atomi di Xeno precisamente disposti. Anche la manipolazione di atomi è oramai
decollata come campo di ricerca a se stante.

Forse l'indicatore più esplicito è quello linguistico. Quando venne pubblicato Motori di Creazione, la parola
"nanotecnologia" era quasi sconosciuta. Da allora essa è diventata una parola-tormentone nella scienza,
nell'ingegneria, nella futurologia e nella fiction narrativa. Sia nelle nostre capacità in laboratorio che nelle
nostre aspettative, ci siamo oramai già incamminati lungo la strada che ci porta ad essa.

Di questi tempi c'è persino la speranza che potremmo imparare a maneggiare meglio le nostre tecnologie. Il
capitolo 14, "La Rete della Conoscenza" descrive come un media di pubblicazione ipertestuale possa
accelerare l'evoluzione della conoscenza, e forse l'evoluzione della saggezza. Il World Wide Web è un passo
importante in questa direzione, e gli sviluppatori di software stanno lavorando per completarlo delle restanti
capacità necessarie perché il web vada anche oltre la semplice pubblicazione, per farsi anche veicolo di
discussione, critica, delibera e costruzione di consenso.

Per maggiori informazioni:

Foresight Institute
PO Box 61058
Palo Alto, CA 94306 USA
Tel: 650-917-1122
Fax: 650-917-1123
mailto:foresight@foresight.org

154
Glossario
Questo glossario contiene termini comunemente utilizzati nelle descrizioni di argomenti riguardanti la
tecnologia avanzata, E' stato compilato dal Gruppo di Studio sulla nanotecnologia presso il MIT, con un
contributo speciale di David Darrow della università dell'Indiana.

AMINOACIDI:
Molecole organiche costituite da blocchi di proteine. Esistono duecento aminoacidi conosciuti, di cui solo
venti sono estesamente utilizzati dagli organismi viventi.
ANTIOSSIDANTI:
Reagenti chimici che proteggono dalle reazioni di ossidazione, la quale è causa di degenerazione dei grassi
e danneggiamento del DNA.
ASSEMBLATORE:
Una macchina molecolare che può essere programmata per costruire virtualmente qualsiasi struttura
molecolare, o qualunque dispositivo, a partire da sostanze chimiche o singoli atomi utilizzati come blocchi
elementari. E' l'analogo, su scala molecolare, di una macchina utensile automatica controllata da calcolatore.
ASSEMBLATORE LIMITATO:
Un assemblatore costruito in modo da essere dotato di limiti intrinseci che vincolano le modalità del suo
utilizzo (per esempio, per rendere difficile o impossibile gli impieghi rischiosi dell'assemblatore, oppure
perchè l'assemblatore sia abilitato a costruire un unico tipo di oggetto).
ATOMO:
La particella più elementare di un elemento chimico (circa dieci miliardesimi di metro, in diametro.). Gli atomi
sono i blocchi elementari delle molecole e degli oggetti solidi; essi consistono di elettroni circondanti nuclei
densi centomila volte più piccoli dell'atomo stesso. Le nanomacchine lavoreranno gli atomi, non i loro nuclei.
BATTERIO:
Un organismo vivente composto da una sola cellula, di solito grande un micrometro in diametro. I batteri
sono fra i più antichi, piccoli e semplici tipi di cellule.
BIOSCIOVINISMO:
Il pregiudizio che i sistemi biologici godano di una intrinseca superiorità tale che auto-riproduzione ed
intelligenza resteranno per sempre domini di loro esclusivo monopolio.
BIOSTASI:
Una condizione in cui le strutture delle cellule e dei tessuti di un organismo restano preservate,
consentendo una successiva restaurazione per mezzo di macchine di riparazione.
CAPILLARI:
Microscopici vasi sanguinei che apportano ossigeno ai tessuti.
CELLULA:
Una unità tenuta assieme da una membrana, il cui diametro si aggira di solito intorno al micrometro. Tutti i
vegetali e gli animali sono composti da una o più cellule (milioni di miliardi di cellule, nel caso degli esseri
umani). In generale, ogni cellula di un organismo multicellulare contiene un nucleo che conserva tutta
l'informazione genetica dell'organismo.
CHIP:
Vedi `Circuito Integrato'
CIRCUITO INTEGRATO:
Un circuito elettronico consistente di molti dispositivi interconnessi e realizzato su una sottile pellicola di
materiale semiconduttore grande tipicamente dieci millimetri quadri. I circuiti integrati sono i principali blocchi
elementari per la costruzione dei computer attuali.
CRESCITA ESPONENZIALE:
Crescita il cui modo di procedere è caratterizzato da un raddoppio ad intervalli di durata fissato.
CRIOBIOLOGIA:
La scienza che studia la biologia alle basse temperature; le ricerche di criobiologia hanno reso possibile il
congelamento e la conservazione di sperma e sangue per un loro utilizzo differito nel tempo.
CROSS-LINKING:
Un processo che forma legami chimici fra due catene molecolari separate.
DISASSEMBLATORE:
Un sistema di nanomacchine capace di prendere un oggetto e da questo separarne pochi atomi alla volta, e
mano a mano scrivere una registrazione della struttura dell'oggetto a livello molecolare.
DISSOLUZIONE:
La degrazazione di un organismo spinta a livello tale che la sua struttura originaria non possa più essere
dedotta dalla sua condizione corrente.
DIVERSIFICAZIONE DELLA PROGETTAZIONE:

155
Una forma di ridondanza nella quale componenti con differente progettazione assolvono agli stessi compiti
e scopi; questo tipo di progettazione rende il sistema capace di funzionare propriamente anche nel caso
esistano pecche progettuali in qualche suo componente.
DNA (ACIDO DEOSSIRIBONUCLEICO):
Le molecole di DNA sono lunghe catene composte da quattro tipi di nucleotidi; l'ordine della sequenza di
nucleotidi costituisce una codifica dell'informazione necessaria per la costruzione di molecole proteiche. Le
proteine, a loro volta, fabbricano la maggior parte del macchinario molecolare delle cellule. Il DNA è il
materiale genetico delle cellule. (Vedi anche RNA.)
ENTROPIA:
Una misura del disordine di un sistema fisico.
ENZIMA:
Una proteina che agisce da catalizzatore in una reazione chimica.
ENZIMA DI RESTRIZIONE:
Un enzima che taglia molecole di DNA su posizioni specifiche, consentendo ai biologi di modificare il DNA
inserendo o cancellando selettivamente del materiale genetico.
EURISKO:
Un programma per computer, sviluppato dal Professor Douglas Lenat, capace di applicare regole euristiche
per svolgere svariati compiti, inclusa l'invenzione di nuove regole euristiche.
EURISTICHE:
Regole empiriche utilizzate per guidare in una determinata direzione le soluzioni proposte per un problema.
EVOLUZIONE:
Un processo durante il quale una popolazione di entità autoreplicanti subisce variazioni, e le varianti di
successo si diffondono per divenire la base di partenza di variazioni ulteriori.
FORUM DEI FATTI:
Una procedura per analizzare i fatti tramite uno strutturato ed arbitrato dibattito fra esperti.
INGEGNERIA AUTOMATIZZATA:
L'impiego di computer per realizzare progettazioni ingegneristiche, e che infine raggiungerà la capacità di
generazione di progetti dettagliati a partire da specifiche molto vaghe e generali e in assenza di aiuto
umano. L'ingegneria automatizzata è una particolare forma di intelligenza artificiale.
INGEGNERIZZARE:
L'impiego di conoscenza scientifica e di procedure per "prove-ed errori" finalizzato alla progettazione di
sistemi. (Vedi `Scienza')
INTELLIGENZA ARTIFICIALE: (IA):
Un campo di ricerca che mira a comprendere e costruire macchine intelligenti; con tale termine ci si riferisce
anche alle macchine stesse.
IONE: Un atomo con più elettroni o meno elettroni di quelli che servono per compensare esattamente ed
annullare la carica elettrica del nucleo atomico. Uno ione è un atomo dotato di una carica elettrica
complessiva non nulla.
IPERTESTO:
Un sistema basato sui computer e finalizzato a connettere documenti di testo ed altre informazioni con
riferimenti incrociati che consentano ai fruitori delle informazione una maggiore rapidità e facilità di ricerca,
accesso, revisione critica e pubblicazione.
KEVLAR (TM):
Una fibra sintetica realizzata da E. I. du Pont de Nemours & Co., Inc.
Stronger than most steels, Kevlar is among the strongest commercially available
materials and is used in aerospace construction, bulletproof vests, and other
applications requiring a high strength-to-weight ratio.
LABORATORI SIGILLATI PER ASSEMBLATORI:
Un ambiente di lavoro contenente assemblatori, incapsulato in modo tale da permettere all'informazione di
fluire verso l'esterno e verso l'interno dell'ambiente ma impedire la fuga di assemblatori o dei loro prodotti
verso l'esterno.
MACCHINA DI RIPARAZIONE CELLULARE:
Un sistema che includa nanocomputer, e sensori ed utensili di scala molecolare, e sia programmato per
riparare danni a cellule e tessuti.
MEME: Una idea che, analogamente ad un gene, può replicarsi ed evolvere. Esempi di memi (e di sistemi
memetici) sono le teorie politiche, le religioni proselitiste, e persino la stessa idea di meme.
MOLECOLA:
La particella più piccola di una sostanza chimica; tipicamente trattasi di un gruppo di atomi tenuti assieme in
un determinato schema da legami chimici.
MOLECOLA ORGANICA:
Una molecola contenente carbonio; in questo senso, le molecole complesse nei sistemi viventi sono tutte
molecole organiche.

156
MUTAZIONE:
Una ereditabile modificazione di una molecola genetica, come per esempio del DNA. Le mutazioni possono
avere effetti sull'organismo vantaggiosi o svantaggiosi, o anche neutrali; La competizione estirpa le
mutazioni svantaggiose, lasciando sopravvivere solo quelle vantaggiose e neutre.
NANO-:
Un prefisso che sta ad indicare un fattore di moltiplicazione pari a 10 alla meno 9, ossia un milionesimo.
NANOCOMPUTER:
Un computer realizzato con componenti (meccanici, elettronici o altro) dalle dimensioni di scala molecolare.
NANOTECNOLOGIA:
Tecnologia basata sula manipolazione di singoli atomi e molecole, per costruire strutture dalla
specificazione complessa nonché dettagliata fino a livelli atomici o molecolari.
NEURONE:
Una cellula nervosa, come quelle che si trovano nel cervello.
NUCLEO: In biologia, il nucleo è una struttura della cellule più evolute, contenente i cromosomi e gli
apparati per trascrivere il DNA in RNA. In fisica, il nucleo è il corpuscolo minuscolo e denso che è al cuore di
un atomo.
NUCLEOTIDE:
Una piccola molecola composta di tre parti: una base azotata ((a purine
or pyrimidine), uno zucchero (ribose or deoxyribose), ed un fosfato. I nucleotidi servono da blocchi di
costruzione di base per gli acidi nucleici (DNA o RNA).
POLIMERO:
Una molecola composta da unità più piccole legate assieme a formare una catena.
PRINCIPIO DI INDETERMINAZIONE DI HEISENBERG:
Un principio della meccanina quantistica la cui conseguenza è che la posizione e il momento (NdT-
posizione e velocità, per semplificare) di un ogggetto non possono essere determinate con precisione
assoluta. Il principio di Heisenberg aiuta a deternminare la dimensione della nuvola elettronica di un atomo,
e quindi la dimensione degli atomi stessi.
PROGETTAZIONE ANTICIPATA:
L'impiego di principi della scienza e dell'ingegneria ben noti, per progettare sistemi che possono essere
costruiti solo con strumenti non ancora disponibili; questo tipo di progettazione permette un più rapido
sfruttamento della capacità di nuovi utensili.
RADICALE LIBERO:
Una molecola contenente un elettrone spaiato che, di solito, causa una alta instabilità e reattività della
molecola. I radicali liberi possono danneggiare il macchinario molecolare dei sistemi biologici, provocando la
generazione di cross-links e mutazioni.
REPLICATORE: In discussioni riguardanti l'evoluzione, un replicatore è una entità (come un gene, un
meme, o il contenuto di un disco di memoria per computer) che può copiarsi da sé, includendo nella copia
anche qualsiasi modificazione che il replicatore abbia subito. In un senso più ampio, un replicatore è un
sistema che può fabbricare copie di se stesso, anche se non necessariamente copie che includano anche le
modificazioni che il replicatore ha subito. I geni di un coniglio sono replicatori nel primo senso del termine,
(una modifica in un gene può essere ereditata); il coniglio stesso è invece un replicatore solo nel secondo
senso del termine (una tacca nel corpo calloso del suo orecchio non può essere ereditata).
RETICOLO CRISTALLINO:
Lo schema, regolare e tridimensionale, con cui sono disposti gli atomi in un cristallo.
RIBONUCLEASI:
Un enzima che taglia in pezzi più piccoli le molecole di RNA.
RIBOSOMA:
Una macchina molecolare, la cui presenza è stata riscontrata intutte le cellule, che costruisce molecole
proteiche seguendo delle istruzioni lette da molecole di RNA. I ribosomi sono complesse strutture composte
da proteine e da molecole di RNA.
RIDONDANZA:
L'uso di componenti in eccesso rispetto a quelli necessari per svolgere una determinata funzione; in questo
modo il sistema è in grado di operare propriamente a dispetto di eventuali guasti ad alcuni suoi componenti.
RNA:
Acido Ribonucleioco; è una molecola simile al DNA. Nelle cellule, le informazioni contenute nel DNA
vengono trascritte sull'RNA, il quale viene a sua volta "letto" perché tali informazioni possano guidare la
costruzione di proteine. Alcuni virus usano l'RNA come loro materiale genetico.
SCIENZA:
Il processo che sviluppa una conoscenza sistematica sul mondo, tramite la variazione e la verifica
sperimentale delle ipotesi. (Vedi Ingegneria).
SCUDI ATTIVI:
Un sistema difensivo dotato di intrinseci limiti e vincoli, atti a limitare o prevenire il suo impiego offensivo.

157
SIMULAZIONE NEURALE:
Imitazione delle funzioni di un sistema neurale - un sistema come per esempio 'il cervello' - ottenuta tramite
la simulazione del funzionamento di ognuna delle cellule costituenti.
SINAPSI:
Una struttura che trasmette segnali da un neurone ad un'altro neurone adiacente (o ad un'altra cellula).
SOMMA POSITIVA:
Un termine usato per descrivere una situazione in cui una o più entità possono guadagnare qualcosa anche
senza che altre entità subiscano una qualche perdità di ugual peso; per esempio, una economia in crescita.
(Vedi Somma Zero).
SOMMA ZERO:
Un termine usato per descrivere una situazione in cui una entità può guadagnare qualcosa solo quando
altre entità subiscano una qualche perdità di uguale peso; per esempio, una partita di poker fra un limitato
numero di giocatori. (Vedi Somma Positiva)

TECNOLOGIA DI MOLE:
Tecnologia basata sulla manipolazione di atomi e molecole in blocco, piuttosto che individualmente; la
maggior parte della tecnologia attuale ricade in questa categoria.
TECNOLOGIA MOLECOLARE:
Vedi `Nanotecnologia'.
TRIBUNALI DELLA SCIENZA:
Un nome (originariamente adottato dai media) per indicare un forum dei fatti istituito e condotto da organi
governativi.
---attento a quando nel testo parla di vele di luce e quando parla di vele solari-
---IN PARTICOLARE non credo sia stato particolarmente attento a questa distinzione nei references---
LIGHTSAIL: Un sistema di propulsione per navi spaziali che, per guadagnare accelerazione, sfrutta la
pressione della radiazione luminosa che colpisce una sottile pellicola metallica.
VIRUS: Un piccolo replicatore consistente di ben poco altro a parte un paccketto di DNA o di RNA e che,
quando iniettato in una cellula ospite, può direttamente assumere il controllo del macchinario molecolare
della cellula perché esso produca ulteriori copie del virus.

158
NOTE E BIBLIOGRAFIA
CAPITOLO 1: MACCHINE DI COSTRUZIONE
(1) L'idea esposta in questo capitolo si basa si argomentazioni tecniche presentate nel mio articolo
"Molecular Engineering: An Approach to the Development of General Capabilities for Molecular
Manipulation" in Proceedings of the National Academy of Sciences (USA), Vol. 78, pp. 5275-78, 1981, che
presenta un argomento a sostegno della realizzabilità della progettazione di molecole proteiche e dello
sviluppo di sistemi di "scopo generale" atti a dirigere l'assemblaggio di molecole.
(2) Vedi "Protein Engineering", di Kevin Ulmer (Science, Vol. 219, pp. 666-71, Feb. 11, 1983). Il Dottor
Ulmer é ora direttore del Center for Advanced Research in Biotechnology
(3) Definizione tratta da "The American Heritage Dictionary of the English Language", edito da William
Morris (Boston: Houghton Mifflin, 1978).
(4) Vedi "Gene Machines: The Second Wave", di Jonathan B. Tucker (High Technology, pp. 50-59, March
1984).
(5) Vedi Capitolo 27 di Biochemistry, di Albert L. Lehninger (New York: Worth Publishers, 1975). Questo
libro di testo standard è una eccellente sorgente di informazioni sulle macchine molecolari della vita. Per una
discussione sui motori a flagelli dei batteri, vedi "Ion Transport and the Rotation of Bacterial Flagella", di P.
Lauger (Nature, Vol. 268, pp. 360-62, July 28,1977).
(6) Per una descrizione dell'auto-assemblaggio molecolare, inclusi gli auto-assemblaggi del batteriofago T4
e dei ribosomi, vedi Capitolo 36 di Biochemistry, di Lehninger (citato nella nota precedente).
(7) La natura ha dato dimostrazione di un ampio insieme di macchine proteiche, ma ciò non impone
limitazioni alla progettazione di proteine. Per alcuni esempi di strutture non proteiche piuttosto complesse,
vedi "Supramolecular Chemistry: Receptors, Catalysts, and Carriers", di Jean-Marie Lehn (Science, Vol.
227, pp. 849 - 56, February 22, 1985), in cui si discorre anche della progettazione di "componenti, circuiti, e
sistemi a livello molecolare, per l'elaborazione di segnali e di informazioni".
(8) Le tecniche moderne possono sintetizzare qualsiasi sequenza desiderata di DNA, e quest'ultime
possono essere utilizzate per dirigere i ribosomi affinché producano qualsiasi sequenza desiderata di
aminoacidi. Aggiungere gruppi prostetici è tutta un'altra questione, comunque. [NdT: Un gruppo prostetico è
una molecola non proteica, strettamente e stabilmente legata ad una proteina. I gruppi prostetici partecipano
attivamente alla funzione svolta dalla proteina cui sono legati. La loro struttura spaziale è essenziale per tale
funzione.]
(9) Per una comparazione fra il problema di prevedere le strutture di proteine naturali e quello di progettare
strutture proteiche prevedibili, vedi "Molecular Engineering", citato nella nota (1) di questa sezione.
(10) Vedi "Molecular Technology: Designing proteins and Peptides", di Carl Pabo (Nature, Vol. 301, p.200,
Jan. 20, 1983).
(11) Vedi "Design, Synthesis, and Characterization of a 34-Residue Polypeptide That Interacts with Nucleic
Acids", di B. Gutte ed altri. (Nature, Vol. 281, pp. 650-55, Oct. 25, 1979).
(12) Per un relazione su questo risultato, e per una discussione generale sulla ingegnerizzazione di
proteine, vedi l'articolo di Kevin Ulmer (citato nella nota (2) di questa sezione).
(13) Vedi "A Large Increase in Enzyme-Substrate Affinity by Protein Engineering", di Anthony J. Wilkinson
ed altri (Nature, Vol. 307, pp. 187-88, Jan. 12, 1984). Tecniche di ingegneria genetica sono state anche
usate per rendere più stabile un enzima, senza incidere sulla sua attività. Vedi "Disulphide Bond Engineered
into T4 Lysozyme: Stabilization of the Protein Toward Thermal Inactivation", di L. Jeanne Perry e Ronald
Weutzel della Genentech, Inc. (Science, Vol. 226, pp. 555-57, November 2, 1984).
(14) In Nature and Man's Fate (New York: New American Library, 1959), p. 283
(15) Vedi "Biological Frontiers", di Frederick J. Blattner (Science, Vol. 222, pp. 719-20, Nov. 18, 1983).
(16) Vedi Enzyme Engineering, di William H. Rastetter (Applied Biochemistry and Biotechnology, Vol. 8, pp.
423-36, 1983). Questo articolo è una rassegna di descrizioni dei vari sforzi riusciti che sono stati tentati allo
scopo di modificare la specificità di substrato per degli enzimi.
(17) Per gli atti del primo seminario vedi Molecular Electronic Devices, edito da Forrest L. Carter (New York:
Marcel Dekker, 1982). Gli atti del secondo sono apparsi in Molecular Electronic Devices II, anche questi editi
da Forrest L. Carter (New York: Marcel Dekker, 1986). Per un resoconto riassuntivo, vedi "Molecular Level
Fabrication Techniques and Molecular Electronic Devices", di Forrest L. Carter (Journal of Vacuum Science
and Technology, B1(4), pp. 953-68, Oct.-Dec. 1983).
(18) Vedi The Institute (una pubblicazione dell'IEEE), January 1984, p. 1.
(19) Riportato in Microelectronic Manufacturing and Testing, Sept. 1984, p. 49.
(20) La forza di un singolo legame fra due atomi di carbonio è di circa sei nano-newton, sufficiente a
sostenere il peso di circa 30 milioni di miliardi d'atomi di carbonio. Vedi Strong Solids, di A. Kelly, p. 12
(Oxford: Clarendon Press, 1973).

159
(21) Il diamante è anche dieci volte più rigido dell'alluminio. Vedi Strong Solids (citato nella nota
precedente), Appendix A, Table 2.
(22) Vedi "Sculpting Horizons in Organic Chemistry", di Barry M. Trost (Science, Vol. 227, pp. 908-16,
February 22, 1985), che fa anche menzione di conduttori elettrici organici e della speranza di commutatori
molecolari per elettronica molecolare.
(23) I chimici stanno già sviluppando catalizzatori migliori degli enzimi; vedi "Catalysts That Break Nature's
Monopoly", di Thomas H. Maugh II (Science, Vol. 221, pp. 351-54, July 22, 1983). Per altre informazioni
sugli strumenti non proteici, vedi "Artificial Enzymes", di Ronald Breslow (Science, Vol. 218, pp. 532-37,
November 5, 1982).
(24) Vedi riferimento bibliografico in nota (1). Un dispositivo descritto nel 1982, denominato scanning
tunneling microscope, può posizionare una puntina affilata, vicino ad una superficie, con una accuratezza di
una frazione del diametro di un atomo. Oltre a dimostrare la realizzabilità di un tale posizionamento, questo
dispositivo potrebbe consentirci di sostituire le macchine molecolari naturali con strumenti molecolari
"posizionali". Vedi "Scanning Tunneling Microscopy", di G. Binnig and H. Rohrer (Physica 127B, pp 37-45,
1985).
(25) Gli assemblatori saranno capaci di creare disposizioni, altrimenti improbabili, di molecole reagenti
(superando i fattori di "entropia di attivazione"), e saranno in grado di dirigere l'azione di specie chimiche
altamente reattive. Questo permetterà il loro utilizzo in sintesi controllate di reazioni che altrimenti
procederebbero solo ad una velocità trascurabile o con un numero e un ritmo eccessivi di reazioni collaterali.
Inoltre, gli assemblatori saranno capaci di applicare forze meccaniche di intensità tali da essere sufficienti
per rompere legami chimici e per liberare sufficiente energia di attivazione per le reazioni, e saranno in grado
di utilizzare conduttori di scala molecolare connessi ad una sorgente voltaica al fine di manipolare campi
elettrici in modi diretti ed inediti. Mentre le tecniche fotochimiche non sono altrettanto proficue (poiché le
tipiche lunghezze d'onda dei fotoni sono troppo grandi per la scala molecolare), risultati di questo tipo
potrebbero in qualche modo essere ottenuti per mezzo del trasferimento dell'eccitazione elettronica, da
molecola a molecola, in maniera localizzata e controllata.
Nonostante gli assemblatori saranno così potenti (potrebbero, fra l'altro, anche essere guidati perché si
costruiscano strumenti nuovi, espandendo così il proprio insieme di strumenti), essi non saranno in grado di
costruire qualsiasi cosa potrebbe esistere. Per esempio, si potrebbe progettare una delicata struttura che,
come un arco di pietra, non potrebbe fare a meno di auto-distruggersi fino a che tutti i suoi pezzi non siano
messi al giusto posto. In questo caso, non esiste alcuna possibilità di progettare il posizionamento e la
rimozione di una impalcatura per la costruzione di un tale oggetto, quindi la struttura potrebbe essere
impossibile da costruire. Sembra probabile che poche strutture che siano di interesse pratico, comunque,
presentino un tale problema. (Infatti, la reversibilità delle leggi che governano i movimenti molecolari implica
che tutti gli oggetti distruttibili sono, in linea di principio, anche costruibili; ma se i meccanismi di distruzione
intervengono tutti assieme in un collasso esplosivo, i tentativi di costruzione potrebbero avere una possibilità
di successo trascurabile, a causa di considerazioni che riguardano l'incertezza delle traiettorie delle
costruzioni parziali nonché della bassa entropia della configurazione finale verso cui si punta).
(26) Vedi "Comparative Rates of Spontaneous Mutation", di John W. Drake (Nature, Vol. 221, p. 1132,
March 22, 1969). Per una discussione generale di questo macchinario, vedi il capitolo 32 di Biochemistry di
Lehninger (citato in nota (5) ).
(27) Il batterio Micrococcus radiodurans ha dei robusti meccanismi di riparazione che lo mettono in grado di
sopravvivere a radiazioni in quantità che equivale a più di un milione di anni di normale radioattività terrestre
di fondo, somministrata in una singola dose. (Vedi "Inhibition of Repair DNA Synthesis in M. radiodurans
after Irradiation with Gamma-rays", di Shigeru Kitayama e Akira Matsuyama, in Agriculture and Biological
Chemistry, Vol. 43, pp. 229-305, 1979). Questa quantità di radioattività è pari a circa mille volte la dose di
radiazioni che risulta letale per un essere umano, ed è sufficiente a rendere fragile e debole il Teflon.
(28) Gli organismi hanno costruito, da lipidi e zuccheri, strutture cellulari e semplici dispositivi molecolari (ed
hanno costruito conchiglie da silice e calce) ma la mancanza di sistemi programmabili per l'assemblaggio di
questi materiali ha impedito alla vita di sfruttarli per formare le parti principali di complesse macchine
molecolari. L'RNA, come le proteine, ha una struttura completamente determinata dal DNA, e talvolta anche
l'RNA assolve funzionalità simili a quelle proteiche. Vedi "First True RNA Catalyst Found" (Science, Vol. 223,
p. 266, Jan. 20, 1984).
(29) Vedi Biochemistry di Lehninger p. 119 (citato in nota (5) ).
(30) Vedi il capitolo 2 di Bit by Bit: An Illustrated History of Computers,di Stan Augarten (New York: Ticknor
& Fields, 1984).
(31) Se due differenti gruppi laterali di polimeri simili al polietilene, venissero usati per rappresentare lo
ZERO e l'UNO del codice binario, il polimero potrebbe servire come nastro di immagazzinamento dei dati.
Se si usassero, diciamo, fluoro ed idrogeno come gruppi laterali, e si lasciasse spazio a sufficienza per i
meccanismi di gestione, lettura e scrittura del nastro, allora mezzo micrometro cubico immagazzinerebbe un
miliardo di bytes. I tempi di accesso possono essere contenuti nell'ambito di un microsecondo poiché il
nastro può essere fabbricato in modo che sia molto corto. Uno schema di accesso "random" alla memoria

160
permetterebbe di immagazzinare solo 10 milioni di bytes nello stesso volume, nonostante questa
caratteristica tecnica possa probabilmente essere migliorata. Per una discussione più dettagliata, vedi
"Molecular Machinery and Molecular Electronic Devices", di K. Eric Drexler, in Molecular Electronic Devices
II, edito da Forrest L. Carter (New York: Marcel Dekker, 1986).
(32) I segnali meccanici potrebbero essere inviati tirando e spingendo bacchette di carbina il cui spessore è
quello di un atomo. La carbina è una forma del carbonio in cui gli atomi sono legati in una linea diritta grazie
all'alternanza di legami doppi con legami tripli. Vedi "Molecular Machinery and Molecular Electronic
Devices", citato nella nota precedente.
(33) Vedi il suo articolo "Quantum Mechanical Computers" (Optics News, Vol. 11, pp. 11-20, Feb. 1985).
Feynman conclude che "le leggi della fisica non pongono alcuna barriera alla riduzione della dimensione dei
computer spinta fino a livelli tali che i bit siano della dimensione di atomi, con il comportamento quantico di
questi ultimi a rappresentare il valore corrente del bit".
(34) Esisterebbero, al contempo, limiti al disassemblaggio: Per esempio, qualcuno potrebbe probabilmente
progettare una struttura sentitiva che cada in pezzi (o esploda) se la si manomette, prevenendone così un
disassemblaggio controllato.

CAPITOLO 2: I PRINCIPI DEL CAMBIAMENTO


(1) Vedi The Sciences of the Artificial (Seconda Edizione) di Herbert A. Simon (Cambridge, Mass: MIT
Press, 1981). Questo libro esplora un insieme di questioni relative all'ingegneria, alle modalità di approccio
alla risoluzione dei problemi, all'economia ed all'intelligenza artificiale.
(2) A causa delle modalità di appaiamento per i nucleotidi, di fatto le copie sono analoghe ad un negativo
fotografico, e solo una copia di una copia corrisponde all'originale stesso.
(3) Una discussione del suo lavoro in quest'area è apparsa in "The Origin of Genetic Information", di
Manfred Eigen ed altri (Scientific American, Vol. 244, pp. 88-117, April 1981).
(4) Richard Dawkins discute dei replicatori in The Selfish Gene (New York: Oxford University Press, 1976).
Questo libro di facile lettura offre una eccellente introduzione ai concetti moderni di evoluzione,
concentrandosi sui replicatori dell'origine della vita, intese come le unità che subiscono variazione e
selezione nella evoluzione.
(5) In The Selfish Gene (vedi nota precedente).
(6) The Origin of Species, di Charles R. Darwin (London: Charles Murray, 1859).
(7) Vedi pag. 59 di The Constitution of Liberty, di Friedrich A. Hayek (Chicago: University of Chicago Press,
1960) per una discussione dei primi lavori sulla evoluzione linguistica, istituzionale, ed anche su quella
biologica, e che ha quanto pare hanno fornito hanno fornito a Darwin "l'impalcatura concettuale che egli ha
sfruttato". Vedi anche p. 23 di Law, Legislation and Liberty - Vol. 1, Rules and Order (Chicago: University of
Chicago Press, 1973). In altri punti, questi libri discutono del concetto della libertà sotto una giurisdizione
legislativa, e della distinzione cruciale fra legge e dominio. Questi saranno argomenti di discussione
importanti per i capitoli 11 e 12 del presente libro.
(8) In The Selfish Gene (vedi nota 5).
(9) The Next Whole Earth Catalog: edito da Stewart Brand (Sausalito, California: POINT: distribuito da
Random House, New York. 1980).
(10) Vedi In Search of Excellence. Lessons from Americàs Best-Run Corporations, di Thomas J. Peters e
Robert H. Waterman, Jr. (New York: Warner Books, 1982).
(11) in Science and the Modern World (New York: Macmillan Company, 1925).
(12) La conversione di tali strumenti in strumenti dotati di video e una buona grafica computerizzata,
potrebbe tuttavia aiutarci un bel po' in questo compito.
(13) E' un Meme anche l'idea stessa di meme, lanciata nell'ultimo capitolo di The Selfish Gene (vedi nota 5).
(14) In The Evolution of Cooperation (New York: Basic Books, 1984) il politologo Robert Axelrod utilizza un
gioco al computer a molti concorrenti, ed alcuni esempi storici, per esplorare le condizioni richieste per
l'evoluzione di cooperazione fra entità egoiste. Esseri garbati, vendicativi e clementi è importante per
evolvere una cooperazione stabile. Il capitolo 7 di questo valido libro discute su "Come Promuovere la
Cooperazione".
(15) In The Extended Phenotype di Richard Dawkins (San Francisco: W. H. Freeman, 1982).
(16) Vedi "The Self-Destruction of the Xosas", di Elias Canetti, in Crowds and Power (New York: Continuum,
1973), p. 193.

CAPITOLO 3: PREVEDERE E PROGETTARE


(1) Da Conjectures and Refutations: The Growth of Scientific Knowledge, di Sir Karl Popper (New York:
Basic Books, 1962).

161
(2) "There's Plenty of Room at the Bottom", ristampato in Miniaturization, edito da H. D. Gilbert (New York:
Reinhold, 1961).
(3) Citato da Karl Popper in Objective Knowledge: An Evolutionary Approach (Oxford: Clarendon Press,
1972).
(4) Le idee che si sono evolute per sembrare vere (per lo meno per menti prive di attitudini critiche) possono
di fatto essere completamente false. Un lavoro eccellente che mette confronto l'ingenuo giudizio umano con
il giudizio assistito da tecniche scientifiche e statistiche è Human Inference, un libro di Richard Nisbett e Lee
Ross nella collana Century Psychology Series (Englewood Cliffs, New Jersey: Prentice-Hall, 1980). Questo
libro mostra che, proprio come siamo soggetti a illusioni ottiche ed a punti ciechi per la nostra vista, soffriamo
anche di illusioni e punti ciechi cognitivi. Altri esperimenti mostrano che le persone prive di istruzione
adeguata, condividono sistematicamente gli stessi equivoci riguardanti la comprensione di fatti elementari
come ad esempio la comprensione della direzione verso cui si muoverà una palla quando venga fatta
roteare in circolo e successivamente rilasciata; gli istruiti filosofi medioevali (che tralasciavano di mettere le
loro idee a confronto con la realtà, al fine di verificarle) evolsero interi sistemi di "scienza" basati sugli stessi
equivoci. Vedi "Intuitive Physics", di Michael McClosky (Scientific American, Vol. 248, pp. 122-30, Apr.
1983).
(5) Parlando in senso stretto, ciò si applica solo a quelle teorie superstiti che sono esse stesse uniformi e
generali. Una teoria che affermi che Mercoledì prossimo tutte le rocce cadranno verso l'alto, non è stata
invalidata (e dovrebbe avere delle conseguenze pratiche), ma il suo particolare riferimento al prossimo
Mercoledì la rende non-uniforme.
(6) Vedi il suo Logic of Scientific Discovery, pp. 124 and 419 (New York: Harper & Row, 1965). Vedi anche
Objective Knowledge, p. 15.
(7) in "Technology Development (Science, Vol. 220, pp. 576-80, May 6, 1983).
(8) Esse sembrano chiaramente comprensibili solo a basse velocità; sebbene Leonardo possedesse di
certo qualche intuitiva nozione di dinamica, una descrizione dinamica adeguata alla descrizione del
comportamento delle parti di una macchina in condizioni di alte velocità ed accelerazione, non sarebbe
giunta prima di Newton.
(9) Alcune compagnie, avendo sperimentato la costanza del progresso delle tecnologie di fabbricazione dei
circuiti integrati, sono state in conseguenza indotte a progettare microprocessori la cui fabbricazione richiede
tecniche non ancora disponibili al momento della progettazione.
(10) Per riuscire a far bene tutto ciò, sarà necessaria la simulazione di un sistema molecolare. Una
discussione di un sistema di simulazione molecolare è apparsa nella tesi di dottorato di Robert Bruccoleri:
"Macromolecular Mechanics and Protein Folding" (Harvard University, May 1984). Per i risultati di una
simulazione vedi "Dynamics and Conformational Energetics of a Peptide Hormone: Vasopressin", di A. T.
Hagler ed altri (Science, Vol. 227, pp. 1309-15, Mar. 15, 1985). Questi riferimenti bibliografici descrivono
entrambi delle simulazioni di tipo classico, ossia simulazioni che descrivono come si muovano le molecole in
risposta alle forze che le sollecitano; tali simulazioni saranno adeguate per la maggioranza delle parti
costituenti una tipica macchina molecolare. Altri lavori richiedono delle più fondamentali (e costose)
simulazioni basate sulla meccanica quantistica, che descrivano la distribuzione degli elettroni nelle molecole.
Tali calcoli saranno indispensabili per descrivere la formazione e la rottura di legami operata da parte di
strumenti assemblatori. Per una discussione su simulazioni molecolari che includano calcoli di meccanica
quantistica riguardanti la formazione dei legami molecolari, vedi "Theoretical Chemistry Comes Alive: Full
Partner with Experiment", di William H. Goddard III (Science, Vol. 227, pp. 912-23, Feb. 22, 1985). Vedi
anche Lecture Notes in Chemistry, 19, Computational Aspects for Large Chemical Systems, di Enrico
Clementi (New York: Springer-Verlag, 1980). Infine, per una discussione sugli strumenti di progettazione
attuali, vedi "Designing Molecules by Computer", di Jonathan B. Tucker (High Technology, pp. 52-59, Jan.
1984). I computer ad elaborazione parallela accelereranno enormemente la progettazione assistita dal
computer e la computazione applicata alla chimica.
(11) Sembra probabile che i primi sforzi di progettazione anticipata saranno mirati alla definizione di un
sistema assemblatore funzionante; non è necessario che un tale sistema sia ottimale, quantomeno fino a
che non si saranno acquisite abilità piuttosto generali. Una volta che le capacità di questi assemblatori
standard siano state piuttosto ben specificate, diverrà possibile - persino prima del completamento della
stesura dei progetti - (1) cominciare a sviluppare una libreria di progetti per nanomacchine per le quali questi
assemblatori standard siano in grado di attuare una pratica costruzione (o quanto meno che la stessa cosa
possa essere fatta da parte di altri assemblatori, che a loro volta possano essere costruiti dagli assemblatori
standard), e (2) preparare una corrispondente libreria di specifiche delle procedure per la composizione di
questi progetti. In seguito, quando sarà sviluppato il rudimentale primo assemblatore, esso verrà utilizzato
(forse passando attraverso uno stadio intermedio di costruzione di altri strumenti) per costruire un
assemblatore standard. Questi a loro volta saranno utilizzati per costruire qualsiasi cosa descritta nella
libreria di progetti.
I primi assemblatori amplieranno enormemente la nostra capacità di produrre cose. Persino con una limitata
"progettazione anticipata", l'avvento degli assemblatori risulterà quasi immediatamente in un sostanziale

162
balzo in avanti nella qualità dell'hardware. Poiché gli assemblatori saranno costruiti da altri assemblatori,
emergeranno, come una naturale ed immediata conseguenza della progettazione anticipata e del "passo
avanti" tecnologico degli assemblatori, anche alcune forme di sistemi auto-replicanti. Di conseguenza,
l'avvento degli assemblatori potrebbe rendere possibile non solo un salto di qualità dell'hardware, ma anche
una quasi immediata produzione massiva di hardware in quantità senza precedenti (vedi capitolo 4). Nel
bene o nel male, tutto ciò renderà possibile una trasformazione insolitamente brusca della tecnologia,
dell'economia e delle relazioni internazionali.

CAPITOLO 4: MOTORI DI ABBONDANZA


(1) Tratto da Scientific Quotations: The Harvest of a Quiet Eye, selezione a cura di A. L. Mackay, edito da
M. Ebison (New York: Crane, Russak, 1977).
(2) Il precedente amministratore della NASA, Robert Frosch, disse in buona parte la stessa cosa alla IEEE
Centennial Technical Convocation (vedi The Institute, p. 6, Dec. 1984).
(3) Parlando in termini evolutivi, i geni di un animale sono dei replicatori, ma l'animale di per se non lo è;
solo le modificazioni dei geni, e non le modificazioni nel corpo dell'animale, verranno replicate nelle
successive generazioni. Questa distinzione fra replicatori genetici e i sistemi a cui essi danno forma, è
essenziale per comprendere l'evoluzione, ma l'utilizzo del termine "replicatore" per indicare l'intero sistema è
più conveniente quando ci si riferisce ai vantaggi prodotti dai sistemi auto-replicanti.
(4) Vedi "Production: A Dynamic Challenge" di M. E. Merchant (IEEE Spectrum, pp. 36-39, May 1983).
Questo numero dell'IEEE Spectrum contiene una estesa discussione sulla automazione computerizzata.
(5) Tuttavia, l'organizzazione nello stile di quella della cellula ha i suoi vantaggi. Per esempio, a dispetto dei
molti meccanismi di trasporto attivo possibili, le cellule di solito trasportano i componenti molecolari tramite
diffusione piuttosto che con dei nastri trasportatori. Questo metodo connette efficacemente ogni macchina
ad ogni altra (purché si trovi nello stesso compartimento delimitato dalla membrana cellulare) in maniera
robusta; al contrario, i nastri trasportatori possono rompersi, ed in tal caso richiedono riparazioni o una
completa sostituzione. Ma avrebbe anche potuto propriamente realizzarsi un sistema di trasporto basato su
nastri trasportatori - un sistema che ha grossi vantaggi e tuttavia non si è evoluto. I sistemi basati sui
trasportatori, richiedono ad una nuova macchina molecolare di avere la appropriata orientazione,
localizzazione e interfaccia rispetto al trasportatore, prima che il sistema possa funzionare. Se la macchina
molecolare mancasse di anche soltanto uno di questi requisiti, sarebbe inutilizzabile, e le pressioni selettive
dovrebbero generalmente eliminarla prima che una sua variante utilizzabile abbia alcuna possibilità di
apparire. Al contrario, affinché una nuova macchina molecolare possa funzionare in un sistema basato sulla
diffusione, è necessario soltanto che essa sia presente. Se tale macchina fa qualcosa di utile, la selezione la
favorirà immediatamente.
(6) Vedi Biochemistry di Albert L. Lehninger, p. 208 (citato nelle note al capitolo 1). Inoltre, ogni molecola di
un enzima catalizzatore può rompere, in un secondo, i legami di 40 milioni di molecole di perossido di
idrogeno; vedi Enzyme Structure and Mechanism, di Alan Fersht, p. 132 (San Francisco: W. H. Freeman &
Co., 1977). Nelle tipiche reazioni enzimatiche, le molecole devono capitare in posizioni appropriate, rispetto
allo "strumento" enzimatico, e successivamente attendere che le vibrazioni termiche casuali provochino una
reazione, ed infine allontanarsi nuovamente dall'enzima e vagare altrove. Questi passi prendono la maggior
parte del tempo di lavoro di un enzima; il tempo richiesti per formare o rompere un legame è enormemente
più piccolo. Poiché gli elettroni di un legame sono oltre un migliaio di volte più leggeri e più mobili dei nuclei
che definiscono le posizioni degli atomi, il ritmo di reazione è impostato dal moto lento dell'atomo nel
complesso, piuttosto che da quello degli elettroni. La velocità di un atomo tipico in agitazione termica, sotto
condizioni di temperatura ordinarie, è di oltre 100 metri al secondo, e la distanza che un atomo deve
percorrere per spostarsi da un altro atomo e quindi riuscire a formare o rompere un legame è di circa un
decimo di miliardesimo di metro, sicché il tempo richiesto è circa un millesimo di miliardesimo di secondo.
Vedi capitolo 12 in Molecular Thermodynamics, di John H. Knox (New York: Wiley-Interscience, 1971).
(7) Questa relazione di scala potrebbe essere verificata osservando che (1) i disturbi meccanici si
propagano viaggiando a velocità soniche (e giungono in metà del tempo se devono percorrere metà della
distanza), e che (2) per una sollecitazione costante che agisca sul materiale del braccio, il dimezzamento
della lunghezza del braccio (e quindi della sua massa per unità di area della sezione) raddoppia
l'accelerazione all'estremità del braccio, dimezzando nel contempo la distanza che l'estremità del braccio
deve percorrere, il che infine permette all'estremità del braccio di muoversi avanti ed indietro in metà del
tempo (dato che il tempo richiesto ad un moto è la radice quadrata di una quantità proporzionale alla
distanza percorsa divisa per l'accelerazione del moto).
(8) A seconda della stringatezza (o della mancanza di stringatezza) dello schema di codifica, il nastro
potrebbe avere più massa di tutto il resto del sistema messo assieme. Ma poiché la duplicazione di un
nastro è una funzione semplice e specializzata, non sarà necessario che sia compiuta dagli assemblatori
stessi.

163
(9) Gli errori nelle disposizioni sono causati da insolite fluttuazioni nel rumore termico, e da danni subiti
durante il processo di assemblaggio a causa radiazioni. Assemblatori ad alta affidabilità includeranno un
sistema di controllo di qualità capace di identificare variazioni strutturali non desiderate. Un tale sistema
potrebbe consistere di un braccio-sensore impiegato per sondare la superficie del pezzo di lavoro e
identificarne così quelle irregolarità superficiali, quelle protuberanze o quelle cavità, che corrisponderebbero
ad un errore appena commesso. Le omissioni (di solito associate alle cavità) potrebbero essere corrette
aggiungendo gli atomi mancanti. I gruppi posti nelle posizioni sbagliate (di solito associati alle protuberanze)
potrebbero essere corretti corredando il braccio dell'assemblatore con utensili per la rimozione degli atomi
posizionati erroneamente. In alternativa, un piccolo pezzo di lavoro potrebbe semplicemente essere portato
a compimento e collaudato. I pezzi sbagliati verrebbero perciò scartati prima che abbiano avuto la possibilità
di venire incorporati in un sistema più grande e più utile. Questi passi di un processo di controllo di qualità
rallenteranno alquanto il processo di assemblaggio.
(10) Vedi le note per il capitolo 6.

CAPITOLO 5: MACCHINE PENSANTI


(1) Citato da Business Week, March 8, 1982.
(2) Vedi "Why the Law of Effect Will Not Go Away", in Daniel C. Dennett, Brainstorms: Philosophical Essays
on Mind and Psychology (Cambridge, Mass: MIT Press, 1981). Questo libro esplora uno spettro di
interessanti questioni, incluse l'evoluzione e l'intelligenza artificiale.
(3) Vedi il suo libro The Society of Mind (New York: Simon & Schuster 1986). Ho avuto l'opportunità di
esaminare una larga parte di questo lavoro quando era ancora in forma di manoscritto; esso presenta delle
preziose intuizioni riguardo pensieri, memoria, psicologia dello sviluppo e coscienza; e su come tutte queste
siano correlate una all'altra e con l'intelligenza artificiale.
(4) Secondo l'American Heritage Dictionary, edito da William Morris (Boston: Houghton Mifflin Company,
1978).
(5) Vedi Bit by Bit, nelle note al Capitolo 1.
(6) Edito da Avron Barr e Edward A. Feigenbaum (Los Altos, Calif: W. Kaufmann, 1982).
(7) Vedi "The Turing Test: A Coffeehouse Conversation" in The Mind's I, redatto ed adattato da Douglas R.
Hofstadter e Daniel C. Dennett (New York: Basic Books, 1981).
(8) Come scherzosamente fa notare l'ingegnere del software Mark Miller: "Perché la gente dovrebbe essere
capace di comportarsi intelligentemente a letto ma non in laboratorio?"
(9) Da "Computing Machinery and Intelligence" di Alan M. Turing (Mind, Vol. 59, No. 236, 1950); estratto
riportato anche in The Mind's I (citato in nota 7).
(10) Le capacità tecniche e sociali potrebbero derivare da basi comuni, o da sottosistemi connessi; i confini
fra le due potrebbero facilmente risultare poco definiti. Tuttavia, i sistemi IA potrebbero inequivocabilmente
meritare una o l'altra delle due denominazioni. Gli sforzi per produrre sistemi IA tecnici che siano quanto più
è possibile di pratico utilizzo, inevitabilmente implicheranno sforzi per renderli comprensibili al linguaggio ed
ai desideri umani.
(11) I sistemi avanzati di tipo sociale presentano degli ovvi pericoli. Un sistema capace di passare il Test di
Turing sarebbe in grado di pianificare e selezionare le sue mete nello stesso modo in cui può farlo un
umano. Il che significa che sarebbe capace di complottare e congiurare, forse persino al fine di persuadere
la gente a rifornirlo di maggiori informazioni ed abilità. Le persone intelligenti hanno inflitto gravi danni col
solo uso della parola, ed un sistema che passi il Test di Turing sarebbe necessariamente progettato per
comprendere ed ingannare la gente (e non necessariamente imbevuto di rigidi standard etici, sebbene
dovrebbe esserlo). Il capitolo 11 discute il problema di come convivere con i sistemi IA avanzati, e come
costruirli perché siano degni di fiducia.
(12) Vedi il precedente riferimento bibliografico sull'articolo di Turing,"Computing Machinery and
Intelligence".
(13) Il sistema EURISKO è stato descritto dal professor Lenat in una serie di articoli apparsi in "The Nature
of Heuristics" (Artificial Intelligence, Vol. 19, pp. 189-249, 1982; Vol. 21, pp. 31-59 and 61-98, 1983; Vol. 23,
pp. 269-93, 1984).
(14) Vedi riferimento citato nella nota precedente, Vol. 21, pp. 73-83.
(15) Lenat considera che il più grave inconveniente di EURISKO sia la sua limitata capacità di evolvere
nuove forme di rappresentazione per nuove informazioni.
(16 ) Per entrambi i riferimenti vedi "The 'Star Wars' Defense Won't Compute", di Jonathan Jacky (The
Atlantic, Vol. 255, pp. 18-30, June 1985).
(17) Vedi "Designing the Next Generation", di Paul Wallich (IEEE Spectrum, pp. 73-77, November 1983).
(18) Hubert Dreyfus, nel suo notissimo libro What Computers Can't Do: The Limits of Artificial Intelligence
(New York: Harper & Row, 1979), presenta una erronea argomentazione filosofica a sostegno del fatto che i
computer digitali non potranno mai essere programmati per compiere l'intero corpo di attività dell'intelligenza

164
umana. Anche se si accettassero le sue argomentazioni, questo non dovrebbe influire sulla principale
conclusione che ho tratto riguardo il fututo dell'IA: l'automazione della progettazione ingegneristica non è
influenzata da tali argomentazioni perché non richiede ciò che si prenda in considerazione una intelligenza
genuina; duplicando la mente umana per mezzo della simulazione neurale evitiamo (ed indeboliamo) le
argomentazione filosofiche di Dreyfus, trattando infatti i processi mentali ad un livello sul quale tali
argomentazioni non si applicano.
(19) Vedi capitolo 7
(20) Tali dispositivi potrebbero essere elettromeccanici, e saranno probabilmente controllati per mezzo di
microprocessori; essi non saranno semplici quanto lo sono dei normali transistor. Una simulazione neurale
dalla velocità analoga a quella che ho descritto, sarà possibile anche se le proprietà di ogni sinapsi
dovessero essere controllate da un dispositivo complesso quanto un microprocessore.
(21) Interruttori che commutano in poco più di 12 picosecondi sono stati descritti in "The HEMT: A Superfast
Transistor", di Hadis Morkoc e Paul M. Solomon (IEEE Spectrum, pp. 28-35, Feb. 1984).
(22) Nel suo libro The Enchanted Loom: The Mind in the Universe (New York: Simon & Schuster, 1981).
(23) Il cervello consiste principalmente di strutture analoghe a cablaggi (assoni e dendriti) e strutture
analoghe a commutatori (le sinapsi). Ovviamente si tratta di comunque una semplificazione estrema, poiché
almeno alcune delle strutture analoghe a cablaggi possono subire una modulazione della loro resistenza
elettrica su una scala temporale breve (come discusso in "A Theoretical Analysis of Electrical Properties of
Spines", di C. Koch e T. Poggio, MIT AI Lab Memo No. 713, April 1983). Inoltre, le sinapsi si comportano
molto più come circuiti modificabili di commutazione e molto meno come dei commutatori fissi; possono
essere modulati su una breve scala temporale nonchè interamente ricostruiti su una scala temporale più
lunga (vedi "Cell Biology of Synaptic Plasticity", di Carl W. Cotman e Manuel Nieto-Sampedro, Science, Vol.
225, pp. 1287-94, Sept. 21, 1984).
Il cervello può, a quanto pare, essere simulato da un sistema di componenti nanoelettronici che a loro volta
siano modulati e ricostruiti da del nanomacchinario diretto da nanocomputer meccanici. Assumiamo che un
nanocomputer sia assegnato alla regolazione di un miliardo di miliardi, o giù di li, di "sinapsi" di questo
modello cerebrale, e che ogni nanocomputer regoli anche il corrispondente insieme di "assoni" e "dendriti".
Poiché il volume di ogni nanocomputer (assumendo che questi abbiano una capacità nominale equivalente a
quella dei moderni microprocessori) sarebbe circa di 0,0003 micrometri cubici (vedi "Molecular Machinery
and Molecular Electronic Devices" citato nel capitolo 1), questi dispositivi occuperanno uno spazio totale di
circa 0,3 centimetri cubici. Condividendo altri 0,3 centimetri cubici in modo equo fra memorie ad accesso
random e rapido e memorie di massa a nastro piuttosto veloci, ogni processore risulterebbe dotato di circa
3,7 Kbytes di RAM e 275 Kbytes di nastro. (Questo non impone alcun limite alla complessità del programma,
poiché vari processori potrebbero condividere una memoria più grande per il programma.) Questa quantità
di informazione sembra ben lontana dalla sufficienza affinché possa costituire un modello adeguato dello
stato funzionale di una sinapsi. Macchine molecolari (in grado di modulare componenti nanoelettronici) e
sistemi assemblatori (in grado di ricostruire i componenti nanoelettronici) occuperebberorelativamente poco
spazio. Lo scambio di informazioni fra i computers grazie all'impiego di bacchette di carbina fornirebbe la
simulazione, sebbene più lenta, del sistema di segnalazioni chimiche del cervello.
I cablaggi occuperebbero la maggior parte del volume necessario ai componenti nanoelettronici. Un tipico
dendrite ha un diametro di oltre un micrometro, e serve da conduttore primario. Il diametro dei più sottili
cablaggi secondari potrebbe essere inferiore ad un centesimo di micrometro, a seconda dello spessore
dell'isolante richiesto per confinare l'incanalamento degli elettroni (ossia circa tre nanometri al massimo). La
conduttività dei cablaggi secondari può facilmente eccedere quella di un dendrite. Poiché il volume dell'intero
cervello è all'incirca pari a quello di una scatola da dieci centimetri di lato, cablaggi un migliaio di volte più
sottili (diecimila volte inferiori in termini di area sezionale) occuperebbero al massimo 0,01 centimetri cubici
(il che permetterebbe loro di essere allo stesso tempo più corti). Commutatori elettromeccanici modulati da
macchinario molecolare possono apparentemente essere ridotti dello stesso fattore rispetto alle sinapsi.
Sicché, circuiti nanoelettronici che simulino il comportamento elettrochimico del cervello potrebbero, a
quanto pare, stare in un volume inferiore ad un centesimo di centimetro cubico. Anche ipotizzando un
volume molto abbondante per dei nanocomputers in grado di simulare le più lente fra le funzioni del cervello,
si otterrebbe un volume totale di 0,6 centimetri cubici, come appena calcolato. Un centimetro cubico quindi
pare essere sufficientemente ampio.
(24) Questa potrebbe anche essere una assunzione pessimistica, comunque. Per esempio consideriamo
assoni e dendriti come dei sistemi di trasmissione di segnali elettrici. Essendo tutti uguali fra loro,
un'operazione svolta con rapidità un milione di volte maggiore richiederà una intensità di corrente elettrica un
milione di volte più grande affinché possa raggiungersi una data tensione voltaica di soglia. Il riscaldamento
delle resistenze elettriche varia in proporzione al quadrato della intensità di corrente diviso per la conduttività
della resistenza. Ma il rame ha circa quaranta milioni di volte la conduttività dei neuroni (vedi "A Theoretical
Analysis of Electrical Properties of Spines", citato in precedenza) il che riduce il riscaldamento resistivo a
meno del livello che si è assunto qui (persino in un dispositivo come quello che si è descritto, che è in
qualche modo più compatto rispetto ad un cervello). Per un altro esempio, si consideri l'energia dissipata

165
nell'attivazione di una sinapsi: dispositivi che richiedessero meno energia per l'attivazione, dovrebbero
comportare una dissipazione d'energia inferiore a quella che si è assunta qui. Non sembra perciò esserci
alcuna ragione per credere che i neuroni siano vicini ai limiti dell'efficienza energetica per quel che attiene la
elaborazione delle informazioni; per una discussione riguardo l'effettiva collocazione di questi limiti, vedi
"Thermodynamics of Computation - A Review", di C. H. Bennett (International Journal of Theoretical Physics,
Vol. 21, pp. 219-53, 1982). Tale riferimento bibliografico afferma che i neuroni dissipano energia pari a più di
un miliardo di elettron-volts per ogni rilascio di segnale I calcoli indicano che dei relé meccanici attivati da
forze elettrostatiche possono commutare da accesso a spento in meno di un nanosecondo, operando nel
contempo con tensioni inferiori a un decimo di volt (ossia, tensioni analoghe a quelle dei neuroni) e
consumando meno di un centinaio elettron-volts per operazione. (Non c'è ragione di credere che i relé
meccanici possano rappresentare i commutatori migliori possibili, ma le loro prestazioni sono facili da
calcolare). Le reattanze parassite possono anch'esse risultare ben più esigue di quelle del cervello.
(25) Questa è in qualche modo una immagine ingenua, poiché gli assemblatori possono fabbricare
connettori che funzionano meglio dei bulloni e sistemi di raffreddamento che funzionano meglio di flussi
d'acqua. Ma tentare di discutere sistemi basati interamente su hardware completamente costruito dagli
assemblatori, nella migliore delle ipotesi trascinerebbe la discussione in un certo numero di dettagli di
importanza secondaria, e nella peggiore delle ipotesi apparirebbe come una predizione contraffatta di ciò
che potrà essere costruito, piuttosto che una sensata proiezione di ciò che potrebbe essere costruito.
Coerentemente con questa considerazione, spesso descriverò sistemi costruiti da assemblatori inseriti in
contesti che la nanotecnologia di fatto renderebbe obsoleti.
(26) Vedi Machines Who Think, di Pamela McCorduck, p. 344 (San Francisco: W. H. Freeman & Company,
1979). Questo libro presenta una leggibile ed interessante panoramica sull'intelligenza artificiale vista dalla
prospettiva della gente comune e della storia del campo.
(27) in U.S. News & World Report, P. 65, November 2, 1981.

CAPITOLO 6: IL MONDO OLTRE LA TERRA


(1) Per il trasporto da orbita a orbita, un'alternativa attraente è l'utilizzo di razzi che brucino combustibile
prodotto, da risorse spaziali, nello spazio stesso.
(2) Per discussioni ulteriori vedi "Sailing on Sunlight May Give Space Travel a Second Wind" (Smithsonian,
pp. 52-61, Feb. 1982), "High Performance Solar Sails and Related Reflecting Devices", AIAA Paper 79-
1418, in Space Manufacturing III, edito da Jerry Grey e Christine Krop (New York: American Institute of
Aeronautics and Astronautics, 1979), e MIT Space Systems Laboratory Report 5-79, di K. Eric Drexler. La
World Space Foundation (P.0. Box Y, South Pasadena, Calif. 91030) è una organizzazione senza scopo di
lucro, e sostenuta dalle sottoscrizioni, che sta costruendo una vela solare sperimentale e supportando la
ricerca di asteroidi accessibili.
(3) Per una discussione sulle risorse degli asteroidi vedi "Asteroid Surface Materials: Mineralogical
Characterizations from Reflectance Spectra", di Michael J. Gaffey e Thomas B. McCord (Space Science
Reviews, No. 21, p. 555, 1978) e "Finding 'Paydirt' on the Moon and Asteroids" di Robert L. Staehle
(Astronautics and Aeronautics, pp. 44-49, November 1983).
(4) L'erosione causata da micrometeoridi è un problema minore, e il danno causato da meteoriti più grandi è
estremamente raro.
(5) Vedi il suo libro The High Frontier: Human Colonies in Space (New York: William Morrow, 1976). Lo
Space Studies Institute (285 Rosedale Road, P.0. Box 82, Princeton, N.J. 08540) è una organizzazione
senza scopo di lucro, e sostenuta dalle sottoscrizioni, che mira al progresso dello sviluppo economico
spaziale e dello sviluppo di insediamenti nello spazio, e che lavora principalmente tramite dei progetti di
ricerca. La L5 Society (1060 East Elm, Tucson, Ariz. 85719) è una organizzazione senza scopo di lucro, e
sostenuta dalle sottoscrizioni, che mira al progresso dello sviluppo economico spaziale e dello sviluppo di
insediamenti nello spazio, e che lavora principalmente tramite la sensibilizzazione ed educazione pubblica e
l'azione politica.
(6) Quanta potenza elettrica può fornire una data massa di collettori solari? Poiché l'energia elettrica è
prontamente convertibile in energia chimica, essa sarà indicativa della rapidità con cui un collettore solare di
data massa può fornire una energia sufficiente per costruire una equivalente massa di qualcos'altro. Celle
solari sperimentali realizzate con silicio amorfo convertono la luce solare in elettricità con efficienza di circa il
10 percento, per un livello di materiale spesso circa un micrometro, ottenendo così circa 60 kilowatts di
potenza per ogni chilogrammo di massa attiva. Celle solari costruite da assemblatori saranno, a quanto
pare, capaci di fare molto meglio, e non avranno bisogno di avere spessi substrati di connessioni elettriche
massicce e a basso voltaggio. Sessanta kilowatts di potenza forniscono, in pochi minuti, energia sufficiente
per spezzare e re-disporre tutti i legami chimici di un tipico materiale. Sicché, una navetta spaziale che abbia
una piccola frazione della sua massa rivestita da collettori solari, sarà in grado di ricostruire completamente
la sua struttura in un ora o giù di lì. Ancor più importante, tuttavia, è che questi calcoli indicano che i

166
replicatori alimentati da energia solare saranno riforniti di energia sufficiente per portare a termine, ogni ora,
diversi loro raddoppi.
(7) Per avere la forza specificata, solo l'uno percento circa del materiale, misurato sull'area di sezione
trasversale, deve consistere di fibre di diamante (bacchette cave telescopiche, in una delle realizzazioni
possibili) che si estendono lungo una direzione tale da farsi portatrici del carico. Lungo tale direzione esiste
uno schema regolare di tessitura tridimensionale (con fibre che vanno in sette direzioni differenti, per
sostenere qualsiasi possibile tipo di carico, incluso il tranciamento) nella quale sono inglobate delle fibre
cilindriche che occupano circa il 45 percento del volume totale. In una qualsiasi data direzione, solo alcune
delle fibre possono sostenere un carico sostanziale, e l'utilizzo di cavità e fibre telescopiche (assieme alla
loro estendibilità in lunghezza di un fattore due, in lunghezza) rende la tessitura meno densa. Questi fattori
erodono ulteriormente la quota di volume effettivamente occupato, che varia perciò dal 45 percento fino ad
un minimo dell'uno percento, pur se nel contempo il materiale resta comunque forte, quantomeno, come un
acciaio tipico.
Perché la suit possa cambiare forma pur mantenendo un volume interno costante, sempre che resti
costante anche la pressione, e perché possa far tutto ciò in modo così efficiente, l'energia meccanica
assorbita dallo stiramento del materiale in un suo punto deve essere compensata ed utilizzata dalla
contrazione del materiale in qualche altro punto - diciamo, sull'altro lato di una giuntura a gomito. Un modo di
ottenere ciò è sfruttare dei motori elettrostatici, reversibili come generatori, collegati a un normale sistema di
alimentazione elettrica. Le leggi di scala, sulle piccole dimensioni, favoriscono i motori elettrostatici piuttosto
che quelli elettromagnetici.
Un esercizio di progettazione (con applicazioni non limitate ad ipotetiche suit spaziali) produce come
risultato un dispositivo di circa 50 nanometri di diametro che lavora sul principio di un generatore
elettrostatico a "pallettroni" di Van de Graaff, ossia incanalando gli elettroni attraverso piccole feritoie per
caricare dei pallini di piombo ed utilizzando un rotore piuttosto che una catena di pallini di piombo. (Il
dispositivo somiglierebbe ad una ruota idraulica, con secchi d'acqua forati sul fondo in luogo delle pale). Le
operazioni in corrente continua dovrebbero essere limitate a tensioni di 10 volts, e l'efficienza della
conversione di potenza (sia "da" che "verso" la potenza meccanica) pare probabilmente dimostrarsi
eccellente, limitata solo dalle perdite per attrito. La densità di conversione di potenza (per una velocità all'orlo
del rotore pari a un metro per secondo e per pallini di piombo caricati elettricamente da un singolo elettrone
ciascuno) è di circa tre milioni di miliardi di watts per metro cubico. Una potenza che, quindi, sembra essere
più che adeguata.
Per quel che riguarda in generale le perdite per attrito, cuscinetti rotanti con forza di oltre 6 nano-newtons
possono essere realizzati da legami carbonio - vedi Strong Solids, di A. Kelly (Oxford: Clarendon Press,
1973) - e cuscinetti che usino una coppia di atomi di carbonio legati da un legame triplo permetterebbero
una rotazione quasi perfettamente priva di ostacoli. Cuscinetti rotolanti (piuttosto che rotanti) basati su
cilindri cavi atomicamente perfetti ed aventi protuberanze analoghe a cuscinetti a sfera ma dalla corsa
atomicamente perfetta, hanno almeno due modalità possibili di dissipare energia: uno risulta dalla radiazione
fononica (suoni) prodotta dalle leggere irregolarità del moto di rotolamento, e l'altro risulta dalla dispersione
di radiazione fononica già esistente a causa dei punti di contatto mobili. Le stime per entrambe le forme di
dispersione (per cuscinetti rotolanti almeno di pochi nanometri in diametro che si muovano a velocità
modeste) suggeriscono che esse dissiperebbero ben poca potenza, almeno rispetto agli standard
tradizionali.
Motori elettrostatici e cuscinetti rotolanti possono essere combinati per fabbricare spirali di avvitamento
telescopiche di scala submicrometrica. Queste possono a loro volta essere sfruttate come fibre fatte di un
materiale in grado di comportarsi come descritto nel testo.
(8) Una possibile eccezione a quanto detto qui, è quella di una forza che provochi una accelerazione
complessiva: per esempio, l'equilibrio richiede che le forze agenti sulle piante dei piedi di una persona, che si
trovi in piedi in un razzo in piena accelerazione, forniscano sostegno, e la suit deve trasmettere tali forze
senza amplificazione o diminuzione alcuna. Gestire in modo liscio tutto questo potrebbe essere lasciato
come esercizio per i futuri progettisti di sistemi di controllo e per i futuri programmatori di nanocomputer.
(9) Disassemblatori, assemblatori, alimentazione energetica e refrigerazione - tutte insieme, queste cose
sono sufficienti a riciclare tutti i materiali di cui una persona ha bisogno per mantenere confortevole il suo
ambiente. Alimentazione energetica e refrigerazione sono cruciali.
Per quanto riguarda l'alimentazione energetica, una persona tipica consuma meno di cento watts di
potenza, in media; la potenza solare che cade sulla superficie dalla dimensione di un tipico foglio di carta
(alla distanza Terrestre dal Sole) è quasi altrettanto grande. Se la suit è ricoperta completamente con una
pellicola che agisce come una cella solare ad alta efficienza, la luce del sole che colpisce questa pellicola
fornisce potenza a sufficienza. Dove questa dovesse risultare inadeguata, si potrebbe utilizzare un parasole
a celle solari per raccogliere più potenza.
Per quel che riguarda la refrigerazione, tutta la potenza assorbita dovrebbe eventualmente essere trattata
come calore in eccesso - da disperdere nel vuoto, per irraggiamento termico. Alla temperatura corporea, una
superficie può irradiare circa 500 watts per metro quadro. Con delle celle solari efficienti e progettazioni

167
adeguate (e tenendo presente la possibilità di alette di raffreddamento e cicli di refrigerazione), la
refrigerazione non dovrebbe costituire un problema, almeno su un vasto insieme di ambienti. Il materiale
della suit può, naturalmente, contenere canali per il flusso del refrigerante, al fine di mantenere la pelle di chi
la indossa alla temperatura desiderata.
(10) Una capocchia di spillo contiene circa un millimetro cubico di materiale (a seconda dello spillo,
ovviamente). Questa quantità di spazio è quanto basta per codificare una quantità di testi più grandi di un
milione di miliardi di libri (le biblioteche più grandi ne contengono solo milioni). Anche supponendo che una
immagine equivalga a un migliaio di parole, esiste comunque spazio a sufficienza per memorizzare i piani
per un insieme molto vasto di dispositivi.
(11) I sistemi IA per l'ingegneria descritti nel capitolo 5, essendo un milione di volte più veloci degli ingegneri
umani, potrebbero eseguire il lavoro di progettazione di diversi secoli in una sola mattina.
Assemblatori in condizioni di vuoto, possono realizzare su un sito di reazione chimica qualsiasi ambiente si
desideri, posizionandovi su l'appropriato insieme di utensili molecolari. Con la progettazione adatta e grazie
a meccanismi attivi di riparazione e sostituzione, l'esposizione alla radiazione naturale dello spazio non
costituirà un problema.
(13) Ma che dire a proposito dell'inquinamento spaziale? I rottami in orbita Terrestre costituiscono un rischio
notevole e c'è bisogno di tenerli sotto controllo, ma molti altri problemi ambientali che esistono sulla Terra
non possono preoccuparci anche per lo spazio: lo spazio non ha aria da inquinare, acque freatiche da
contaminare, o una biosfera da danneggiare. Lo spazio è già inondato da radiazioni naturali. Mano a mano
che la vita si sposterà nello spazio, sarà protetta dalla crudezza dell'ambiente spaziale. Inoltre nello spazio, il
solo volume del sistema solare interno è molti milioni di miliardi di volte più grande di quello dell'intera Terra,
compresi atmosfera ed oceani. Se la tecnologia sulla Terra ha avuto lo stesso effetto di un toro in un negozio
di porcellane cinesi, allora la tecnologia nello spazio avrà l'effetto di un toro in un campo aperto.
(14) Citato in The High Frontier: Human Colonies in Space, di Gerard K. O'Neill (New York: William Morrow,
1976).
(15) Questo concetto è stato presentato per la prima volta da Robert L. Forward nel 1962.
(16) Feynman ha discusso di questo in una conversazione, durante una sessione informale del meeting
intitolato "Discussion Meeting on Gossamer Spacecraft", tenutosi il 15 Maggio 1980 presso il Jet Propulsion
Laboratory a Pasadena, California.
(17) Vedi il suo articolo "Roundtrip Interstellar Travel Using Laser-Pushed Lightsails", (Journal of Spacecraft
and Rockets, Vol. 21, pp. 187-95, Jan.-Feb. 1984). Forward si concentra sul problema della fabbricazione di
una vela di luce basata su un raggio sufficientemente reversibile, e al contempo di sufficiente qualità ottica
(quindi con diffrazione limitata) per poter svolgere questo lavoro. Una struttura attivamente controllata,
basata su una sottile pellicola di metallo e posizionata tramite attuatori e computer, entrambi di scala
nanometrica, sembra essere un approccio funzionante per risolvere questo problema.
Ma la nanotecnologia consentirà un approccio differente per accelerare le vele di luce e per arrestare il loro
cargo. Gli assemblatori-replicatori renderanno facile un tale approccio grazie alla possibilità di costruire
facilmente grandi laser, lenti e vele. Le vele possono essere fabbricate con un dielettrico cristallino, come
ossido di alluminio, avente forza estremamente alta e bassa assorbenza ottica. Tali vele potrebbero
sopportare luci laser intense, accelerando fino a molte volte l'accelerazione di gravità Terrestre ("G"), e
approssimandosi alla velocità della luce in una frazione d'anno. Ciò consentirebbe alle vele di raggiungere le
loro destinazioni in un tempo quasi minimale. (Per una discussione sulla accelerazione fino a molti "G" di
oggetti dielettrici, vedi "Applications of Laser Radiation Pressure", di A. Ashkin [Science, Vol. 210, pp. 1081-
88, Dec. 5, 1980]).
Durante il volo, la dotazione della nave di sistemi di assemblatori controllati da computer (sistemi alimentati
da luci laser di intensità ancora maggiore rispetto a quelli del punto di partenza) potrebbero ricostruire la vela
trasformandola in un lungo e sottile accelleratore d'onde. Quest'ultimo potrebbe quindi essere utilizzato per
accellerare elettricamente un guscio cavo fatto di un forte materiale e di diversi micrometri di raggio che
contenga circa un micrometro cubico di cargo; un tale guscio può essere fornito di un alto e positivo valore
del rapporto carica-massa. I calcoli indicano che un accelleratore lungo mille chilometri (c'è spazio a
sufficienza, nello spazio) sarebbe più che adeguato ad accellerare il guscio e il cargo fino ad oltre il 90
percento della velocità della luce. Un accelleratore la cui massa sia un grammo per ogni metro d'estensione,
(il che comporta un sistema pesante una tonnellata) pare essere più che adeguato. All'approssimarsi del
sistema stellare di destinazione, l'accelleratore si spinge via in senso contrario alla velocità scelta per
abbandonare il cargo, assieme a tutto il resto. (Per una discussione sulla accellerazione elettrostatica di
piccole particlelle, vedi "Impact Fusion and the Field Emission Projectile", di E. R. Harrison [Nature, Vol. 291,
pp. 472-73, June 11, 1981].)
La velocità residua del proiettile può essere rediretta di modo che esso intercetti e colpiscal'atmosfera di un
pianeta come Marte- o Venere (un pianeta avvistato e scelto precedentemente grandi telescopi insediati
nello spazio). Un sottile guscio del tipo già descritto irradierà abbastanza rapidamente il calore atmostferico
in entrata, di modo da rimanere sufficientemente. Il cargo, consistente di un sistema di assemblatori e di
nanocomputer, può quindi usare la luce del sole locale nonché carbonio, idrogeno, azoto e ossigeno locali

168
(probabilmente elementi ritrovabili in qualunque atmosfera planetaria) per replicare e costruire strutture
molto più grandi di se.
Un primo progetto potrebbe essere la costruzione di un ricevitore per poter ricevere istruzioni ulteriori da
casa, inclusi piani per dispoitivi complessi. Questo potrebbero includere razzi in grado di allontanarsi dal
pianeta (sfruttato come obiettivo essenzialmente in virtù del cuscino atmosferico che mette a disposizione)
per raggiungere una locazione che rappresenti un sito migliore per il lavoro di costruzione. Il risultante
sistema di replicatori-assemblatori potrebbe virtualmente costruire qualsiasi cosa, inclusi sistemi intelligenti
per l'esplorazione. Per risolvere il problema dell'arresto della vela solare e nel caso a questa siano annessi
massicci veicoli per passeggeri, il sistema potrebbe costruire una schiera di laser frenanti grande quanto
quella dei laser di lancio per il ritorno verso casa. La costruzione delle due schiere potrebbe essere
completata a poche settimane dal momento della consegna del "seme" di un micrometro cubico. Questo
sistema illustra un possibile modo per diffondere la civiltà umana fino alle stelle con velocità solo
leggermente inferiore alla velocità della luce.
(18) Due giorni di viaggio ad una accellerazione pari a due G, possono portare una persona dalla Terra fino
ad un punto qualunque entro un disco la cui area sia 20 milioni di volte l'area della superficie Terrestre - e
questo calcolo permette persino un buco nel centro del disco con un raggio di centinaia di volte la distanza
Terra-Luna. Anche così, il bordo esterno del disco raggiunge solo un ventesimo della distanza Terra-Sole.
(19) Ciò assumendo una conversione di energia solare in energia cinetica con una efficienza
approssimativa del 10 percento, cosa che si dovrebbe poter ottenere in una qualunque di molte possibili
maniere.

CAPITOLO 7: MOTORI DI GUARIGIONE


(1) Vedi il suo articolo "Comparative Biochemistry and Drug Design for Infectious Disease" (Science, Vol.
205, pp. 964-71, Sept. 7, 1979).
(2) Vedi "A Conformationally Constrained Vasopressin Analog with Antidiuretic Antagonistic Activity" di
Gerald Skala ed altri (Science, Vol. 226, pp. 443-45, Oct. 26, 1984).
(3) The American Heritage Dictionary of the English Language, edito da William Morris (Boston: Houghton
Mifflin Company, 1978).
(4) Questi sistemi saranno utilizzati sia per aiutare strumenti di progettazione molecolare che per dirigere il
loro impiego. Usando dispositivi in grado di andare su locazioni specificate, afferrare molecole e analizzarle,
lo studio di strutture cellulari diverrebbe piuttosto facile da automatizzare.
(5) Le macchine di riparazione potrebbero usare dispositivi che assomigliano ai robot attualmente usati nel
lavoro di assemblaggio industriale. Ma riassemblare strutture cellulari non richiederà macchine così precise
(o meglio, così precise relativamente alla loro dimensione). Molte strutture delle cellule si auto-assemblano
se i loro componenti vengono semplicemente confinati assieme in uno spazio ben delimitato, lasciati solo
liberi di rimbalzare tutto attorno; essi non hanno bisogno di essere manipolati in modi complessi e precisi. Le
cellule contengono già tutti gli strumenti necessari per assemblare le strutture delle cellule, e nessuna è
tanto complessa quanto un robot industriale.
(6) Vedi pp. 1022-23 di Biochemistry, di Albert L. Lehninger (New York: Worth Publishers, 1975).
(7) Il contenuto in lipofucsina varia a seconda del tipo di cellule, ma alcune cellule cerebrali (negli animali
anziani) ne contengono mediamente circa 17 percento; i tipici granuli di lipofucsina vanno da un diametro di
un micrometro fino a tre micrometri. Vedi "Lipofuscin Pigment Accumulation as a Function of Age and
Distribution in Rodent Brain", di William Reichel ed altri (Journal of Gerontology, Vol. 23, pp. 71-81, 1968).
Vedi anche "Lipoprotein Pigments - Their Relationship to Aging in the Human Nervous System", di D. M. A.
Mann e P. O. Yates (Brain, Vol. 97, pp. 481-88, 1974).
(8) La relazione implicata non è esatta, ma mostra la tendenza giusta: per esempio, il secondo numero
mostrato dovrebbe di 2,33 errori non corretti in un milione di milioni, e il terzo dovrebbe essere di 4,44 in un
milione di milioni di milioni (in base a certi calcoli piuttosto complessi basati su un algoritmo di correzione
degli errori leggermente ancora più complesso).
(9) Le cellule immunitarie che producono anticorpi differenti posseggono geni differenti, modificate
appropriatamente durante lo sviluppo. Riparare questi geni richiederà regole speciali (ma la possibilità
dimostrata dello sviluppo di un sistema immunitario, mostra che è possibile generare i corretti schemi di
informazione).
(10) Si noti che ogni molecola danneggiata quanto basta da avere un effetto anormale sul macchinario
molecolare della cellula, sarà per questo stesso motivo danneggiata quanto basta da provocare un preciso
effetto distintivo su dei sensori molecolari.
(11) Per una monografia che discute questo argomento in maggior dettaglio, inclusi i calcoli di volume,
velocità, potenze d'alimentazione e carichi computazionali, vedi "Cell Repair Systems" di K. Eric Drexler
(disponibile presso The Foresight Institute, Palo Alto, Calif; website: http://www.foresight.org).

169
(12) Per esempio, per mezzo di fibre cave di un nanometro o due in diametro, ognuna che supporta una
bacchetta di carbina per la trasmissione dei siegnali, di quelle utilizzate all'interno dei nanocomputer
meccanici. Dove sia necessario si possono impiegare anche dei ripetitori di segnale.
(13) Questa necessità non richiete la risoluzione di alcun problema realmente difficile di riconoscinmento di
schemi (pattern recognition problem), fatta eccezione in casi in cui le strutture cellulari siano pesantemente
distrutte. Ogni struttura cellulare contiene dei tipi standard di molecole in uno schema che varia all'interno di
limiti piuttosto stereotipi, ed un semplice algoritmo può identificare ogni proteina che sia danneggiata in
maniera sostanziale. L'identificazione delle molecole standard in una struttura determina il suo tipo; redigere
una mappa di queste tipologie diventa una questione di semplice completamento della conoscenza acquisita
riguardo a categorie di dettagli.
(14) Gli esperimento molecolari possono essere svolti circa un milione di volte più velocemente degli
esperimenti macroscopici, poichè un braccio assemblatore può agire un milione di volte più rapidamente di
un braccio umano (vedi capitolo 4). Per cui, le macchine molecolari e i sistemi IA veloci ben si sposano per
quel che riguarda la velocità.
(15) utilizzando 2-MEA, BHT, e etoxiquina; I risultati dipendono dallo stress a cui il topo è sottoposto, dalla
sua dieta e dagli altri farmaci impiegati. Vedi "Free Radical Theory of Aging", di D. Harman (Triangle, Vol. 12,
No. 4, pp. 153-58, 1973).
(16) Come riportato dal Press-Telegram, Long Beach, Calif., April 26, 1985.
(17) La riparazione cellulare dovrà anche basarsi su una nuova scienza, ma in un modo differente. Come
discusso nel capitolo 3, ha senso prevedere quello che impareremo "su" un certo campo di conoscenza ma
non "che cosa" esattamente impareremo. Estendere la vita per mezzo di macchine di riparazione cellulare
richiederà che impariamo molto "sulle" strutture cellulari prima di poterle riparare, ma che cosa impareremo
non influenza la realizzabilità di queste riparazioni. Estendere la vita attraverso mezzi tradizionali, al
contrario, dipenderà da quanto bene il macchinario molecolare del corpo può effettivamente riparare se
stesso quando trattato appropriatamente. Impareremo ancora molto altro a questo proposito, ma quello che
impareremo potrebbe anche rivelarsi deludente.

CAPITOLO 8: LONGEVITA' IN UN MONDO APERTO


(1) Vedi "Evolution of Aging" un articolo di rassegna di T. B. L. Kirkwood (Nature, Vol. 270, pp. 301-4, 1977).
(2) In The Uniqueness of the Individual (London: Methuen, 1957). Vedi anche la discussione in The Selfish
Gene, pp. 42-45 (citato nelle note al capitolo 2).
(3) Vedi il riferimento in nota precedente, il quale include una spiegazione alternativa (ma in buona misura
analoga) per i risultati di Hayflick.
(4) Per un riferimento all'enunciato di questa teoria (di D. Dykhuizen nel 1974) insieme con una critica ed
una confutazione, vedi le lettere di Robin Holliday, e quelle di John Cairns e Jonathan Logan, in "Cancer and
Cell Senescence" (Nature, Vol. 306, p. 742, December 29, 1983).
(5) Questi animali possono ancora mostrare un alto tasso di incidenza di cancro a causa di un'alta incidenza
di cronometri cellulari (clocks) danneggiati.
(6) Un sistema che particolarmente adatto è l'impiego di un altro veleno; le automobili "mangiano" un
prodotto tossico del petrolio. Persino fra gli organismi, alcuni batteri prosperano su una combinazione di
metanolo (alcool derivato dal legno) e monossido di carbonio (vedi "Single-Carbon Chemistry of Acetogenic
and Methanogenic Bacteria", di J. G. Zeikus ed altri, Science, Vol. 227, pp. 1167-71, March 8, 1985), mentre
altri batteri si sono sviluppati in modo da prosperare sia grazie al triclorofenolo che agli erbicidi di tipo 2,4,5-
T. Essi possono persino dissociare il fluoro dal pentafluorofenolo. (Vedi "Microbial Degradation of
Halogenated Compounds", D. Chousal ed altri, Science, Vol. 228, pp. 135-42, April 12, 1985.)
(7) Grazie all'utilizzo di carburanti prodotti per mezzo dell'energia solare.
(8) In termini di semplice entità di massa, il disossido di carbonio è forse il nostro problema di inquinamento
più grande. E tuttavia, sorprendentemente, un calcolo semplice mostra che la luce solare colpisce la Terra in
un solo giorno con abbastanza energia da dissociare tutto il diossido di carbonio nella nostra atmosfera in
carbonio ed ossigeno (a parte le considerazioni d'efficienza nell'utilizzo di tale energia). Anche considerando
varie limitazioni estetiche e pratiche, avremo perciò energia a sufficienza per completare questa immane
ripulitura dell'atmosfera nell'arco di una sola decade.
(9) Vedi "Gene Samples from an Extinct Animal Cloned", di J. A. Miller (Science News, Vol. 125, p. 356,
June 9, 1984).
(10) The Iliad, di Omero (ottavo secolo A. C. circa), come citato da Eric Hoffer in The True Believer (New
York: Harper & Brothers, 1951). (Sarpedone rimase infatti ucciso in battaglia).
(11) Da The Epic of Gilgamesh , tradotta il lingua inglese da N. K. Sandars (Middlesex: Penguin Books,
1972).

170
CAPITOLO 9: UNA PORTA SUL FUTURO
(1) In Mr. Franklin, A Selection from His Personal Letters, di L. W. Labaree e W. J. Bell Jr. (New Haven:
Yale University Press, 1956), pp. 27-29.
(2) Con organi e tessuti cresciuti dalle stesse cellule del ricevente, per cui non esisterà alcun problema di
rigetto.
(3) Gli esperimenti mostrano che variazioni dell'esperienza vissuta, producono rapidamente visibili variazioni
nella forma delle spinali dendritiche (piccole prominenze che realizzano sinapsi sui dendriti). Vedi "A
Theoretical Analysis of Electrical Properties of Spines", di C. Koch e T. Poggio (MIT AI Lab Memo No. 713,
April 1983).
In "Cell Biology of Synaptic Plasticity" (Science, Vol. 225, pp. 128794, Sept. 21, 1984), Carl W. Cotman e
Manuel Nieto-Sampedro hanno scritto che "Il sistema nervoso è specializzato a mediare la risposta
adattativa dell'organismo […] A tal fine il sistema nervoso è modificabile in modo particolarmente peculiare,
ossia è plastico. La plasticità neuronale è in gran parte la capacità delle sinapsi di modificare la propria
funzione, di venir rimpiazzate, e di incrementare e decrementare il proprio numero quando richiesto". Inoltre,
"poiché si ritiene che la neocorteccia sia una delle sedi dell'apprendimento e della memoria,la maggior parte
degli studi sugli effetti sinaptici causati da stimoli naturali si sono concentrati su questa area ". L'incremento
delle delle diramazioni dendritiche nella neocorteccia "è causato dall'età (esperienza) sia nei roditori che
negli umani. Incrementi più esigui ma riproducibili sono stati osservati a seguito dell'apprendimento di
compiti particolari […]". Questi cambiamenti nella struttura delle cellule possono verificarsi " nell'arco di ore".
Per una discussione sulla memoria a breve termine e sulla memoria a lungo termine , e su come la prima
possa essere convertita nella seconda, vedi "The Biochemistry of Memory: A New and Specific Hypothesis",
di Gaty Lynch e Michel Baudty (cience.com/science/" Science, Vol. 224, pp. 1057-63, June 8, 1984).
Al momento, ogni teoria vitale riguardante la memoria a lungo termine chiama in causa modificazioni nella
struttura e nel contenuto proteico dei neuroni. Esiste comunque una idea popolare e persistente a proposito
del fatto che la memoria potrebbe in qualche maniera essere immagazzinata (esclusivamente?) "in molecole
di RNA", una voce apparentemente nutrita dall'analogia col DNA, la "memoria" responsabile dell'ereditarietà.
Questa idea deriva da vecchi esperimenti che suggerivano che il comportamento appreso potesse essere
trasferito ad altri vermi piatti non precedentemente addestrati iniettando loro RNA estratto da vermi
addestrati. Sfortunatamente per questa teoria, gli stessi risultati sono stati ottenuti utilizzando RNA estratto
da cellule di lievito completamente prive di qualsiasi addestramento. Vedi Biology Today, di David Kirk, p.
616 (New York: Random House, 1975).
Un'altra idea popolare e persistente è che la memoria possa essere immagazzinata in forma di riverberanti
schemi di attività elettrica, una voce apparentemente nutrita dall'analogia con le memorie dinamiche ad
accesso casuale dei computer moderni. Questa analogia, comunque, è inappropriata per diverse ragioni: (1)
Le memorie dei computer, a differenza dei cervelli, sono progettate per essere ripetutamente cancellate e
riutilizzate. (2) Gli schemi in una "memoria a lungo termine" di un computer - i suoi dischi magnetici, per
esempio - sono di fatto ben più durevoli delle RAM dinamiche. (3) I chip di silicio sono progettati per la
stabilità strutturale, mentre i cervelli sono progettati per modificazioni strutturali dinamiche. Alla luce della
moderna evidenza della conservazione della memoria a lungo termine in strutture cerebrali persistenti, non è
sorprendente che la "totale cessazione dell'attività elettrica del cervello di solito non comporta la
cancellazione delle memorie, nonostante un tale effetto possa selettivamente riguardare la memorie
immagazzinate più di recente" (A. J. Dunn). La teoria dei riverberi elettrici fu proposta da R. Lorente de No
(Journal of Neurophysiology, Vol. 1, p. 207) nel 1938. La sperimentazione moderna non ha riscontrato
supporto ad una tale teoria che guarda alla memoria caratterizzandola come effimera.
(4) Per ragioni tecniche, questo studio è stato condotto sui molluschi, ma la neurobiologia si è dimostrata
sorprendentemente uniforme. Vedi "Molecular Biology of Learning: Modulation of Transmitter Release", di
Eric R. Kandel e James H. Schwartz (Science, Vol. 2 18, pp. 433-43, Oct. 29, 1982), che riporta lavori di C.
Baily e M. Chen.
(5) Il tempo che intercorre fra l'espirazione e la dissoluzione definisce la finestra temporale per una biostasi
di successo, ma l'estensione di tale intervallo temporale resta incerta. Come mostrato dall'esperienza
medica, è possible distruggere il cervello (causando la dissoluzione irreversibile della mente e della
memoria) persino mentre un paziente respira ancora. Per contrasto, certi pazienti sono stati riportati alla vita
dopo un significativo periodo di cosiddetta "morte clinica". Disponendo di macchine di riparazione cellulare, il
requisito di base sarebbe quello che il cervello rimanga struttralmente intatto; fintanto che è vivo, esso
presumibilmente resta anche intatto, sicché la vitalità fornisce un indicatore dello stato di conservazione.
Esiste un mito comune riguardante il fatto che il cervello "non possa sopravvivere" per più di pochi minuti
privo di ossigeno. Anche se ciò fosse vero in relazione ad una interpretazione della sopravvivenza come
capacità di ripristinare (spontaneamente) il funzionamento, la sopravvivenza della caratteristica struttura
cellulare sarebbe una questione a parte. Ed infatti, la struttura cellulare nel cervello di cani espirati, persino
quando questi siano conservati a temperatura ambiente, mostra solo moderate alterazioni ogni sei ore, a

171
molte strutture cellulari restano visibili per un giorno o anche più.; vedi "Studies on the Epithalamus", di
Duane E. Haines e Thomas W. Jenkins (Journal of Comparative Neurology, Vol. 132, pp. 405-17, Mar.
1968).
Ma di fatto, il potenziale per il funzionamento spontaneo del cervello può sopravvivere per ben più a lungo di
quanto questo mito (e la definizione medica di "morte cerebrale") suggeriscano. Una varietà di esperimenti,
che hanno utilizzato farmaci e chirurgia, lo hanno mostrato: Scimmie adulte sono riuscite in un completo
recupero dopo una interruzione di ben sedici minuti della circolazione sanguinea nel cervello (una
condizione clinica denominata "ischemia", la quale ovviamente blocca anche la fornitura d'ossigeno al
cervello); vedi "Thiopental Therapy After 16 Minutes of Global Brain Ischemia in Monkeys", di A. L. Bleyaert
ed altri (Critical Care Medicine, Vol. 4, pp. 130-31, Mar./Apr. 1976). I cervelli di scimmie e gatti sono
sopravvissuti per un ora, mantenuti a temperature corporee ma in assenza di circolazione sanguinea,
recuperando in seguito il loro funzionamento elettrico; vedi "Reversibility of Ischemic Brain Damage", di K.-A.
Hossmann e Paul Kleihues (Archives of Neurology, Vol. 29, pp. 375-84, Dec. 1973). In Dottor Hossmann
conclude che ogni cellula nervosa del cervello può sopravvivere "per un'ora senza sangue (dopo che il cuore
abbia smesso di pomparlo, per esempio). Il problema non è che le cellule nervose muaiono quando la
circolazione si arresta, ma altri problemi collaterali (come un leggero rigonfiamento del cervello all'interno
della sua cavità ossea troppo strettamente tagliata su misura) può impedire il ripristino della circolazione.
Quando raffreddati fino in prossimità del congelamento, I cervelli dei cani hanno recuperato l'attività elettrica
dopo ben quattro ore trascorse in assenza di circolazione sanguinea (e hanno recuperato le principali attività
metaboliche persino dopo quindici giorni)". Vedi "Prolonged Whole-Brain Refrigeration with Electrical and
Metabolic Recovery", di Robert J. White d altri (Nature, Vol. 209, pp. 1320-22, Mar. 26, 1966).
Cellule del cervello che mantengano la capacità di ritornare spontaneamente a vivere a seguito dell'uscita
da uno stato di biostasi dovrebbero dimostrarsi facili da riparare. Poiché il successo richiede principalmente
che le caratteristiche strutture cellulari restino intatte, la finestra temporale per l'avvio dell'applicazione di
procedure di biostasi è probabilmente di almeno diverse ore dopo l'espirazione, ed è possibile che sia anche
più estesa. Degli ospedali cooperativi possono rendere, ed hanno reso, i tempi di intervento ben più brevi di
così.
(6) Per delle micrografie ottenute con lettroni ad alto voltaggio che mostrino I dettagli di scala molecolare di
cellule preservate tramite fissazione con glutaraldeide, vedi "The Ground Substance of the Living Cell", di
Keith R. Porter e Jonathan B. Tucker (Scientific American, Vol. 244, pp. 56-68, Mar. 1981). La fissazione da
sola non semra essere sufficiente; la stabilizzazione di strutture sul lungo periodo sembra richiedere il
congelamento o la vetrificazione, sia da sole che in aggiunta alla fissazione. Il raffreddamento in azoto
liquido - al disotto dei 196 gradi centigradi - può preservare le strutture dei tessuti per molte migliaia di anni.
(7) Vedi "Vitrification as an Approach to Cryopreservation", di G. M. Fahy ed altri (Cryobiology, Vol. 21, pp.
407-26, 1984).
(8) Vedi "Ice-free Cryopreservation of Mouse Embryos at -196 degrees C by Vitrification", di W. F. Rall e G.
M. Fahy (Nature, Vol. 313, pp. 573-75, Feb. 14, 1985).
(9) The Prospect of Immortality (New York: Doubleday, 1964; una versione preliminare fu pubblicata
privatamente nel 1962)
(10) E' ben noto che le cellule di sperma umano e embrioni molto giovani possono sopravvivere al
congelamento ed essere conservati; in entranbi i casi, i successi sono stati riferiti dai mass media. Successi
meno spettacolari ottenuti con altri tipi di cellule (per le trasfusioni si utilizza sangue congelato e poi
scongelato) sono numerosi. E' anche interessante notare che, dopo il trattamento con glicerolo e il
concelamento a meno di 20 gradi centigrade, i cervelli di gatto possono recuperare l'attività elettrica
spontanea dopo oltre 200 giorni di conservazione; vedi "Viability of Long Term Frozen Cat Brain In Vitro" di I.
Suda, K. Kito, e C. Adachi (Nature, Vol. 212, pp. 268-70, Oct. 15, 1966).
(11) Un gruppo del Laboratorio di Criobiologia presso The American Red Cross (9312 Old Georgetown
Road, Bethesda, Md. 20814) sta tentando la conservazione di interi organi umani finalizzata alla istituzione
di una banca degli organi per I trapianti; vedi "Vitrification as an Approach to Cryopreservation" già citato
poco sopra.
(12) Come ho riscontrato quando l'evidenza della realizzabilità della riparazione cellulare mi ha portato ad
esaminare la letteratura esistente sulla crionica. L'originario libro di Robert Ettinger, per esempio (già citato
precedentemente), parla dell'eventuale sviluppo di "immense machine chirurgiche" capaci di riparare tessuti
cellulari "cellula dopo cellula, o persino molecola dopo molecola nei casi più critici". Nel 1969 Jerome B.
White scrisse un articolo intitolato "Viral Induced Repair of Damaged Neurons with Preservation of Long
Term Information Content"(Riparazione indotta da Virus di Neuroni Danneggiati, con Preservazione del loro
Contenuto informativo di Lungo Termine), il quale proponeva che avrebbero potuto trovarsi dei metodi per
dirigere la riparazione cellulare utilizzando virus artificiali; vedi il preambolo del suddetto articolo riportato
anche da Man into Superman, di Robert C. W. Ettinger (New York: St. Martin's Press, 1972, p. 298). In "The
Anabolocyte: A Biological Approach to Repairing Cryo-injury" (Life Extension Magazine, pp. 80-83,
July/August 1977), Michael Darwin propose che sarebbe stato possible utilizzare l'ingegneria genetica per
fabbricare cellule rappresentate da globuli bianchi sanguinei altamente modificati in grado di localizzare e

172
ricostruire cellule danneggiate. In "How Will They Bring Us Back, 200 Years From Now?" (The Immortalist,
Vol. 12, pp. 5-10, Mar. 1981), Thomas Donaldson propose che I sistemi di machine molecolari (con
dispositivi altrettanto piccoli dei virus e aggregati di dispositivi grandi quanto palazzi, se necessario)
potrebbero effettuare su tessuti congelati qualsiasi riparazione necesarria.
L'idea di sistemi di riparazione cellulare è circolata per molti anni. Il concetto di assemblatore e di
nanocomputer ha ora reso possibile vedere chiaramente in che modo un tale dispositivo possa essere
costruito e controllato, nonché che tali sistemi possano effettivamente essere adatti ad essere introdotti
all'interno delle cellule.
(13) Alcuni criceti, comunque, sono stati raffreddati a temperature tali da congelare oltre la metà dell'acqua
contenuta nei loro corpi (e cervelli), e sono stati riportati in vita con recupero completo delle loro funzionalità;
vedi Biological Effects of Freezing and Supercooling, di Audrey U. Smith (Baltimore: Williams & Wilkins,
1961).
(14) in Designing the Future: The Role of Technological Forecasting (Philadelphia: Chilton Book Co., 1967).
(15) Altri fattori hanno contribuito allo scoraggiamento - principalmente costi e ignoranza. Per un paziente,
pagare una procedura di biostasi ed istituire che provveda alla conservazione a tempo indeterminato in
azoto liquido costa attualmente 35.000 dollari o anche più, a seconda della procedura di biostasi scelta.
Questo costo è tipicamente coperto da una apposita polizza assicurativa sulla vita. A fronte di questo costo e
in assenza di una chiara visione di come possa essere riparato il danno da congelamento, solo pochi
pazienti su milioni hanno optato per questa scelta. La esigua domanda, a sua volta, ha impedito che una
economia di scala abbassasse il costo del servizio. Ma questa situazione potrebbe essere alla sua svolta. I
gruppi cronici riferiscono di un recente incremento del ritmo con cui vengono stipulati contratti per la biostasi,
apparentemente derivato dalla conoscenza di progressi nella biologia molecolare e nella comprensione delle
future capacità di riparazione cellulare.
Negli Stati Uniti esistono tre gruppi che offrono servizi per la biostasi. In ordine di importanza per quella che
è la loro apparente dimensione e qualità, essi sono:
La Alcor Life Extension Foundation, 4030 North Palm No. 304, Fullerton, Calif. 92635, (714) 738-5569.
(Alcor ha anche una filiale ed altre risorse nel sud della Florida).
Trans Time, Inc., 1507 63rd Street, Emeryville, Calif. 94707, (415) 655-9734.
The Cryonics Institute, 24041 Stratford, Oak Park, Mich. 48237, (313) 967-3115.
Per ragioni pratiche basate sull'esperienza, essi richiedono che tutte le pratiche legali e finanziarie vengano
completate prima della stipula del contratto.
(16) La crescita di cristalli di ghiaccio può mostrare strutture cellulare di pochi milionesimi di metro, ma essa
non le cancella, ne sembra probabile che causi una equivocità in qualche modo significativa riguardo dove
esse fossero posizionate prima di venir spostate dalla loro posizione. Una volta congelate, esse non si
spostano ulteriormente. La riparazione può cominciare prima che lo scongelamento permetta loro di
spostarsi liberamente.
(17) Le attuali procedure di biostasi comprendono anche il drenaggio della maggior parte del sangue del
paziente; le nanomacchine recuperano ogni cellula sanguinea residua mentre ripuliscono il sistema
circolatorio.
(18) Ciò esclude, per esempio, la cornea, ma altri mezzi possono essere impiegati per ottenere l'accesso
verso l'interno di tali tessuti, oppure essi possono semplicemente essere sostituiti.
(19) Le molecole di proteggente sono legate una all'altra da legami così deboli che questi si spezzano a
temperatura ambiente a causa della sola vibrazione termica. Persino a basse temperature, le macchine per
rimuovere il proteggente non avranno problemi a staccare via queste molecole dalle superfici.
(20) La quale potrebbe essere costituita da cordoni spessi un nanometro, progettati per staccarsi tutti
assieme. Le molecole potrebbero essere assicurate all'impalcatura tramite dispositivi che assomiglino a quei
fermagli per capelli aventi una dentellature che ricorda la dentatura di un coccodrillo.
(21) Le etichette possono essere costituite da piccoli segmenti di nastro di polimero rappresentante un
codice. Un segmento lungo pochi nanometri può specificare una locazione qualunque all'interno di un
micrometro cubico con una precisione di un nanometro.
(22) Infatti, fibre di trasmissione di segnali del diametro di un nanometro, riunite in un fascio del diametro di
un dito (con più sottili diramazioni introdotte lungo tutti i capillari del paziente) possono in meno di una
settimana trasmettere una descrizione molecolare completa di tutte le cellule del paziente ad un insieme di
computer esterni. Nonostante sia apparentemente non necessario, l'utilizzo di computer esterni dovrebbe
rimuovere la maggior parte dei vincoli significativi riguardanti il volume, la velocità e la dissipazione
energetica connessi con la entità della potenza elaborativi disponibile per pianificare re procedure di
riparazione.
(23) Le cellule hanno strutture piuttosto stereotipe, ognuna costruita da tipi standard di molecole connesse
in modi standard, in accordo con una programmazione genetica anch'essa piuttosto standard.. Tutto ciò
semplifica enormemente il problema dell'identificazione.

173
(24) Egli fece notare la possibilità di costruire dispositivi con cablaggi tanto fini da avere uno spessore di
dieci o cento atomi; vedi "There's Plenty of Room at the Bottom"," in Miniaturization, edito da H. D. Gilbert
(New York: Reinhold, 1961), pp. 282-96.
(25) in "The Idea of Progress" (Astronautics and Aeronautics, p. 60, May 1981).
(26) in "Basic Medical Research: A Long-Term Investment" (Technology Review, pp. 46-47, May/June
1981).
(27) Vedi Volume V ,"Fine Chemicals" in A History of Technology, edito da C. J. Singer ed altri (Oxford:
Clarendon Press, 1958).
(28) Vedi A History of Technology, già citato

CAPITOLO 10: I LIMITI DELLO SVILUPPO


(1) Il principio della relatività del moto significa che il "movimento" degli oggetti dovrebbe essere sempre
considerato rispetto al resto - con ciò intendendo che il pilota di una nave spaziale che tenti di avvicinarsi alla
velocità della luce non dovrebbe mai sapere in quale direzione accelerare. Inoltre i semplici diagrammi di
Minkowski mostrano che la geometria dello spazio-tempo rende il viaggio più veloce della luce equivalente al
viaggio indietro nel tempo - e dove dovresti puntare un razzo per muoverti in quella direzione?
(2) In Profiles of the Future: An Inquiry into the Limits of the Possible, prima edizione (New York: Harper &
Row, 1962).
(3) Per un resoconto su alcune teorie moderne che tentano di unificare tutta la fisica in termini di
comportamento del vuoto, vedi "The Hidden Dimensions of Spacetime" di Daniel Z. Freedman e Peter van
Nieuwenhuizen (Scientific American, Vol. 252, pp. 74-81, Mar. 1985).
(4) Per esempio, le misurazioni quantistiche possono influenzare instantaneamente il risultato di altre
misurazioni quantistiche effettuate a distanza arbitraria dalle prime- ma gli effetti sono solo statistici, e di quel
sottil tipo per il quale è stata matematicamente dimostrata l'incapacità di trasmettere informazione. Vedi la
discussione davvero leggibile del teorema di Bell e del paradosso di Einstein-Podolsky-Rosen in Quantum
Reality di Nick Herbert (Garden City, New York: Anchor Press/Doubleday, 1985). A dispetto dele voci che
affermano il contrario (alcune apparse anche nelle pagine di chiusura di Quantum Reality), niente sembra
suggerire che la coscienza e la mente facciano affidamento sulla meccanica quantistica in alcun modo
particolare. Per una eccellente discussione di come la coscienza lavori (e di qual davvero piccola coscienza
possediamo) vedi The Society of Mind di Marvin Minsky (New York: Simon & Schuster, 1986).
(5) Ma ora i fisici possono rispondere a questi interrogativi con chiarezza matematica. I calcoli basati sulle
equazioni della meccanica quantistica mostrano che l'aria è gassosa perché gli atomi di azoto e di ossigeno
tendono a formare coppie di atomi saldamente legati fra loro, e svincolati da ogni altro atomo. L'aria è
trasparente perché la luce visibile manca di sufficiente energia per eccitare i suoi elettroni fortemente
vincolati agli stati quantici di più alta energia, sicchè i fotoni possono passare attraverso l'aria senza restarne
assorbiti. Una scrivania di legno è solida perché contiene atomi di carbonio che (come mostrato dai calcoli
della meccanica quantistica) sono in grado di formare catene di cellulosa e lignina composte da atomi
saldamente legati. Essa è marrone perché i suoi elettroni sono in una varietà di stati, alcuni dei quali in
grado di essere eccitati dalla luce visibile; assorbendo preferenzialmente l'azzurro, ossia radiazione
composta da fotoni di più alta energia, essa riflette prevalentemente luce dalle gradazioni rosse o gialle.
(6) In "The Edge of Spacetime" (American Scientist, Vol. 72, pp. 355-59, Jul.-Aug. 1984).
Elettroni, protoni e neutroni hanno delle corrispondenti antiparticlelle stabili con proprietà virtualmente
identiche a parte la carica elettrica opposta in segno e la capacità di anichilarsi quando messe a contatto con
le loro particelle gemelle, con conseguente rilascio di energia (o altre particelle più leggere) . Essi quindi
determinano alcune loro ovvie applicazioni finalizzate all'immagazzinamento di energia. Inoltre, gli oggetti di
antimateria (composti da antiparticelle di ordinaria materia) potrebbero avere una utilità come elettrodi
negativi in sistemi che impieghino campi elettrostatici di alta energia: tali campi non avrebbero alcuna
tendenza a spostare positroni (e altrettanto farebbero con gli elettroni), sicché imporrebbero come limite
principale all'intensità del campo il solo rischio di distruzione meccanica della superfice dell'elettrodo. Tali
elettrodi dovrebbero, naturalmente, essere fabbricati e posizionati senza entrare in alcun modo in contatto
con materia ordinaria.
Diverse teorie fisiche predicono una varietà di altre particelle stabili (e persino massicci "filari" analoghi alle
particelle), ma tutte dovrebbero essere caratterizzate da una interazione tanto debole quanto quasi
impredicibile (analogamente ai neutrini, ma ben più di loro) oppure una interazione davvero massiccia
(analogamente agli ipotetici monopoli magnetici). Tali particelle dovrebbero tuttavia risultare di grande utilità
applicativa, se solo si riuscisse a riscontrarle.
Gli effetti molecolari e di campo utilizzati in uno spettroscopio a risonanza magnetica nucleare modificano
l'orientazione di un nucleo, ma non la sua struttura.
E' stato suggerito che dei nuclei eccitati potrebbero anche essere sfruttati come "medium" del laser, in un
laser a raggi gamma.

174
Prima che i nuclei siano sospinti così vicini l'uno all'altro da interagire, le strutture atomiche associate si
fondono per dar forma ad una "materia degenerata" solida, simile al metallo e stabile solo sotto pressioni
enormi. Quando i nuclei infine interagiscono, lo scambio di neutroni e di altre particlelle trasmuta ben presto
tutti i neutroni in un unico mezzo omogeneo, cancellando la maggior parte degli schemi che si potrebbe
tentare di costruire ed utilizzare.
Questo è un obiettivo semplice da dichiarare, ma le strutture ottimali (quanto meno dove sia richiesta una
notevole resistenza alla compressione) potrebbero risultare piuttosto complesse. I cristalli regolari
trasmettono il calore piuttosto bene, il che rende desiderabili le irregolarità, e le irregolarità implicano
complessità.
Ed in alcuni casi, potremmo persino progettare il sistema migliore possibile, per quanto senza mai avere la
certezza che non possa esistere un sistema ancora migliore.
in The Lean Years: Politics in the Age of Scarcity (New York: Simon & Schuster, 1980).
in Entropy: A New World View (New York: Viking Press, 1980).
A dispetto di questa affermazione, Rifkin ha ancora una volta ingaggiato una nuova crociata morale, questa
volta contro l'idea di evoluzione e contro l'idea che gli esseri umani modifichino i geni, persino quel tipo di
modifiche che virus e batteri hanno realizzato per milioni di anni. Ancora una volta, egli ammonisce sulle
cosmiche conseguenze. Ma a quanto pare crede ancora nel mondo strettamente sigillato e sempre morente
già descritto in Entropy: "Viviamo grazie al sacrificio. Ogni amplificazione del nostro essere deve la sua
esistenza alla diminuizione di qualcos'altro, da qualche altra parte". Avendo già dimostrato che in Entropy
egli illustra una sua erronea comprensione di come funzioni il cosmo, ora egli cerca di avvisarci su quello
che vuole: "Gli interessi del cosmo non sono diversi dai nostri […] Cosa dovremmo fare quindi per meglio
rappresentare gli interessi del cosmo? Ripagarlo nella stessa misura di quanto abbiamo ricevuto". Ma a lui
sembra di vedere che tutte le conquiste umane siano fondamentalmente di carattere distruttivo, portandolo
ad affermare che "la sola eredità vivente che potremo mai lasciare è rappresentata dal lascito di ciò che non
abbiamo mai toccato" e dichiara che "la vita richiede la morte". Per ulteriori concezioni fallaci e misantrope,
vedi Algeny, di Jeremy Rifkin (New York: Viking, 1983).
Per una convinta asserzione dell'impossibilità della ingegneria genetica formulata dal profeta ed insegnante
di Rifkin, Nicholas Georgescu Roegen, vedi The Entropy Law and the Economic Process (Cambridge, Mass:
Harvard University Press, 1971).
La transizione demografica - ossia il decremento del tasso medio di nascite che accompagna la crescita
economica - è essenzialmente irrilevante ai fini di questa discussione. La crescita esponenziale persino di
una minuscola minoranza, trasformerebbe rapidamente tale minoranza in una maggioranza, per poi
provocare il consumo di tutte le risorse disponibili.
La ragione di ciò è legata ad un'argomentazione dall'essenza strettamente evolutiva. Assumiamo che
un'altra civiltà in competizione inizi ad espandersi nello spazio. Quali gruppi troverebbe alla frontiera?
Esattamente i gruppi che si espandono più rapidamente. La competizione per l'accesso alla frontiera
costituisce una pressione evolutiva che favorisce la massima rapidità di viaggio e di insediamento, e la
massima velocità è piccola al confronto della velocità della luce (vedi note al capitolo 6). In cento milioni di
anni, tali civiltà si diffonderebbero non solo attraverso le galassie, ma anche attraverso gli spazi intergalattici.
Per cui, la circostanza che le civiltà che potrebbero collassare prima di conquistare lo spazio o potrebbero
sopravvivere senza espandersi siano mille oppure un milione, è semplicemente irrilevante. Una lezione
fondamentale dell'evoluzione è che, dove siano coinvolti i replicatori, un singolo successo non può avere più
peso di un illimitato numero di fallimenti.
Persino il numero di possibili molecole di DNA lunghe 50 nucleotidi (quattro alla cinquantesima potenza) è
più grande del numero di molecole in un bicchiere d'acqua.
di Donella H. Meadows ed altri (New York: Universe Books, 1972).
di Mihajlo D. Mesarovic e Eduard Pestel (New York: Dutton, 1974).

CAPITOLO 11: MOTORI DI DISTRUZIONE


Ref 11
(1) Abbiamo problemi a controllarli nonostante siano composti da macchinario molecolare convenzionale. I
batteri sono anch'essi difficili da controllare, e tuttavia essi sono, ad un livello superficiale, quasi
completamente indifesi. Ogni batterio potrebbe assomigliare ad una piccola scatola, rigida e priva di bocca -
per nutrirsi un batterio deve necessariamente trovarsi immerso in una pellicola d'acqua che possa
apportargli nutrienti disciolti che egli possa assorbire. Al contrario, i "super-batteri" basati sugli assemblatori
potrebbero funzionare sia in presenza che in assenza di acqua; essi potrebbero nutrire il loro macchinario
molecolare con materiali grezzi raccolti da "bocche" capaci di attaccare strutture solide.
(2) Vedi "The Fifth Generation: Taking Stock", di M. Mitchell Waldrop (Science, Vol. 226, pp. 1061-63, Nov.
30, 1984), e "Military Robots", di Joseph K. Corrado (Design News, pp. 45-66, Oct. 10, 1983).

175
(3) Per essere più precisi, un oggetto che possa essere assemblato con una possibilità trascurabile di
collocare atomi in posizioni sbagliate. Durante l'assemblaggio, il verificarsi di errori può essere reso
improbabile in misura arbitraria grazie ad un processo di verifica ripetuta e di correzione (vedi note al
Capitolo 4). Per esempio, assumiamo che gli errori siano piuttosto comuni. Assumiamo inoltre che una
verifica, di tanto in tanto, possa anche fallire, il che permette ad un errore ogni mille di passare inosservato.
In tal caso, una serie di venti verifiche porterebbe la probabilità di fallimento della rilevazione e correzione di
un errore ad un valore talmente basso che la probabilità di sbagliare la collocazione di un singolo atomo
sarebbe piccola persino nel caso si costruisse un oggetto della dimensione dell'intera Terra. Ma il
danneggiamento dovuto a radiazioni (che si verifica ad un tasso proporzionale alla dimensione dell'oggetto e
all'età dello stesso) andrebbe eventualmente a modificare la posizione di alcuni atomi originariamente ben
posizionati, sicché un tal grado di accuratezza sarebbe comunque ingiustificato.
(4) Potrebbe sembrare che una schermatura eliminerebbe questo problema, ma i neutrini, capaci di passare
attraverso l'intero spessore della Terra - o di Giove, o del Sole - possono ancora causare danni da
radiazioni, sebbene ad un tasso. Vedi "The Search for Proton Decay", di J. M. LoSecco ed altri(Scientific
American, Vol. 252, p. 59, June 1985).
(5) Vedi "Fault-Tolerant Systems in Commercial Applications", di Omri Serlin (Computer, Vol. 17, pp. 19-30,
Aug. 1984).
(6) Vedi "Fault Tolerance by Design Diversity: Concepts and Experiments", di Algirdas Avizienis e John P. J.
Kelly (Computer, Vol. 17, pp. 67-80, Aug. 1984).
(7) Il batterio Micrococcus radiodurans ha, come pare, un ridondante DNA quadruplo che lo mette in grado
di sopravvivere a dosi estreme di radiazioni. Vedi "Multiplicity of Genome Equivalents in the Radiation-
Resistant Bacterium Micrococcus radiodurans", di Mogens T. Hansen, in Journal of Bacteriology, pp. 7 1-75,
Apr. 1978.
(8) La correzione degli errori basata su copie multiple è più facile da spiegare, ma I dischi audio digitali (per
esempio) utilizzano altri metodi per permettere la correzione degli errori con una minor quantità di
informazione ridondante. Per una spiegazione di una comune codifica che consenta la correzione degli
errori, vedi see "The Reliability of Computer Memory", di Robert McEliece (Scientific merican, Vol. 248, pp.
88-92, Jan. 1985).
(9) Vedi The Society of Mind, di Marvin Minsky (New York: all.com/" Simon & Schuster, 1986).
(10) di William A. Kornfeld e Carl Hewitt (MIT Al Lab Memo No. 641, Jan. 1981).
(11) La sicurezza non richiederebbe che tutti i sistemi IA siano costruiti in modo da risultare affidabili,
fintanto che alcuni risultano affidabili e ci aiutano a pianificare precauzioni per i restanti.
(12) Questo è un concetto che è stato sviluppato da Mark Miller e da me; è correlato alle idee discusse in
"Open Systems", di Carl Hewitt e Peter de Jong (MIT AI Lab Memo No. 692, Dec. 1982).
(13) se non altro perché dei veloci sistemi di IA (come quelli descritti nel capitolo 5) saranno capaci di
scovare e correggere errori un milione di volte più velocemente.
(14) Vedi "The Role of Heuristics in Learning by Discovery", di Douglas B. Lenat, in Machine Learning, edito
da Michalski ed altri (Palo Alto, Calif: Tioga Publishing Company, 1983). Per una discussione dei successi
d'evoluzione di programmi appositamente progettati per poter evolvere, vedi pp. 243-85. Per una
discussione sugli insuccessi d'evoluzione di programmi pensati per poter evolvere ma non adeguatamente
progettati per poterlo fare, vedi pp. 288-92.
(15) In mancanza di tali capacità, il "gray goo" potrebbe essere comunque capace di sostituirsi a noi pur e
tuttavia ancora incapace di evolvere in qualcosa di interessante.
(16) I calcoli consentirebbero al sistema di raffigurarsi strutture molecolari che non sono state direttamente e
puntigliosamente caratterizzate. Ma i calcoli potrebbero condurre a risultati ambigui in particolari casi estremi
in cui i risultati effettivi potrebbero anche dipendere da rumore termico o effetti"tunnel. In questi casi, la
misurazione di un piccolo numero di posizioni atomiche su atomi opportunamente scelti (misura effettuata da
sonde dirette meccanicamente sulla superficie del pezzo di lavoro) dovrebbe essere sufficiente a distinguere
fra le varie possibilità, permettendo così di correggere i calcoli. Questo può anche correggere eventuali errori
nei calcoli riguardanti le caratteristiche strettamente geometriche della costruzione di grosse strutture.
(17) Come descritto, questi livelli di sensori devono venir penetrati da cablaggi, i quali potrebbero
apparentemente implicare un problema di sicurezza: cosa succederebbe se qualcuno cercasse di penetrare
al di sotto dei livelli dei sensori sfruttando come scorciatoia la strada messa a disposizione dai cablaggi
stessi? In pratica, qualunque cosa possa trasmettere segnali e alimentazione energetica (incluse le fibre
ottiche, i sistemi di trasmissione meccanica, e così via) potrebbe essere utilizzato in luogo dei cablaggi.
Questi canali potrebbero essere resi sicuri basando la loro realizzazione su materiali con proprietà estreme:
se un cavo molto fine è realizzato col più conduttivo fra i materiali conduttori esistenti, o se un sistema di
trasmissione meccanica è fabbricato con il materiale più forte che si conosca (e viene utilizzato sotto sforzi
vicini al suo punto di rottura), allora qualunque tentativo di sostituire un segmento del cavo o del materiale
con qualcos'altro (ad esempio un replicatore in fuga) risulterebbe in una resistenza elettrica più grande o in
una parte fratturata. In tal modo, gli stessi sistemi di trasmissione possono agire da sensori. Allo scopo di

176
offrire ridondanza e diversificazione progettuale, livelli di sensori differenti potrebbero essere penetrati da
differenti sistemi di trasmissione, ognuno dei quali trasmetta segnali ed energia ai successivi.
(18) Ma come si potrebbe fare perché le persone dimentichino? Ciò non sarebbe realmente necessario,
poiché la loro conoscenza risulterebbe dispersa. Nello sviluppo dei moderni sistemi hardware, gruppi
differenti lavorano su parti differenti; essi non hanno bisogno di conoscere cosa sia la parte sviluppata da un
altro gruppo (e tanto meno come sia fatta), poiché ciò che gli interessa davvero è solo il modo in cui essa
interagisce col resto. In questo modo la gente ha raggiunto la Luna, nonostante nessuna persona o nessun
gruppo abbia mai saputo come si faccia; da questo punto di vista, essi potrebbero paragonarsi ad
assemblatori.
Poiché i primi progetti di assemblatori verrebbero a costituire dei documenti storici, sarebbe meglio
conservarli in modo sicuro, piuttosto che distruggerli. Infine essi potranno divenire parte della letteratura
liberamente accessibile. Ma nascondere le informazioni di progetto costituirà un pagliativo, nella migliore
delle ipotesi, poiché sarà ben più difficile mantenere segreti i metodi utilizzati per la progettazione del primo
sistema assemblatore. Inoltre, i laboratori sigillati per assemblatori potrebbero essere utilizzati per sviluppare
e collaudare macchine che possano fabbricare assemblatori, persino macchine che di per se stesse
possono essere fabbricare senza assemblatori.
(19) I laboratori sigillati per assemblatori possono funzionare a dispetto di ciò. Essi non proteggono il loro
contenuto dalll'esterno; infatti sono progettati per distruggere il loro contenuto quando subiscono delle
interferenze dall'esterno. Piuttosto, essi proteggono l'esterno da loro contenuto - e i loro ambienti di lavoro
sigillati sono troppo piccoli per contenere qualsiasi sistema di grossa scala, sia questo malizioso o meno.
(20) Nell'esempio citato, entità organizzate vengono sguinzagliate contro entità del tutto analoghe. Queste
entità potrebbero, naturalmente, essere vaporizzate da bombe all'idrogeno, ma a fronte della prospettiva di
una ritorsione analoga, nessun attaccante ha ancora visto alcun vantaggio nello sferrare un attacco
nucleare.

CAPITOLO 12: STRATEGIE E SOPRAVVIVENZA


Ref 12

... occupy hostile powers ... In linea di principio, questa dovrebbe contenersi in una forma minima di
occupazione, che ha controllo dei soli laboratori di ricerca, ma ottenere anche soltanto questo richiederebbe
un grado di coercizione approsimativamente equivalente a quello di una conquista.

... as open as possible ... Potrebbe esser possibile escogitare una forma di ispezione che doti ogni gruppo
di una grande consocenza di quello che un sistema in corso di sviluppo sarà (e non sarà) in grado di fare,
senza che questi gruppi imparino come sono fatti questi stessi sistemi. Lo sviluppo compartimentalizzato dei
componenti di un sistema potrebbe, in linea di principio, consentire a diversi gruppi di cooperare senza che
ci sia alcuno gruppo individuale in grado di utilizzare indipendentemente un sistema analogo.

... we naturally picture human hands aiming it ... Per una discussione riguardante una possibile navetta
spaziale autonoma vedi "Expanding Role for Autonomy in Military Space", di David D. Evans e Maj. Ralph R.
Gajewski (Aerospace America, pp. 74-77, Feb. 1985). Vedi anche "Can Space Weapons Serve Peace?" di
K. Eric Drexler (L5 News, Vol. 9, pp. 1-2, Jul. 1983).

... while providing each with some protection ... Dire che una difesa simmetricamente efficace al 50% non
avrebbe nessun valore è come dire che una riduzione bilaterale del 50% del numero di missili nucleari - un
vero e proprio passo avanti nel campo del controllo degli armamenti, non sarebbe di alcun valore. La
praticità di una tale difesa è tutta un'altra questione. Finchè delle difese attive realmente buone non
diventeranno possibili, la questione non è se si possa rendere un attaccco nucleare innocuo, ma almeno se
lo si possa rendere meno probabile.

... limiting technology transfer ... Di fatto, il Presidente Reagan ha parlato di cedere la tecnologia di difesa
spaziale U.S.A. all'Unione Sovietica. Vedi il New York Times, p. A15, March 30, 1983. Vedi anche - "Sharing
Star Wars: technology with Soviets a distant possibility, says head of Pentagon study group", di John Horgan
(The Institute, p. 10, Mar. 1984). Richard Ullman, professore di politica internazionale presso la Princeton
University, ha proposto un programma di difesa congiunto accompagnato da una estesa condivisione di
tecnologia; vedi "U.N.-doing Missiles" (New York Times, p. A23, Apr. 28, 1983).
In linea di principio, un progetto congiunto potrebbe procedere con poco trasferimento di conoscenza
tecnologica. C'è una grande differenza fra (1) conoscere ciò che un dispositivo non può fare, (2) conoscere
ciò che può fare, (3) conoscere cosa sia, e (4) conoscere come costruirlo. Queste quattro cose individuano
quattro distinti livelli di conoscenza, ognuno (più o meno) independente dal livello successivo. Per esempio,

177
se vi mettessi fra le mani una scatola di plastica, un'esame superficiale potrebbe convincervi che non può
volare ne sparare pallottole, ma non potrebbe mettervi in grado di dire che cosa può fare. Una dimostrazione
pratica potrebbe allora convincervi che essa può servire come un telefono mobile. Analizzandola più
approfonditamente potreste stilare una tracciatura dei suoi circuiti e guadagnarne una eccellente idea di
cosa essa sia e di quali siano i suoi limiti operativi. Ma non necessariamente conoscereste ancora come
costruirne una.
L'essenza di una difesa attiva sta in quello che non può fare- ossia il fatto che non può essere utilizzata
come un'arma. Per condurre un progetto congiunto sulle difese attive basato su componenti d'alta
tecnologia, si dovrebbe aver bisogno di condividere conoscenza principalmente ai livelli (1) e (2). Ciò
richiedera al limite una limitata conoscenza di livello (3), ma non necessita di richiedere alcuna conoscenza
di livello (4).

... basic issues common to all active shields ... Come quello del loro controllo, del loro scopo e della loro
affidabilità, e come la questione fondamentale della comprensione politica e dell'accettazione.

CAPITOLO 13: SCOPRIRE I FATTI


(1) come citato da John B. Slaughter , direttore dell' NSF (Time, p. 55, June 15, 1981).
(2) sottotitolato "Scientists in the Political Arena", di Joel Primack e Frank von Hippel (New York: Basic
Books, 1974).
(3) in Creating Alternative Futures: The End of Economics (New York: Berkley Publishing, 1978).
(4) in The Human Future Revisited: The World Predicament and Possible Solutions (New York: Norton,
1978).
(5) Per una discussione sui guasti all'impianto nucleare di Three Mile Island, ed una discussione su (1) il
considerevole grado di accordo sui problemi raggiunto da un pannello di esperti e (2) come i media abbiano
straziato la storia, e (3) come il giverno federale abbia fallito a rispondere alla realtà, vedi "Saving American
Democracy", di John G. Kemeny, presidente del Dartmouth College e capo della commissione presidenziale
su Three Mile Island (Technology Review, pp. 65-75, June/July 1980). Egli conclude che "il sistema attuale
non funziona".
(6) Cosa ancor peggiore, due persone possono concordare sui fatti e sui valori di base (diciamo, che la
salute sia bene e l'inquinamento male) e tuttavia essere in disaccordo riguardo alla costruzione di una
fabbrica - una persona potrebbe essere più preoccupata riguardo alla salute, e l'altra riguardo
all'inquinamento. Nei dibattiti emotivi, ciò può portare ognuna delle due parti ad accusare l'altra di perseguire
valori pervertiti, come quello di favorire la povertà o non preoccuparsi per nulla dell'ambiente. La
nanotecnologia aiuterà a risolvere questi conflitti poiché modificherà la posta in gioco. Poiché possiamo
avere più benessere e contemporaneamente molto meno inquinamento, I vecchi avversari potrebbero
sempre più spesso scoprirsi in accordo.
(7) Vedi "The Scientific Community Metaphor", di William A. Kornfeld e Carl Hewitt (MIT AI Lab Memo No.
641, Jan. 1981); vedi anche la discussione sul "ragionamento per un giusto processo" in "The Challenge of
Open Systems", di Carl Hewitt (Byte, Vol. 10, pp. 223-41, April 1985).
(8) Queste procedure potrebbero essere redatte utilizzando altri canali di comunicazione, come le riviste e I
giornali scientifici, piuttosto che tramite l'incontro faccia a faccia; giudicare la verosimiglianza di una
affermazione dal modo in cui essa viene pronunciata è cosa utile nel caso dei tribunali giudiziari, ma gioca
un ruolo di importanza molto minore nella scienza.
(9) La sua idea risale allla metà degli anni '60. Vedi la sua discussione in "Controlling Technology
Democratically" (American Scientist, Vol. 63, pp. 505-9, Sept.-Oct. 1975).
(10) E questo è appunto l'utilizzo originario del termine "tribunale della scienza", e molti critici dell'idea del
giusto processo hanno fatto riferimento a questo aspetto della proposta. L'approccio del forum dei fatti è
invece geniunamente differente; il dottor Kantrowitz al momento presenta l'idea dei forum dei fatti sotto la
denominazione "Procedura di Antagonismo Scientifico".
(11) I quali esperti hanno tracciato nel 1960 una proposta di programma spaziale per l'Air Force
(l'aeronautica militare). Tale proposta poneva enfasi sul fatto che imparare ad assemblare dei sistemi in
orbita Terrestre (ossia sistemi come stazioni spaziali e navette lunari) fosse almeno altrettanto importante
della costruzione di propulsori più grossi e potenti. Durante il successivo dibattito riguardante il modo per
raggiungere la Luna, Kantrowitz ha proposto argomentazioni a sostegno del fatto che l'assemblaggio in
orbita Terrestre sarebbe stato forse dieci volte meno dispendioso dell'approccio, che fu infine scelto, basato
su razzi gigantesci e rendezvous in orbita lunar. Ma intervennero dei fattori politici, e questi argomenti non
ricevettero mai una adeguata attenzione pubblica. Vedi "Arthur Kantrowitz Proposes a Science Court", una
intervista di K. Eric Drexler (L5 News, Vol. 2, p. 16, May 1977).

178
Per un resoconto su un'altro abuso su decisioni tecniche verificatosi durante il programma Apollo, vedi The
Heavens and the Earth: A Political History of the Space Age, di William McDougall, pp. 315-16 (New York:
Basic Books, 1985).
(12) La quale è descritta in "The Science Court Experiment: An Interim Report", dalla Task Force del
Gruppo di Consulenza Presidenziale per la previsione dei progressi scientifici-tecnologici (Science, , pp.
653-56, Aug. 20, 1976).
(13) vedi "Proceedings of the Colloquium on the Science Court", Leesburg, Virginia, Sept. 20-21, 1976
(National Technical Information Center, document number PB261 305). Per un riassunto ed una discussione
sui pareri critici espressi durante il colloquio, vedi "The Science Court Experiment: Criticisms and
Responses," di Arthur Kantrowitz (Bulletin of the Atomic Scientists, Vol. 33, pp. 44-49, Apr. 1977).
(14) La formazione dell'instituto Health Effects Institute of Cambridge, Massachusetts, creato nel 1980 per
conciliare le posizioni di parti antagoniste in materia di inquinamento atmosferico, ha rappresentato un passo
intrapreso verso questa direzione. Vedi "Health Effects Institute Links Adversaries", di Eliot Marshall
(Science,Vol. 227, pp. 729-30, Feb. 15, 1985).
(15) Una questione aperta è quale debba essere l'estensione di procedure non pubbliche, e che incorporino
principi di giusto processo, tale da migliorare il giudizio di informazione classificate.
(16) Riportato in "Science court, would tackle knotty technological issues", di Leon Lindsay (Christian
Science Monitor, p. 7, Mar. 23, 1983). Informazioni più recenti
[Nota: Informazioni più recenti in "Twenty-Five Year Retrospective on the Science Court", disponibile sul
world wide web presso: http://www.fplc.edu/risk/sciCt.htm ]
(17) Vedi Getting to Yes (Boston: Houghton Mifflin Company, 1981).
(18) Le procedure descritte qui riguardano questioni a "bilaterali", ma ciò sembrerebbe essere troopo
limitato, piochè di solito le " questioni", quantomeno per come sono comunemente comprese, spesso
presentano molte facce. Nei dibattiti sull'energia, per esempio, esistono sostenitori per ognuna delle fonti
energetiche seguenti: gas, carbone, nucleare, energia solare. Tuttavia, le questioni multifaccia contengono
molte questioni componenti che sono propriamente "a due faccie": La probabilità della fusione di un reattore
nucleare è elata o bassa? Gli effetti della combustione di carbone sulle piogge acide sono esigui o rilevanti?
Un collettore solare ha un basso o alto costo d'utilizzo? Le riserve naturali di gas sono estese o esigue? Le
questioni multifaccia si risolvono così, alle loro radici fattuali, in numerose microquestioni.
Scienziati e i progettisti giudiziosi raramente discutono su un numero così alto, opure così basso, di
questioni; essi dibattono il numero di questioni che pensano essere il più probabilmente adatto, o
semplicemente quello attestato dalla evidenza. Ma poiché il fatto di istituire e condurre un forum presuppone
una disputa, ne verranno coinvolti sostenitori di una o di un'altra parte, ed ogni gruppo di sostenitori vorrà
spingere il più possibile in una determinata direzione - gli avvocati pro-nucleare vorranno dimostrare che i
reattori sono molto economici e sicuri; i loro antagonisti vorranno provare che sono molto costosi e mortali.
Poiché i numeri che misurano costi e rischi, possono solo essere più grandi o più piccoli di quelli sostenuti
dalla parte avversa, queste micro-questioni tendono spontaneamente ad assumere una impostazione
bilaterale.

CAPITOLO 14: LA RETE DELLA CONOSCENZA


(1) Il quale è un professore della Tokyo University nonché a capo del Japan's Fifth Generation Computer
Project.
(2) Il loro approccio all'ipertesto, ora allo stadio di dimostrazione, è denominato sistema Xanadu. Ho
esaminato le strutture dati proprietari sulle quali il losro sistema è basato, ed da queste risulta chiaro che
sulla loro base sia possibile realizzare potenti sistemi ipertestuali. Per un sistema meno ambizioso e tuttavia
piuttosto completo, vedi "A Network-Based Approach to Text-Handling for the Online Scientific Community",
una tesi di Randall H. Trigg (University of Maryland, Department of Computer Science, TR-1346, Nov. 1983).
(3) Vedi Computer Lib/Dream Machines (aut-pubblicato, distribuito da The Distributors, South Bend, Ind.,
1974), e Literary Machines (Swarthmore, Pa: Ted Nelson, 1981). Computer Lib è una visione intrigante e
idiosincratica dei computer e del loro potenzial, ipertesti inclusi; una nuova edizione è in preparazione.
Literary Machines si concentra invece esclusivamente sugli ipertesti.
(4) a p. 76, June 13, 1983.
(5) Un sistema ipertestuale potrebbe immagazzinare tutta l'informazione che viene più comunemente
utilizzatain casa, o in una locare biblioteca secondaria. I compact disk del tipo usato per registrazioni audio
costano circa tre dollari di manifattura e possono immagazzinare altrettanto testo di 500 libri. Vedi "Audio
Analysis II: Read-only Optical Disks", di Christopher Fry (Computer Music Journal, Vol. 9, Summer 1985).

179
CAPITOLO 15: ABBONDANZA DI MONDI E TEMPO
(1) Ma i limiti della crescita esponenziale assicurano che una abbondanza universale e incondizionata non
può procedere indefinitamente. Questo solleva interrogativi riguardo la distribuzione e la proprietà delle
risorse dello spazio. Dovrebbero essere considerati tre approcci di base.
Uno di questi approcci è il "primo-arrivato, primo-servito", come è in uso per l'aquisizione della proprietà
derivante dal suo utilizzo, nel caso di un terreno di coltura o un sito minerario. Questo approccio ha radici nel
principio Lockeano che la proprietà possa essere stabilita dal valore aggiunto tramite il proprio lavoro ad una
risorsa precedentemente sconosciuta. Ma ciò consentirebbe ad una persona dotata di adeguati replicatori di
perdersi nello spazio - e di conseguenza reclamare - ogni oggetto non reclamato nell'universo, con la stessa
rapidità con cui esso può essere raggiunto. Questo approccio del vincitore-piglia-tutto ha ben scarsa
giustificazione morale, e potrebbe comportare conseguenze spiacevoli.
Un secondo approccio estremo potrebbe essere quello di distribuire equamente la proprietà delle risorse
spaziali fra tutta la gente, e continuare a redistribuirla per conservare l'equità della distribuzione. Questo
approccio, come l'altro, potrebbe avere delle conseguenze spiacevoli. In assenza di limitazioni universali,
stringenti e compulsive sulla generazione di prole, alcuni gruppi continuerebbero a svilupparsi
esponenzialmente; i principi evolutivi garantiscono virtualmente che ciò accada. In un tempo
sorprendentemente breve, il risultato di una redistribuzione senza fine sarebbe quella di trascinare gli
standard di qualità della vita di ogni essere umano giù verso il livello minimo compatibile con la riproduzione
di ogni gruppo. Il che significherebbe fame e povertà molto più estreme ed universali di quella di un
qualunque paese del Terzo Mondo. Se il 99 percento della razza umana limitasse volontariamente il suo
tasso di nascita, ciò consentirebbe semplicemente al restante un percento di espandersi fino ad assorbire
quasi tutte le risorse.
Un terzo approccio di base (che presenta la possibilità di parecchie variazioni) è quello di percorrere una via
di mezzo: tale approccio implica la equa distribuzione fra tutta la gente della proprietà delle risorse spaziali
(una proprietà autentica, permanente e trasferibile) - ma fatta soltanto una volta, lasciando poi che la gente
provveda da sola alla propria progenie (o a quella di altri) sfruttando la propria vasta porzione di opulenza
spaziale. Ciò consentirebbe a gruppi differenti di perseguire futuri differenti, e ricompenserebbe la frugalità
piuttosto che la proliferazione. Tale approccio può rappresentare il fondamento per un futuro di diversità
illimitata, se verranno impiegati scudi attivi per protegerre la gente dall'agressione e dalla razzia. Nessuno ha
ancora prospettato una alternativa valida a questo approccio.
Da una prospettiva socialista, questo approccio significa uguale ricchezza per tutti. Da una prospettiva
liberista, essa non aliena il diritto di libertà di nessuno e fornisce una base per un futuro di libertà. Nei termini
utilizzati da Thomas Schelling, una divisione equa è una soluzione cruciale di un gioco di coordinazione
(vedi The Strategy of Conflict, di Thomas Schelling, Cambridge, Mass: Harvard University Press, 1960).
Cosa sia una "equa divisione" tuttavia, al momento rappresenta una questione controversa che è meglio
lasciare ai legislatori.
Perchè questo approccio possa funzionare, deve essere raggiunto l'accordo non solo sul principio della
divisione, ma anche su una data. Lo spazio è stato dichiarato, a mezzo di trattati, come "partimonio comune
dell'intera umanità", è abbiamo bisogno di scegliere un "Inheritance Day" ([NdT]: un "Giorno
dell'Eredità"ossia una data ufficiale in cui la razza umana "eredita" lo spazio - una etichetta verbale creata
per assonanza con "Indipendence Day", la ricorrenza del 12 Aprile che commemora la proclamazione
d'indipendenza degli Stati Uniti dall'Inghilterra coloniale) . L'analisi di Schelling suggerisce l'importanza, in un
gioco di coordinazione, di trovare una proposta specifica e plausibile per stabilire al più presto possibile tale
data, rendendo pienamente visibile a tutti. Egli stesso ha qualche data da suggerire? Un certo numero di
anniversari correlati alle vicende dell'esplorazione spaziale sembrerebbero date appropriate, se non fosse
che queste sono legate in modo mutuamente esclusivo ai successi spaziali Statunitensi oppure a quelli
Sovietici, o ancora che si tratti di date troppo prossime, o troppo vicine ad una data millenaria. Queste
restrizioni possono comunque essere soddisfatte; la data candidata più plausibile è il 12 Aprile 2011, in cui
ricorrerà sia il trentesimo anniversario del primo volo di quella che è stata la prima navetta spaziale
riutilizzabile del mondo, lo space shuttle, sia il cinquantesimo anniversario del volo del primo umano nello
spazio, Yuri Gagarin.
Se, prima di questa data, qualcuno trovasse e sfruttasse un mezzo per innalzzare il ritmo di riproduzione
umana di un fattore dieci o più, allora lo "Inheritance Day" dovrebbe essere immediatamente essere reso
retroattivo all'April 12 del precedente anno, e i dettagli del successivo trattato redisposti, in conseguenza, più
tardi.
(2) Gli scudi attivi possono soddisfare questo requisito di affidabilità solo grazie all'utilizzo della ridondanza e
di ampi margini di sicurezza.
(3) Per una discussione della apparente impossibilità della macchina del tempo secondo la teoria della
relatività generale, vedi "Singularities and Causality Violation" di Frank J. Tipler in Annals of Physics, Vol.

180
108, pp. 1-36, 1977. Tipler è di mentalità aperta; nel 1974 ha discusso a questo proposito dell' eventualità
alternativa.
(4) Gli schemi frattali sono composti da parti simili poste su scali differenti - un po' come un ramoscello che
potrebbe assomigliare ad un ramo il quale a sua volta assomiglia ad un albero, o come rivoletti, ruscelli e
fiumi possono richiamare ognuno la forma di ogni altro. Vedi The Fractal Geometry of Nature, di Benoit B.
Mandelbrot (San Francisco: W. H. Freeman, 1982).

Note alla posftazione del 1985


(1) Le informazioni in questo paragrafo provengono da Kevin Ulmer, che è stato precedentemente direttore
dell' Exploratory Research presso la Genex ed attualemnte è direttore del Center for Advanced Research in
Biotechnology (istituito, fra gli altri, dalla università del Maryland e dal National Bureau of Standards, among
others). Il gruppo presso l' NBS ha combinato una simulazione quantomeccanica di circa quaranta atomi
posti in prossimità di un sito attivo di un enzima, con una simulazione Newtoniana del resto della molecola;
questa combinazione di tecniche è del tipo necessario per descrivere sia l'azione meccanica di un braccio
d'assemblatore che la redisposizione di legami operata dai suoi utensili.
(2) I progressi in questa area sono riassunti da E. J. Corey ed altri in "Computer-Assisted Analysis in
Organic Synthesis", (Science, Vol. 228, pp. 408-18, Apr. 26, 1985).
(3) (Comunicazione privata da Forrest Carter.)
(4) in "When Chips Give Way to Molecules", (The Economist, Vol. 295, pp. 95-96, May 11, 1985).
(5) Queste procedure hanno esaminato le armi e i sistemi di computer proposti per il sistema difensivo
basato su missili balistici. Il primo processo è stata condotto da Richard Garwin e Edward Gerry ed il
secondo fra Herbert Lin e Charles Hutchinson; tutti e quattro sono attivisti piuttosto noti, sebbene schierati su
posizioni opposte, riguardo questi temi. Fra le dozzine di affermazioni su cui si è raggiunto u accordo mutuo,
ci sono le seguenti: (1) che non si conosce alcun limite fondamentale, eccetto il costo, per l'alimentazione
energetica e per l'intensità luminosa dei laser, e (2) che avere programmi software scevri da errori non è un
rquisito indispensabile perché la difesa possa funzionare, ma (3) che nessun sistema fra quelli che tuttora
sono stati pubblicamente presentati è al tempo stesso sia realizzabile sul piano dei costi che in grado di
sopravvivere ad un attacco. (Fonte: comunicazione privata da Arthur Kantrowitz.)
(6) Vedi "Personal Computers on Campus", di M. Mitchell Waldrop (Science, Vol. 228, pp. 438-44, April 26,
1985).

Note alla postfazioe del 1990


(1) Una buona panoramica su questo ed altri lavori correlati può essere trovata in "Protein Design, a
Minimalist Approach", di William F. DeGrado, Zelda R. Wasserman, e James D. Lear (Science,Vol. 243, pp.
622-28, 1989).
(2) Di particolare interesse sono gli articoli che riportano gli studi di questi due ricercatori tuttora attivi, per i
quali hanno ottenuto il Nobel. Vedi "Supramolecular Chemistry - Scope and Perspectives: Molecules,
Supermolecules, and Molecular Devices", di Jean-Marie Lehn (Angewandte Chemie International Edition in
English, Vol. 27, pp. 89-112, 1988) e "The Design of Molecular Hosts, Guests, and Their Complexes", di
Donald J. Cram (Science, Vol. 240, pp. 760-67, 1988).
(3) Vedi "Molecular Manipulation Using a Tunnelling Microscope", di J. S. Foster, J. E. Frommer, e P. C.
Arnett (Nature, Vol. 331, pp. 324-26, 1988).
(4) Il software utile alla progettazione ausiliata da computer di molecole proteiche è stato descritto in
"Computer-Aided Model-Building Strategies for Protein Design", di C. P. Pabo e E. G. Suchanek
(Biochemistry, Vol. 25, pp. 5987-91, 1986) ed in "Knowledge-Based Protein Modelling and Design", di Tom
Blundell ed altri (European Journal of Biochemistry, Vol. 172, pp. 513-20, 1988); un programma che ha
quanto si dice ha prodotto risultati eccellenti, nella progettazione di impacchettamenti di catene laterali
idrofobiche per zone-fulcro di proteine, è descritto da Jay W. Ponder e Frederic M. Richards in "Tertiary
Templates for Proteins" (Journal of Molecular Biology, Vol. 193, pp. 775-91, 1987). Questi ultimi autori hanno
anche svolto del lavoro sulla modellazione molecolare (un campo immenso ed attivissimo); vedi "An Efficient
Newton-like Method for Molecular Mechanics Energy Minimization of Large Molecules" (Journal of
Computational Chemistry, Vol. 8, pp. 1016-24, 1987). Le tecniche computazionali derivano dalla meccanica
molecolare e sono state usate per costruire modelli degli effetti quantistici associati al moto molecolare (una
cosa ben diversa dalla modellazione quantomeccanica di elettroni e legami chimici) vedi "Quantum
Simulation of Ferrocytochrome c", di Chong Zheng ed altri (Nature, Vol. 334, pp. 726-28, 1988).
(5) vedi "Machines of Inner Space", di K. Eric Drexler, in 1990 Yearbook of Science and the Future, edito da
D. Calhoun, pp. 160-77 (Chicago: Encyclopaedia Britannica, 1989).
(6) I quali includono i miei seguenti articoli (che saranno raccolti e riscritti come parti del mio libro tecnico in
lavorazione): "Nanomachinery: Atomically Precise Gears and Bearings", publicato in Proceedings of the

181
IEEE Micro Robots and Teleoperators Workshop (Hyannis, Massachusetts: IEEE, 1987); "Exploring Future
Technologies", in The Reality Club, edito da J. Brockman, pp. 129-50 (New York: Lynx Books, 1988);
"Biological and Nanomechanical Systems: Contrasts in Evolutionary Capacity", in Artificial Life, edito da C.
G. Langton, pp. 501-19 (Reading, Massachusetts: Addison-Wesley, 1989); e "Rod Logic and Thermal Noise
in the Mechanical Nanocomputer", in Molecular Electronic Devices III, edito da F. L. Carter (Amsterdam:
Elsevier Science Publishers B.V., in corso di stampa). Per informazioni sulla disponibilità di articoli tecnici, si
prega di contattare il Foresight Institute presso l'indirizzo citato nelle postfazioni.

182
* * *

Motori di Creazione è l'inevitabile punto di partenza per chiunque sia interessato alla nanotecnologia e al suo
potenziale impatto sulla nostra vita nei prossimi anni. Estropico (http://www.estropico.com) ne ha presentato
la prima versione integrale in italiano.

Traduzione Italiana: Vincenzo Battista

Il traduttore della presente edizione italiana desidera ringraziare la Dottoressa Raffaella Russo per l'aiuto
fornito per la traduzioni dei termini biologici e biochimici, e Fabio Albertario, per il supporto e
l'incoraggiamento che mi ha fornito durante la stesura della presente traduzione.
Ogni mancanza residua è ovviamente da attribuirsi al traduttore, che vi prega di segnalarla con una e-mail
indirizzata a: eoc_italian@yahoo.it

* * *

183

You might also like