Les engins créateurs L'avènement des nanotechnologies K. Eric Drexler Préface de Marvin Minsky Les engins créateurs K. Eric Drexler Les engins créateurs Traduit de l'anglais par Marc Macé Préface de Marvin Minsky Préface "Les engins créateurs" d'Eric Drexler est un ouvrage extrêmement original sur les conséquences des nouvelles technologies. Ambitieux et inventif, il est surtout techniquement irréprochable. Mais comment peut-on prédire où la science et la technologie vont nous mener ? Bien que de nombreux scientifiques et technologues s'y soient essayés, il est curieux de constater que les tentatives les plus fructueuses furent celles d'auteurs de science-fiction comme Jules Verne, H. G. Wells, Frederik Pohl, Robert Heinlein, Isaac Asimov ou Arthur C. Clarke. Il faut reconnaître que la plupart de ces écrivains avaient une connaissance très approfondie de la science de leur époque. Mais il est probable que la source de leurs succès vint aussi de leur intérêt pour les influences et les choix dont ils imaginaient l'émergence dans leurs sociétés. Comme Clarke l'a lui-même souligné, il est pratiquement impossible de prédire avec un demi-siècle d'avance les futures technologies. De même, pour une technologie donnée, il est également impossible de prévoir quelles alternatives se révéleront exploitables. Pourquoi ? Tout simplement parce que s'il était possible de voir clairement ce qui va se produire aussi loin dans le temps, il serait sûrement possible d'y parvenir dans un délai plus court en se dotant de la volonté de le faire. Un autre problème très difficile concerne la prédiction des évolutions sociales. Etant donné toutes ces incertitudes, prévoir l'avenir revient à construire une tour très grande et très étroite. Et nous savons tous que ces édifices sont fragiles par nature. Comment peut-on construire plus solidement ? Tout d'abord, les fondations doivent être fermes : Drexler a bâti ses idées en prenant appui sur les connaissances techniques les mieux établies. Ensuite, on doit s'assurer que chaque conclusion intermédiaire est étayée par plusieurs arguments avant de passer à l'étape suivante, ceci parce qu'aucune explication n'est assez robuste pour résister seule face à tant d'incertitudes. En conséquence, Drexler donne de multiples arguments pour soutenir chacune de ses affirmations. Enfin, il est risqué de s'appuyer uniquement sur son propre jugement étant donné que nous avons tous des espoirs et des peurs qui influencent nos pensées - même inconsciemment. Mais à la différence de la plupart des iconoclastes, Drexler expose depuis de nombreuses années de manière très courageuse et très ouverte ses idées, tant aux conservateurs les plus sceptiques qu'aux technophiles les plus rêveurs (issus de communautés scientifiques très sérieuses, comme celle du MITa). Il a toujours écouté ses interlocuteurs attentivement et changé parfois son point de vue en conséquence. Les engins créateurs commence par l'observation suivante : ce que nous sommes capables de faire dépend de ce que nous sommes en mesure de construire. Ceci nous mène à une analyse rigoureuse des différentes manières d'empiler les atomes avec précision. Puis, Drexler se demande : "Que peut-on construire avec ces dispositifs d'assemblage des atomes ?" D'abord, on peut fabriquer des machines à assembler plus petites encore que des cellules vivantes, ainsi que des matériaux plus solides et légers que tout ce qui se fait actuellement (donc, de meilleurs vaisseaux spatiaux). On peut également produire de petits engins qui peuvent voyager dans les capillaires pour aller réparer les cellules, donc soigner les maladies, inverser les dégâts provoqués par le temps ou encore rendre notre corps plus rapide et plus solide. On pourrait fabriquer des machines ayant la taille de virus et fonctionnant à une vitesse inimaginable. Et lorsque nous saurons faire ces machines, nous aurons alors la possibilité de les assembler par billions pour former des systèmes intelligents capables de traiter en parallèle des informations pour les décrire, les comparer à des modèles enregistrés et tirer parti des essais antérieurs. Ainsi ces nouvelles technologies ne changeront pas uniquement les matériaux et la manière de les utiliser mais aussi les activités que nous serons alors capables de mener, quel que soit le monde que nous construirons. Si l'on en revient à la remarque d'Arthur C. Clarke à propos des difficultés qu'il y a à prédire l'apparition d'une technologie cinquante ans à l'avance, nous constatons que le sujet dont traite Drexler rend ce point de vue presque discutable. Dès que le contrôle atomique de la matière sera apparu, alors "seulement un demi-siècle" pourra apporter plus de changements que tous ceux qui ont eu cours depuis les temps médiévaux. Il me semble que, contrairement à tout ce que nous entendons à propos des révolutions technologiques modernes, celles-ci n'ont guère apporté de changements dans nos vies durant ces cinquante dernières années. Est-ce que la télévision a véritablement changé notre monde ? Sûrement moins que la radio ne le fit et encore moins que le téléphone. Qu'en est-il des avions ? Ils ont simplement réduit les durées de voyages de quelques jours à quelques heures, alors que le train et l'automobile avaient déjà opéré un changement d'une plus grande ampleur en réduisant ces trajets de semaines en jours ! Mais Les engins créateurs préfigure une véritable révolution. Les nanotechnologies pourraient bouleverser notre existence de manière encore plus grande que les deux fantastiques inventions qui ont eu lieu dans ce domaine : le remplacement des bâtons et des pierres par du métal et du ciment, puis la domestication de l'électricité. De la même manière, on peut comparer les conséquences possibles de l'intelligence artificielle sur la manière dont nous pensons avec seulement deux inventions antérieures : le langage et l'écriture. Nous aurons bientôt à faire face à certaines de ces perspectives. Comment doit-on s'y préparer pour les maîtriser ? Les engins créateurs explique comment ces nouvelles alternatives pourront être orientées vers nos préoccupations humaines les plus vitales : la richesse et la pauvreté, la santé et la maladie, la paix et la guerre. Drexler ne nous fournit pas uniquement un inventaire de possibilités mais une multitude d'idées et de propositions pour commencer à les évaluer. Les engins créateurs est jusqu'à présent le meilleur ouvrage qui soit paru dans le but de nous faire réfléchir à ce que nous allons devenir, en supposant que l'on continue à inventer de nouvelles technologies. Marvin Minsky Professeur d'université en sciences Massachusetts Institute of Technology Remerciements Les idées développées dans ce livre ont été façonnées par de nombreux esprits. Tout auteur a une dette incalculable envers les précédents écrivains et penseurs et la section "Notes et Références" est une reconnaissance partielle de ma dette personnelle. Mais certaines personnes ont eu une influence plus directe sur la genèse de ce livre en parcourant ou critiquant une partie ou la totalité des nombreuses publications, articles et premières versions de ce livre. Leurs contributions vont de brèves lettres à des critiques très complètes et très détaillées, en passant par des suggestions et des relectures. La majeure partie des évolutions du manuscrit vers sa forme et son contenu actuels leur revient. Les erreurs qui pourraient cependant subsister relèveraient de ma seule responsabilité. En conséquence, je voudrais remercier Dale Amon, David Anderson, Alice Barkan, James Bennett, David Blackwell, Kenneth Boulding, Joe Boyle, Stephen Bridge, James Cataldo, Fred et Linda Chamberlain, Hugh Daniel, Douglas Denholm, Peter Diamandis, Thomas Donaldson, Allan Drexler, Hazel Drexler, Arthur Dula, Freeman Dyson, Erika Erdmann, Robert Ettinger, Mike Federowicz Carl Feynman, David Forrest, Christopher Fry, Andy, Donna, Mark et Scott Gassmann, Hazel et Ralph Gassmann, Agnes Gregory, Roger Gregory, David Hannah, Keith Henson, Eric Hill, Hugh Hixon, Miriam Hopkins, Joe Hopkins, Barbara Marx Hubbard, Scott A. Jones, Arthur Kantrowitz, Manfred Karnovsky, Pamela Keller, Tom et Mara Lansing, Jerome Lettvin, Elaine Lewis, David Lindbergh, Spencer Love, Robert et Susan Lovell, Steve Lubar, Arel Lucas, John Mann, Jeff MacGillivray, Bruce Mackenzie, Marvin Minsky, Chip Morningstar, Philip Morrison, Kevin Nelson, Hugh O'Neill, Gayle Pergamit, Gordon et Mary Peterson, Norma et Amy Peterson, Naomi Reynolds, Carol Rosin, Phil Salin, Conrad Schneiker, Alice Dawn Schuster, Rosemary Simpson, Leif Smith, Ray Sperber, David Sykes, Paul Trachtman, Kevin Ulmer, Patricia Wagner, Christopher Walsh, Steve Witham, David Woodcock et Elisa Wynn. Etant donné que cette liste a été constituée à partir de fichiers incomplets et de monceaux de petites notes manuscrites, je présente des excuses à ceux que j'aurais pu oublier. Je dois des remerciements aux membres de nombreux auditoires, du MIT et d'ailleurs, pour les questions posées qui m'ont permis de mieux affiner certaines idées et leur présentation. Pour leur aide et leurs encouragements, je voudrais remercier mon agent d'édition, Norman Kurz et mes éditeurs, James Raimes, Dave Barbor et Patrick Filley. Finalement, pour une contribution d'une qualité particulière et d'une grande ampleur tout au long de ce travail, je voudrais remercier Mark S. Miller et, plus que tout autre, Christine Peterson. Sans leur aide, ce livre n'aurait jamais vu le jour. Table des matières Préface 7 Remerciements 11 Première partie : les bases de la prédiction 15 Les engins constructeurs 17 Les principes du changement 35 Prédictions et projections 52 Deuxième partie : les scénarios du possible 63 Les engins d'abondance 65 Machines pensantes 75 Le monde au-delà de la Terre 92 Les engins de guérison 107 Longue vie dans un monde ouvert 124 Une porte sur le futur 136 Les limites de la croissance 152 Troisième partie : dangers et espoirs 172 Les engins de destruction 174 Stratégies et survie 193 Analyser les faits 204 Le réseau du savoir 217 Beaucoup de mondes et de temps 230 Postface, 1990 240 Postface, 1996 243 Glossaire 245 Notes et références 250 Première partie Les bases de la prédiction 1 Les engins constructeurs1 a L'ingénierie protéique [...] représente2 le premier grand pas vers une capacité plus générale d'ingénierie moléculaire qui nous permettra de structurer la matière atome par atome. Kevin Ulmer Directeur des recherches Genex Corporation Charbon et diamant, sable et microprocesseur, cancer et tissu sain : à travers l'histoire, les différents arrangements des atomes ont fait la différence entre ce qui est bon marché et ce qui est précieux, entre maladie et bonne santé. Assemblés d'une manière, les atomes forment le sol, l'air et l'eau ; assemblés d'une autre, ils donnent des fraises mûres. Assemblés d'une façon, ils constituent nos maisons et l'air pur, assemblés d'une autre, ils sont cendres et fumées. Notre technologie trouve ses fondations dans sa faculté à arranger les atomes. Nous sommes allés très loin dans ce domaine : de la confection des pointes de flèches en silex à la fabrication d'aluminium pour construire des vaisseaux spatiaux. Nous sommes fiers de notre technologie, avec nos médicaments qui sauvent des vies et nos ordinateurs de bureau. Cependant, nos fusées sont encore rudimentaires et nos ordinateurs stupides, et les molécules de nos tissus continuent à se désorganiser avec l'âge, dégradant d'abord notre santé, puis empêchant notre vie elle-même. Malgré toutes nos avancées dans la manière de placer les atomes, nous utilisons encore des méthodes primitives. Avec notre technologie actuelle, nous sommes encore contraints de manipuler les atomes par amas informes. Mais les lois de la nature laissent encore beaucoup de place au progrès et la pression économique mondiale nous pousse en avant. Pour le meilleur ou pour le pire, les plus fantastiques percées technologiques sont encore à venir. Deux styles de technologie Notre technologie moderne est fondée sur une tradition ancienne. Il y a 30 000 ans, la taille du silex était de la haute technologie. Nos ancêtres empoignaient des pierres contenant des billions de billions d'atomes et en enlevaient des éclats contenant des milliards de billions d'atomes pour tailler leurs haches de pierre. Ils effectuaient un travail précis nécessitant une habilité difficile à imiter aujourd'hui. Ils ont aussi peint des fresques sur les murs de grottes en France, en utilisant leurs mains comme des pochoirs sur lesquelles ils soufflaient des poudres colorées. Plus tard, ils ont fabriqué des pots en cuisant de l'argile, puis du bronze en chauffant des roches. Ils façonnèrent le bronze, puis le fer, puis l'acier en les chauffant, les battant et en leur enlevant des copeaux. Nous fabriquons maintenant des céramiques très pures et des aciers plus solides mais nous continuons à les mettre en forme en utilisant les mêmes techniques. Nous fabriquons du silicium pur, le coupons en tranches et dessinons des motifs à leurs surfaces en utilisant de fins patrons et des pinceaux de lumière. Nous appelons ces objets des "puces" et nous les considérons comme très élaborés, du moins comparés à des haches de pierre. Notre technologie micro-électronique a été capable de faire tenir sur quelques puces contenues dans des ordinateurs de poche toute la puissance délivrée par les ordinateurs de la fin des années 50 qui occupaient des pièces entières. Les ingénieurs fabriquent maintenant des composants plus petits encore, en plaçant des monceaux d'atomes à la surface d'un cristal pour faire des fils électriques et divers composants d'une taille inférieure au dixième du diamètre d'un cheveu. Ces microcircuits sont peut-être petits pour les standards des tailleurs de pierre mais chaque transistor contient encore des billions d'atomes et les soi-disant "micro-ordinateurs" sont encore visibles à l'¦il nu. Pour les standards d'une technologie nouvelle et plus puissante, ils paraîtront gargantuesques. Le type de technologie qui nous a mené de la hache de pierre aux puces en silicium manipule les atomes en vrac. Appelons-la technologie grossière. La nouvelle technologie manipulera les atomes et les molécules individuellement en les contrôlant avec précision; appelons-la technologie moléculaire. Elle va changer le monde bien plus que nous ne pouvons l'imaginer. Les microcircuits se mesurent en micromètres (c'est-à-dire, en millionièmes de mètre) mais les molécules se mesurent en nanomètres, soit un millier de fois plus petit. On peut utiliser indifféremment les termes "nanotechnologie" et "technologie moléculaire" pour définir ce nouveau type de technologie. Les ingénieurs en nanotechnologies construiront à la fois des nanocircuits et des nanomachines. Technologie moléculaire d'aujourd'hui Un dictionnaire3 définit la machine en ces termes : "tout système, généralement constitué de parties rigides, assemblées pour modifier, transmettre et diriger des forces appliquées d'une manière déterminée pour accomplir un objectif spécifique, comme la réalisation d'un travail utile". Les machines moléculaires répondent parfaitement à cette définition. Pour imaginer ces machines, on doit d'abord imaginer les molécules. On peut se représenter les atomes comme des perles et les molécules comme des assemblages de perles. D'ailleurs, les chimistes modélisent parfois les molécules en utilisant des boules de plastique (certaines peuvent se lier dans plusieurs directions, comme les pièces d'un mécano). Les atomes sont arrondis comme des perles et bien que les liaisons dans les molécules ne soient pas des bouton-pression, cette représentation a l'avantage de faire ressortir la notion essentielle que les liaisons peuvent être cassées et reformées. Si un atome avait la taille d'une petite bille, une assez grosse molécule aurait la taille de votre poing. Cela donne une image utile mais les atomes ont en fait une taille 10 000 fois inférieure à celle d'une bactérie et les bactéries sont déjà 10 000 fois plus petites que les moustiques. (Un noyau atomique, toutefois, est 100 000 fois plus petit qu'un atome lui-même ; la différence entre un atome et son noyau est du même ordre que celle entre une réaction chimique et une réaction nucléaire). Les choses autour de nous réagissent comme elles le font du fait du comportement des molécules. L'air ne garde ni sa forme ni son volume parce que ses molécules se déplacent librement, rebondissant et ricochant à travers l'espace. Les molécules d'eau s'attirent entre elles alors qu'elles sont en mouvement, c'est pourquoi l'eau a un volume constant mais peut changer de forme. Le cuivre garde sa forme parce que les atomes qui le constituent sont reliés entre eux en motifs spatiaux réguliers ; on peut le tordre et le marteler parce que ses atomes peuvent glisser les uns sur les autres en conservant leurs liaisons. Le verre se brise quand on le frappe, parce que ses atomes se séparent sans pouvoir glisser. Le caoutchouc est constitué de réseaux de molécules pliées, comme un enchevêtrement de ressorts. Quand on l'étire et qu'on le relâche, les molécules se redressent, puis s'enroulent à nouveau. Ces motifs moléculaires simples constituent des substances passives. Des schémas plus complexes sont à l'origine des nanomachines biologiques dans les cellules vivantes. Les biochimistes travaillent déjà avec ces machines, qui sont surtout faites de protéines, le principal matériel d'ingénierie des cellules vivantes. Ces machines moléculaires ont relativement peu d'atomes ; elles ont donc des surfaces granuleuses, comme des objets constitués de petites billes collées ensemble. En outre, beaucoup de paires d'atomes sont assemblées par des liaisons qui peuvent se courber ou tourner : les machines protéiques sont donc exceptionnellement flexibles. Comme toutes les machines, elles ont des pièces de différentes formes et différentes tailles qui remplissent des tâches utiles. Toutes les machines utilisent des atomes pour constituer leurs pièces ; simplement les machines protéiques en utilisent moins. Les biochimistes rêvent de concevoir et fabriquer de telles machines mais il reste auparavant des difficultés à surmonter. Les ingénieurs utilisent des faisceaux lumineux pour graver des motifs à la surface des puces mais les chimistes doivent construire d'une manière beaucoup plus indirecte. Lorsqu'ils assemblent des molécules en différentes séquences, ils n'ont qu'un contrôle limité de ce processus. Quand les biochimistes ont besoin de machines moléculaires complexes, ils sont encore obligés de les emprunter aux cellules. Cependant, des machines moléculaires avancées leur permettraient de construire des nanocircuits et des nanomachines aussi facilement et directement que les ingénieurs construisent actuellement des microcircuits ou des machines à laver : le progrès deviendrait rapide et spectaculaire. Les ingénieurs en génétique montrent déjà la voie. D'habitude, quand les chimistes fabriquent des chaînes moléculaires (appelées polymères), ils déposent des molécules en solution dans un récipient pour qu'elles se cognent et réagissent entre elles de manière aléatoire. Les chaînes ainsi formées ont des longueurs variables et les molécules sont assemblées entre elles sans ordre particulier. Grâce aux machines modernes4 qui synthétisent des gènes, les ingénieurs en génétique construisent des polymères plus ordonnés (des molécules d'ADN spécifiques) en combinant des molécules dans un ordre particulier. Ces molécules sont les nucléotides de l'ADN (les lettres de l'alphabet génétique, également appelées bases) et les ingénieurs en génétique ne les placent pas toutes en même temps. Au lieu de cela, ils programment la machine pour qu'elle ajoute les différents nucléotides dans un ordre particulier, afin de composer un message précis. Ils établissent d'abord une liaison entre un nucléotide précis et la fin de la chaîne en construction, puis ils évacuent le surplus de nucléotide et ajoutent des produits chimiques pour préparer le bout de la chaîne à recevoir la base suivante. Ils allongent la chaîne en accrochant des nucléotides, un par un, en une séquence programmée. Ils attachent le tout premier nucléotide à une surface solide afin de conserver la chaîne lors des rinçages. Ainsi, ils possèdent une grosse machine maladroite qui assemble des structures moléculaires précises à partir de pièces cent millions de fois plus petites qu'elle-même. Mais ce processus de fabrication aveugle omet parfois des nucléotides dans quelques chaînes. Et la probabilité d'erreur dans une chaîne croît avec la taille de celle-ci. Comme des ouvriers qui jettent les mauvaises pièces avant d'assembler une voiture, les ingénieurs en génétique réduisent les erreurs en se débarrassant des mauvaises chaînes. Ensuite, pour assembler ces courtes chaînes triées en des gènes fonctionnels (typiquement de plusieurs milliers de nucléotides de long), ils ont recours à des machines moléculaires que l'on trouve dans les bactéries. Ces machines protéiques, appelées enzymes de restriction, "lisent" certaines séquences d'ADN comme des "couper ici". Elles lisent ces motifs génétiques par le toucher, en se collant à eux et elles coupent ces chaînes en réarrangeant quelques atomes. D'autres enzymes raccordent des pièces ensemble, en lisant les parties à assembler comme des "coller ici" (en "lisant" de même les chaînes par des contacts physiques et les collant en réarrangeant quelques atomes). Les ingénieurs en génétique sont ainsi capables, grâce à des machines qui synthétisent des gènes et à des enzymes qui les coupent et les collent, de fabriquer ou de modifier n'importe quel message d'ADN. Mais l'ADN est une molécule inutile en elle-même. Elle n'est ni solide -comme le Kevlar- ni colorée -comme une teinture- ni active -comme une enzyme- et cependant, elle possède quelque chose pour laquelle l'industrie est prête à investir des millions de dollars : sa capacité à diriger des machines moléculaires appelées ribosomes. Dans les cellules, des machines moléculaires transcrivent d'abord l'ADN, copiant l'information qu'il contient dans des "cassettes" d'ARN. Puis, un peu à la manière des premières machines à commande numérique travaillant le métal à partir d'instructions contenues dans des bandes magnétiques, les ribosomes fabriquent les protéines à partir des instructions contenues dans les brins d'ARN. Et les protéines sont utiles. Les protéines, comme l'ADN, ressemblent à des colliers de perles inégales. Mais à la différence de l'ADN, les protéines se replient pour former de petits objets qui possèdent des fonctions précises. Certaines sont des enzymes, des machines qui peuvent construire et détruire des molécules (et copier l'ADN, le transcrire et fabriquer d'autres protéines qui interviennent dans le cycle de la vie). D'autres sont des hormones, qui se fixent à d'autres protéines pour indiquer aux cellules qu'elles doivent modifier leur comportement. Les ingénieurs en génétique peuvent facilement faire produire ces objets par les machines moléculaires efficaces et bon marché que l'on trouve dans les organismes vivants, alors que les ingénieurs responsables d'une usine chimique doivent travailler avec des cuves de réactifs (dans lesquelles les atomes s'arrangent souvent mal et forment des sous-produits nocifs). Les ingénieurs qui travaillent avec des bactéries peuvent leur faire absorber des produits chimiques, dont elles réarrangent avec précaution les atomes, puis stockent le produit synthétisé ou le libèrent dans le milieu environnant. Les ingénieurs en génétique ont maintenant des bactéries programmées, capables de fabriquer des protéines allant de l'hormone de croissance humaine à la présure, une enzyme utilisée pour faire des fromages. L'entreprise pharmaceutique Eli Lilly (Indianapolis) vend actuellement sous le nom d'Humulin des molécules d'insuline humaine fabriquées par des bactéries. Machines protéiques existantes Ces hormones protéiques et ces enzymes s'accrochent sélectivement à d'autres molécules. Une enzyme modifie la structure de sa cible, puis s'en détache ; une hormone modifie le comportement de sa cible uniquement quand elles sont liées ensemble. Les hormones et les enzymes peuvent être décrites en termes mécaniques bien que leur comportement soit le plus souvent de nature chimique. Cependant, d'autres protéines ont un rôle purement mécanique5. Certaines poussent et tirent, d'autres agissent comme des cordes ou des supports et les parties de quelques molécules constituent d'excellents roulements. La machinerie du muscle, par exemple, est faite de grappes de protéines qui attrapent une "corde" (également faite de protéines), la tirent, puis l'attrapent un peu plus loin. A chaque fois que vous bougez, vous utilisez ces machines. Les amibes comme les cellules humaines bougent et changent de forme en utilisant des fibres et des barres qui agissent comme des muscles moléculaires et des os. Un moteur réversible, à vitesse variable, propulse les bactéries dans l'eau en faisant tourner une hélice en forme de tire-bouchon. Si on pouvait construire des voitures miniatures autour de tels moteurs, plusieurs milliards de milliards tiendraient dans une poche et une autoroute de 150 voies pourrait être construite dans vos capillaires les plus fins. Des appareils moléculaires simples se combinent pour former des systèmes qui ressemblent à des machines industrielles. Dans les années 50, les ingénieurs ont réalisé des machines-outils qui découpaient le métal sous le contrôle d'une bande de papier perforé. Un siècle et demi auparavant, Joseph-Marie Jacquard avait construit un métier à tisser qui exécutait des motifs complexes sous le contrôle d'une chaîne de cartes perforées. Cependant, plus de trois milliards d'années avant Jacquard, les cellules avaient développé la machinerie du ribosome. Les ribosomes sont la preuve que les nanomachines construites à partir de protéines et d'ARN peuvent être programmées pour construire des molécules complexes. Regardons maintenant les virus. L'un d'entre eux, le phage T4, se comporte comme une seringue motorisée digne de figurer dans un catalogue industriel. Il s'accroche à une bactérie, perce un trou et y injecte son ADN viral (et oui, même les bactéries souffrent d'infections !). Comme un conquérant qui agrandit les usines pour construire plus de chars d'assaut, cet ADN viral redirige la production de la machinerie cellulaire pour construire de multiples copies de lui-même et des seringues en conséquence. Comme tous les organismes, les virus existent parce qu'ils sont assez stables et très efficaces pour se recopier. Qu'elles soient dans les cellules ou non, les nanomachines obéissent aux lois universelles de la nature. Des liaisons chimiques ordinaires maintiennent leurs atomes ensemble et des réactions chimiques ordinaires (orientées par d'autres nanomachines) les assemblent. Les protéines peuvent même se lier entre elles pour former des machines sous la seule action de l'agitation thermique et des interactions électrostatiques. En mélangeant des protéines virales (et l'ADN qu'elles encapsulent) dans un tube à essai, les biologistes moléculaires ont assemblé des phages T4 fonctionnels. Cette faculté est surprenante : imaginez que vous mettiez toutes les pièces d'une auto dans une grosse boîte et qu'après l'avoir agitée, vous en ressortiez une voiture parfaitement assemblée ! Et les virus T4 ne sont qu'un des nombreux exemples de structures douées d'auto-assemblage6. Les biologistes moléculaires ont réussi à ré-obtenir en tube à essai des ribosomes fonctionnels après en avoir séparé la cinquantaine de protéines et de fragments d'ARN qui les composent. Pour comprendre comment un tel processus peut avoir lieu, imaginez plusieurs chaînes protéiques de T4 flottant dans un liquide. Chaque chaîne se replie pour donner une structure en creux et bosses, avec pour chacune un motif particulier de charges électriques et de zones hydrophiles et hydrophobes. Imaginez-les maintenant en train d'errer, bousculées par les vibrations thermiques des molécules d'eau environnantes. De temps en temps, deux d'entre elles vont s'entrechoquer et rebondir. Parfois, cependant, deux protéines virales vont se rencontrer et rester assemblées, parce que leurs reliefs vont correspondre, tout comme leurs différents motifs. De cette façon, des parties de virus s'assemblent, puis ces parties elles-mêmes se combinent pour donner un virus entier. Les ingénieurs en protéines n'auront pas besoin de "nanobras" et de "nanomains" pour assembler des nanomachines complexes. Mais de petits manipulateurs seront utiles et ils seront construits. A l'instar des ingénieurs qui construisent aujourd'hui des machines aussi complexes que des robots joueurs de piano ou des bras articulés à partir de moteurs, roulements et pièces mobiles ordinaires, les biochimistes de demain seront à même d'utiliser les protéines comme des moteurs, des roulements et des parties mobiles pour construire des bras robots qui seront eux-mêmes capables de manipuler individuellement les molécules. Concevoir des protéines7 Sommes-nous encore loin d'accéder à cette capacité ? Quelques avancées ont eu lieu mais le plus gros du travail reste à faire. Les biochimistes ont déjà cartographié la structure spatiale de nombreuses protéines. Et avec des machines qui synthétisent des gènes pour les aider à écrire des "cassettes" d'ADN, ils peuvent faire fabriquer à des cellules toutes les protéines imaginables8. Mais ils ne savent pas encore concevoir des chaînes protéiques qui se replieront pour donner la bonne forme et la bonne fonction. Les forces qui font se replier les protéines sont faibles et les différentes possibilités qu'a une protéine pour se replier sont extrêmement nombreuses. C'est pourquoi concevoir entièrement une grosse molécule en partant de rien est difficile. Les forces qui sont à l'origine des repliements des chaînes protéiques sont également celles qui maintiennent les protéines ensemble pour former des machines complexes. Les différentes formes des acides aminés (les perles moléculaires qui forment la chaîne protéique) et les différents types d'attractions qu'ils exercent font que la protéine se replie d'une manière spécifique pour former un objet d'une forme particulière. Les biochimistes ont appris des règles qui permettent d'évaluer la manière dont les chaînes d'acides aminés peuvent se replier mais ces règles ne sont pas absolues. Tenter de prévoir de quelle manière une chaîne va se replier revient un peu à faire un puzzle dont les pièces, découpées dans une surface unie, pourraient s'assembler plus ou moins de différentes manières, une seule étant la bonne. La recherche des règles de conformation d'une protéine donnée pourrait occuper plusieurs vies et une réponse correcte ne serait peut-être même pas reconnue. Les biochimistes qui utilisent les meilleurs programmes informatiques disponibles à l'heure actuelle ne peuvent toujours pas prédire la manière dont une grosse protéine naturelle va se replier et certains désespèrent d'y parvenir en un délai raisonnable. Ceci dit, la plupart des biochimistes travaillent en tant que chercheurs, pas en tant qu'ingénieurs. Ils s'attachent plutôt à déterminer de quelle manière les protéines naturelles se replient ; pas à modéliser des protéines qui vont se replier selon les calculs effectués. Ces tâches peuvent sembler similaires9 mais elles sont en réalité très différentes : la première est un défi scientifique, la seconde est un défi d'ingénieur. Pourquoi les protéines naturelles devraient-elles se replier d'une manière que les scientifiques trouvent facile à prévoir ? Tout ce dont la nature a besoin, c'est que les protéines se replient correctement, pas que ces repliements s'effectuent d'une manière qui paraisse évidente. Mais les protéines peuvent être conçues dès le départ pour que leur repliement soit plus prédictible. Carl Pablo, dans Nature10, a proposé une stratégie de modélisation fondée sur cette approche et quelques ingénieurs en biochimie ont imaginé et construit de courtes chaînes de quelques dizaines d'acides aminés11 qui se sont repliées et nichées à la surface d'autres molécules comme prévu. Ils ont réussi à construire en partant de zéro une protéine12 dont les propriétés s'apparentent à celles de la mélittine, une toxine contenue dans le venin d'abeille. Ils ont modifié des enzymes existantes, changé leurs comportements d'une manière prédictible13. Notre compréhension des protéines grandit de jour en jour. Selon le biologiste Garrett Hardin14, en 1959, des généticiens ont déclaré l'ingénierie génétique impossible ; aujourd'hui, c'est devenu une industrie. La biochimie et la conception de molécules assistée par ordinateur sont des domaines en pleine explosion et comme Frederick Blattner l'a écrit dans le journal Science15, "les programmes de jeux d'échecs ont déjà atteint le niveau des grands maîtres. Peut-être que la solution au problème du repliement des protéines est plus proche que l'on ne croit." William Rastetter de Genetech, écrivant dans Applied biochemistry and biotechnology16 a demande : "Quelle distance nous sépare encore de la conception d'enzymes et de leur synthèse de novo ? Dix ans ? Quinze ans ?" et il répond : "Peut-être moins que cela." Forrest Carter, du U.S. Naval Research Laboratoryb, Ari Aviram et Philip Seiden de chez IBM, Kevin Ulmer de Genex Corporation et d'autres chercheurs dans des laboratoires universitaires ou industriels à travers le monde, ont déjà commencé le travail théorique et les expériences en vue de fabriquer des interrupteurs et des mémoires moléculaires ainsi que d'autres structures qui pourraient être utiles à la fabrication d'un ordinateur biologique. Le U.S. Naval Research Laboratory a organisé deux conférences internationales sur les appareils électroniques moléculaires17 et une rencontre patronnée par la U.S. National Science Foundationc insistait sur le besoin de développer les recherches18 sur les ordinateurs moléculaires. Le Japon a annoncé le lancement d'un programme de plusieurs millions de dollars dans le but de développer des moteurs et des ordinateurs moléculaires capables de s'auto-assembler. A San José, la société VLSI Research19 annonce quant à elle : "Il semble que la course pour les bio-pucesd (un autre terme pour désigner les systèmes moléculaires électroniques) ait déjà commencé". NEC, Hitachi, Toshiba, Matsushita, Fujitsu, Sanyo-Denki et Sharp ont commencé les efforts de recherche à grande échelle dans le domaine des bio-puces pour "bio-ordinateur". Les biochimistes ont d'autres raisons de vouloir apprendre l'art de la conception des protéines. De nouvelles enzymes promettent en effet de rendre faciles et propres des réactions chimiques qui demeurent pour l'instant polluantes et coûteuses. De nouvelles protéines offriront toute une nouvelle gamme d'outils aux biotechnologistes. Nous sommes déjà sur la route de l'ingénierie protéique et comme Kevin Ulmer le fait remarquer dans l'en-tête de ce chapitre tiré de Science, cette route nous mène "vers une capacité plus générale d'ingénierie moléculaire qui nous permettra de structurer la matière atome par atome". Nanotechnologies de seconde génération Malgré leur polyvalence, les protéines ont quelques faiblesses en tant que matériel d'ingénierie. Les machines protéiques s'arrêtent quand on les déshydrate, gèlent quand on les refroidit, cuisent quand on les chauffe. On ne construit pas des machines avec de la chair, des poils et de la gélatine. A travers les siècles, nous avons appris à utiliser nos mains de chair et d'os pour construire des machines en bois, céramique, acier et plastique. Nous continuerons à faire de même dans le futur. Nous utiliserons des machines protéiques pour construire des nanomachines faites de matériaux plus solides que les protéines. A mesure que les nanotechnologies se passeront des protéines, elles deviendront plus ordinaires du point de vue des ingénieurs. Les molécules seront assemblées comme les pièces d'un mécano et les parties correctement assemblées resteront liées ensemble. A la manière dont des outils ordinaires peuvent assembler des machines ordinaires à partir de leurs pièces, les outils moléculaires dont nous disposerons assembleront les molécules ensemble pour faire de petits engrenages, moteurs et leviers et les regrouperont pour former des machines complexes. Les pièces qui ne contiennent que quelques atomes sont bosselées mais les ingénieurs peuvent travailler avec des parties bosselées si celles-ci reposent sur des paliersa suffisamment lisses. Certaines liaisons entre les atomes constituent des paliers satisfaisants ; cela signifie que des pièces peuvent être montées par l'intermédiaire d'une seule liaison chimique20 qui les laissera tourner librement et régulièrement. Comme un palier peut être fabriqué en utilisant seulement deux atomes (et des parties mobiles n'en nécessitent que quelques-uns), les nanomachines peuvent réellement avoir des composants de taille moléculaire. Comment ces machines plus performantes seront-elles construites ? Depuis des années, les ingénieurs utilisent la technologie pour faire progresser la technologie. Ils ont manipulé des outils métalliques pour travailler le métal en des outils meilleurs encore et les ordinateurs pour concevoir et programmer des ordinateurs plus puissants. De la même manière, ils utiliseront des nanomachines protéiques pour construire des nanomachines plus performantes. Les enzymes nous indiquent la voie : elles assemblent des grosses molécules en "attrapant" des petites molécules dispersées dans le liquide environnant, puis en les maintenant ensemble jusqu'à ce qu'une liaison se forme. Les enzymes assemblent l'ADN, l'ARN, les protéines, les graisses et les hormones de cette manière -et plus généralement toutes les molécules que l'on trouve dans le règne du vivant. Les ingénieurs en biochimie seront capables de construire de nouvelles enzymes qui assembleront les atomes en de nouveaux motifs. Par exemple, ils feront peut-être une machine similaire à une enzyme qui ajoutera des atomes de carbone à un endroit précis couche après couche. S'ils sont assemblés correctement, les atomes formeront une fine fibre de diamant21 flexible, qui aura 50 fois la résistance de l'acier pour une densité égale à celle de l'aluminium. Les compagnies aérospatiales se bousculeront pour acheter de telles fibres en grande quantité afin d'élaborer des composites avancés (et là encore, la course aux armements sera un puissant moteur en faveur du développement des nanotechnologies). Mais l'avancée majeure aura lieu lorsque les machines protéiques seront capables d'assembler des structures plus complexes que de simples fibres. Ces machines protéiques programmables ressembleront aux ribosomes programmés par l'ARN ou encore à l'ancienne génération de machines-outils programmées par bandes perforées. Elles ouvriront un vaste champ de possibilités, permettant aux ingénieurs d'échapper aux limitations des protéines pour construire de manière plus simple des machines compactes et robustes. Comme les enzymes naturelles, les protéines artificielles assembleront et sépareront les molécules. Les protéines existantes se lient à une grande variété de molécules, les utilisant comme des outils chimiques ; les protéines artificielles utiliseront tous ces outils et bien d'autres encore. De plus, en chimie organique, les chimistes ont montré que les réactions chimiques peuvent produire des résultats remarquablement ordonnés, même en l'absence de nanomachines pour les guider. Les chimistes n'ont pas de contrôle direct sur les mouvements désordonnés des molécules dans un liquide, qui peuvent donc réagir de toutes les manières possibles, selon leurs rencontres. Les chimistes parviennent toutefois à influer sur les molécules22 pour qu'elles forment des structures régulières comme des cubes, des dodécaèdres ou des structures qui semblent encore plus improbables comme des anneaux moléculaires avec des liaisons très tendues. Les machines moléculaires seront encore plus habiles à réaliser des liaisons interatomiques, parce qu'à la différence des chimistes, elles pourront guider les mouvements des molécules. En effet, c'est parce qu'il est encore impossible aux chimistes de diriger les mouvements des molécules qu'ils réussissent rarement à en assembler de complexes selon un plan préétabli. Les plus grosses molécules qu'ils réalisent en respectant un schéma spécifique et complexe sont toutes des chaînes linéaires. Ils les forment en ajoutant une à une des molécules à une chaîne en formation, selon une séquence ordonnée (comme dans la machine à assembler des gènes). Avec seulement un site de liaison par chaîne, ils sont sûrs d'ajouter la pièce suivante à la bonne place. Mais si une grosse molécule arrondie et bosselée possède (par exemple) une centaine d'atomes d'hydrogène à sa surface, comment les chimistes peuvent-ils en retirer un en particulier (celui placé cinq atomes au-dessus et trois atomes à droite de la bosse placée à l'avant de la molécule), pour ajouter autre chose à cette place ? Mélanger ensemble de simples produits chimiques ne donnera que très rarement le bon résultat, parce que de petites molécules ne peuvent être que faiblement sélectives quand elle réagissent avec une grosse molécule. En revanche, les machines protéiques auront cette sélectivité. Une machine protéique flexible et programmable pourra se saisir d'une grosse molécule (la pièce à travailler) et amener d'autre part une petite molécule contre elle, juste à la bonne place. Comme une enzyme, elle liera alors les deux molécules ensemble. En accrochant des molécules les une après les autres à la pièce de travail, la machine assemblera une structure de plus en plus large en maintenant un contrôle total sur l'arrangement de ses atomes. C'est le facteur clé qui a manqué aux chimistes. Comme les ribosomes, de telles nanomachines peuvent travailler sous le contrôle de "bandes" moléculaires. A la différence des ribosomes, elles manipuleront une grande variété de petites molécules (pas seulement des acides aminés) et les lieront à la pièce en construction au bon endroit et pas seulement à l'extrémité. Les machines protéiques combineront alors la faculté de créer et briser des liaisons au caractère programmable des ribosomes. Mais là où les ribosomes ne peuvent construire que de fragiles protéines, ces machines protéiques construiront des objets, solides et petits, en métal, en céramique ou en diamant. Ces objets seront invisibles mais pourtant très robustes. Dans des situations où nos doigts de chair sont susceptibles d'être meurtris ou brûlés, nous utilisons des pinces en acier. Dans des situations où les machines protéiques seront susceptibles d'être détruites ou désintégrées, nous nous tournerons vers des nanomachines faites de matériaux plus résistants. Assembleurs universels La seconde génération de nanomachines -construites à partir d'autres matériaux que des acides aminés- fera tout ce que les protéines sont capables de faire et bien plus encore23. En particulier, certaines joueront un rôle important, en tant qu'outils améliorés, dans l'assemblage des structures moléculaires. Capables de tolérer selon leur conception les acides ou le vide, le gel ou les fortes chaleurs, les nanomachines de seconde génération seront à même d'utiliser comme des "outils" presque tous les réactifs utilisés par les chimistes ; mais elles les manieront avec la précision de machines programmées. Elles seront capables de lier les atomes entre eux dans pratiquement toutes les configurations stables possibles en les ajoutant par petits groupes à la molécule en formation, jusqu'à ce que la structure complexe soit terminée. Pensez à de telles machines comme à des assembleurs24. Parce que les assembleurs nous permettront de placer les atomes dans presque tous les arrangements possibles25, ils nous permettront de construire presque tout ce que les lois de la nature autorisent. En particulier, ils nous permettront de réaliser presque tout ce que nous pouvons concevoir; y compris d'avantages d'assembleurs. Les conséquences en sont énormes, parce qu'avec nos outils grossiers, nous n'avons exploré qu'une parcelle de ce que permettent les lois de la nature. Les assembleurs marqueront le début d'une nouvelle ère technologique. Les avancées dans les domaines de la médecine, de l'espace, de l'informatique, de la production -et de la guerre- sont toutes dépendantes de notre faculté à arranger les atomes. Avec des assembleurs, nous serons en mesure de remodeler notre monde ou de le détruire. Ainsi, il est temps de prendre un peu de recul et d'analyser les perspectives ouvertes le plus sereinement possible, afin de vérifier si les assembleurs et les nanotechnologies ne sont pas un mirage prospectif. Réponses aux objections Dans tout ce que je viens de décrire, j'ai pris soin de rester près de faits démontrés en chimie et en biologie moléculaire. Cependant, certaines personnes émettent régulièrement des objections dont les arguments s'appuient sur la physique ou la biologie. Ces questions méritent des réponses plus directes. l Le principe d'incertitude de la physique quantique empêchera-t-il les nanomachines de fonctionner ? Ce principe interdit, entre autres choses, de préciser à la fois la position et la vitesse d'une particule. Ceci limite les possibilités des machines moléculaires, de la même manière que cela limite tout ce qui peut être fait. Malgré tout, les calculs montrent que le principe d'incertitude limite peu le maintien des atomes en place, au moins en ce qui concerne notre sujet d'étude. En revanche, le principe d'incertitude rend la position des électrons très floue ; c'est même cette incertitude sur la position qui détermine la taille et la structure des atomes. Cependant un atome, pris comme un tout, a une position relativement bien précise, définie par celle de son noyau. Si les atomes n'occupaient pas de position bien définie, les molécules n'existeraient pas. Il est inutile d'étudier la physique quantique pour admettre ces conclusions, parce que les cellules vivantes démontrent le bon fonctionnement des machines moléculaires. l Les vibrations moléculaires dues à la chaleur rendront-elles les machines moléculaires inutilisables ou très peu fiables ? L'agitation thermique pose plus de problèmes que le principe d'incertitude mais encore une fois, les machines moléculaires existantes prouvent de manière directe que les machines moléculaires peuvent fonctionner à température ambiante. Malgré les vibrations thermiques, la machinerie responsable de copier l'ADN26 fait, dans certaines cellules, moins d'une erreur sur 100 000 000 000 d'opérations. Toutefois, pour atteindre cette exactitude, les cellules utilisent des machines (comme l'enzyme ADN polymérase I) qui vérifient la copie et corrigent les erreurs. Les assembleurs nécessiteront certainement de tels systèmes de correction d'erreurs s'ils doivent produire des résultats fiables. l Les radiations désorganiseront-elles les machines moléculaires jusqu'à les rendre inutilisables ? Les radiations de haute énergie peuvent briser des liaisons chimiques et perturber les machines moléculaires. Mais les cellules vivantes montrent qu'une fois encore la solution existe : elles fonctionnent sans interruption pendant des années en réparant et remplaçant les éléments endommagés par les radiations27. Les machines moléculaires sont très petites, elles représentent donc des cibles très réduites pour les radiations et elles ne sont que rarement touchées. Cependant, pour être fiable, un système de nanomachines devra être capable de tolérer certains dégâts et de réparer ou remplacer les parties endommagées. Cette approche de la fiabilité est bien connue des concepteurs d'avions et de fusées. l Etant donné que l'évolution n'est pas parvenue à produire des assembleurs, cela ne montre-t-il pas qu'ils sont irréalisables ou inutiles ? Les réponses aux questions précédentes s'appuyaient en partie sur le fait que les machines moléculaires existent dans les cellules. Ceci est un exemple simple et probant permettant d'affirmer que les lois de la nature autorisent l'utilisation de groupes d'atomes comme des machines programmées, capables de construire d'autres nanomachines. Malgré leur ressemblance fondamentale avec les ribosomes, les assembleurs différeront de tout ce que l'on peut trouver dans des cellules. Toutefois, avec des mouvements moléculaires et des réactions ordinaires, ils créeront des choses nouvelles : par exemple, aucune cellule, ne fabrique de fibres de diamant. L'idée que de nouvelles sortes de nanomachines nous procureront de nouvelles capacités peut paraître surprenante : malgré plusieurs milliards d'années d'évolution, la vie n'a jamais abandonné28 sa dépendance envers les machines protéiques. Cela signifie-t-il cependant que des améliorations sont impossibles ? L'évolution progresse au travers de petits changements et l'évolution de l'ADN peut difficilement remplacer l'ADN. Etant donné que le système ADN/ARN/ribosome est spécialisé dans la fabrication de protéines, la vie n'a pas eu réellement le choix pour évoluer de manière alternative. Tout directeur de production peut facilement en apprécier les raisons : plus encore que pour une usine, la vie ne peut pas se permettre de s'arrêter pour remplacer ses vieux systèmes. Une machine moléculaire améliorée ne devrait pas nous surprendre plus que des alliages d'acier qui sont dix fois plus résistants que des os ou que des fils de cuivre, qui transmettent les signaux électriques un million de fois plus vite que les nerfs. Les voitures battent les guépards à la course, les avions à réaction volent plus vite que les faucons et les ordinateurs calculent déjà plus vite que des humains se grattant la tête. Le futur apportera encore davantage d'exemples d'améliorations face à l'évolution biologique et parmi ces exemples figureront les nanomachines de seconde génération. La physique montre clairement que les assembleurs évolués seront capables de faire plus que les machines protéiques existantes. Ils seront programmables comme des ribosomes mais ils seront capables d'utiliser un échantillon d'outils plus large que toutes les enzymes d'une cellule rassemblées. Et parce qu'ils seront constitués de matériaux plus solides, stables et rigides que les protéines, ils seront capables d'exercer des forces plus grandes, de se déplacer avec une meilleure précision et d'endurer des conditions plus sévères. Tout comme un bras robot industriel -mais à la différence de tout ce qui existe dans une cellule- ils seront à même de faire tourner et de mouvoir les molécules en trois dimensions sous le contrôle d'un programme, autorisant l'assemblage précis d'objets complexes. Ces avantages leur permettront d'assembler un éventail de structures moléculaires bien plus vaste que ce que les cellules vivantes ont fait. l Y a-t-il quelque chose de magique, inhérent à la vie, essentiel au fonctionnement des machineries moléculaires ? On pourrait douter de la possibilité pour les nanomachines artificielles d'égaliser les performances des nanomachines cellulaires, s'il y avait des raisons de penser que les cellules contiennent une sorte de force magique qui les ferait fonctionner. Cette idée s'appelle le "vitalisme". Les biologistes l'ont abandonnée parce qu'ils ont trouvé des explications physiques et chimiques pour toutes les propriétés des cellules jusqu'à présent étudiées, y compris leurs mouvements, leur croissance et leur reproduction. En fait, ces connaissances sont les fondations mêmes des biotechnologies. Des nanomachines naturelles, extraites de cellules et placées en suspension dans des tubes à essai stériles, ont pu accomplir toutes les activités de base qu'elles effectuent à l'intérieur des cellules. En partant des produits chimiques qui se trouvent dans l'air ambiant, les biochimistes sont parvenus à synthétiser des machines protéiques fonctionnelles sans l'aide de cellules. R. B. Merrifield, par exemple, a utilisé des techniques chimiques29 pour assembler de simples acides aminés afin de fabriquer une ribonucléase pancréatique de b¦uf, une enzyme qui désassemble les molécules d'ARN. La vie est spéciale dans sa structure, dans son comportement mais aussi dans ce sentiment qui nous habite, que nous sommes vivants ; et cependant les lois de la nature qui gouvernent les machineries moléculaires de la vie sont les mêmes que celles qui gouvernent le reste de l'univers. l Les preuves concernant la faisabilité des assembleurs et des autres nanomachines peuvent sembler solides mais pourquoi ne pas plutôt attendre et regarder, pour voir si elles peuvent être développées, avant de s'intéresser aux implications et aux applications possibles ? La curiosité pure semble être une raison suffisante pour examiner les possibilités ouvertes par les nanotechnologies mais il y a des raisons plus convaincantes. Ce déploiement des nanotechnologies va balayer le monde dans les dix à cinquante années qui viennent -c'est-à-dire dans un laps de temps correspondant à notre espérance de vie ou celle de nos proches. De plus, les conclusions des chapitres suivants suggèrent qu'une politique de type "wait and see" pourrait coûter très cher -cela pourrait coûter des millions de vies et peut-être même signifier la fin de la vie sur la Terre. Les arguments en faveur de la faisabilité des nanotechnologies et des assembleurs sont-ils assez solides pour être pris au sérieux ? Il semble que oui, parce que le c¦ur du problème repose sur deux faits scientifiques bien établis : (1) que les machines moléculaires existantes remplissent un éventail de fonctions simples et (2) que les pièces servant à effectuer ces fonctions de base peuvent être assemblées pour construire des machines complexes. Comme les réactions chimiques peuvent lier des atomes ensemble de diverses manières et comme les machines moléculaires peuvent diriger ces réactions chimiques selon des instructions programmées, les assembleurs sont assurément réalisables. Nano-ordinateurs Les assembleurs seront à l'origine d'une percée technologique d'une importance évidente : les ingénieurs les utiliseront pour réduire la taille et le coût des microprocesseurs et pour augmenter leur vitesse de manière spectaculaire. Avec notre technologie grossière d'aujourd'hui, les ingénieurs dessinent des motifs à la surface des puces de silicium en jetant dessus des atomes et des photons mais les motifs restent plats et des défauts de taille moléculaire sont inévitables. Avec des assembleurs, cependant, les ingénieurs pourront construire avec une précision atomique des circuits en 3 dimensions. Les limites exactes de l'électronique restent aujourd'hui incertaines parce que le comportement quantique des électrons dans un réseau complexe de minuscules structures représente des problèmes sérieux, dont certains découlent directement du principe d'incertitude. Cependant, quelles que soient les limites, elles seront atteintes avec l'aide des assembleurs. Les ordinateurs les plus rapides utiliseront des composants électroniques mais ce ne sera pas forcément le cas pour les ordinateurs les plus petits. Cela peut paraître étrange mais les bases du calcul informatique n'ont rien à voir avec l'électronique. Un ordinateur numérique est un assemblage d'interrupteurs capables de s'ouvrir et de se fermer mutuellement. Ces interrupteurs démarrent dans une position donnée (par exemple, représentant 2 + 2) et basculent dans une nouvelle configuration (représentant 4), etc. De telles configurations d'interrupteurs peuvent représenter à peu près tout ce que l'on veut. Les ingénieurs construisent les ordinateurs à partir de petits interrupteurs électroniques connectés par des fils électriques simplement parce que les interrupteurs mécaniques, connectés par des tiges ou des ficelles seraient gros, lents, peu fiables et très chers, du moins aujourd'hui. L'idée d'un ordinateur purement mécanique n'est pas vraiment nouvelle. C'est Charles Babbage, dans les années 185030, qui inventa le premier un ordinateur mécanique avec des engrenages en laiton. Augusta Ada, la comtesse de Lovelace, qui travaillait au projet, inventa la programmation informatique. Les multiples changements de plans de Babbage, les problèmes techniques et les obstacles financiers (des investisseurs doutèrent même de l'utilité des ordinateurs !) eurent raison de ce projet avant son achèvement. Suivant la même voie, Danny Hillis et Brian Silverman, du laboratoire d'intelligence artificielle du MIT, ont construit un ordinateur uniquement mécanique dédié au jeu du morpion. Mesurant plus de deux mètres de côté, rempli de tiges et de cadres mobiles qui représentent l'état du plateau de jeu et les stratégies utilisées, il repose désormais au musée de l'ordinateur à Boston. Il ressemble à un énorme modèle moléculaire de chimiste, construit avec les pièces d'un mécano. Les engrenages en laiton et les pièces de mécano ne permettent de construire que des ordinateurs gros et lents. Mais avec des composants larges de quelques atomes, un ordinateur mécanique simple tiendra dans un centième de micron cube, soit un volume plusieurs milliards de fois inférieur aux composants qualifiés à l'heure actuelle de micro-électroniques. S'il lui fallait stocker un milliard d'octets de données, un nano-ordinateur tiendrait encore dans une boîte d'un micron de côté31, équivalent à la taille d'une petite bactérie. Et il serait rapide. Bien que les déplacements mécaniques32 soient 100 000 fois plus lents que les signaux électriques des machines actuelles, ils n'auraient à parcourir qu'un millionième de la distance et mettraient donc moins de temps. Ainsi, un simple ordinateur mécanique travaillera plus vite que les bêtes de courses électroniques d'aujourd'hui. Les nano-ordinateurs électroniques seront probablement des milliers de fois plus rapides que les micro-ordinateurs électroniques -et peut-être même des centaines de milliers de fois, si la prédiction faite par le prix Nobel Richard Feynman33 se révèle être réalisable. L'accroissement de la vitesse, autorisé par la réduction de la taille, est une vieille histoire en électronique. Désassembleurs Les ordinateurs moléculaires contrôleront les assembleurs moléculaires, leur fournissant l'important flux d'instructions nécessaire pour diriger le placement de grandes quantités d'atomes. Les nano-ordinateurs possédant des mémoires moléculaires serviront également à stocker des données en provenance du processus inverse de l'assemblage. Les assembleurs aideront les ingénieurs à fabriquer des choses ; leurs proches parents, les désassembleurs, aideront les scientifiques et les ingénieurs à analyser celles-ci. Les arguments en faveur des assembleurs résident dans le fait que les enzymes et les réactions chimiques forment des liaisons et que des machines contrôlent ce processus. Les enzymes, les acides, les oxydants, les métaux alcalins, les ions et les groupes d'atomes réactifs appelés radicaux libres peuvent tous casser des liaisons et retirer des groupes d'atomes. Parce que rien n'est parfaitement à l'abri de la corrosion, il semble que les outils moléculaires seront capables de tout déstructurer, par petits paquets d'atomes. De plus, une nanomachine peut aussi bien (par besoin ou commodité), appliquer des forces mécaniques, libérant ainsi par effet de levier des groupes d'atomes. Une nanomachine capable de faire ceci, en même temps qu'elle enregistre tout ce qu'elle retire, couche après couche, est un désassembleur34. Les assembleurs, les désassembleurs et les nano-ordinateurs travailleront ensemble. Par exemple, un système de nano-ordinateurs sera capable de diriger le désassemblage d'un objet, d'enregistrer sa structure, puis de diriger l'assemblage de copies parfaites. Ceci nous donne une idée de la puissance des nanotechnologies. Le monde renouvelé Les assembleurs mettront des années à émerger mais leur arrivée semble presque inévitable. Car bien que le chemin qui mène aux assembleurs nécessite plusieurs étapes, chaque avancée mettra la suivante à notre portée et chaque pas apportera des bénéfices immédiats. Les premières étapes ont déjà été franchies, sous les noms de "biotechnologies" et "ingénierie génétique". Mais d'autres voies menant aux assembleurs sont envisageables. A part en cas de destruction ou de contrôle planétaire, la course technologique continuera, qu'on le veuille ou non. Et à mesure que les progrès dans le domaine de la conception assistée par ordinateur des outils moléculaires s'accéléreront, les avancées réalisées en ce qui concerne la fabrication des premiers assembleurs se feront plus rapides. Pour avoir un espoir de comprendre notre futur, nous devons imaginer les conséquences qu'auront les assembleurs, les désassembleurs et les nano-ordinateurs. Ils sont porteurs de changements aussi importants que ceux qu'auraient produits la révolution industrielle, les antibiotiques et les armes atomiques arrivant tous ensemble en une percée massive. Pour comprendre un futur si profondément bouleversé, il est utile de rechercher les principes de changement qui ont prévalu lors des plus grands tumultes du passé : ce seront des guides utiles. 2 Les principes du changement Le processus de conception35 implique tout d'abord l'invention d'alternatives puis leur confrontation à toute une série d'exigences et de contraintes. Herbert A. Simon Les assembleurs moléculaires apporteront une révolution sans précédent depuis l'apparition des ribosomes, les assembleurs primitifs des cellules. Les nanotechnologies résultantes pourront aider la vie à se répandre au-delà des limites de la terre : un événement unique depuis que la vie s'est répandue à travers les mers et les continents. Elles pourront permettre l'émergence de l'intelligence dans les machines, une évolution sans précédent depuis qu'elle a émergé chez les primates. Et elles permettront à notre esprit de renouveler et de remodeler notre corps, un événement sans aucun équivalent. Ces révolutions apporteront des dangers et des possibilités trop vastes pour que notre imagination puisse les saisir. Cependant, les principes du changement qui se sont appliqués aux molécules, aux cellules, aux animaux, aux esprits et aux machines devraient également s'appliquer dans une ère de biotechnologies, de nanomachines et de cerveaux artificiels. Les lois qui régissent la vie dans les mers, sur la terre et dans les airs devraient continuer de s'appliquer lorsque nous répandrons la vie au-delà des limites de la Terre. Comprendre les grands principes qui gouvernent les changements nous aidera à comprendre les potentialités (bonnes ou mauvaises) des nouvelles technologies. L'ordre émergeant du chaos L'ordre peut survenir du chaos sans que personne n'intervienne : bien avant que le soleil, la Terre et la vie apparaissent, des cristaux ordonnés se sont condensés dans les gaz interstellaires. Le chaos permet aussi la formation d'un ordre cristallin dans des conditions plus familières. Imaginez une molécule -de forme régulière ou encore toute tordue et pleine d'excroissances comme une racine de gingembre. Maintenant, imaginez une grande quantité de ces molécules en mouvement dans un liquide, se bousculant et s'entrechoquant comme des boules de billard dans un tambour de machine à laver. Imaginez le liquide en train de s'évaporer et de se refroidir, obligeant les molécules à se rapprocher et les ralentissant. Ces molécules aux formes alambiquées vont-t-elles simplement se rassembler en tas informes ? En général, non. Elles vont plutôt former des structures cristallines, chaque molécule bien alignée avec ses voisines, aussi parfaitement que sur un échiquier, quoique de manière souvent plus complexe. Ce processus ne s'explique ni par la magie ni par une propriété spéciale des molécules ou des forces en mécanique quantique. Il ne requiert même pas les formes particulières que l'on trouve à la surface des protéines et qui leur permettent de s'auto-assembler en des nanomachines. Si l'on secoue un plateau contenant des billes de taille identique, celles-ci se disposent également en motifs réguliers. Les cristaux grandissent par essais et suppression d'erreurs, par construction puis sélection. Il n'y a pas de petites mains pour les assembler. Un cristal commence à grandir à partir d'un petit amas de molécules. Les molécules se déplacent, se rencontrent et s'accrochent au hasard. Mais elles s'accrochent mieux lorsqu'elles le font en respectant l'ordre cristallin. Les autres molécules se heurtent alors à ce premier petit cristal. Certaines s'accrochent dans la mauvaise position ou avec une mauvaise orientation. Mais elles sont faiblement liées et l'agitation les décroche. Il arrive que certaines se présentent avec la bonne orientation. Elles se lient plus solidement et restent accrochées la plupart du temps. Couche après couche, le cristal se construit. Bien que les molécules se rencontrent au hasard, elles ne se lient pas au hasard. L'ordre émerge du chaos à travers un processus de variation et de sélection. Molécules en évolution Lors de la croissance des cristaux, chaque couche constitue un modèle pour la suivante. Des couches uniformes s'accumulent pour former un bloc solide. Dans les cellules, les brins d'ADN et d'ARN peuvent également servir de modèles ; aidés par des enzymes qui agissent comme des copieurs moléculaires. Mais les sous-unités des chaînes d'acides nucléiques peuvent être ordonnées en une multitude de séquences différentes et une chaîne modèle peut être séparée de sa copie. Ces deux chaînes36 peuvent alors être copiées à leur tour. Le biochimiste Sol Spiegelman37 a utilisé une machine à copier (une protéine virale) dans un tube à essai. Dans un environnement simple, dépourvu de vie, cette protéine peut dupliquer l'ARN. Représentez-vous un brin d'ARN flottant dans un tube à essai avec des copieurs moléculaires et des sous-unités d'ARN. La chaîne tourne et se tord jusqu'à ce qu'elle rencontre une machine à copier orientée correctement pour s'y accrocher. Des sous-unités d'ARN s'entrechoquent autour jusqu'à ce que l'une d'entre elles, du bon type, se présente dans la bonne position pour se fixer en vis-à-vis du brin modèle. Quand une sous-unité du bon type arrive par hasard dans la bonne position, la machine s'en saisit et l'accroche à la copie naissante. Bien que les sous-unités se présentent de manière aléatoire, la machine les accroche sélectivement. Pour finir, le modèle, la machine et la copie se séparent. Richard Dawkins, zoologiste à Oxford38, appelle réplicateur un élément qui fabrique une copie de lui-même. L'ARN est donc un réplicateur : une molécule unique en donne deux, puis quatre, huit, seize, trente-deux et ainsi de suite, de manière exponentielle. Par la suite, le taux de réplication plafonne : la quantité limitée de machines protéiques limite le débit de production des copies d'ARN et ceci quel que soit le nombre de molécules modèles en compétition pour être répliquées. Plus tard encore, les matériaux bruts utilisés pour la fabrication de l'ARN deviennent rares et la réplication cesse. L'explosion de population des molécules atteint un maximum : la croissance s'arrête. Cependant, la machinerie qui recopie l'ARN commet parfois des erreurs, comme des insertions, des délétions ou de mauvais appariements de sous-unités. Le brin d'ARN mutant diffère de l'original par sa taille ou la séquence de ses sous-unités. De tels changements sont à peu près aléatoires et s'amplifient avec le temps : des molécules mal copiées peuvent elles-mêmes être mal recopiées. Ces nouvelles molécules prolifèrent et se différencient les unes des autres. Tout cela semble être une recette pour fabriquer du chaos. Les biochimistes ont constaté que différentes molécules d'ARN se répliquent à des vitesses variables en fonction de leur taille et de l'arrangement de leurs sous-unités. Les descendants des réplicateurs les plus rapides deviennent naturellement les plus nombreux. Si un type de molécules se réplique simplement dix pour cent plus vite que ses congénères, sa descendance est mille fois plus importante que celle des autres au bout de cent générations. De petites différences au cours d'un processus de croissance exponentielle prennent une ampleur considérable. Quand, dans un tube à essai, les matériaux qui servent à fabriquer de l'ARN arrivent à épuisement, il est facile de prendre un échantillon de cet ARN pour en "infecter" un nouveau tube. Le phénomène se poursuit et les molécules qui avaient déjà commencé à prendre l'avantage au cours de la première manche distancent encore plus leurs poursuivants. De petits changements se produisent, devenant avec le temps de profonds remaniements. Quelques molécules se répliquent plus vite et leurs espèces dominent les autres. Quant les ressources s'épuisent à nouveau, il suffit de recommencer dans un nouveau tube, etc. Cette expérience met en valeur un processus naturel : quelle que soit la séquence d'ARN que l'expérimentateur introduit au départ, le chaos apparent des erreurs aléatoires mène toujours à une seule sorte de molécule d'ARN (à quelques erreurs de copie près). Sa version la plus courante a une séquence bien définie de 220 sous-unités. C'est le meilleur réplicateur d'ARN dans cet environnement : il est le seul à subsister parce qu'il supplante tous les autres. Une compétition prolongée entre des ARN réplicateurs apporte toujours le même résultat, quelles que soient la taille et la séquence de l'ARN initial. Bien que personne n'ait pu prédire la séquence gagnante, tout le monde peut se douter que les mutations et la compétition conduiront à un unique vainqueur. Il ne peut pas se produire grand-chose d'autre dans un système aussi simple. Si ces réplicateurs avaient des effets marqués les uns sur les autres (peut-être en s'attaquant ou en s'aidant sélectivement), alors le résultat pourrait relever d'une écologie plus complexe. Mais placés dans ces conditions, ils ne font qu'entrer en compétition pour leurs ressources. Une variante de cette expérience nous apprend autre chose : les molécules d'ARN s'adaptent différemment à des environnements différents. Une ribonucléase est une machine moléculaire qui peut saisir une molécule d'ARN présentant une certaine séquence de sous-unités exposées et la couper en deux. Mais les molécules d'ARN, comme les protéines, se replient dans l'espace en fonction de leur séquence ; en se repliant correctement, elles peuvent protéger leurs points vulnérables à la ribonucléase. Les expériences ont montré que les molécules d'ARN n'évoluent pas cette fois-ci vers un accroissement de leur vitesse de réplication mais vers une meilleure protection quand la ribonucléase est présente. A nouveau, un meilleur compétiteur émerge. Vous remarquerez que de nombreux termes biologiques se retrouvent dans cette description : puisque les molécules se répliquent, le terme "génération" semble approprié ; les molécules qui "descendent" des mêmes "ancêtres" sont des "parents" et les mots "croissance", "reproduction", "mutation" et "compétition" semblent également corrects. Pourquoi cela ? Parce que ces molécules se répliquent en introduisant de petites variations, comme le font les gènes dans les organismes vivants. Quand différents réplicateurs ont plus ou moins de succès, ce sont les plus adaptés qui finissent par prédominer. Ce processus, où qu'il se déroule, est une "évolution". Dans cet exemple du tube à essai, nous pouvons voir l'évolution réduite à sa plus simple expression, libérée de l'inévitable émotion attachée à l'évolution du vivant. Les ARN réplicateurs et les machines à copier protéiques sont des assemblages bien définis d'atomes qui obéissent à des principes bien compris et se développent dans des conditions reproductibles en laboratoire. Les biochimistes peuvent fabriquer des protéines et de l'ARN à partir de produits chimiques simples, sans l'aide du vivant. Les biochimistes ont emprunté ces machines à copier à une espèce de virus qui infecte les bactéries et utilise l'ARN comme matériel génétique. Pour se reproduire, ce virus entre dans une bactérie, détourne ses ressources pour faire des copies de lui-même, puis ressort de la bactérie pour aller en infecter d'autres. Des erreurs dans la copie de l'ARN viral produisent des virus mutants et les virus qui se répliquent le mieux deviennent majoritaires. C'est une évolution par sélection naturelle ; probablement appelée "naturelle" parce que l'homme n'y intervient pas. Mais à la différence de l'ARN du tube à essai, l'ARN viral ne doit pas seulement se répliquer. Il doit également diriger la synthèse des protéines virales par les ribosomes bactériens. Ces protéines sont essentielles aux virus pour sortir des bactéries puis survivre à l'extérieur et enfin en infecter de nouvelles. Toutes ces informations supplémentaires donnent aux ARN viraux une taille minimale de 4 500 paires de bases. Pour se reproduire avec succès, l'ADN des organismes plus complexes doit effectuer encore plus de tâches, comme diriger la fabrication de dizaines de milliers de machines protéiques différentes et le développement de tissus complexes et d'organes. Ceci requiert des milliers de gènes codés par des millions ou des milliards de sous-unités d'ADN. Néanmoins, l'essentiel du processus par variation et sélection reste le même, que ce soit dans les tubes à essai, les virus ou les organismes supérieurs. Expliquer l'ordre Il y a au moins trois manières d'expliquer la structure d'une population évoluée de réplicateurs moléculaires, selon qu'il s'agit d'ARN seul, de gènes viraux ou de gènes humains. La première est un historique détaillé de tous les événements survenus : comment telle mutation spécifique est apparue et comment elle s'est répandue. C'est impossible à faire sans un enregistrement de tous les événements moléculaires : un tel travail serait immensément fastidieux. La deuxième manière s'appuie sur un mot en l'occurrence trompeur : le but. Car pour les molécules, les modifications sont aléatoires et les survivantes sont celles qui sont répliquées sélectivement. C'est en regardant le résultat final que l'on peut imaginer que les molécules ou les cellules qui ont survécu ont "atteint le but" de la réplication. Pourquoi les molécules d'ARN qui évoluent sous la menace de la ribonucléase se replient-elles comme elles le font ? La réponse est bien sûr longue et fastidieuse, alors que dire simplement que les molécules "veulent contrer les attaques et survivre pour se répliquer" conduirait au même résultat. Parler de buts permet des raccourcis commodes (essayez donc de discuter sans eux du comportement humain) mais l'apparence de finalité ne résulte pas forcément de l'action d'un esprit. L'exemple de l'ARN l'illustre très clairement. La troisième, et souvent la meilleure des explications, -d'un point de vue évolutif- considère que l'ordre émerge de la variation et de la sélection des réplicateurs. Une molécule se replie d'une manière particulière parce qu'elle ressemble à une molécule ancestrale qui s'est multipliée avec beaucoup de succès (en évitant les attaques, etc.) et qui a laissé des descendants, en commençant par elle-même. Comme Richard Dawkins le souligne39, parler d'intention, mais avec prudence, peut être utilisé pour parler d'évolution. L'élimination des changements inadaptés est la voie royale de l'évolution. L'effet positif qui en résulte s'appuie donc en fait sur un processus en double négatif -une explication d'un genre plutôt difficile à saisir. Pire, ceci explique un résultat visible (des entités autonomes, douées d'intention) par un processus invisible (les entités sans succès, qui ont disparu). Seuls les animaux ayant eu un succès évolutif ont jonché le paysage de leurs os ; les nombreux échecs du passé n'ont pu laisser beaucoup de fossiles. L'esprit humain a tendance à se focaliser sur le visible. Il recherche des causes positives pour des résultats positifs, comme une force ordonnante derrière des résultats ordonnés. Cependant, à travers la réflexion, nous pouvons nous rendre compte que ce grand principe a façonné notre passé et qu'il modèlera notre futur : l'évolution procède par variation et sélection des réplicateurs. Evolution des organismes L'histoire de la vie est l'histoire d'une course aux armements fondée sur des machines moléculaires. Aujourd'hui, alors que cette course aborde une phase nouvelle et s'accélère, nous avons besoin d'être sûrs de comprendre combien l'évolution est profondément enracinée dans le vivant. En des temps où l'idée d'évolution biologique est souvent traitée à la légère dans les écoles et quelquefois attaquée, nous devons nous souvenir que les preuves sont aussi solides que le roc et aussi nombreuses que les cellules. La Terre elle-même, dans des pages de pierre, a conservé la trace de l'histoire de la vie. Au fond des lacs et des mers, des coquilles, des os et du limon se sont empilés, couche après couche. Parfois, un courant sous-marin ou un bouleversement géologique met à jour ou emporte ces couches. Dans les autres cas, elles sont simplement enfouies. Les premières couches, enfoncées profondément ont été écrasées, cuites et immergées dans des eaux minérales, ce qui les a transformées en pierre. Depuis des siècles, les géologues ont étudié les roches pour lire le passé de la terre. Il y a longtemps déjà, ils trouvèrent des coquillages très haut dans les roches broyées et déformées des chaînes de montagnes. En 1785 -soit soixante-quatorze ans avant la publication du livre honni de Darwin40- James Hutton était déjà parvenu à la conclusion que la boue du fond des mers avait été compressée en roches, puis que celles-ci avaient été érigées en montagnes par des forces encore inconnues. Que pouvaient penser les géologues, sinon que la nature avait menti ? Ils virent que les fossiles et les os étaient différents d'une couche à la suivante. Ils se rendirent compte également que les coquilles de telle couche correspondaient bien à celle trouvée dans telle autre, alors qu'elles pouvaient être séparées par une grande étendue de terre. Ils nommèrent les couches (A, B, C, D... ou Coniacien, Turonien, Cénomanien, Albien...) et utilisèrent les caractéristiques des fossiles pour identifier les couches sédimentaires. La formation de la croûte terrestre n'a laissé nulle part une séquence complète de couches mises à nu. Mais quand les géologues trouvent à un endroit A, B, C, D, E puis C, D, E, F, G, H,I, J dans un autre et encore J, K, L dans un troisième, il leur est facile de reconstituer la séquence complète. Les prospecteurs pétroliers (même ceux qui ne s'intéressent pas à l'évolution et à ses conséquences) utilisent toujours de tels indices fossiles pour dater et suivre des couches géologiques d'un puits de forage à un autre. Les scientifiques sont arrivés à cette conclusion évidente : les espèces disparues qui vivaient autrefois sur la terre occupaient de vastes étendues, tout comme les espèces qui vivent actuellement. Et les couches qui s'empilent aujourd'hui font comme celles qui se sont déposées il y a plusieurs milliards d'années. Des coquilles similaires dans des couches similaires indiquent une époque de sédimentation identique. Les espèces sont différentes d'une couche à l'autre parce qu'elles évoluent. Voici ce que les géologues ont trouvé, écrit avec des coquilles et des os dans les pages de pierre de la Terre. Les couches supérieures de roche contiennent les os des animaux les plus récents. Les couches plus profondes contiennent les fossiles d'espèces maintenant éteintes. Des couches plus anciennes encore ne montrent plus trace d'animaux modernes. Sous les os des mammifères se trouvent les os des dinosaures puis ceux des amphibiens puis des fossiles de poissons et des coquilles et enfin plus d'os ou de coquilles du tout. Les plus anciennes roches fossiles portent les traces microscopiques de cellules uniques. Les datations radioactives de ces roches indiquent qu'elles sont âgées de plusieurs milliards d'années. Les cellules plus complexes que les bactéries datent d'un peu plus d'un milliard d'années. L'histoire des vers, des poissons, des amphibiens, des reptiles et des mammifères couvre quelques centaines de millions d'années. On retrouve les premiers os ressemblant à ceux des humains il y a quelques millions d'années. Les restes des civilisations datent de quelques milliers d'années. En trois milliards d'années, la vie a évolué de cellules uniques capables d'intégrer des produits chimiques, à des assemblages de cellules qui font émerger un esprit capable d'intégrer des idées. En moins d'un siècle, la technologie a évolué des locomotives à vapeur et de la lumière électrique aux vaisseaux spatiaux et aux ordinateurs électroniques -et les ordinateurs sont déjà en train d'apprendre à parler et écrire. Par l'association de l'esprit et de la technique, la vitesse de l'évolution s'est accélérée d'un facteur d'un million ou plus. Autres empreintes du temps Le livre de la pierre rapporte l'existence d'organismes disparus depuis bien longtemps mais les cellules aussi contiennent des enregistrements : des textes génétiques qui ne sont révélés que maintenant. Tout comme celles de la géologie, les idées essentielles de l'évolution étaient déjà présentes avant que Darwin41 ne les couchât sur le papier. Dans les temples et les monastères, des générations de scribes ont copié et recopié des manuscrits. Parfois ils modifiaient des mots ou des phrases -par erreur, volontairement ou sur ordre de l'autorité locale- et au fur et à mesure des copies effectuées par ces machines à écrire humaines, les erreurs s'accumulaient. Les erreurs les plus grossières étaient le plus souvent corrigées et les passages les plus fameux conservés intacts mais les différences allaient en grandissant. Les livres anciens existent rarement dans leur version originale. Les plus vieilles copies sont souvent plus jeunes de plusieurs siècles que les originaux perdus. Néanmoins, en comparant différentes copies dont les erreurs sont différentes, les savants peuvent reconstruire des versions plus proches de l'original. Ils comparent les textes. Ils peuvent reconstituer les lignées des différentes versions en analysant les erreurs communes à plusieurs copies, parce que les erreurs trahissent des origines communes : les instituteurs savent bien cela : de bonnes réponses identiques ne sont pas des indices -sauf dans des rédactions- mais il n'en est pas de même pour des erreurs communes !. Quand toutes les copies s'accordent sur un point, les chercheurs supposent que l'original -ou l'ancêtre commun des copies existantes- contenait ces mots. Là où les copies diffèrent, les savants étudient les copies qui descendent séparément d'ancêtres distants, parce que les parties concordantes indiquent une origine commune dans une version ancestrale. Les gènes ressemblent à des manuscrits écrits avec un alphabet de quatre lettres. Tout comme un même message peut être exprimé de différentes manières dans le langage ordinaire -reformuler une idée en utilisant des mots complètements différents n'est pas si difficile-, différents assemblages de "mots" génétiques peuvent conduire à la fabrication de protéines identiques. Qui plus est, des protéines différentes peuvent remplir des fonctions identiques. Une collection de gènes dans une cellule est comme un livre entier et les gènes -comme les vieux manuscrits- ont été recopiés par des scribes infidèles. A la manière dont les érudits étudient les textes anciens, les biologistes travaillent généralement avec des copies récentes de leur matériel d'étude ; il n'y a hélas pas de "Manuscrits de la mer Morte" des débuts de la vie. Ils comparent les êtres vivants qui se ressemblent (les lions et les tigres, les chevaux et les zèbres, les rats et les souris) et trouvent de grandes similitudes quand ils analysent leurs gènes et leurs protéines. Et plus deux organismes diffèrent (les lions et les lézards, les humains et les tournesols), plus leurs gènes et leurs protéines diffèrent, même pour des machines moléculaires qui remplissent les mêmes fonctions. Plus révélateur encore, les animaux similaires font les mêmes erreurs : aucun primate, par exemple, ne possède plus l'enzyme permettant de synthétiser la vitamine C. Cette incapacité n'est partagée que par deux autres mammifères : le cochon d'Inde et la chauve-souris frugivore. Ceci indique que nous, primates, avons copié nos sources génétiques d'un ancêtre commun, il y a bien longtemps. Le principe qui permet de comprendre les lignées des versions des textes anciens -et qui aide à corriger les erreurs de copie- s'applique donc également aux gènes des êtres vivants. Il permet de révéler les lignées dont sont issues les formes de vie actuelle. Et il indique que tous les êtres vivants connus partagent un ancêtre commun. L'ascension des réplicateurs Les premiers réplicateurs de la Terre ont développé des facultés qui vont au-delà de celles que peuvent acquérir les molécules d'ARN en tube à essai. Avec le temps, ils ont atteint le stade bactérien : ils ont développé le système "moderne" d'utilisation de l'ADN, de l'ARN et des ribosomes pour construire des protéines. Les mutations ne changeaient désormais plus seulement l'ADN qui se réplique mais également les machines protéiques et les structures vivantes qu'elles construisent et modèlent. Des groupes de gènes modelèrent des cellules encore plus élaborées, puis guidèrent la coopération cellulaire vers les organismes complexes. Les variations et la sélection ont favorisé des groupes de gènes qui modelaient des animaux avec une peau protectrice et une bouche affamée, animés par des nerfs et des muscles, dirigés par un cerveau et des yeux. Comme Richard Dawkins le fait remarquer42 : les gènes construisent des machines à survivre encore plus élaborées pour subvenir à leur propre réplication. Quand des gènes de chiens se répliquent, ils sont souvent mélangés à ceux d'autres chiens qui ont été sélectionnés par des éleveurs qui choisissent alors quels chiots garder et nourrir. A travers les millénaires, l'homme a modelé des animaux ressemblant à des loups en lévriers, caniches, bassets et saint-bernard... En sélectionnant les gènes qui survivent, les hommes ont remodelé la morphologie et le comportement des chiens. Les désirs des humains ont été les facteurs de succès pour les gènes canins ; d'autres pressions avaient désigné les gènes de loups comme vainqueurs. Au cours des âges, les mutations et la sélection des gènes ont recouvert le monde de prairies et d'arbres, d'insectes, de poissons et d'hommes. Plus récemment, d'autres objets sont apparus et se sont multipliés : les outils, les maisons, les avions et les ordinateurs. Et comme les molécules d'ARN sans vie, ce matériel a évolué. Evolution de la technologie Tout comme les roches terrestres relatent l'apparition de formes de vie de plus en plus complexes et évoluées, les écrits de l'humanité relatent l'émergence de matériel de plus en plus élaboré. Nos plus vieux outils sont eux-mêmes en pierre, enterrés avec les fossiles de nos ancêtres ; nos plus récents gravitent au-dessus de nos têtes. Considérez un moment l'ancêtre hybride de la navette spatiale. Par son côté avion, elle descend des jets en aluminium des années 60, qui eux-mêmes s'inspirent d'une succession d'inventions : les avions en métal de la seconde guerre mondiale, les biplans en bois et en tissu de la première, les planeurs motorisés des frères Wright et les planeurs miniatures et autres cerfs-volants. Par son côté fusée, la navette s'apparente aux fusées lunaires, aux missiles militaires, aux roquettes d'artillerie du siècle dernier et finalement aux feux d'artifices et aux jouets pyrotechniques. L'hybride avion/fusée vole et en faisant évoluer à la fois les composants et la conception, les ingénieurs en aérospatiale en construiront de meilleurs encore. Les ingénieurs parlent de générations de technologies. Le projet japonais de "cinquième génération" d'ordinateur montre à quel point certaines technologies évoluent et se répandent vite. Les ingénieurs parlent "d'hybrides", de "technologies concurrentes" et de leur "prolifération". Ralph E. Gomory, directeur de recherche chez IBM, met l'accent sur la nature évolutive de la technologie, en écrivant que "le développement technologique consiste bien plus en une évolution permanente qu'en des révolutions ou des percées successives comme le pensent la plupart des gens". Même pour des percées aussi importantes que la fabrication des assembleurs moléculaires, de nombreuses petites étapes seront à franchir. Dans la citation placée en tête de ce chapitre, le professeur Herbert A. Simon de l'université de Carnegie-Mellon nous enjoint à envisager le processus de conception comme l'invention d'alternatives suivi de leur confrontation à toute une série d'exigences et de contraintes. L'invention et le test de celles-ci sont synonymes de variation et sélection. Parfois, plusieurs variantes existent déjà. Dans le chapitre "Une boîte à outils hautement évoluée", dans Le prochain catalogue de la terre entière43, J. Baldwin écrit : "Notre atelier portatif évolue maintenant depuis environ vingt ans. Il n'y a rien de très spécial dans notre atelier, sauf qu'il est le résultat d'un processus permanent d'évolution, puisque nous retirons sans cesse des outils obsolètes ou inadéquats pour les remplacer par de plus adaptés. Il en résulte un système créateur d'objets plutôt qu'un amoncellement de quincaillerie". Baldwin utilise le terme "évoluer" de manière appropriée. L'invention et l'usage millénaire de l'outil l'ont modifié. Baldwin ne choisit ses outils qu'après une sélection compétitive ; il ne conserve donc que ceux qui fonctionnent le mieux pour servir ses besoins. A travers des années de variation et de sélection, son système a évolué. Ainsi, il recommande de ne jamais essayer d'acquérir d'un coup un jeu complet d'outils. Au lieu de cela, il recommande d'acheter les outils qui sont le plus souvent empruntés car ils sont sélectionnés par la pratique et non par la théorie. Les variantes technologiques sont souvent délibérément inventées, parce que les ingénieurs sont payés pour inventer et tester. Cependant, quelques nouveautés restent le fruit du hasard, comme la découverte de la consistance naturelle du Téflon dans un cylindre supposé être rempli de tétrafluoréthylène gazeux et dont les parois révélèrent la présence d'un étrange solide lisse et cireux. D'autres inventions sont le résultat de recherches systématiques : Edison essaya de carboniser tout ce qu'il pouvait imaginer quand il tentait de trouver une substance qui pourrait servir de filament d'ampoule, testant du papier, du bambou comme de la toile d'araignée. Charles Goodyear mit le désordre dans une cuisine pendant des années en essayant de transformer la gomme naturelle en une substance résistance jusqu'à ce qu'enfin, par chance, il réalise la première vulcanisation grossière en faisant tomber de la gomme enrichie en soufre sur une cuisinière. Dans le domaine de l'ingénierie, le processus efficacement dirigé d'essais et d'erreurs, à l'opposé de la conception directe par des cerveaux infaillibles, a permis la plupart des avancées. C'est la raison pour laquelle les ingénieurs construisent des prototypes. Peters et Waterman44, dans leur livre A la recherche de l'excellence montrent que ceci reste vrai en ce qui concerne les améliorations de la productivité des entreprises et de la gestion des états. C'est pourquoi les très bonnes entreprises créent "un environnement et un ensemble d'attitudes qui favorisent l'expérimentation". Il en résulte pour celles-ci une évolution très "darwinienne". Les usines s'améliorent par variation et sélection. Des systèmes de contrôle de qualité grossiers testent et rejettent les pièces défectueuses avant qu'elles ne soient assemblées. Des systèmes de contrôle plus évolués utilisent des méthodes statistiques pour dépister les défauts jusqu'à leur source, aidant ainsi les ingénieurs à modifier le processus de fabrication pour réduire les erreurs. Les ingénieurs japonais, en s'appuyant sur le travail de W. Edwards Deming en contrôle statistique de qualité, ont fait de la variation et de la sélection des processus industriels un pilier de la réussite économique de leur pays. Des systèmes utilisant les assembleurs nécessiteront aussi de pouvoir mesurer les résultats pour éliminer les défauts. Le contrôle de qualité est une sorte d'évolution, qui n'a pas pour but de changer mais d'éliminer les variations nuisibles. Cependant tout comme l'évolution darwinienne peut préserver et répandre des mutations bénéfiques, de bons systèmes de contrôle de qualité peuvent aider les ingénieurs et les ouvriers à promouvoir des processus de fabrication plus efficaces, qu'ils soient fortuits ou voulus. Tout ce bricolage effectué par les ingénieurs et les fabricants prépare les produits pour leur test ultime. Sur le marché, une variété infinie de clefs à mollette, de voitures, de chaussettes et d'ordinateurs sont en compétition pour s'attirer les faveurs des consommateurs. Quand ceux-ci sont informés et libres de choisir, des produits qui ne conviennent pas ou qui coûtent trop cher finissent par ne plus être re-produits. Comme dans la nature, la compétition fait des meilleurs compétiteurs d'hier les fossiles d'aujourd'hui. "L'écologie" et 'l'économie" ont plus en commun que des racines linguistiques. Aussi bien sur la place du marché que sur les champs de bataille réels ou imaginaires, la compétition globale pousse les entreprises à inventer, acheter, demander et voler des technologies de plus en plus efficaces. Des sociétés ont pour but principal de fournir aux gens des marchandises de qualité supérieure ; d'autres de les intimider avec des armes supérieures. La pression de l'évolution les dirige tous les deux. La course technologique globale s'accélère depuis des milliards d'années. La cécité des vers de terre ne peut pas bloquer le développement des oiseaux aux yeux acérés. Le petit cerveau des oiseaux et leurs ailes maladroites ne peuvent pas bloquer le développement des mains et des cerveaux des humains ni celui de leurs fusils. De la même manière, la prohibition locale ne peut pas stopper les avancées technologiques dans les domaines militaire et commercial. Il semble que nous devions nous résoudre à orienter la course technologique ou mourir. La puissance de l'évolution technologique tourne en dérision les efforts de ceux qui s'opposent à elle. En outre, des mouvements démocratiques pour une modération des progrès techniques ne pourraient influencer que les démocraties, pas le monde dans son ensemble. L'histoire de la vie et les possibilités qu'offriront de nouvelles technologies suggèrent quelques solutions comme nous le verrons dans la troisième partie. Evolution de la conception Il peut sembler que la conception est une alternative à l'évolution mais elle implique en fait l'évolution de deux manières différentes. Premièrement, les pratiques de conception évoluent elles-mêmes. Non seulement les ingénieurs accumulent des produits de conception qui fonctionnent mais également des techniques de conception efficaces. Cela va des manuels pour choisir des tuyaux à des systèmes de travail permettant d'organiser la recherche et le développement. Et, comme Alfred N. Whitehead l'a indiqué45 : "La plus formidable invention du XIXème siècle fut celle de la méthode d'invention". Deuxièmement, la conception elle-même procède par variation et sélection. Les ingénieurs utilisent souvent des lois mathématiques évoluées pour décrire (par exemple) la conduction thermique et l'élasticité afin de tester des concepts simulés avant de réaliser des prototypes. Ils font évoluer les plans à travers un cycle de conception, calcul, critique et re-conception, évitant ainsi les coûts de fabrication de prototypes. La création par conception permet ainsi de procéder à une évolution immatérielle. La loi de Hooke, par exemple, décrit comment un métal se plie et s'étire. La déformation est proportionnelle à la force appliquée : deux fois plus de tension double l'étirement. Bien qu'approximative, cette loi demeure applicable jusqu'à ce que l'élasticité du métal cède sous la force appliquée. Les ingénieurs peuvent utiliser une forme de la loi de Hooke pour concevoir une barre de métal qui peut supporter une charge donnée sans trop se tordre, puis la faire un tout petit peu plus épaisse afin de parer aux imprécisions de la loi mathématique et des calculs. Ils peuvent également utiliser une forme de la loi de Hooke pour décrire la courbure et la torsion des ailes d'avions, des raquettes de tennis et des châssis de voitures. Mais des équations mathématiques simples ne décrivent pas parfaitement des formes si contournées. Les ingénieurs doivent adapter les équations à des formes plus simples, des parties de l'objet, puis rassembler ces solutions partielles pour décrire la flexion de l'ensemble. C'est une méthode -appelée "analyse par éléments finis"- qui nécessite énormément de calculs et elle serait impossible à mettre en ¦uvre sans ordinateur. Avec eux, elle est devenue courante. De telles simulations prolongent une tendance ancienne. Nous imaginons toujours les conséquences, en bien ou en mal, lorsque nous devons choisir entre plusieurs possibilités d'actions. Des modèles mentaux plus simples (innés ou acquis) sont sans doute aussi présents chez les animaux. Lorsqu'elles sont fondées sur des modèles mentaux précis, les expériences de pensée peuvent remplacer des expériences physiques plus coûteuses -ou même létales. C'est une faculté que l'évolution a favorisé. Les simulations des ingénieurs étendent simplement cette faculté de ne commettre des erreurs que virtuellement. Dans une "Une boîte à outils hautement évoluée", J. Baldwin discute de la façon dont les outils et la pensée interagissent dans un travail d'atelier : "La méthode que vous choisissez pour construire des objets vous donne une compétence dans le domaine de l'outillage. Comme tous ceux qui fabriquent beaucoup d'objets vous le diront, les outils font au bout d'un moment automatiquement partie du processus de conception. Mais c'est impossible si vous ne savez pas lesquels sont disponibles et à quoi ils servent". Pouvoir déterminer quels outils vont être utiles dans un projet précis est important à court terme mais aussi quand on élabore une stratégie permettant d'exploiter les percées technologiques des décennies à venir. Plus nous serons capables de prévoir les outils du futur et plus nos plans pour survivre et prospérer seront précis. Un artisan dans un atelier peut garder ses outils en vue ; il travaille avec tous les jours et ils sont familiers à ses yeux, ses mains et son esprit. Il apprend à connaître leur usage de manière instinctive et il peut mettre cette connaissance au service d'une création immédiate. Mais nous qui devons comprendre le futur avons un défi plus grand à relever, parce que les outils du futur n'existent qu'à l'état d'idées et de possibilités implicites des lois de la nature. Ces outils ne sont pas accrochés au mur et ne deviendront pas familiers à nos sens tant que nous ne les aurons pas fabriqués. Dans les années de préparation qui viennent, seules l'étude, l'imagination et la pensée46 peuvent révéler leurs capacités. Quels sont les nouveaux réplicateurs ? L'histoire nous montre que le matériel évolue. Les tubes à essai d'ARN, les virus et les chiens nous montrent tous que l'évolution procède par la modification et la sélection de réplicateurs. Mais les objets, aujourd'hui, ne peuvent se répliquer : où donc sont les réplicateurs derrière l'évolution de la technologie ? Quelles sont les machines à gènes ? Bien sûr, nous n'avons pas forcément à identifier les réplicateurs pour reconnaître une évolution. Darwin a décrit l'évolution avant que Mendel ne découvrît les gènes et les généticiens apprirent beaucoup sur l'hérédité avant que Watson et Crick ne découvrent la structure de l'ADN. Darwin n'avait pas besoin de connaissances en génétique moléculaire pour voir que les organismes variaient et que certains avaient plus de descendants. Un réplicateur est quelque chose qui peut produire des copies de lui-même. Il peut avoir besoin d'aide : sans machines protéiques pour le recopier, l'ADN ne pourrait pas se répliquer. En fixant ces règles, certaines machines sont des réplicateurs ! Les entreprises fabriquent souvent des machines qui tombent entre les mains d'un concurrent. Celui-ci en apprend alors les secrets de fabrication et en construit des copies. Tout comme les gènes "utilisent" des machines protéiques pour se répliquer, ces machines "utilisent" le cerveau et les mains des humains pour se reproduire. Avec des nano-ordinateurs dirigeant des assembleurs et des désassembleurs, la réplication des objets pourrait même être automatisée. L'esprit humain est cependant un engin d'imitation bien plus subtil que les machines protéiques et les assembleurs. La voix, l'écriture et le dessin peuvent transmettre des concepts d'un esprit à un autre avant qu'ils ne deviennent des objets réels. Les idées qui sous-tendent les méthodes de conception sont encore plus subtiles : plus abstraites que le matériel, elles ne se répliquent et ne fonctionnent que dans le monde de l'esprit et des systèmes symboliques. Les gènes ont évolué à l'échelle de générations et d'ères géologiques ; les réplicateurs mentaux évoluent maintenant à l'échelle des jours et des décennies. Comme les gènes, les idées se séparent, se combinent et adoptent des formes multiples (les gènes peuvent être transcrits d'ADN en ARN et vice versa ; les idées peuvent être traduites d'une expression en une autre). La science ne permet pas encore de décrire la forme neurale que prennent les idées dans le cerveau mais tout le monde peut voir que les idées mutent, se répliquent et entrent en compétition : les idées évoluent. Richard Dawkins appelle les petits bouts d'idées qui se répliquent des "schèmes"47. Il indique que les schèmes peuvent être des airs de musique, des idées, des phrases retenues, des modes vestimentaires, des façons de construire des poteries ou des arches. Tout comme les gènes se propagent en passant d'un corps à un autre, d'une génération à une autre, au moyen des spermatozoïdes et des ovules, les schèmes se propagent en passant d'un esprit à un autre en utilisant un processus, qui, au sens large, peut être appelé imitation". Les créatures de l'esprit Les schèmes se répliquent parce que les gens apprennent et enseignent à la fois. Ils varient parce que les gens en fabriquent de nouveaux et modifient les anciens. Ils sont en partie sélectionnés parce personne ne croit ni ne répète tout ce qu'il entend. A la manière dont les molécules d'ARN sont en compétition pour accéder aux machines à copier et aux sous-unités, les schèmes doivent livrer bataille pour une ressource rare : l'attention et les efforts humains. Comme les schèmes influencent les comportements, leurs succès ou leurs échecs sont d'une importance capitale. Depuis les temps anciens, les modèles mentaux et les types de comportement se transmettent des parents aux enfants. Les schèmes qui aident à la survie et à la reproduction ont eu tendance à se répandre : "Ne mange cette racine qu'après l'avoir fait cuire, ne mange pas ces baies, ce mauvais alcool va te percer les intestins". Année après année, les gens ont modifié leurs actions avec des succès variables. Année après année, certains sont morts tandis que d'autres ont survécu. Les gènes ont façonné des cerveaux habiles à l'imitation, parce que les comportements imités avaient une grande valeur -leurs porteurs, après tout, avaient survécu pour les répandre. Les schèmes eux-mêmes subissent leur propre système de "vie" et de "mort". Etant des réplicateurs, ils évoluent seulement pour survivre et se répandre. Comme des virus, ils peuvent se répliquer sans contribuer à la survie ou au bien-être de leurs hôtes. Par exemple, le schème d'être martyr pour une cause peut se répandre et se concrétiser par la mort de son hôte. Les gènes, comme les schèmes, survivent grâce à différentes stratégies. Quelques gènes de canards se sont répandus en encourageant les canards à rester en couple pour prendre soin de leurs ¦ufs et de leurs petits porteurs de gènes. Quelques gènes de canards se sont répandus chez les mâles et les encouragent au viol, d'autres, chez les femelles, les encouragent à placer des ¦ufs dans d'autres nids. On trouve encore chez les canards des gènes de virus, qui peuvent se répandre sans contribuer à faire plus de canards. La protection des ¦ufs aide les espèces de canards (et les gènes individuels) à survivre ; le viol aide un ensemble de gènes à prendre le dessus sur d'autres ; les infections aident les gènes viraux aux dépends des gènes de canard en général. Comme Richard Dawkins le fait remarquer, les gènes "ne font attention" qu'à leur propre réplication : ils paraissent égoïstes. Mais l'égoïsme peut encourager la coopération48. Des gens qui recherchent argent et reconnaissance pour eux-mêmes coopèrent pour fonder des entreprises qui vont servir les désirs d'autres personnes. Des gènes égoïstes coopèrent pour construire des organismes qui eux-mêmes coopèrent souvent entre eux. Même ainsi, imaginer que les gènes servent automatiquement un dessein supérieur -celui de leur chromosome ? De leur cellule ? De leur corps ? De leur espèce ?- est prendre l'effet pour la cause. Ignorer l'égoïsme des réplicateurs revient à se bercer d'une illusion dangereuse. Certains gènes dans les cellules sont de véritables parasites. Les gènes de l'herpès insérés dans le génome humain en sont un bon exemple : ils exploitent les cellules et portent atteinte à leurs hôtes. Si les gènes peuvent être des parasites, pourquoi pas les schèmes ? Dans Le phénotype étendu49, Richard Dawkins décrit un vers qui parasite les abeilles et finit son cycle dans l'eau. Il passe de l'abeille dans l'eau en faisant plonger l'abeille jusqu'à ce que mort s'ensuive. De manière similaire, un vers parasite le cerveau de la fourmi et doit passer dans le mouton pour compléter son cycle de vie. Pour accomplir ceci, les vers se mettent dans le cerveau de la fourmi et font en sorte qu'elle "veuille" grimper en haut des herbes et attendre là, pour être éventuellement mangée par un mouton. Tout comme les vers, les schèmes entrent dans les autres organismes pour survivre et se répliquer. En fait, l'absence de schèmes exploitant les gens pour leurs propres buts égoïstes serait stupéfiante, elle serait un signe de l'existence d'un puissant -et presque parfait- système immunitaire mental. Mais les schèmes parasites existent clairement. Les virus évoluent pour stimuler les cellules afin de fabriquer d'autres virus ; les rumeurs évoluent pour être plausibles et alléchantes, stimulant leur répétition. Ne demandez pas si une rumeur est vraie, demandez plutôt comment elle s'est répandue. L'expérience montre que les idées qui évoluent pour être des réplicateurs à succès n'ont pas besoin de rester proches de la vérité. Au mieux, les chaînes de lettres, les fausses rumeurs, les modes folles et autres parasites mentaux font du tort aux gens en leur faisant perdre leur temps. Au pire, elles implantent des conceptions erronées mortelles. Ces systèmes de schèmes exploitent l'ignorance et la vulnérabilité humaine. Les répandre s'apparente à passer son rhume à un ami en éternuant près de lui. Bien que beaucoup de schèmes agissent comme des virus, le pouvoir infectieux n'est pas forcément mauvais (pensez à une bonne humeur contagieuse ou à un sourire communicatif). Si un ensemble d'idées est appréciable, alors son pouvoir infectieux augmente sa valeur -le meilleur enseignement éthique nous apprend également à enseigner l'éthique. De bonnes revues peuvent distraire, enrichir la compréhension et aider le jugement -et faire de la publicité pour des cadeaux d'abonnement. Répandre des systèmes de schèmes utiles est comme offrir des graines utiles à un ami jardinier. Sélectionner les idées Les parasites ont forcé les organismes à développer des systèmes immunitaires, comme les enzymes que les bactéries utilisent pour couper les virus ou les globules blancs qui patrouillent dans nos corps pour détruire les bactéries. Les schèmes parasites ont forcé les cerveaux à adopter des systèmes de schèmes qui servent de systèmes immunitaires mentaux. Le plus ancien et le plus simple des systèmes immunitaires mentaux peut être interprété comme ceci : "crois ce qui est ancien, rejette ce qui est nouveau". Un système approchant conserve généralement les anciennes tribus dans leurs manières traditionnelles de vivre. Il les tient à l'écart de nouveautés extravagantes -comme celle de croire qu'obéir aux ordres de fantômes prescrivant de détruire tout le bétail et le grain de la tribu pourrait amener une abondance miraculeuse de nourriture et une armée d'ancêtres pour chasser les étrangers. (Ce groupe de schèmes a infecté la tribu des Xhosa50 en Afrique du Sud en 1856 et l'année suivante 68 000 étaient morts, principalement de faim). Votre système immunitaire corporel suit le même genre de règles : il accepte généralement tous les types cellulaires présents dans les premiers jours de la vie, puis rejette tout ce qui est nouveau, comme des cellules cancéreuses ou des bactéries, en les considérant comme étrangères et donc dangereuses. Ce mécanisme simple consistant à rejeter le nouveau a très bien fonctionné jusqu'à maintenant mais à l'ère des transplantations d'organes, il peut tuer. De la même manière, en des temps où la science et la technologie présentent des faits qui sont à la fois nouveaux et dignes de confiance, un système immunitaire humain rigide devient un dangereux handicap. Malgré tous ses défauts, cependant, le principe de rejeter ce qui est nouveau est simple et présente de véritables avantages. La tradition garde principalement ce qui a été essayé et est vrai -ou, sinon vrai, du moins qui fonctionne. Le changement est risqué : tout comme la plupart des mutations sont mauvaises, la plupart des nouvelles idées sont fausses. Même la raison peut être dangereuse : face à une tradition où la peur des fantômes entraîne un comportement prudent, une attitude rationnelle trop confiante rejettera à la fois les fantômes et la prudence. Malheureusement, des traditions qui ont évolué pour être vraies peuvent avoir moins de charme que des idées qui ont évolué pour sonner vrai -une tradition sage peut être remplacée par de mauvaises idées qui séduisent plus un esprit rationnel. Cependant, les schèmes qui protègent l'esprit contre l'intrusion de nouvelles idées se protègent eux-mêmes d'une manière suspecte, en s'auto-servant. Bien qu'ils protègent des traditions de valeur contre des modifications maladroites, ils peuvent aussi éviter à des absurdités parasites d'être confrontées à la vérité. En des temps de changements rapides, ils peuvent rendre les esprits dangereusement rigides. La plus grande partie de l'histoire de la philosophie et des sciences peut être perçue comme la recherche des meilleurs systèmes immunitaires mentaux, de meilleures manières de rejeter le faux, l'inutile et le nuisible. Ils respectent la tradition et encouragent l'expérimentation. Ils suggèrent des standards pour évaluer les schèmes, permettant à l'esprit de différencier les outils des parasites. Les principes de l'évolution fournissent un moyen de percevoir le changement, que ce soit dans les molécules, les organismes, les technologies, les esprits ou les cultures. Les mêmes questions de base reviennent sans cesse : quels sont les réplicateurs ? Comment varient-ils ? Qu'est-ce qui détermine leur succès ? Comment se défendent-ils contre les envahisseurs ? Ces questions se poseront à nouveau quand nous envisagerons les conséquences de la révolution des assembleurs et quand nous considérerons les méthodes que les sociétés devront utiliser pour maîtriser ces conséquences. Les principes profondément enracinés du changement évolutif façonneront le développement des nanotechnologies, même quand les frontières entre l'inerte et le vivant commenceront à devenir floues. Ces principes nous en apprennent beaucoup sur ce que nous pouvons ou non espérer atteindre et ils nous aideront à concentrer nos efforts pour modeler le futur. Ils nous indiquent également ce que nous pouvons ou non prévoir, parce qu'ils guident l'évolution de la technologie et de la connaissance elle-même. 3 Prédictions et projections L'attitude critique51 peut être décrite comme une tentative consciente d'entretenir en nous la confrontation de nos théories et de nos conjectures pour la victoire des plus adaptées. Cela nous donne une chance de survivre à l'élimination d'hypothèses inadéquates, alors qu'une attitude plus dogmatique les éliminerait en nous éliminant. Sir Karl Popper Quand nous regardons vers l'avenir pour voir où la course technologique nous conduit, nous devrions nous demander ce qui est possible, ce qui est réalisable et ce qui est souhaitable. Tout d'abord, pour la matière, les lois naturelles fixent les limites du possible. Parce que les assembleurs ouvriront une voie vers ces limites, comprendre comment les assembleurs fonctionnent est la clé pour comprendre ce qui est possible. Ensuite, les principes du changement et notre situation actuelle fixent les limites de ce qui est accessible. Parce que l'évolution des réplicateurs jouera un rôle majeur, les principes de l'évolution sont très importants pour comprendre ce qui est réalisable. Quant à ce qui est désirable et indésirable, nos rêves diffèrent et stimulent des quêtes qui laissent dans le futur de la place à la diversité ; mais nos peurs communes permettent de tracer les contours d'un futur plus sûr. Ces trois questions -du possible, du réalisable et du souhaitable- structurent notre approche de la prospective. Premièrement, la connaissance scientifique et technique dessine les limites du possible. Bien qu'encore floue et incomplète, cette carte met en relief les limites absolues à l'intérieur desquelles le futur évoluera. Deuxièmement, les principes de l'évolution déterminent quels chemins restent ouverts et fixent les limites de ce qui est réalisable -y compris les limites inférieures, parce que les avancées qui promettent d'améliorer la vie et d'augmenter la puissance des armes militaires ne peuvent pas être stoppées. Ceci permet de faire une prédiction limitée : si la course à l'évolution qui se déroule depuis des milliards d'années ne s'arrête pas brutalement d'une manière quelconque, les pressions compétitives vont modeler notre futur technologique aux contours des limites du possible. Finalement, à l'intérieur des larges limites du possible et du réalisable, nous pouvons essayer d'atteindre un futur que nous souhaitons. Les pièges de la prédiction Mais comment prédire le futur ? Les tendances politiques et économiques sont notoirement variables et le hasard absolu règne sur le monde. Même les avancées technologiques qui sont pourtant comparativement plus régulières échappent à la prédiction. Les champions des pronostics tentent souvent d'estimer le temps et le coût de développement d'une nouvelle technologie. Quand ils tentent d'atteindre des limites situées au-delà de l'horizon, ils se trompent généralement. Par exemple, bien que la navette spatiale fit clairement partie du domaine du possible, les prédictions sur son coût et sur son lancement initial furent erronées de plusieurs années et de plusieurs milliards de dollars. Les ingénieurs ne peuvent pas prédire avec précision quand une technologie aboutira, parce que son développement comprend toujours des incertitudes. Mais nous devons quand même essayer de prévoir et de guider les développements. Allons-nous développer la technologie des monstres avant celle des cages ou après ? Quelques monstres, après avoir été libérés, ne peuvent plus être remis en cage. Pour survivre, nous devons accélérer certains développements et en ralentir d'autres. Bien qu'une technologie puisse parfois bloquer les dangers d'une autre (défense contre attaque, contrôle de pollution contre pollution), des technologies concurrentes vont souvent dans la même direction. Le 29 décembre 1959, Richard Feynman, maintenant lauréat d'un prix Nobel, donna une conférence52 à une réunion annuelle de la société de physique américaine intitulée "Il y a plein de place là-dessousa". Il décrivit une manière non-biochimique de fabriquer une nanomachinerie -en travaillant avec des machines de plus en plus petites, pas à pas, utilisant de plus grosses machines pour en construire de plus petites- et constata que les principes de la physique "n'interdisaient pas la possibilité de man¦uvrer la matière atome par atome. Ce n'est pas une tentative pour violer une quelconque loi ; c'est quelque chose qui, en principe, peut être réalisé mais qui n'a jamais été fait en pratique parce que nous sommes trop grands. De manière ultime, nous pourrons faire de la synthèse chimique ; nous pourrons placer les atomes exactement là où le chimiste l'indique et donc fabriquer le produit désiré". En bref, il ébaucha un autre chemin, non-biochimique, pour parvenir aux assembleurs. Il indiqua aussi, à cette époque, que c'était "un développement qui, à son avis, ne peut pas être évité". Comme j'en discuterai dans les chapitres 4 et 5, les assembleurs et les machines intelligentes simplifieront de nombreux problèmes concernant le temps et le coût des développements technologiques. Mais les questions de délai et d'argent obscurciront encore notre vue pour la période qui va de nos jours à ces premières percées. Richard Feynman avait vu en 1959 que les nanomachines peuvent diriger la synthèse chimique donc vraisemblablement celle de l'ADN. Cependant, il ne fut capable de prévoir ni le temps ni l'argent nécessaires pour y arriver. Bien sûr, les biochimistes inventèrent des techniques pour fabriquer de l'ADN sans recourir à des nanomachines programmables, en utilisant des raccourcis fondés sur des astuces chimiques spécifiques. Les technologies gagnantes doivent souvent leur succès à des détails ou des ruses difficiles à prévoir. Au milieu des années 50, les physiciens voyaient que les principes physiques des semi-conducteurs permettent de réaliser des microcircuits mais ne pouvaient prévoir la méthode pour les fabriquer -les détails du masquage, de l'insolation, de la résistance, de l'oxydation, de l'ionisation, de la gravure et la complexité de toutes ces étapes. Les nuances des détails et les avantages compétitifs qui font le succès d'une technique rendent la course technologique complexe et ses voies impénétrables. Mais la prédiction à long terme est-elle pour autant impossible ? Dans la course vers les limites fixées par les lois de la nature, la ligne d'arrivée est connue, même si les chemins empruntés et les rythmes soutenus par les coureurs ne le sont pas. Ce ne sont pas les caprices des humains mais les lois immuables de la nature qui départagent ce qui est physiquement possible et ce qui ne l'est pas -aucun acte politique, aucun mouvement social ne peut changer la loi de la gravité d'un iota. Ainsi, bien qu'elles semblent très futuristes, les projections judicieuses des possibilités technologiques sont très différentes des prédictions. Elles s'appuient sur les lois intemporelles de la nature, pas sur les fantaisies des événements. Il est regrettable que cette idée demeure rare. Sans elle, nous serions étourdis par la diversité des paysages du possible, mélangeant les montagnes et les mirages et ne prenant en compte aucun des deux. Nous regardons de l'avant avec des esprits et des cultures qui prennent leurs racines en des temps plus lents où la science et la technologie n'avaient pas leur force et leur vitesse actuelle. Nous n'avons que récemment commencé une tradition de prédiction technologique. La science et les lois naturelles Science et technologie sont étroitement imbriquées. Les ingénieurs utilisent des connaissances produites par les scientifiques et ceux-ci utilisent des outils fabriqués par les ingénieurs. Les scientifiques et les ingénieurs travaillent avec des descriptions mathématiques des lois de la nature et testent leurs idées par des expériences. Mais la science et la technique diffèrent radicalement par leurs bases, leurs méthodes et leurs buts. Comprendre ces différences est crucial pour asseoir des prédictions. Bien que les deux champs d'études couvrent des systèmes de schèmes en évolution, ils changent sous l'influence de pressions différentes. Voyez par exemple les racines de la connaissance scientifique. Au cours de leur histoire, les hommes ont généralement mal compris l'évolution. Les philosophes pensaient que les preuves sensorielles, à travers la raison, devaient d'une certaine manière imprimer dans le cerveau toute la connaissance humaine -y compris la connaissance des lois de la nature. Mais en 1737, le philosophe écossais David Hume leur fit un cadeau empoisonné : il montra que les observations ne permettaient pas de prouver logiquement une règle générale et que, par exemple, le fait que le soleil brille tous les jours ne prouvait pas logiquement qu'il brillerait demain. Et en effet, un jour, le soleil ne brillera plus, réfutant cette logique. Ce problème de Hume parut détruire l'idée de connaissance rationnelle, inquiétant grandement les philosophes rationalistes (donc lui-même). Ceux-ci passèrent de mauvais moments et l'irrationalisme gagna du terrain. En 1945, le philosophe Bertrand Russel observa53 que "la croissance de la déraison à travers tout le XIXème siècle et ce qui s'en est transmis au XXème est la conséquence naturelle de la destruction de l'empirisme par Hume. Le schème du problème de Hume a entamé l'idée même de connaissance rationnelle, au moins celle que les gens s'en étaient faite. Plus récemment, le philosophe Karl Popper (peut-être le philosophe des sciences le plus apprécié des scientifiques), Thomas Kuhn et d'autres ont reconnu la science comme un processus évolutif. Ils ne la voient pas comme un processus mécanique par lequel les observations généreraient des conclusions mais comme une bataille où les idées sont en compétition pour leur acceptation. Toutes les idées, en tant que schèmes, sont en compétition mais le système de schèmes de la science est spécial : il suit une tradition délibérée de mutation des idées et possède un unique système immunitaire pour contrôler les mutants. Les résultats de l'évolution varient selon la pression sélective appliquée, que ce soit parmi des molécules d'ARN dans un tube, des insectes, des idées ou des machines. Le matériel qui a évolué pour réfrigérer est différent de celui qui a évolué pour transporter : par conséquent, les réfrigérateurs font de très mauvaises voitures. En général, des réplicateurs qui ont évolué pour un but A diffèrent de ceux qui ont évolué pour un but B. Les schèmes ne font pas exception. De manière générale, les idées peuvent évoluer afin de paraître vraies ou d'être vraies54, et être perçues comme vraies par des gens qui vérifient les idées avec attention. Les anthropologues et les historiens ont décrit ce qui arrive lorsqu'une idée évolue pour sembler vraie à des gens qui ne raisonnent pas scientifiquement. Les résultats (la théorie de la maladie provoquée par le mauvais esprit ou la théorie des lumières accrochées à un dôme pour expliquer les étoiles, etc.) étaient mondialement répandus. Des psychologues ont examiné les idées fausses et naïves sur la manière dont les objets tombent en testant ces idées sur des personnes ignorant la théorie actuelle de la gravité : ils ont trouvé des avis similaires à ceux qui ont évolué en des systèmes pseudo-scientifiques au Moyen Age, avant les travaux de Galilée et de Newton. Galilée et Newton firent des expériences et des observations pour tester des idées à propos des objets et des mouvements ouvrant ainsi une ère de progrès scientifique rapide. Newton fit évoluer une théorie qui survécut à tous les tests disponibles à l'époque. Leur méthode de test délibéré détruisit les idées qui s'éloignaient par trop de la vérité, y compris les idées qui avaient évolué pour séduire les naïfs. Cette tendance s'est poursuivie. Des variations et des tests plus détaillés ont permis de faire progresser les idées scientifiques, en en confirmant d'aussi étranges que le temps variable et l'espace courbe de la relativité -ou la probabilité de présence d'une onde-particule de la mécanique quantique. Même la biologie a abandonné l'existence d'une force spéciale à la vie espérée par les premiers biologistes, pour se rabattre sur des systèmes élaborés de machines moléculaires invisibles. Des idées qui avaient évolué pour être vraies (ou proches de la réalité), apparurent de plus en plus fausses -ou incompréhensibles. Le vrai et le "vrai-semblant" sont devenus aussi différents que des voitures et des réfrigérateurs. Les idées dans les sciences physiques ont évolué selon plusieurs règles simples. D'abord, les scientifiques ignorent celles dont les conséquences ne sont pas vérifiables ; ils se gardent ainsi des activités inutiles ou parasites. Ensuite, ils cherchent des idées pour remplacer celles qui ont échoué aux tests. Enfin, ils recherchent celles qui permettent le plus grand nombre de prédictions exactes. La loi de gravitation, par exemple, décrit la manière dont les pierres tombent, celle dont les planètes orbitent et les galaxies tournoient et permet de faire des prédictions exactes, facilement vérifiables. La précision et l'omniprésence de cette théorie permettent de l'utiliser dans de nombreuses applications et les ingénieurs s'en servent pour construire des ponts comme pour programmer des vols spatiaux. La communauté scientifique constitue un environnement au sein duquel de tels schèmes se répandent, forcés d'évoluer par la compétition et les tests vers plus de puissance et de précision. L'accord général sur l'importance apportée à la vérification des théories maintient la communauté scientifique unie bien que de violentes controverses ébranlent les théories en elles-mêmes. Un indice limité, approximatif, ne peut jamais prouver qu'une théorie générale est exacte -comme Hume l'a montré- mais il peut réfuter des théories et aider ainsi les scientifiques à choisir parmi elles. Comme d'autres processus évolutifs, la science crée quelque chose de positif, un répertoire grandissant de théories utiles, à travers un système en double négatif : la réfutation des théories incorrectes. Le rôle central joué par des preuves négatives rend compte pour une part de l'inquiétude que suscite parfois la science. Par leur pouvoir de réfutation, elles peuvent déraciner des croyances chéries, laissant des vides psychologiques qu'elles n'ont cure de combler. En pratique, bien sûr, l'essentiel de la connaissance scientifique est aussi solide que le rocher qui vous tombe sur l'orteil. Nous savons maintenant que la Terre tourne autour du soleil -bien que nos sens nous indiquent le contraire-, parce que cette théorie explique un nombre infini d'observations, -et parce que nous savons pourquoi nos sens sont trompés. Nous avons plus qu'une simple théorie concernant l'existence des atomes : nous pouvons les relier pour former des molécules, leur faire émettre de la lumière, les voir (difficilement) sous le microscope et les briser en morceaux. Nous avons plus qu'une simple théorie de l'évolution : nous avons observé dans nos laboratoires des mutations et des sélections. Nous avons trouvé les traces de l'évolution passée dans les roches de notre planète. Et nous avons observé l'évolution à travers celle de nos outils, de nos cerveaux et de nos idées -y compris l'idée de l'évolution elle-même. Le processus utilisé par la science a forgé une explication unifiée de nombreux faits, comme la manière dont les gens et la science sont apparus. Quand la science finit par réfuter certaines théories, les survivantes sont souvent si proches les unes des autres55 qu'il est quasiment impossible de les différencier. Mais après tout, même une petite différence pratique entre deux théories peut être utilisée et testée pour réfuter l'une d'entre elles. Les différences entre les théories modernes de la gravitation, par exemple, sont bien trop subtiles pour que les ingénieurs en tiennent compte lorsqu'ils programment des vols à travers le champ de gravité de l'espace. Dans les faits, les ingénieurs utilisent la théorie réfutée de Newton pour programmer des voyages spatiaux, parce qu'elle est plus simple que celle d'Einstein et qu'elle est suffisamment précise. La théorie de la gravité d'Einstein a survécu à tous les tests jusqu'à maintenant mais il n'y a pas de preuve absolue de sa véracité et il n'y en aura jamais. Sa théorie fait des prédictions exactes à propos de tout et partout (au moins en ce qui concerne la gravitation) mais les scientifiques ne peuvent mesurer qu'approximativement quelque chose à un endroit donné. Et, comme Karl Popper le souligne56, quelqu'un peut toujours inventer une théorie si similaire à une autre que les preuves existantes ne permettent pas de les départager. Bien que les débats médiatiques mettent souvent en exergue les frontières branlantes et contestées de la connaissance, la science reste à l'évidence capable de faire l'unanimité. Dans quel autre domaine trouve-t-on une entente qui aurait grandi d'une manière aussi rapide et universelle ? Sûrement pas dans les domaines politiques, religieux ou artistiques. En fait, le principal rival de la science est un cousin : l'ingénierie, qui a aussi évolué à travers des propositions et des tests rigoureux. Science contre technologie Comme le dit Ralph E. Gomory57, le directeur des recherches chez IBM, "le public confond souvent l'évolution du développement technologique avec celui de la science ". Cette confusion gêne nos efforts pour prévoir l'avenir. Si les ingénieurs marchent souvent en terrain incertain, ils n'y sont pas condamnés, à la différence des savants. Ils peuvent échapper au risque d'avoir à présenter des théories scientifiques universelles. Les ingénieurs doivent seulement montrer que des objets particuliers, placés dans des conditions particulières se comporteront suffisamment bien. Un concepteur n'a besoin de savoir ni la valeur exacte de la tension d'un câble de pont suspendu ni celle de sa résistance limite ; le câble supportera le pont tant que la première restera sous la seconde, quelles qu'elles soient. Bien que des mesures ne peuvent pas prouver une égalité parfaite, elles peuvent prouver des inégalités. Les résultats des ingénieurs ont donc une certaine fiabilité, contrairement aux théories scientifiques. Les résultats de l'ingénierie survivent même aux bouleversements des théories qui ont permis de les obtenir quand les nouvelles théories donnent des résultats similaires. C'est le cas par exemple pour les assembleurs, qui survivront à tous les remaniements possibles de nos théories de la mécanique quantique et des liaisons moléculaires. Prévoir le contenu de connaissances scientifiques à venir est logiquement impossible, puisqu'on ne peut prétendre connaître déjà ce que l'on apprendra dans l'avenir. D'un autre côté, prévoir les détails d'une technologie du futur n'est qu'un problème ardu. La science a pour but de savoir mais l'ingénierie a pour but de faire ; ceci permet aux ingénieurs de parler de réalisations futures sans paradoxe. Ils peuvent faire évoluer leur matériel dans le monde des idées et du calcul, sans couper de métal et sans même avoir à prévoir tous les détails d'une étape. Les scientifiques reconnaissent couramment cette différence entre la prédiction scientifique et la prédiction technologique. Ils se prêtent d'ailleurs volontiers à cette dernière à propos de la science. Les scientifiques, par exemple, pouvaient prédire la qualité des images des anneaux de Saturne prises par Voyager, ce qu'ils firent sans connaître leur composition surprenante. Ils décrivirent même la qualité des images alors que les caméras n'étaient encore que de simples idées et des dessins. Leurs calculs n'utilisaient que les principes bien connus de l'optique et ne nécessitaient pas de nouvelle connaissance scientifique. Parce que la science a pour but de comprendre comment tout fonctionne, la formation scientifique peut bien aider à comprendre comment fonctionne une pièce donnée. Cependant, cette formation n'apporte pas toujours automatiquement une expertise d'ingénieur : concevoir un avion de ligne nécessite bien plus que de connaître les seules lois de la métallurgie et de l'aérodynamique. Les scientifiques sont encouragés par leurs collègues et par leur formation à se concentrer sur les théories qui peuvent être testées avec les appareillages disponibles. Cette focalisation à court terme sert bien la science : elle garde les scientifiques de s'aventurer dans des mondes brumeux et fantaisistes et une vérification rapide des théories concourt à un système immunitaire mental efficace. Malheureusement, ce biais culturel polarise vers le court terme et peut faire que les scientifiques soient moins intéressés par les avancées technologiques à long terme. L'impossibilité de faire de véritables prédictions en ce qui concerne la science pousse de nombreux scientifiques à croire que toutes les déclarations concernant des développements futurs sont purement spéculatives -c'est un terme parfaitement adapté pour décrire le futur de la science mais qui n'a que peu de sens quand il se rapporte aux projections légitimes qui peuvent être faites dans le domaine de la technologie. Or la plupart des ingénieurs partagent la même vision en ce qui concerne le court terme. Eux aussi sont encouragés par leur formation, leurs collègues et leurs patrons à se concentrer sur une seule sorte de problème : la conception de systèmes qui peuvent être réalisés avec la technologie actuelle ou celle qui est juste en train d'émerger. Même des projets d'ingénierie à long terme, comme celui de la navette spatiale, doivent se fixer une date limite pour l'intégration de percées techniques dans l'architecture générale du système. En bref, les scientifiques se refusent à prédire les connaissances scientifiques à venir et discutent rarement des futurs développements en ingénierie. Les ingénieurs font des projections quant aux développements futurs mais discutent rarement de ceux qui ne s'appuient pas sur les capacités actuelles. Cependant, qu'en est-il des développements en ingénierie fondés sur la science actuelle mais qui s'appuieront sur des capacités à venir ? N'est ce pas l'ouverture d'un vaste champ d'investigation ? Imaginez un projet de développement qui impliquerait des outils actuels pour en fabriquer de nouveaux, puis utiliserait ces outils pour construire quelque chose (peut-être en incluant une génération d'outils supplémentaire). Chaque jeu d'outils pourrait s'appuyer sur des principes bien établis mais le déroulement de toute la séquence prendrait plusieurs années, parce qu'à chaque étape se poseraient des problèmes particuliers à résoudre. Les scientifiques qui planifient leurs expériences et les ingénieurs qui conçoivent leur prochain appareil peuvent tout ignorer des étapes suivantes. Néanmoins, le résultat peut être prévisible, puisque restant à l'intérieur des limites du possible indiquées par la science établie. L'histoire récente illustre ce schéma. Peu d'ingénieurs considéraient la construction de stations spatiales avant que des fusées ne soient mises en orbite mais les principes scientifiques étaient suffisamment clairs et l'ingénierie des systèmes spatiaux est maintenant devenue un champ d'étude florissant. De la même manière, peu de mathématiciens et d'ingénieurs se penchèrent sur les possibilités du calcul automatique avant que les ordinateurs ne soient construits mais beaucoup le firent après. Ainsi, il n'est pas trop surprenant de constater que peu de scientifiques et d'ingénieurs ont déjà examiné le futur des nanotechnologies, quelle que soit leur importance. La leçon de Léonard de Vinci L'histoire des efforts de l'ingénierie pour se projeter dans l'avenir est déjà longue et les exemples du passé illustrent les possibilités du présent. Par exemple, comment Léonard de Vinci parvint-il à prévoir tant de choses et pourquoi échoua-t-il parfois ? Léonard vécut il y a cinq cents ans; le Nouveau Monde fut découvert de son vivant. Ses inventions furent réalisées ou restèrent au stade du schéma. Chacune d'entre elle peut être vue comme l'ébauche d'une machine utilisable. Il remporta un grand succès en tant qu'ingénieur mécanicien : il conçut des engins (certains mirent plusieurs siècles avant d'être construits) pour travailler le métal, excaver, transmettre des forces, etc.... Il échoua en tant qu'ingénieur aéronautique : nous savons maintenant pourquoi ses machines volantes ne pouvaient pas fonctionner, conçues comme elles l'étaient. Ses réussites en tant que concepteur de machines sont faciles à comprendre. Si les parties d'un engin à mouvements lents comportant des poulies, des leviers et des roulements peuvent être fabriquées avec suffisamment de précision dans un matériau assez dur et solide, alors le problème à résoudre n'est plus qu'une question de géométrie et de forces appliquées ; de Vinci les connaissait très bien. Quelques-unes de ses prédictions étaient à long terme, seulement parce qu'il a fallu attendre de nombreuses années avant que l'on apprenne à faire des pièces suffisamment précises et solides pour construire, par exemple, de bons roulements à billes -ils ne purent être utilisés que trois cents ans après que Léonard les eût proposés. Il en est de même pour les engrenages hélicoïdaux qui durent patienter près de deux cents ans et pour une de ses chaînes de transmission qui ne fut construite que trois siècles plus tard. Ses échecs avec les avions sont aussi faciles à comprendre. Etant donné qu'il n'y avait pas de science de l'aérodynamique à l'époque, il n'a pas pu calculer les forces qui s'exerçaient sur les ailes ni la puissance et le contrôle requis pour les faire voler et les diriger. Est-ce que nous pouvons espérer faire à notre époque des projections concernant les assembleurs aussi fiables que celles que Léonard de Vinci fit pour les machines mécaniques ? Pouvons-nous éviter des erreurs telles que celles qu'il fit à propos des machines volantes ? L'exemple de Léonard permet de le penser. Cela peut nous aider de savoir que Léonard lui-même ne faisait pas trop confiance à ses avions mais que, malgré tout, ses erreurs contenaient un germe de vérité. Il avait raison de penser que construire des machines volantes était possible -en fait, il pouvait même en être certain puisqu'elles existaient déjà. Les oiseaux, les chauves-souris et les abeilles prouvaient la faisabilité du vol. D'un autre côté, il n'y avait pas d'exemples réels de ses engrenages, roulements et chaînes mais il pouvait avoir confiance dans leurs principes. Des esprits brillants avaient déjà fondé la géométrie et la mécanique. La solidité et la précision des pièces requises auraient pu le faire douter mais pas les résultats théoriques de leurs interactions et de leurs mouvements58. Léonard de Vinci pouvait proposer des machines contenant de meilleures pièces que celles de son époque et croire ses inventions réalisables. De même, les technologies moléculaires s'appuient sur une large base de connaissances non seulement en géométrie et en science de l'application des forces mais également en chimie, en mécanique statistique et en physique en général. En revanche, les propriétés des matériaux et la précision de fabrication ne posent plus de problèmes. Car les propriétés des atomes et des liaisons sont les propriétés des matériaux, et les atomes nous sont fournis préfabriqués et parfaitement standardisés. De plus, nous semblons mieux préparés pour faire des prédictions que ne l'étaient les gens à l'époque de Léonard de Vinci : nous en savons plus à propos des molécules et des liaisons chimiques qu'ils n'en savaient à propos de l'acier et de la précision de l'usinage. Enfin, nous pouvons attirer l'attention sur les nanomachines qui existent déjà dans les cellules comme Léonard pouvait le faire à propos des machines -les oiseaux- qui volaient déjà dans le ciel. A l'époque de Léonard de Vinci, il était difficile de concevoir le passage des machines grossières à la précision mécanique ; le passage des machines protéiques aux nanomachines de deuxième génération est plus aisément prévisible. Il est normal qu'apprendre à utiliser des machines rudimentaires pour construire des machines évoluées ait pris du temps, -et les méthodes pour y parvenir étaient loin d'être évidentes. En revanche, les machines moléculaires seront construites à partir de pièces préfabriquées identiques, de taille atomique, qui n'ont besoin que d'être assemblées. Faire des machines précises à partir de machines grossières a dû être plus difficile à imaginer à l'époque que faire de l'assemblage moléculaire ne l'est à l'heure actuelle. Et d'ailleurs, nous savons que l'assemblage moléculaire se produit à tout instant dans la nature. Nous avons encore de meilleures raisons que Léonard de Vinci d'être confiants. A cette époque, les gens connaissaient mal l'électricité et le magnétisme et ils ignoraient tout des molécules et de la mécanique quantique. Par conséquent, les ampoules électriques, les radios et les ordinateurs les auraient stupéfaits. Aujourd'hui, cependant, les lois fondamentales les plus importantes pour l'ingénierie -celles décrivant la matière normale- semblent bien comprises. Comme pour les théories de la gravitation, la méthode scientifique de réfutation n'a conservé comme théories de la matière que les mieux accordées entre elles. Une telle connaissance est récente. Avant ce siècle, les hommes ne comprenaient pas pourquoi les solides ne se déforment pas et pourquoi le soleil brille. Les scientifiques ne comprenaient pas les lois qui gouvernaient la matière dans le monde ordinaire des molécules, des personnes, des planètes et des étoiles. Voilà pourquoi c'est notre siècle qui a vu naître les transistors et les bombes à hydrogène et se dessiner les contours de la technologie moléculaire. Ce savoir apporte de nouveaux espoirs et de nouveaux dangers mais au moins, il nous donne les moyens de regarder vers l'avant et de nous préparer. Quand les lois fondamentales d'une technologie sont connues, les possibilités futures peuvent être envisagées (avec des lacunes, sinon Léonard aurait prédit les ordinateurs mécaniques). Même si ces lois fondamentales ne sont que vaguement connues, comme les principes de l'aérodynamique au temps de Léonard, la nature peut démontrer ces possibilités. Enfin, quand la nature et la science pointent toutes les deux vers une possibilité, ces indications suggèrent fortement qu'il faut la prendre à bras le corps et tracer les plans en conséquence. La percée des assembleurs Les fondations de la science peuvent évoluer et changer mais elles continueront à supporter le solide édifice en construction du savoir-faire de l'ingénierie. Finalement, les assembleurs permettront aux ingénieurs de faire tout ce qu'ils peuvent concevoir, mettant de côté les traditionnels problèmes des matériaux et de la fabrication. Déjà, les approximations et les modèles informatiques permettent aux ingénieurs de faire évoluer leurs projets, même en l'absence des outils59 requis pour les construire. Tout ceci va se combiner pour permettre de prévoir mieux et plus loin. Alors que les nanotechnologies avanceront viendra un temps où les assembleurs deviendront une perspective imminente, mis au point dans un programme de développement sérieux et bien financé. Leurs capacités seront devenues claires. La conception assistée par ordinateur de systèmes moléculaires60 -qui a déjà commencé- sera devenue courante et sophistiquée, poussée en avant par les progrès des ordinateurs et par les besoins grandissants des ingénieurs en nanotechnologies. Grâce à ces outils de conception, les ingénieurs seront à même de concevoir des nanosystèmes de seconde génération, y compris des assembleurs de deuxième génération requis pour les construire. Qui plus est, en conservant suffisamment de marge pour les imprécisions (et en préparant des architectures différentes), les ingénieurs seront capables de concevoir de nombreux systèmes qui fonctionneront du premier coup -parce qu'auparavant, ils les auront fait évoluer virtuellement dans un monde de molécules simulées. Remarquez l'importance de cette situation : il y aura en développement le meilleur outil de production de l'histoire, un véritable système de fabrication général qui sera capable de faire tout ce qui peut être conçu -et nous aurons déjà un système de conception entre les mains. Attendra-t-on l'apparition des assembleurs avant de se demander comment nous pouvons les utiliser ? Ou bien les entreprises et les pays répondront-ils aux pressions de la compétition en saisissant cette occasion et en concevant des nanosystèmes par avance, pour accélérer l'exploitation des assembleurs quand ils seront disponibles ? Ce processus de "conception anticipée61" se produira certainement ; quand et jusqu'où sont les seules vraies questions. De paisibles années de conception peuvent très bien produire une éruption dans le monde matériel avec une soudaineté sans précédent, au moment exact de la percée des assembleurs. La qualité de nos conceptions -et leur nature- peuvent faire la différence entre notre survie et notre disparition. Parce que la percée des assembleurs affectera quasiment l'ensemble de la technologie, prévoir les conséquences est une tâche immense. Léonard n'a prévu que quelques-uns des appareils mécaniques possibles. De la même manière, l'esprit contemporain ne peut prévoir que quelques-unes des technologies dans le vaste champ des possibilités. Mais être en avance de "quelques-unes" semble quand même être d'une importance capitale. La technologie médicale, les frontières spatiales, les ordinateurs avancés et les nouvelles inventions sociales : tous ces domaines promettent d'évoluer en interaction. Mais la percée des assembleurs les affectera tous au-delà de l'imaginable. Deuxième partie Les scénarios du possible 4 Les engins d'abondance Si tous les outils, une fois bien placés ou même de leur propre chef62, pouvaient faire le travail qui leur incombe [...] alors les ouvriers-maîtres n'auraient plus besoin d'apprentis, ni les seigneurs d'esclaves. Aristote Le 27 mars 1981, la radio d'information CBS cita un scientifique de la NASA63 qui annonçait que les ingénieurs seraient capables de fabriquer des robots doués d'auto-réplication d'ici vingt ans, et de les utiliser dans l'espace et sur la Terre. Ces machines construiraient des copies d'elles-mêmes et les copies serviraient à faire des choses utiles. Il n'avait pas de doute sur leur faisabilité, uniquement sur leur date d'apparition. Il avait entièrement raison. En 1951, John von Neumann posa les principes essentiels des machines auto-répliquantes et depuis, les scientifiques ont généralement admis leur faisabilité. En 1953, Watson et Crick décrivirent la structure de l'ADN : on sut alors comment le vivant ordonne sa construction. Depuis, les biologistes ont compris en détail comment fonctionne la machinerie moléculaire d'auto-réplication des cellules. Ils constatèrent qu'elle suivait les principes que von Neumann avait esquissés. Comme les oiseaux prouvent la possibilité du vol, la vie en général prouve la faisabilité de l'auto-réplication, au moins pour des systèmes de machines moléculaires. Le scientifique de la NASA avait cependant autre chose en tête. Réplicateurs assourdissants Les réplicateurs biologiques, comme les virus, les bactéries64, les plantes et les Hommes, utilisent des machines moléculaires. Des réplicateurs artificiels peuvent utiliser une technologie grossière à la place. Etant donné que nous disposons à l'heure actuelle de ce type de technologie, les ingénieurs peuvent l'utiliser pour fabriquer des réplicateurs avant que la technologie moléculaire n'arrive. L'ancien mythe de la force vitale magique (ajouté à l'idée erronée que la croissance de l'entropie implique que tout dans l'univers doit se dégrader) a fait naître un schème selon lequel les réplicateurs doivent violer une quelconque loi naturelle. Il n'en est pas ainsi. Les biochimistes comprennent comment les cellules se répliquent et ils ne trouvent pas de magie là-dedans. A la place, ils découvrent des machines alimentées en matériaux, en énergie et en instructions nécessaires à l'accomplissement du travail. Les cellules se répliquent ; les robots peuvent se répliquer. Les avancées en automatique conduiront naturellement à des réplicateurs mécaniques, même si personne n'en fait un but spécifique. Au fur et à mesure que les pressions compétitives augmenteront l'automatisation, la nécessité du travail humain dans les usines diminuera. Fujitsu65 possède déjà une usine qui tourne 24 heures sur 24, avec seulement dix-neuf ouvriers de jour et aucun de nuit. Cette usine produit 250 machines par mois, dont 100 sont des robots. En allant plus loin, les robots pourraient faire tout le travail de leur propre assemblage, assembler d'autres équipements, construire les pièces requises, faire fonctionner les mines et les centrales énergétiques qui alimentent toutes les usines en matériaux et en courant, etc. Bien qu'un tel réseau d'usines éparpillées à travers le paysage ne ressemblerait guère à un robot gravide, il formerait un système auto-répliquant en auto-expansion. La percée des assembleurs arrivera sûrement avant l'automatisation complète de l'industrie ; la voie de l'automatisation conduit cependant à une sorte d'assembleur gigantesque et bruyant. Mais comment un tel système peut-il être maintenu et réparé sans intervention humaine ? Imaginez une usine automatique capable de tester les pièces et d'assembler les équipements. Les mauvaises pièces échouent au test et sont jetées ou recyclées. Si l'usine peut également démonter des machines, réparer devient facile : il suffit de désassembler les machines défectueuses, tester toutes leurs pièces, changer celles qui ne fonctionnent plus et les réassembler. Un système plus efficace diagnostiquerait les problèmes sans tester toutes les pièces mais ce n'est pas strictement nécessaire. Un système d'usines dirigées par des robots serait réalisable mais encombrant. En pensant intelligemment le système et en utilisant un nombre minimum de pièces et de matériaux différents, les ingénieurs pourraient faire rentrer un système répliquant dans une unique boîte -mais la boîte risque encore d'être énorme, parce qu'elle doit contenir une machine capable de fabriquer et d'assembler autant de pièces qu'elle en contient elle-même. Combien de pièces et de matériaux différents seraient nécessaires pour construire une machine capable de faire et d'assembler autant de pièces ? C'est difficile à estimer mais un système qui utiliserait la technologie actuelle serait probablement à base de puces électroniques. Fabriquer uniquement celles-ci nécessiterait déjà trop d'équipements pour qu'on puisse les loger dans le ventre d'un petit réplicateur. Les lapins se répliquent mais ils ont besoin d'éléments préfabriqués comme des vitamines. Obtenir celles-ci de leur nourriture leur permet de survivre avec un équipement en machines moléculaires plus limité que s'ils avaient tout à fabriquer en comptant sur eux-mêmes. Ainsi, un réplicateur mécanique qui utiliserait des puces électroniques préfabriquées pourrait être bien plus simple qu'un réplicateur qui aurait besoin de fabriquer tout ce qu'il utilise. Mais son "régime alimentaire" particulier le ferait dépendre d'une "écologie" de machines plus importante, permettant ainsi de le tenir sagement en laisse. Les ingénieurs des études financées par la NASA ont proposé d'utiliser de tels semi-réplicateurs dans l'espace, permettant ainsi à l'industrie spatiale de s'étendre en ne fournissant qu'un faible apport de haute technologie provenant de la Terre. Mais comme les réplicateurs s'appuyant sur la technologie grossière doivent à la fois fabriquer et assembler leurs pièces, ils doivent contenir en même temps des machines pour fabriquer et des machines pour assembler. Ceci met en lumière un avantage important des réplicateurs moléculaires : leurs pièces sont des atomes et les atomes nous arrivent déjà fabriqués. Réplicateurs moléculaires Les cellules se répliquent. Leurs machines copient leur ADN qui dirige leur machinerie ribosomale pour construire d'autres machines à partir de molécules plus simples. Ces machines et ces molécules sont contenues dans un sac rempli de fluide. Sa membrane laisse entrer des molécules énergétiques et des pièces pour construire plus de nanomachines, d'ADN, de membranes, etc. Elle laisse sortir les déchets et les composants inutiles. Une cellule se réplique en copiant les pièces qui sont à l'intérieur de sa membrane, puis en formant deux masses et enfin en pinçant le sac pour donner deux cellules séparées. Les réplicateurs artificiels peuvent être fabriqués pour travailler de manière similaire, en utilisant des assembleurs à la place des ribosomes. En utilisant cette méthode, on pourrait fabriquer des réplicateurs imitant les cellules mais n'étant pas limités par la fragile machinerie moléculaire qui utilise les délicats replis des protéines. Cependant, les ingénieurs seront vraisemblablement plus enclins à développer d'autres approches de la réplication. L'évolution peut difficilement transformer le schéma fonctionnel d'une cellule et ce schéma a des points faibles. Dans les synapses par exemple, les cellules du cerveau envoient un signal à leurs voisines en vidant des vésicules de produits chimiques. Les molécules se bousculent alors jusqu'à ce qu'elles se lient à des molécules réceptrices sur la cellule voisine, provoquant parfois une impulsion nerveuse. Une synapse chimique est un interrupteur bien lent et l'influx nerveux se déplace moins vite que le son. Avec des assembleurs, les ingénieurs moléculaires construiront des ordinateurs entiers plus petits que des synapses et un million de fois plus rapides. Les mutations et les sélections ne peuvent pas plus faire d'une synapse un nano-ordinateur mécanique qu'un éleveur ne peut faire d'un cheval une voiture ! Cependant, les ingénieurs ont construit des voitures et ils apprendront à construire des ordinateurs plus rapides que des cerveaux et des réplicateurs plus doués que les cellules existantes. Certains de ces réplicateurs ne ressembleront pas du tout à des cellules mais plutôt à des usines réduites66 à une taille cellulaire. Ils contiendront des nanomachines montées sur une armature moléculaire et des transporteurs pour amener les pièces de machine en machine. A l'extérieur, ils auront un ensemble de bras assembleurs pour construire des répliques d'eux-mêmes, section par section ou atome par atome. La vitesse à laquelle ces assembleurs pourront se répliquer dépendra de leur vitesse d'assemblage et de leur taille. Imaginez un assembleur évolué qui contient un million d'atomes : il peut posséder jusqu'à dix mille parties mobiles, chacune étant composée d'une centaine d'atomes -c'est assez de pièces pour faire une machine complexe. En fait, l'assembleur ressemble à une boîte supportant un bras robot trapu d'une centaine d'atomes de long. La boîte et le bras contiennent des dispositifs qui font bouger le bras d'une position à une autre, et d'autres qui changent l'outil moléculaire placé à son extrémité. Dans la boîte se trouve un appareil qui lit une bande d'information et fournit les signaux mécaniques qui déclenchent les mouvements du bras et les changements d'outils. Devant le bras se trouve une structure en construction. Des transporteurs amènent les molécules jusqu'au système assembleur. D'autres fournissent l'énergie qui fait avancer la bande et qui bouge le bras, d'autres encore amènent les groupes d'atomes pour l'assemblage. Atome par atome (ou groupe d'atomes par groupe d'atomes), le bras amène les pièces aux endroits indiqués par les informations sur la bande, et les réactions chimiques les lient à la structure en contact. Ces assembleurs travailleront vite. Une enzyme rapide67, comme l'anhydrase carbonique ou l'isomérase kétostéroïde, peut traiter près d'un million de molécules par seconde, même sans disposer de transporteurs ou de mécanismes alimentés en énergie pour placer une molécule au bon endroit dès que la précédente est libérée. Est-ce trop demander qu'un assembleur saisisse, déplace et insère une molécule à la bonne place en un seul millionième de seconde ? De petits appendices peuvent bouger très rapidement. Le bras d'un humain peut bouger de haut en bas plusieurs fois par seconde et ses doigts encore plus vite. Une mouche peut remuer ses ailes suffisamment vite pour bourdonner et un moustique émet une plainte très aiguë avec les siennes. Les insectes peuvent bouger leurs ailes environ un millier de fois plus vite que les humains ne bougent leurs bras, parce qu'elles sont à peu près mille fois plus petites. Un bras d'assembleur sera environ cinquante millions de fois68 plus petit qu'un bras humain et il sera donc capable de se déplacer environ cinquante millions de fois plus vite. Ainsi, bouger un million de fois par seconde pour un bras d'assembleur revient, pour un bras humain, à se déplacer une fois par minute : très lentement donc. Cette vitesse semble être un objectif très raisonnable. La vitesse de réplication dépendra également de la taille totale du système à construire. Les assembleurs ne se répliqueront pas d'eux-mêmes : ils auront besoin de matière, d'énergie et d'instructions pour les utiliser. Les produits chimiques ordinaires peuvent fournir des matériaux et de l'énergie en quantité mais il faudra des nanomachines pour les traiter. Des polymères à la surface accidentée peuvent coder de l'information, comme les cartes perforées, mais il faudra un lecteur pour transcrire ces motifs de polymères en séquences de mouvements du bras. Ensemble, ces pièces forment l'essentiel d'un réplicateur : la bande fournit les instructions pour assembler une copie de l'assembleur, du lecteur, des autres nanomachines et de la bande elle-même69. Une conception rationnelle de ce type de réplicateur inclurait sûrement plusieurs bras assembleurs et plusieurs autres bras pour maintenir et bouger la pièce de travail. Chacun de ces bras rajouterait environ un million d'atomes. Les autres parties -le lecteur de bande, les nanomachines pour traiter les produits chimiques, etc.- peuvent être aussi compliquées que les assembleurs. Enfin, un système réplicatif flexible inclurait probablement un ordinateur simple. En suivant l'approche que j'ai proposée dans le chapitre 1, ceci ajouterait encore 100 millions d'atomes. Tout compris, ces pièces devraient utiliser moins de 150 millions d'atomes. Admettons qu'il faille un milliard d'atomes, pour laisser une grosse marge d'erreur. Ignorons les capacités additionnelles des bras supplémentaires, pour garder une marge encore plus importante. En travaillant à un rythme d'un million d'atomes par seconde, le système se recopierait en un millier de secondes, soit un peu plus de quinze minutes -c'est à peu près le temps que met une bactérie pour se répliquer dans de bonnes conditions. Imaginez un tel réplicateur flottant dans une bouteille de produits chimiques, faisant des copies de lui-même. Il fait une copie en un millier de secondes, trente-six en dix heures. En une semaine, il en a accumulé assez pour remplir le volume d'une cellule. En un siècle, il y en a suffisamment pour faire un honorable grain de poussière. Si les assembleurs ne savent faire que cela, nous pourrions peut-être tranquillement les ignorer. Mais chaque copie va construire des copies d'elle-même. Ainsi, le premier réplicateur construit une copie en un millier de secondes et les deux réplicateurs construisent chacun une copie dans le millier de secondes suivant, les quatre en construisent quatre, etc. Au bout de dix heures, ce n'est pas trente-six réplicateurs que nous avons mais 68 milliards. En moins d'un jour, ils pèseraient une tonne, en deux, ils pèseraient plus que la terre et en quatre, plus que le soleil avec toutes ses planètes -si la bouteille de produits chimiques ne s'assèche pas avant. Un doublement régulier est synonyme de croissance exponentielle. Les réplicateurs se multiplient de manière exponentielle s'ils ne subissent pas de contraintes, comme le manque de place ou de ressources. Les bactéries le font à la même vitesse que les assembleurs décrits plus haut. Les gens se répliquent bien plus lentement mais en leur donnant suffisamment de temps, leurs besoins finissent toujours par dépasser toute ressource d'approvisionnement. L'attention portée à la croissance de la population ne perdra jamais de son intérêt. L'attention portée au contrôle de la croissance rapide des réplicateurs deviendra bientôt très importante. Les molécules et les gratte-ciel Les machines capables de saisir et de placer individuellement les atomes pourront construire à peu près tout ce qui est possible en liant les bons atomes dans la bonne position, comme décrit à la fin du chapitre 1. Bien sûr, construire de gros objets atome par atome sera lent. Une mouche, contient autant de millions d'atomes qu'il s'est écoulé de secondes depuis la naissance des dinosaures. Les machines moléculaires peuvent néanmoins construire des objets d'une taille substantielle -ils construisent bien des baleines, après tout. Pour faire de gros objets en peu de temps, un grand nombre d'assembleurs doivent coopérer : les réplicateurs produiront des assembleurs à la tonne. En fait, avec une bonne conception, la seule différence entre un réplicateur et un assembleur viendra entièrement de la programmation de l'assembleur. Si un assembleur répliquant peut se recopier en un millier de secondes, alors il peut être programmé pour construire aussi vite un objet de taille similaire. En changeant d'échelle, une tonne de réplicateurs pourra rapidement construire une tonne d'autre chose -et le produit aura ses milliards de milliards de milliards d'atomes à la bonne place, avec seulement une infime fraction au mauvais endroit70. Pour voir les possibilités et les limites d'une méthode d'assemblage de grands objets, imaginez une mince feuille recouverte de petits bras assembleurs -peut-être une armée de réplicateurs reprogrammés pour faire un travail de construction et déployés en bon ordre. Des transporteurs et des canaux de communication placés dessous les alimentent en molécules réactives, en énergie et en instructions d'assemblage. Si chaque bras occupe une surface de 100 diamètres atomiques sur 100 diamètres atomiques, alors il y a sous chaque assembleur de la place pour des courroies et des canaux sur 10 000 atomes de section. Il semble y avoir assez de place : un espace de dix à vingt atomes de large peut contenir un transporteur -qui peut-être fait de câbles et de poulies moléculaires. Un canal de quelques atomes de large peut contenir une tige moléculaire, qui, comme celles de l'ordinateur mécanique du chapitre 1, serait poussée et tirée pour transmettre des signaux. Tous les bras fonctionneraient ensemble pour construire une structure large et solide, couche par couche. Chaque bras serait responsable de sa propre zone, manipulant environ 10 000 atomes par couche. Une feuille d'assembleurs plaçant 1 000 000 d'atomes par seconde et par bras compléterait environ une centaine de couches atomiques par seconde. Cela peut paraître rapide mais à cette vitesse, obtenir une structure de l'épaisseur d'une feuille de papier prendrait une heure et faire une plaque d'un mètre d'épaisseur prendrait plus d'une année. Des bras plus rapides augmenteraient peut-être la vitesse jusqu'à un mètre par jour, mais ils gaspilleraient de l'énergie en produisant plus de chaleur. S'ils pouvaient fabriquer un mètre d'épaisseur de matériau par jour, la chaleur produite sur un mètre carré suffirait pour faire cuire des centaines de steaks en même temps mais cela endommagerait probablement les nanomachines. A certaines tailles et certaines vitesses, les problèmes de refroidissement deviendront un facteur limitant ; cependant il y a d'autres manières d'assembler les objets sans avoir à mettre les machines en surchauffe. Imaginez que vous essayez de construire une maison en collant ensemble des grains de sable. Ajouter une couche de grains de sable prendrait peut-être tellement de temps aux machines à coller, que monter les murs durerait des dizaines d'années. Maintenant, imaginez que dans une usine, des machines collent ensemble les grains pour faire des briques. L'usine peut fabriquer de nombreuses briques simultanément. Avec assez de machines à coller les grains, les briques seraient fabriquées rapidement et les machines à assembler pourraient alors monter les murs très vite en empilant les briques préassemblées. De la même manière, les assembleurs moléculaires feront équipe avec des assembleurs plus grands pour construire de gros objets rapidement -ces machines pourront avoir n'importe quelle taille : moléculaire ou gigantesque. Avec cette approche, la plus grande part de la chaleur de l'assemblage sera dissipée loin du site de construction, lors de la fabrication des pièces. La construction des gratte-ciel et l'architecture des êtres vivants suggèrent une autre méthode pour construire de grands objets. Les plantes et les animaux ont des systèmes vasculaires constitués de vaisseaux entremêlés qui conduisent les matériaux de construction jusqu'aux machines moléculaires. De la même manière, après que les ouvriers bâtisseurs ont fini l'armature d'un gratte-ciel, son système vasculaire -ses couloirs et ses ascenseurs, aidés de grues- transporte les matériaux de construction jusqu'aux ouvriers par l'intérieur du bâtiment. Les systèmes d'assembleurs peuvent utiliser la même stratégie, en dressant d'abord un échafaudage, puis en travaillant à l'intérieur de ce volume, en incorporant des matériaux venus de l'extérieur par des tunnels. Imaginez cette technique appliquée à la "croissance" d'un gros réacteur de fusée à l'intérieur d'une cuve, dans une fabrique. La cuve -faite d'acier brillant percée d'une fenêtre pour les visiteurs- est plus grande qu'un homme puisqu'elle doit contenir le réacteur tout entier. Des tuyaux et des pompes la relient à d'autres équipements et à des échangeurs de chaleur. Ces dispositifs permettent à l'opérateur de faire circuler différents fluides dans la cuve. Pour démarrer le processus, l'opérateur ouvre la cuve, y introduit une plaque qui servira de base à la construction et referme le couvercle. En appuyant sur un bouton, les pompes se mettent en marche et la cuve se remplit d'un liquide épais et laiteux qui submerge bientôt la plaque, puis obscurcit la fenêtre. Ce liquide provient d'une autre cuve dans laquelle des assembleurs répliquant ont été cultivés, puis reprogrammés en recopiant et répandant une nouvelle bande d'instruction, un peu comme l'infection de bactéries par des virus. Ces nouveaux systèmes d'assembleurs, plus petits que des bactéries, diffractent la lumière et donnent son aspect laiteux au fluide. Leur grande abondance le rend visqueux. Au centre de la plaque de base, en bas du tourbillon du liquide chargé d'assembleurs, réside une "graine". Elle contient un nano-ordinateur dans lequel les plans du réacteur de la fusée sont stockés, et sa surface est couverte de petites plaques auxquelles les assembleurs peuvent se fixer. Quand un assembleur se colle à une plaque, un branchement a lieu et l'ordinateur de la graine transfère des instructions à l'ordinateur de l'assembleur. Ce nouveau programme lui indique où il se situe par rapport à la graine et lui fait déplier ses bras manipulateurs pour accrocher d'autres assembleurs. Ceux qui sont capturés sont alors programmés de la même manière. Obéissant aux instructions venant de la graine (qui se propagent par le réseau en expansion des assembleurs communicants), une sorte de cristal d'assembleurs se forme au milieu du chaos du liquide. Comme chacun des assembleurs connaît sa position dans le plan, les nouveaux qui s'agrègent ne le font qu'aux endroits nécessaires. Ceci forme bientôt un réseau moins régulier et plus complexe que n'importe quel cristal naturel. En quelques heures, le squelette d'assembleurs grandit jusqu'à atteindre la forme finale du futur réacteur. Les pompes sont alors remises en marche et le liquide laiteux d'assembleurs non-attachés est remplacé par une mixture limpide à base de solvants organiques et de substances dissoutes -y compris des composés d'aluminium ainsi que des molécules riches en oxygène et en énergie pour alimenter les assembleurs. Comme le liquide s'éclaircit, la forme du réacteur devient visible à travers la fenêtre : elle ressemble à une maquette en taille réelle sculptée dans du plastique blanc translucide. Puis, un message provenant de la graine indique à certains assembleurs de se détacher de leurs voisins et de replier leurs bras. Ils se détachent alors soudainement de la structure, en jets blancs, laissant derrière eux un réseau discontinu d'assembleurs attachés ensemble et disposant chacun d'assez de place pour travailler. La forme de l'engin dans la cuve devient presque transparente, avec quelques irisations. Chaque assembleur restant, bien qu'encore relié à des voisins, est maintenant entouré par de petits tunnels remplis de fluide. Certains bras spéciaux de l'assembleur travaillent comme des flagelles, agitant le liquide pour qu'il circule à travers les canaux. Ces mouvements, comme tous ceux effectués par les assembleurs, sont accomplis par des moteurs moléculaires qui tirent leur énergie de molécules contenues dans le liquide. Exactement comme le sucre fournit de l'énergie aux levures ; le liquide qui circule apporte des molécules de carburant et des matériaux bruts pour la construction. Il ressort en emportant la chaleur produite. Le réseau de communication propage les instructions jusqu'à chaque assembleur. Ceux-ci sont maintenant prêts à commencer la construction. Ils vont fabriquer un réacteur de fusée, constitué principalement de tuyaux et de pompes. Cela signifie qu'il faut construire des structures résistantes et légères, de formes complexes, quelques unes devant résister à une chaleur intense, d'autres étant pleines de tubes pour transporter du liquide de refroidissement. Là où une grande solidité est nécessaire, les assembleurs sont programmés pour construire des baguettes tressées en fibres de carbone sous sa forme diamant. Avec celles-ci, ils construisent un réseau conçu de manière à résister le mieux possible aux tensions dans la direction attendue. Quand la résistance à la chaleur et à la corrosion est primordiale (comme pour beaucoup de surfaces), ils construisent des structures similaires mais en oxyde d'aluminium, sous sa forme saphir. Aux endroits où les tensions seront faibles, les assembleurs économisent du poids en laissant de plus grands espaces dans la matrice. Aux endroits de fortes tensions, les assembleurs renforcent la structure jusqu'à ce que les canaux permettent à peine le passage d'un assembleur. Partout ailleurs, les assembleurs déposent d'autres matériaux pour faire des capteurs, des ordinateurs, des moteurs, des solénoïdes et tout ce qui est nécessaire. Pour finir leur travail, les assembleurs construisent des murs formant des cellules dans les canaux restants après les avoir vidés de leur contenu liquide. Après avoir obturé les ouvertures externes des canaux, les assembleurs se retrouvent en solution autour de la structure. Enfin, la cuve est vidée et un jet d'eau rince le réacteur. Le couvercle se soulève et la pièce terminée est hissée dehors pour sécher. Sa création aura pris moins d'un jour et presque aucune attention humaine. A quoi ressemble le réacteur ? Plutôt qu'une pièce massive de métal soudé et boulonné, c'est une chose sans défaut, ayant l'aspect d'une pierre précieuse. Ses cellules vides à l'intérieur de la structure sont arrangées en matrices ayant une taille proche de la longueur d'onde de la lumière visible. L'effet produit ressemble à la diffraction observée sur les cuvettes gravées dans les disques compacts : des irisations diverses comme dans les opales de feu. Les canaux vides allègent encore une structure déjà fabriquée avec les matériaux les plus légers et les plus durs connus. Comparé à un réacteur moderne en métal, cet engin sophistiqué pèse dix fois moins. Tapez doucement dessus et il sonne comme une cloche mais avec un ton étonnement haut pour sa taille. Monté sur un vaisseau spatial construit de la même manière, il s'envole d'une piste d'aviation pour aller dans l'espace et revenir se poser avec aisance. Il supporte un usage long et éprouvant, parce que ses matériaux solides ont permis aux ingénieurs d'inclure dans la conception de grandes marges de sécurité. Et comme les assembleurs ont permis aux concepteurs de modeler sa structure afin qu'il plie avant de rompre (atténuant les amorces de fissures et stoppant leur développement), le réacteur n'est pas seulement dur mais également résistant. Malgré toutes ses propriétés exceptionnelles, ce réacteur reste fondamentalement très classique. Simplement, ses atomes de métal ont été soigneusement remplacés par des atomes légers et solidement liés. Le produit final ne contient pas de nanomachinerie. Des conceptions plus évoluées exploiteront encore davantage les nanotechnologies. Les assembleurs peuvent laisser un système vasculaire en place afin que des assembleurs et des désassembleurs puissent encore circuler. Ils pourraient être programmés pour réparer les parties usées. Aussi longtemps que l'utilisateur continuera à alimenter un tel réacteur avec de l'énergie et des matériaux bruts, celui-ci renouvellera sa propre structure. Des machines plus avancées pourraient également être littéralement transformables. Les réacteurs de fusée sont plus efficaces quand ils peuvent prendre différentes formes, adaptées à chaque phase de vol mais les ingénieurs ne peuvent pas faire du métal à la fois solide, léger et souple. Avec les nanotechnologies cependant, une structure plus solide que l'acier et plus légère que le bois peut changer de forme comme un muscle (fonctionnant, comme les muscles71, sur le principe des fibres coulissantes). Un réacteur pourrait alors dilater, contracter ou orienter sa base pour fournir la poussée attendue, dans la direction souhaitée. Avec des assembleurs et des désassembleurs correctement programmés, il pourrait même remanier sa structure fondamentale bien après avoir quitté la cuve. En résumé, les assembleurs répliquants se recopieront à la tonne, puis fabriqueront d'autres produits comme des ordinateurs, des réacteurs de fusée, des chaises et tout ce que l'on veut. Ils feront des désassembleurs capables de casser la pierre pour fournir des matériaux de construction. Ils feront des cellules solaires pour donner de l'énergie. Bien que petits, ils construiront de grandes choses. Des équipes de nanomachines construisent des baleines dans la nature et les graines répliquent des machineries et organisent les atomes en de vastes structures de cellulose, comme pour bâtir des séquoias. Il n'y a rien de bien surprenant à faire pousser un réacteur de fusée dans une cuve préparée spécialement. En fait, les forestiers, en plantant des "graines" d'assembleurs appropriées pourraient cultiver des vaisseaux spatiaux en leur fournissant de la terre, de l'air et du soleil. Les assembleurs seront capables de faire pratiquement n'importe quoi à partir de matériaux courants et sans travail humain, remplaçant les usines polluantes par des systèmes aussi propres que les forêts. Ils transformeront la technologie et l'économie dans leurs racines ouvrant un nouveau monde de possibilités. Ces assembleurs seront réellement des moteurs d'abondance. 5 Machines pensantes Le monde est à la veille72 d'une seconde ère informatique. De nouvelles technologies qui sortent des laboratoires vont transformer les fantastiques calculateurs que sont les ordinateurs en des machines capables d'imiter des aspects de la pensée humaine comme le raisonnement, le jugement et même l'apprentissage. Déjà, cette "intelligence artificielle" est capable d'accomplir des tâches pour lesquelles on pensait que l'intelligence humaine était requise. Buisness week Les ordinateurs sont sortis des laboratoires pour nous aider à écrire, calculer et jouer dans nos maisons et nos bureaux. Ces machines effectuent des tâches simples et répétitives mais les ordinateurs encore en développement dans les laboratoires font bien plus. Les chercheurs en intelligence artificielle affirment que les ordinateurs peuvent être rendus intelligents, et de moins en moins de personnes le contestent. Pour comprendre notre futur, nous devons d'abord vérifier si l'intelligence artificielle est aussi impossible que le vol vers la lune. Les machines pensantes n'ont pas besoin de ressembler aux humains par leurs formes, leurs buts et leurs facultés mentales. Il y aura vraisemblablement des systèmes d'intelligence artificielle qui ne présenteront que peu de traits communs avec le diplômé d'une profession libérale mais qui seront en revanche de puissants moteurs de conception. Comprendre comment l'esprit humain a évolué à partir de la matière nous éclairera sur la façon dont les machines peuvent être construites pour penser. Les esprits, comme les autres formes d'organisation, évoluent par variation et sélection. Les cerveaux agissent. On n'a pas besoin d'adhérer aux théories comportementales de Skinnerb pour apprécier l'importance du comportement, y compris le comportement interne appelé pensée. Les molécules d'ARN se répliquant dans un tube à essai montrent comment l'idée d'un but peut être appliquée (comme une sorte de raccourci) à des molécules complètement dépourvues d'esprit. Elles n'ont ni muscles ni nerfs mais elles ont évolué pour "se comporter" de façon à promouvoir leur réplication. Les variations et la sélection ont modelé le comportement simple de chaque molécule et il restera le même toute sa "vie". Les molécules d'ARN ne s'adaptent pas mais les bactéries le font. La compétition a favorisé les bactéries qui s'adaptent aux changements -par exemple en ajustant la composition en enzyme de leur suc digestif pour le faire correspondre à la nourriture disponible. Cependant, ces mécanismes d'adaptation sont eux-mêmes fixes : les molécules alimentaires déclenchent des interrupteurs génétiques comme l'air froid déclenche un thermostat. Quelques bactéries utilisent aussi une sorte de conduite par essais et erreurs. Les bactéries de ce genre ont tendance à nager en ligne droite et ont juste assez de "mémoire" pour savoir si les conditions s'améliorent ou se détériorent alors qu'elles avancent. Si les conditions s'améliorent, elles continuent d'avancer mais si elles empirent, elles s'arrêtent, tournent en tous sens et repartent dans une direction aléatoire, généralement différente de la première. Elles testent donc les directions et favorisent les bonnes en rejetant les mauvaises. Et parce que ce mécanisme les fait aller vers les zones où les molécules de nourriture sont concentrées, elles prospèrent. Les vers plats n'ont pas de cerveau mais ils présentent cependant une réelle faculté d'apprentissage. Ils peuvent apprendre à choisir le bon chemin dans un labyrinthe en T. Ils essaient d'abord à gauche, puis à droite, puis ils sélectionnent petit à petit le comportement -ou l'habitude- qui produit les meilleurs résultats. C'est la sélection d'un comportement par ses conséquences, ce que les psychologues comportementaux appellent "la loi de l'effet". Les gènes en évolution des espèces de vers ont produit des vers individuels qui possèdent un comportement évolutif. Cependant, les vers plats entraînés à s'orienter dans des labyrinthes -et même les pigeons de Skinner, entraînés à donner un coup de bec quand une lumière verte s'allume- ne montrent aucun signe de pensée réflexive telle que nous l'associons à l'esprit. Les organismes qui s'adaptent uniquement par le truchement de la loi de l'effet n'apprennent que par essais et erreurs en variant et sélectionnant leurs comportements. Ils ne pensent pas à l'avance et ne décident pas. Mais la sélection naturelle favorise souvent les organismes qui peuvent penser, et penser n'a rien de magique. Comme Daniel Dennett73 de l'université de Tufts le fait remarquer, des gènes évolués peuvent doter le cerveau des animaux de modèles internes intégrant la manière dont le monde fonctionne (quelque chose ressemblant aux modèles en conception assistée par ordinateur). Les animaux peuvent alors "imaginer" plusieurs actions et leurs conséquences, en évitant les actions qui "semblent" dangereuses au profit des actions qui "semblent" sûres ou profitables. En testant des idées sur ces modèles internes, ils s'épargnent les efforts et les risques des essais réalisés dans le monde extérieur. Dennet fait remarquer ensuite que la loi de l'effet peut modifier les modèles eux-mêmes. Puisque les gènes peuvent donner un comportement évolutif, de la même manière ils peuvent fournir des modèles mentaux évolutifs. Les organismes évolués peuvent faire varier leurs modèles et porter une plus grande attention aux plus efficaces. Nous savons tous ce que c'est que d'essayer de faire fonctionner des objets et d'apprendre comment ils marchent : les modèles n'ont pas besoin d'être innés, ils peuvent se développer dans le cours d'une vie. Les animaux, dépourvus de parole, ne transmettent que rarement les modèles qu'ils ont développés. Ceux-ci disparaissent à la mort de l'animal, parce que les modèles mentaux appris ne sont pas stockés dans les gènes. Mais les animaux qui ne parlent pas peuvent s'imiter les uns les autres, ce qui donne lieu à des schèmes et à des cultures. Une femelle singe au Japon inventa une technique pour séparer le grain du sable en utilisant de l'eau ; les autres ont rapidement appris à faire de même. Dans les cultures humaines, avec leurs langages et leurs dessins, de nouveaux modèles, capables de représenter correctement la manière dont le monde fonctionne, peuvent survivre à leurs créateurs et se répandre sur toute la Terre. A un niveau encore supérieur, un esprit peut retenir des standards évolués pour estimer si les parties d'un modèle -les idées d'une représentation du monde- semblent suffisamment fiables pour guider ses actions. L'esprit sélectionne donc son propre contenu, y compris ses règles de sélection. Les règles du jugement qui filtrent le contenu de la science évoluent de cette manière. Puisque les comportements, les modèles et les standards de connaissance se transforment, les buts le peuvent également. Ce qui apporte le bien, défini en tant que tel par des standards fondamentaux, finit par paraître bien : cela devient alors un but en soi. L'honnêteté paie et est valorisée comme principe d'action. Comme la pensée, avec les modèles mentaux, guide son propre développement et l'action, nous prenons pour objectif de penser clairement avec des modèles fiables. La curiosité grandit et avec elle l'amour désintéressé de la connaissance. L'évolution des buts met au premier plan la science et l'éthique. Comme Charles Darwin l'a écrit : "nous atteignons le plus haut stade possible dans la culture morale quand nous reconnaissons que nous devons contrôler nos pensées". Nous y arrivons aussi bien par variation et sélection qu'en se concentrant sur des pensées de valeur et en laissant les autres échapper à notre attention. Marvin Minsky74, du laboratoire d'intelligence artificielle du MIT voit l'esprit comme une sorte de société, un système évolutif d'agents regroupés en assemblées qui communiquent, coopèrent et entrent en compétition. Il décrit la pensée et l'action en termes d'activité de ces agents. Certaines assemblées ne font pas beaucoup plus qu'attraper une tasse ; d'autres, (bien plus élaborées), dirigent le système de la parole pour choisir les mots appropriés à une situation. Nous n'avons pas conscience de diriger nos doigts pour saisir une tasse correctement. Nous déléguons de telles tâches à des agents compétents et y portons rarement attention, à moins qu'ils ne se trompent. Nous ressentons tous des pulsions conflictuelles et nous prononçons tous des mots sans le vouloir ; ce sont des symptômes de discorde parmi les agents de l'esprit. La conscience que nous en avons fait partie du processus d'autorégulation par lequel nos assemblées les plus générales dirigent tout le reste. Les schèmes peuvent être vus comme des agents qui se forment dans l'esprit par l'apprentissage et l'imitation. Pour sentir que deux idées sont contradictoires, vous devez les avoir intégrées comme des agents dans votre esprit -l'une d'entre elles peut être forte et ancienne, supportée par des alliés et l'autre une toute jeune idée-agent qui ne survivra pas à sa première bataille. A cause de notre conscience très superficielle, nous nous demandons souvent de quel endroit de notre cerveau peut surgir une idée. Certaines personnes imaginent que les pensées et les sentiments proviennent directement d'assemblées situées en dehors de leur propre cerveau ; ils ont tendance à croire en la possession. Dans la Rome ancienne, les gens croyaient en des "génies" : de bons et de mauvais esprits qui accompagnaient une personne du berceau à la tombe, lui apportant bonne et mauvaise fortune. Ils attribuaient un succès remarquable à un "génie" spécial. Maintenant encore, les gens qui ne parviennent pas à comprendre comment les processus naturels peuvent créer de la nouveauté voient dans le génie une forme de magie. Mais en fait, des gènes évolutifs ont fait des cerveaux qui étendent leurs connaissances en faisant varier des idées et en sélectionnant parmi ces variantes. Avec des variations rapides et une sélection efficace, dirigée par les connaissances empruntées aux autres, pourquoi de tels cerveaux ne présenteraient-ils pas ce que l'on appelle du génie ? Considérer l'intelligence comme un processus naturel rend moins surprenante l'idée de machines intelligentes et suggère également la manière dont elles pourraient fonctionner. Intelligence de machine Une "machine" peut être définie ainsi : "tout système ou appareil75, comme un ordinateur électronique, qui réalise ou assiste la réalisation d'une tâche humaine". Mais combien de tâches humaines au juste les machines vont-elles pouvoir effectuer ? Le calcul était autrefois une faculté mentale impossible aux machines ; le domaine des intellectuels et des éduqués. Aujourd'hui, personne ne pense à qualifier une calculatrice de poche de "forme d'intelligence artificielle" ; le calcul semble maintenant être une "simple" procédure mécanique. Pendant longtemps, l'idée de construire un ordinateur simple était choquante. Cependant, au milieu du XIXème siècle, Charles Babbage avait construit76 des ordinateurs mécaniques ainsi qu'une partie d'un ordinateur mécanique programmable. Il dut toutefois renoncer devant les difficultés financières et mécaniques. Il fut également desservi par le Dr Young qui conseilla à la place d'investir l'argent et d'utiliser les intérêts pour payer des calculateurs humains, parce qu'ils coûteraient moins cher. Et le coup de grâce fut donné par l'astronome royal britannique, Sir George Airy. Une note dans son journal indique : "Le 15 septembre, M. Goulburn [...] me demanda mon opinion sur l'utilité de la machine à calculer de Babbage [...] Je répondis, en entrant pleinement dans le sujet et en donnant mon opinion, que c'était quelque chose d'inutile". La machine de Babbage était en avance sur son temps -ce qui signifie que pour la construire, les mécaniciens étaient obligés de faire progresser la technique de fabrication de pièces précises. Et en fait, la machine n'aurait pas été beaucoup plus rapide qu'un calculateur humain doué -mais elle aurait été plus fiable et plus facile à améliorer. L'histoire des ordinateurs et de l'intelligence artificielle (abrégée en IA) ressemble à celle du vol aérien et spatial. Jusqu'à récemment, les gens écartaient ces idées jugées irréalisables -car ils ne voyaient pas comment y parvenir ou auraient été bouleversés de le savoir. Et jusqu'à maintenant, l'IA n'a pas eu de démonstration claire et nette ; pas d'équivalent d'un avion qui vole ou d'un alunissage. Elle a beaucoup progressé mais les gens continuent de changer leur définition de l'intelligence. Mis à part les titres de presse sur les "cerveaux électroniques géants", peu de gens qualifiaient les premiers ordinateurs d'intelligents. En fait, le nom même "d'ordinateur" suggère une simple machine mécanique. Cependant, au cours de la première conférence mondiale sur l'intelligence artificielle, en 1956 à Dartmouth, deux chercheurs, Alan Newell et Herbert Simon, ont présenté Théoricien Logique, un programme capable de démontrer des théorèmes en logique symbolique. Dans les années qui suivirent, les programmes informatiques pouvaient jouer aux échecs et aider les chimistes à déterminer des structures moléculaires. Deux logiciels médicaux : CASNET et MYCIN (le premier traitant de la médecine interne, le deuxième aidant au diagnostic et au traitement des infections) révélèrent une grande puissance. Selon le Manuel de l'intelligence artificielle77, leur niveau de compétence a été jugé équivalent, dans leurs domaines respectifs, à celui d'experts humains. Un logiciel appelé PROSPECTEUR a localisé dans l'état de Washington un gisement de molybdène d'une valeur de plusieurs millions de dollars. Ces "systèmes experts" ne fonctionnent que dans leur strict domaine de compétence mais ils auraient stupéfié les programmeurs du début des années 50. Aujourd'hui, cependant, peu de personnes les considèrent comme de véritables intelligences artificielles : l'IA a toujours été une cible mouvante. La citation tirée de Buisness Week, en tête du chapitre, montre simplement que les ordinateurs peuvent maintenant être programmés avec assez de connaissances et qu'ils ont suffisamment de puissance pour que quelques personnes soient d'accord pour les qualifier d'intelligents. Des années de fictions mettant en scène des robots et des ordinateurs parlants ont au moins banalisé l'idée d'intelligence artificielle. La principale raison qui a servi à déclarer que l'IA est impossible a toujours été que les "machines" sont intrinsèquement stupides ; mais c'est une idée qui commence à disparaître. Les ordinateurs du passé ont bien été de grosses machines maladroites qui effectuaient de simples calculs, par force brutale. Mais les ordinateurs modernes peuvent manipuler de l'information, exécuter des instructions complexes et être programmés de manière à modifier leurs propres instructions. Ils peuvent expérimenter et apprendre. Ils ne contiennent pas d'engrenages et de graisse mais des dessins complexes de fils électriques dans lesquels circulent des configurations évanescentes de flux électriques. Comme Douglas Hofstader le conseille vivement78 (à travers un personnage dans un dialogue à propos de l'intelligence artificielle), "Pourquoi ne verriez-vous pas dans le mot "machine" un motif fait de lumières dansantes plutôt qu'une pelleteuse géante ?". Les critiques mondains, quand ils sont confrontés à l'idée d'intelligence artificielle soulignent couramment la stupidité des ordinateurs actuels, comme si cela prouvait quelque chose pour le futur. Une machine du futur se demandera peut-être si de tels critiques possédaient réellement une intelligence. Leur objection est hors de propos -les locomotives à vapeur ne volent pas et elles démontrèrent pourtant la validité de principes utilisés plus tard pour les moteurs d'avions. De la même manière, le ver rampant disparu il y a quelques centaines de millions d'années ne présentait pas d'intelligence notable et pourtant, notre cerveau est fait de neurones très similaires aux siens. Les critiques courantes évitent également de penser sérieusement à l'intelligence artificielle en déclarant qu'il nous est impossible de construire des machines plus intelligentes que nous-mêmes. Elles oublient ce que l'histoire nous apprend. Nos ancêtres lointains et dépourvus de langage ont donné des êtres doués d'une plus grande intelligence à travers une évolution génétique, sans y penser. Mais nous, nous pensons cette évolution et les schèmes technologiques évoluent bien plus vite que les gènes biologiques. Nous pouvons sûrement fabriquer des machines79 ayant les mêmes facultés d'apprentissage et d'organisation des informations que les humains. Une seule idée semble interdire qu'on puisse insuffler de l'intelligence à autre chose qu'à de la matière grise. C'est l'idée de matérialisme mental -l'idée que l'esprit est une substance spéciale, un matériau magique propre à penser : inimitable, induplicable et inexploitable technologiquement. Les psychobiologistes ne trouvent aucune preuve en faveur de son existence et d'ailleurs, ils n'ont pas besoin du matérialisme mental pour expliquer l'esprit. Parce que la complexité du cerveau est bien au-delà de ce que nous pouvons saisir consciemment, elle semble suffisante pour que l'esprit émerge. En fait, si une personne pouvait entièrement comprendre un cerveau, cela ferait de son esprit quelque chose de bien plus complexe que le cerveau en question. Si les milliards d'habitants de la Terre pouvaient coopérer pour simplement observer le fonctionnement d'un cerveau, chaque personne aurait à surveiller simultanément l'activité d'un millier de synapses -ce qui est clairement impossible. Essayer de comprendre les états changeants d'un cerveau par une unique personne serait cinq milliards de fois plus absurde. Puisque les mécanismes de notre cerveau surpassent tant la faculté qu'a notre esprit de les comprendre, ils semblent suffisamment complexes pour être eux-mêmes le siège de l'esprit. Le but de Turing Dans une publication datée de 1950 sur l'intelligence des machines, le mathématicien anglais écrivit : "Je crois qu'avant la fin du siècle80, les mentalités auront suffisamment évolué pour que quelqu'un parlant de machines pensantes ne se voit plus systématiquement contredit". Mais cela dépend de ce que nous appelons penser. Certains disent que seules les personnes peuvent penser et que les ordinateurs ne peuvent pas être des personnes ; puis ils s'assoient et prennent un air suffisant. Dans son article, Turing demanda comment on juge l'intelligence humaine. Selon lui, c'est par la qualité de sa conversation. Il proposa alors ce que l'on appelle le jeu de l'imitation -ce que tout le monde appelle maintenant le test de Turing. Imaginez que vous êtes dans une pièce et que vous pouvez communiquer par un terminal avec une personne et un ordinateur situés dans deux autres pièces. Vous posez des questions par écrit et les deux peuvent vous répondre. Chacun d'eux essaye de paraître humain et intelligent. Après une "conversation" prolongée au clavier avec eux - touchant peut-être des domaines comme la littérature, l'art, le temps et le goût qu'a votre bouche le matin- il serait possible que vous ne puissiez pas dire qui est la machine et qui est l'humain. Si une machine peut converser aussi facilement sur n'importe quel sujet, alors Turing propose que nous la considérions comme véritablement intelligente. En outre, nous aurions à reconnaître qu'elle connaît beaucoup de choses sur les humains. Pour la plupart des usages, nous n'avons pas besoin de nous demander "Une machine peut-elle savoir qu'elle existe -c'est-à-dire être consciente- ?". En fait, les critiques qui refusent la conscience aux machines ne sont jamais capables de préciser ce qu'ils entendent par "conscient". La conscience d'exister a évolué pour guider les pensées et les actions, pas pour embellir notre humanité. Nous devons être conscients de l'existence des autres et de leurs facultés pour élaborer des plans qui les impliquent. De la même manière, nous devons être conscients de nous-mêmes, de nos aptitudes et de nos inclinations pour planifier des actions. Il n'y a pas de mystère spécial dans la conscience de soi. Ce que nous appelons le soi réagit aux impressions du reste du cerveau, orchestrant certaines de ses activités. Cela n'en fait ni plus ni moins qu'une partie spéciale des flux de pensées qui interagissent. L'idée que le soi serait fait d'une substance spéciale (différente de la substance qui fait l'esprit dans le cerveau) n'expliquerait rien à propos de la conscience. Une machine qui réussirait le test de Turing prétendrait forcément être consciente d'elle-même. Des bio-chauvinistes purs et durs répondraient simplement que la machine ment ou bien qu'elle est abusée. Aussi longtemps qu'ils refuseront de définir ce qu'ils entendent par conscience de soi, ils ne pourront pas être mis en tort. Néanmoins, qu'elles soient qualifiées de conscientes ou non, ces machines agiront quand même intelligemment et ces actions auront une influence sur nous. Peut-être qu'un jour, elles réduiront les bio-chauvins au silence en les humiliant dans des discussions passionnées, aidées par une brillante campagne de relations publiques. Aucune machine ne peut à présent réussir le test de Turing et aucune ne le fera d'ici peu. Peut-être même est-il sage de se demander si c'est une bonne idée d'essayer ; nous aurions peut-être plus à gagner de recherches en IA tournées vers d'autres objectifs. Distinguons deux sortes d'intelligence artificielle -bien qu'un système puisse présenter les deux81. La première est l'IA technique, adaptée à travailler dans le monde physique. Les progrès dans ce domaine conduisent à des systèmes de conception automatiques et de recherche scientifique. La seconde est l'IA sociale82 qui traite avec l'esprit humain. Les efforts dans cette direction amènent à concevoir des machines capables de réussir le test de Turing. Les chercheurs qui travaillent sur des systèmes d'IA sociale en apprendront beaucoup sur le fonctionnement du cerveau et leurs systèmes auront sans aucun doute un grand intérêt pratique, parce que nous pouvons tous tirer profit d'aide et de conseils intelligents. Mais l'ingénierie automatisée s'appuyant sur l'IA technique aura une plus grande influence sur la course technologique. Et un système de conception automatisé est probablement plus facile à développer qu'un système capable de passer le test de Turing, parce que celui-ci doit non seulement posséder des connaissances et être intelligent; mais il doit en plus imiter les connaissances humaines et l'intelligence humaine -ce qui est un défi spécial, bien plus difficile. Comme Turing l'a fait remarquer : "Les machines ne peuvent-elles pas83 exécuter quelque chose que nous décririons comme de la pensée mais qui serait très différent de ce que fait l'homme ?". Quelques écrivains et politiciens refuseront de reconnaître l'intelligence des machines avant d'être confrontés à un ordinateur capable de réussir le test de Turing. Mais les ingénieurs reconnaîtront avant cela l'intelligence sous d'autres formes. Les moteurs de conception Nous sommes déjà bien avancés sur le chemin de l'ingénierie automatisée. Les automaticiens du raisonnementc ont déjà commercialisé des systèmes experts qui aident les gens à résoudre des problèmes pratiques. Les programmeurs ont créé des logiciels de conception assistée par ordinateur qui gèrent les notions de formes et de mouvements, de contraintes et d'efforts ainsi que les circuits électroniques, les transferts de chaleur. Même les étapes de fabrication d'une pièce métallique sont prises en compte, en fonction des machines-outils disponibles. Les concepteurs utilisent ces systèmes pour améliorer leurs modèles mentaux, ce qui accélère l'évolution d'objets qui n'ont pas encore été construits. Ensemble, les concepteurs et les ordinateurs forment des systèmes intelligents et semi-artificiels. Les ingénieurs peuvent utiliser une grande variété de systèmes informatiques pour les aider dans leur travail. Ils peuvent tout d'abord utiliser simplement l'écran d'un ordinateur comme une tablette graphique. Ensuite, grâce à une représentation en trois dimensions, ils peuvent calculer les comportements de l'objet lorsqu'il subit des contraintes, un échauffement ou une mise sous tension, etc. Quelques systèmes connaissent également le langage de programmation des machines à commande numérique, ce qui permet aux ingénieurs de faire des tests en simulant des séries d'instructions qui serviront plus tard à usiner des pièces réelles. Mais le but ultime serait de disposer d'un système qui n'implique pas seulement les ordinateurs pour tester et stocker des concepts, mais aussi pour les générer. Les programmeurs ont développé leurs outils les plus impressionnants dans le domaine de l'informatique lui-même. Les logiciels utilisés pour concevoir des puces en sont un exemple. Les circuits intégrés contiennent maintenant plusieurs millions de transistors et de fils. Il y a quelques années, les ingénieurs en électronique devaient travailler plusieurs mois pour concevoir un circuit accomplissant une tâche donnée et disposer ses éléments sur une puce. Aujourd'hui, ils peuvent souvent déléguer cette tâche à un "compilateur de pucesd". A partir de fonctions et de spécifications demandées, ce système logiciel peut concevoir un circuit de manière détaillée -prêt à être produit -avec très peu ou aucune aide humaine. Tous ces systèmes reposent entièrement sur la connaissance humaine, laborieusement transcrite et accumulée. Les systèmes de conception automatisée actuels peuvent explorer un peu les modèles de conception existants pour chercher des améliorations à apporter mais ils ne peuvent rien apprendre qui soit applicable au prochain modèle. Cependant EURISKO est différent. Développé par le professeur Douglas Lenat84 et son équipe à l'université de Standford, EURISKO a été conçu pour explorer de nouveaux domaines de connaissance. Il est guidé par une analyse heuristique : des morceaux de connaissances qui suggèrent des actions probablement bonnes à exécuter ou d'autres à éviter : cela se résume à diverses règles approximatives. Il utilise des méthodes heuristiques pour proposer des sujets d'étude, d'autres pour suggérer des voies de recherche et juger des résultats en y cherchant des similitudes. Les nouvelles méthodes générées sont évaluées par rapport aux anciennes. De cette façon, EURISKO développe de meilleurs comportements, de meilleurs modèles internes et de meilleures règles pour sélectionner ceux-ci. Lenat lui-même décrit la variation et la sélection des heuristiques et des concepts dans le système en terme de "mutation" et de "sélection" ; il suggère une métaphore culturelle et sociale pour comprendre leurs interactions. Puisque des heuristiques évoluent et sont en compétition dans EURISKO, il est logique de s'attendre à voir apparaître des parasites -et ils sont nombreux. Une machine à générer des heuristiques, par exemple, a atteint le score d'évaluation le plus haut possible en déclarant être co-découvreur de toutes les conjectures intéressantes. Le professeur Lenat a travaillé étroitement avec EURISKO, améliorant son système immunitaire mental en lui fournissant des heuristiques permettant de limiter la propagation des parasites et des raisonnements stupides. EURISKO a été utilisé pour explorer les mathématiques élémentaires, la programmation, l'évolution biologique, les jeux, les circuits intégrés tridimensionnels, le nettoyage des marées noires, la tuyauterie et bien sûr l'heuristique. Dans quelques domaines d'étude, il a étonné ses concepteurs en proposant des idées nouvelles, y compris de nouveaux dispositifs électroniques pour la technologie émergente des circuits intégrés en trois dimensions. Le résultat d'un tournoi illustre la puissance d'une équipe mixte humain/IA. Voyageur TCS85 est un jeu de bataille navale futuriste qui obéit à deux cents pages de règles définissant les contraintes d'architecture, de coût et de performance pour la flotte (TCS signifie "Trillion Credit Squadron"). Le professeur Lenat a entré ces règles dans EURISKO ainsi qu'un ensemble d'heuristiques pour démarrer et un programme permettant de simuler une bataille entre deux flottes. Il nous dit alors : "le programme générait des flottes et le simulateur servait de mécanisme de "sélection naturelle" améliorant la flotte petit à petit". Le programme tourna toute la nuit à concevoir, tester et tirer des leçons des résultats obtenus. Le matin, Lenat sélectionnait les flottes et rentrait quelques nouveaux conseils. Il évalua le résultat comme provenant à 60% de lui et à 40% d'EURISKO. Lenat s'inscrivit avec EURISKO en 1981 au championnat national de Traveller TCS avec une flotte d'apparence étrange. Les autres participants en rirent, puis perdirent contre elle. La flotte de Lenat/EURISKO gagna toutes ses parties, devenant ainsi le champion national. Comme Lenat le fait remarquer : "Cette victoire est d'autant plus remarquable que personne dans l'équipe de programmation n'avait déjà joué ou vu jouer à ce jeu avant le tournoi et qu'il n'y avait pas de parties d'entraînement". En 1982, les organisateurs de la compétition changèrent les règles. Lenat et EURISKO présentèrent une flotte très différente. Les autres participants rirent de nouveau et perdirent. Lenat et EURISKO gagnèrent à nouveau le championnat national. En 1983, les organisateurs de la compétition indiquèrent à Lenat que s'il s'inscrivait à nouveau et gagnait, le championnat serait annulé. Lenat se retira de la compétition. EURISKO et les autres programmes d'IA montrent que les ordinateurs ne sont pas nécessairement limités à faire un travail ennuyeux et répétitif s'ils sont programmés de la bonne manière. Ils peuvent explorer des possibilités et découvrir de nouvelles idées qui surprennent leurs créateurs. EURISKO a des défauts86 mais il ouvre la voie à une collaboration où un système d'IA et un expert humain, contribuent tous deux par leurs connaissances et leur créativité à un processus de conception. Dans les années qui viennent, des systèmes similaires vont transformer le domaine de l'ingénierie. Une collaboration novatrice entre les ingénieurs et leurs machines utilisera d'une part des logiciels dérivés des systèmes de conception assistée par ordinateur actuels pour effectuer des simulations, d'autre part des logiciels évolutifs, comme EURISKO, pour suggérer de nouveaux concepts à simuler. L'ingénieur s'assiéra devant un écran pour rentrer les objectifs de conception et donner des esquisses de l'objet à concevoir. Le système répondra en affinant le dessin, en simulant et testant le comportement de l'objet et en proposant des alternatives, avec des explications, des graphiques et des diagrammes. L'ingénieur fera alors d'autres suggestions et des modifications ou bien s'attaquera à une autre partie de l'objet, jusqu'à ce qu'il soit entièrement conçu et simulé. En s'améliorant, ces systèmes d'ingénierie automatisée exécuteront de plus en plus vite une part grandissante du travail. Alors l'ingénieur se cantonnera à fixer les objectifs et à choisir parmi les solutions proposées par la machine. L'ingénieur aura de moins en moins souvent besoin de définir les pièces, les matériaux et les configurations. Petit à petit, les ingénieurs pourront espérer obtenir de bonnes solutions en n'imposant que des objectifs généraux. Tout comme EURISKO qui tourna quatre heures pour faire évoluer la flotte de Voyageur TCS sur un simulateur, les systèmes d'ingénierie automatisée travailleront un jour consciencieusement pour faire évoluer des avions de ligne à la fois économiques et sûrs -ou des avions de combat et des missiles plus performants. Comme EURISKO qui a inventé des dispositifs électroniques, les futurs systèmes d'ingénierie automatisée inventeront des machines moléculaires et des appareils électroniques moléculaires, à l'aide de logiciels de simulation moléculaire. De telles avancées dans l'ingénierie automatique amplifieront le phénomène de "conception anticipée" décrit plus tôt. Ainsi, l'ingénierie automatisée ne fera pas qu'accélérer la percée des assembleurs, elle allongera également le saut technologique qui suivra. Finalement, les systèmes logiciels seront capables de concevoir des choses entièrement nouvelles sans aucune aide humaine. Est-ce que la plupart des gens qualifieront ces systèmes d'intelligents ? Ce n'est pas vraiment important. La course à l'IA Des entreprises et des gouvernements dans le monde entier financent des recherches dans le domaine de l'IA parce qu'ils espèrent en tirer des avantages commerciaux et militaires. Les Etats-Unis possèdent de nombreux laboratoires universitaires en intelligence artificielle, ainsi que des nouvelles entreprises portant des noms comme Société des Machines Intelligentese, Compagnie des Machines Pensantesf, Technosavoirg ou Systèmes Cognitifsh... En octobre 198187, le ministère des finances et de l'industrie japonais à annoncé un programme de 850 millions de dollars sur dix ans pour développer des solutions logicielles et matérielles d'IA évoluée. Avec ces fonds, les chercheurs japonais comptent développer des systèmes capables d'effectuer un milliard de déductions par seconde. A l'automne 198487, l'Académie des sciences de Moscou a annoncé le même genre de plan, sur cinq ans et doté de 100 millions de dollars. En octobre 1983, le département de la défense des Etats-Unis a lancé un programme de 600 millions de dollars sur cinq ans intitulé "informatique stratégique"i. Il veut des machines capables de voir, de raisonner, de comprendre le langage parlé et d'aider à prendre des décisions sur le champ de bataille. Comme Paul Wallich le rapporte dans l'IEEE spectrum88, "L'intelligence artificielle est considérée par la plupart des gens comme la pierre angulaire de la prochaine technologie informatique ; de nombreux pays lui accordent une place de choix dans leurs budgets de recherche". L'IA avancée apparaîtra pas à pas et chaque pas apportera son lot de connaissances et de possibilités supplémentaires. Comme pour la technologie moléculaire (et beaucoup d'autres technologies), des tentatives visant à stopper les recherches dans une ville ou dans un pays arriveront au mieux à ce que d'autres prennent les devants. Et si les recherches officielles sur l'IA étaient miraculeusement stoppées partout, ceci aurait au plus pour effet de retarder son apparition mais elle finirait par percer, développée en secret avec des moyens devenant de moins en moins chers, sans contrôle démocratique. Seul un état-monde aux pouvoirs et à la stabilité immenses pourrait véritablement stopper les recherches en IA partout et pour toujours -une "solution" horriblement dangereuse, à la lumière des abus commis dans le passé par un pouvoir purement national. L'IA avancée semble inévitable. Si nous voulons que notre vision du futur soit réaliste, nous ne pouvons pas l'ignorer. Dans un sens, l'intelligence artificielle sera l'outil ultime, parce qu'elle nous aidera à construire tous les outils possibles. Des systèmes d'IA avancée peuvent servir à exterminer les peuples mais ils peuvent aussi nous aider à construire un monde nouveau et meilleur. Des agresseurs peuvent les utiliser pour conquérir ; des défenseurs prévoyants pour maintenir la paix. Ils peuvent même nous aider à contrôler l'IA elle-même. L'entité qui maîtrisera l'IA la première pourrait bien diriger le monde. Comme pour les assembleurs, nous aurons besoin d'être prévoyants et d'employer des stratégies prudentes pour utiliser cette technologie correctement et de manière sûre. Les problèmes à résoudre sont complexes et interdépendants, des détails de la technologie moléculaire au monde du travail en passant par l'économie et les bases philosophiques des droits humains. Le problème le plus fondamental reste cependant de savoir ce que l'IA peut faire. Sommes-nous assez intelligents ? Malgré l'exemple de l'évolution de l'être humain, des critiques pourraient encore dire que les limitations de notre intelligence nous empêcheront, d'une manière ou d'une autre, de créer des machines véritablement intelligentes. Cet argument semble bien faible et revient pour son auteur à déclarer que, comme il ne voit pas comment y arriver, personne d'autre ne fera jamais mieux. Cependant, peu de gens nieront qu'avant de pouvoir programmer des ordinateurs capables d'égaler l'intelligence humaine, il faudra développer de nouveaux concepts en psychologie89. Bien que le chemin qui mène à l'IA semble ouvert, nos connaissances ne permettent pas d'avoir une absolue certitude en sa réalisation, comme celle qu'affichaient quelques ingénieurs (des années avant Spoutnik) d'aller sur la lune avec des fusées ou celle que nous avons de pouvoir construire des assembleurs grâce à la conception protéique. Bien que cela s'apparente à de l'ingénierie, programmer une véritable intelligence artificielle requerra une nouvelle science, ce qui la place au-delà de projections sûres. Nous avons cependant besoin de prédictions fiables. Les gens qui, pour des raisons de confort intellectuel, nourrissent des doutes à l'égard de l'intelligence artificielle vont probablement souffrir d'une vision très inexacte du futur. Heureusement, l'ingénierie automatique est épargnée du préjudice bio-chauvin qui affecte l'IA. La plupart des gens sont moins inquiets devant l'idée de machines concevant d'autres machines que devant l'idée de systèmes d'IA véritablement généralistes. De plus, l'ingénierie automatique a fait ses preuves, il ne reste plus qu'à l'étendre. Cependant, si des systèmes plus généralistes sont susceptibles d'émerger, il serait absurde de ne pas les inclure dans nos calculs. Y a-t-il une manière de contourner le problème de la conception de programmes intelligents ? Dans les années 50, de nombreux chercheurs en IA concentrèrent leurs efforts sur la simulation des fonctions du cerveau par la simulation des neurones. Mais les chercheurs qui travaillaient sur les programmes à base de mots et de symboles firent des progrès plus rapides et le point focal de l'IA se déplaça. Néanmoins, l'idée de simulation neurale perdure et la technologie moléculaire la rendra plus facile à mettre en ¦uvre. Qui plus est, cette approche semble garantie de succès puisqu'elle ne requiert pas la découverte de nouveaux concepts fondamentaux dans l'étude de la nature de la pensée. Les neurobiologistes utiliseront des machines moléculaires ayant la taille de virus90 pour étudier la structure et le fonctionnement du cerveau, cellule par cellule et même molécule par molécule là où ce sera nécessaire. Les chercheurs en IA en apprendront sans doute beaucoup sur l'organisation de la pensée grâce à ces avancées en neurosciences, mais la simulation neurale peut réussir sans disposer de telles connaissances. Les compilateurs traduisent les programmes d'un langage en un autre sans les comprendre. Les photocopieurs reproduisent des motifs graphiques sans les lire. De la même façon, les chercheurs seront capables de copier les configurations neurales du cerveau sur un autre support, sans comprendre leur organisation supérieure. Après avoir appris comment les neurones fonctionnent, les ingénieurs seront à même de concevoir et de construire des dispositifs analogues91 au cerveau mais utilisant des nanomachines évoluées. Ces unités travailleront comme des neurones mais plus rapidement. Les neurones, bien que complexes, semblent suffisamment simples pour qu'un cerveau les comprenne et qu'un ingénieur les imite. A vrai dire, les neurobiologistes ont déjà beaucoup appris sur leur structure et leur fonction, même sans disposer de machineries moléculaires pour les aider dans leur travail. Avec ces connaissances, les ingénieurs seront capables de construire des systèmes d'IA rapides et polyvalents, même sans comprendre le cerveau et sans écrire des programmes intelligents. Ils ont seulement besoin d'étudier la structure neurale du cerveau et de relier entre eux des neurones artificiels pour obtenir la même configuration fonctionnelle. S'ils réalisent et connectent correctement toutes les parties, l'ensemble sera également correct. Une activité "neurale" que nous appelons la pensée circulera alors à travers les circuits, mais plus vite que dans un cerveau, parce que toutes les parties travailleront plus vite. Accélérer la course technologique Des systèmes d'IA avancée semblent possibles et même inévitables mais quel impact auront-ils ? Bien que personne ne puisse répondre pleinement à la question, il est clair que l'ingénierie automatique accélérera notre progression vers les limites du possible. Pour comprendre ces perspectives, nous devons avoir une idée de la vitesse à laquelle ces systèmes intelligents penseront. Les ordinateurs modernes n'ont qu'une petite fraction de la complexité du cerveau mais ils peuvent déjà faire tourner des programmes qui imitent des facultés humaines. Cependant, ils sont totalement différents du cerveau dans leur manière de fonctionner, ce qui rend toute tentative de comparaison directe inutile. Le cerveau fait un très grand nombre de choses en même temps, mais plutôt lentement ; la plupart des ordinateurs ne font qu'une chose à la fois mais à une vitesse étourdissante. Cependant, il est possible d'imaginer un système d'IA construit pour imiter le cerveau non seulement dans sa fonction mais aussi dans sa structure. Ce sera peut-être le résultat d'une approche par simulation neurale ou bien par évolution des programmes d'IA tournant sur des ordinateurs ayant une organisation similaire à celle du cerveau. Quoi qu'il en soit, nous pouvons ainsi utiliser des analogies avec le cerveau humain pour estimer une vitesse minimale pour des systèmes d'IA avancée, construits avec des assembleurs. Les synapses des neurones répondent aux signaux en quelques millièmes de seconde ; des interrupteurs électroniques expérimentaux92 ont des temps de réponse cent millions de fois inférieurs (et les interrupteurs nanoélectroniques seront encore plus rapides). Les influx nerveux circulent à moins de cent mètres par seconde ; les signaux électriques vont plus d'un million de fois plus vite. Cette comparaison grossière des vitesses suggère que des appareils électroniques ayant la structure du cerveau travailleront un million de fois plus vite que des cerveaux fait de neurones (à une vitesse limitée par la célérité des signaux électriques). C'est une estimation grossière, bien sûr. Une synapse de neurone est plus complexe qu'un interrupteur, elle peut modifier sa réponse aux signaux en changeant de structure. Les synapses se forment et disparaissent au cours du temps. Ces changements dans les fibres et les connexions du cerveau matérialisent les changements mentaux à long terme que l'on appelle apprentissage. Cela a ému le professeur Robert Jastrow93, de Dartmouth, au point qu'il décrit le cerveau comme un métier à tisser enchanté, tissant et re-tissant ses configurations neurales au cours de sa vie. Pour imaginer une machine ayant la même flexibilité, représentez-vous ses circuits électroniques entourés de nano-ordinateurs mécaniques et d'assembleurs, de sorte que chaque interrupteur soit un équivalent-synapse en complexité. Tout comme la machinerie moléculaire d'une synapse répond à une activité neurale pour modifier sa structure, les nano-ordinateurs répondront à un signal électrique en dirigeant une nanomachinerie pour modifier la structure d'un interrupteur. Avec une bonne programmation et une communication entre les nano-ordinateurs pour simuler les signaux chimiques, un tel dispositif devrait se comporter exactement comme un cerveau. Malgré sa complexité, cet appareil sera de taille réduite. Les nano-ordinateurs seront plus petits que des synapses et les fils électriques construits avec des assembleurs seront plus fins que les axones et les dendrites des neurones. De minuscules fils et de petits interrupteurs feront des circuits de taille réduite, ce qui aura pour effet d'accélérer encore les flux d'informations en réduisant les distances que les signaux doivent parcourir. Il semble qu'une structure similaire au cerveau tiendra dans moins d'un centimètre cube94. Des trajets plus réduits contribueront à augmenter la vitesse du dispositif qui devrait être ainsi dix millions de fois plus rapide qu'un cerveau humain. Seul le problème du refroidissement pourrait limiter la vitesse de telles machines. Imaginez un dispositif de conception conservatrice, un million de fois plus rapide qu'un cerveau et dissipant un million de fois plus de chaleur95. Le système consiste en un bloc de saphir construit par des assembleurs et de la taille d'une tasse à café. Il est criblé de petits trous par lesquels peut passer un fluide de refroidissement. Un tuyau d'eau sous haute pression est verrouillé sur la partie supérieure96. Il force l'eau à s'écouler vers un tuyau similaire placé en dessous. Des fibres optiques transportant les données et des câbles électriques de forte puissance sortent de chaque côté. Les fils électriques délivrent quinze mégawatts de puissance électrique. Le circuit de refroidissement évacue la chaleur en faisant circuler trois tonnes d'eau (qui est portée à ébullition) par minute. Les fibres optiques transmettent autant d'informations qu'un million de canaux de télévision. Elles assurent les communications avec les autres systèmes d'IA, avec les simulateurs en ingénierie et avec les systèmes d'assembleurs qui construisent les maquettes pour les ultimes tests. Toutes les dix secondes, le système engloutit plus de quarante kilowattheures d'énergie électrique (ce qui vaut environ un dollar). Toutes les dix secondes, le système effectue autant de travail de conception qu'un ingénieur travaillant huit heures par jour pendant une année (ce qui coûte quelques dizaines de milliers de dollars). En une heure, il produit le travail de plusieurs siècles. Et pour produire toute cette activité, le système travaille dans un silence perturbé uniquement par le bruit de l'eau de refroidissement. Ceci répond à la question de la vitesse pure de la pensée mais qu'en est-il de sa complexité ? Le développement de l'IA ne s'arrêtera probablement pas au niveau de complexité d'un unique cerveau humain. Comme le fait remarquer John McCarthy97, du laboratoire d'IA de Stantford, si nous pouvons placer l'équivalent d'un cerveau humain dans un crâne d'acier, nous pouvons placer l'équivalent de dix mille cerveaux dans un immeuble (et une centrale électrique moderne peut fournir assez d'énergie à chacun pour qu'il pense dix mille fois plus vite qu'un humain). A l'idée d'intelligences ultra-rapides mises au service de l'ingénierie, il faut ajouter l'idée d'équipes d'ingénierie ultra-rapides. Les systèmes d'IA en ingénierie seront ralentis dans leur travail par la nécessité de mener des expériences mais pas autant qu'on pourrait le penser. Les ingénieurs d'aujourd'hui doivent mener à bien de nombreuses expériences parce que notre technologie est encore grossière. Qui peut dire à l'avance comment un alliage particulier se comportera une fois forgé puis soumis à dix millions de pliages consécutifs ? Les détail de la fabrication déterminent la nature et les effets des petits défauts qui affaiblissent le métal. Parce que les assembleurs fabriqueront des objets répondant à des spécifications précises, les surprises de la technologie grossière seront évitées. Les concepteurs -humains ou systèmes d'IA- expérimenteront alors seulement quand cela sera moins cher ou plus rapide que la simulation ou plus rarement, quand les connaissances de base seront manquantes. Des systèmes d'IA ayant un accès à des nanomachines accompliront de nombreuses expériences en un temps très court. Ils concevront l'appareillage en quelques secondes et des assembleurs répliquants le construiront immédiatement, sans les délais habituels (commande de pièces spéciales, transport, etc.) qui font traîner les projets aujourd'hui. Un appareillage expérimental de la taille d'un assembleur, d'un nano-ordinateur ou d'une cellule vivante ne prendra que quelques minutes à être construit et les nanomanipulateurs accompliront un million de mouvements par seconde. Lancer un million d'expériences en même temps sera facile. Ainsi, malgré des délais d'expérimentation, les systèmes d'ingénierie automatique feront avancer la technologie à une vitesse incroyable. La pente de la courbe représentant la vitesse des évolutions depuis les temps reculés jusqu'à maintenant et dans le futur ne fera que s'accentuer. Il y a longtemps, la vie progressait par des modifications génétiques lentes et hésitantes. Les esprits capables de communiquer accélérèrent le rythme grâce à la flexibilité des schèmes. L'invention des méthodes scientifiques et technologiques a accéléré encore la vitesse d'évolution des schèmes. La santé, l'éducation et la population grandissante -et de meilleurs outils physiques et intellectuels- ont prolongé cette tendance à l'accélération tout au long de notre siècle. L'automatisation de l'ingénierie augmentera encore plus ce rythme. La conception par ordinateur s'améliorera et les ingénieurs pourront générer des idées et les tester de plus en plus vite. Les successeurs d'EURISKO réduiront les temps de conception en suggérant des idées et en remplissant les détails des innovations humaines. Par la suite, des systèmes d'ingénierie automatique qualifiés travailleront indépendamment. En parallèle, la technologie moléculaire se développera et deviendra plus mature, aidée par les avancées en ingénierie automatique. Alors, les systèmes d'IA construits avec des assembleurs rendront encore plus rapide l'ingénierie automatique, faisant évoluer les idées technologiques à un rythme imposé par des systèmes un million de fois plus rapides qu'un cerveau humain. La vitesse du progrès technologique connaîtra alors une brusque accélération : en un temps très court, beaucoup de domaines technologiques seront poussés jusqu'aux limites fixées par les lois de la nature. Dans ces domaines d'étude, la progression s'arrêtera, puisque les limites ultimes seront atteintes. Cette transformation est une perspective étourdissante. Après cela, si nous survivons, s'étend un monde peuplé d'assembleurs répliquants, capables de construire tout ce qu'on leur demande de faire, sans intervention humaine. Après cela, si nous survivons, s'étend un monde peuplé de systèmes d'ingénierie automatique capables de diriger des assembleurs pour construire des objets aux limites du possible et de la perfection technique. Finalement, des systèmes d'IA posséderont à la fois de fantastiques capacités techniques et des capacités sociales nécessaires à la compréhension du langage humain et de leurs désirs. Si on lui fournissait de l'énergie, des matériaux et des assembleurs, un tel système intelligent pourrait être appelé une "machine génie". Tout ce que vous demanderez, il le fabriquera. Certaines légendes arabes et le sens commun universel nous suggèrent de considérer très sérieusement les dangers que représentent de tels engins créateurs. Les percées décisives dans les domaines de l'IA technique et sociale mettront des années à arriver. Comme le dit Marvin Minsky98, "les machines modestement intelligentes du futur proche promettent seulement de nous donner des serviteurs bon marché, infatigables et obéissants". La plupart des systèmes qualifiés d'intelligents aujourd'hui ne pensent ni n'apprennent. Ils ne sont que des objets capables de distiller grossièrement le savoir d'experts qui leur a été inculqué. Mais l'IA véritable arrivera. La laisser en dehors de nos perspectives serait inconcevable. Attendre l'arrivée de l'IA n'est ni optimiste ni pessimiste : comme toujours, l'optimisme des chercheurs est le pessimisme des technophobes. Si nous ne nous préparons pas à leur arrivée, les systèmes d'IA sociale peuvent représenter une grave menace : considérez les dommages qui ont été causés par les seules intelligences humaines des terroristes et des démagogues. De la même manière, des systèmes d'IA technique peuvent déstabiliser les équilibres militaires mondiaux en donnant à un camp une avancée soudaine et massive. Avec une préparation correcte, cependant, l'intelligence artificielle peut nous aider à construire un futur radieux -pour la Terre, pour les Hommes et pour la propagation de l'intelligence dans l'Univers. Le chapitre 12 proposera une approche permettant de gérer les transformations que les assembleurs et l'IA apporteront. Pourquoi parler de danger dès aujourd'hui ? Parce qu'il n'est jamais trop tôt pour commencer à mettre en place des institutions qui seront capables de traiter ce genre de questions. L'IA technique émerge déjà aujourd'hui et chacune de ses avancées accélérera la course technologique. L'intelligence artificielle est une des nombreuses technologies puissantes que nous devrons apprendre à maîtriser ; chacune de ces technologies apportant un mélange complexe de menaces et d'améliorations. 6 Le monde au-delà de la Terre Ce Bol inversé que l'on appelle le Ciel Et sous lequel, enfermés, nous rampons pour vivre et mourir. Le Rubaiyat d'Omar Khayyam La Terre n'est qu'une petite partie du monde et le reste du monde jouera un rôle important dans notre avenir. En termes d'énergie, de matériaux et de place pour la croissance, l'Univers est presque sans limite. Par le passé, les succès dans l'espace ont régulièrement confirmé les projections des ingénieurs. Dans le futur, une frontière ouverte sur l'espace agrandira le monde humain. Les avancées en nanotechnologies et en IA y joueront un rôle crucial. Les hommes ont mis des siècles à reconnaître l'espace comme une frontière. Jadis, nos ancêtres considéraient le ciel de la nuit comme un dôme noir parsemé de petites étincelles : un spectacle de lumière des dieux. Ils ne pouvaient pas imaginer de voyages spatiaux, parce qu'ils ne savaient même pas que l'espace interstellaire existait. Nous savons maintenant que l'espace existe mais peu de gens ont déjà compris sa valeur, ce qui n'est pas surprenant : nos esprits et nos cultures ont évolué sur cette planète et nous sommes juste en train de faire nôtre l'idée d'une frontière située au-delà du ciel. C'est seulement au XXème siècle que des concepteurs visionnaires comme Hermann Obert et Robert Goddard montrèrent que des fusées pouvaient aller dans l'espace. Ils étaient sûr d'eux parce qu'ils avaient assez de connaissances sur les carburants, les moteurs, les réservoirs et les structures pour être capables de calculer ce que des fusées à plusieurs étages peuvent faire. Mais en 1921, un éditorialiste du New York Times reprocha à Goddard d'avoir affirmé que les fusées pouvaient voler dans l'espace sans air sur lequel s'appuyer. Et même en 1956, l'astronome royal de Grande-Bretagne assura que "le voyage dans l'espace est une véritable idiotie". Ceci montre simplement que les éditorialistes et les astronomes étaient les mauvais experts à interroger à propos du matériel spatial. En 1957, Spoutnik était en orbite, suivi par Youri Gagarine en 1961. En 1969, le monde put contempler des traces de pas sur la lune. Nousj avons cependant payé un prix pour le climat d'ignorance générale entourant les premiers vols spatiaux. Parce que les pionniers de la technologie spatiale n'ont pas cherché à expliquer leurs travaux au public, ils ont été obligés de reprendre sans cesse les explications les plus simples : "Oui, les fusées vont fonctionner dans le vide...Oui, elles atteindront leurs orbites... Occupés à défendre les bases du vol spatial, il eurent peu de temps pour discuter de ses conséquences. Ainsi, quand Spoutnik étonna le monde et embarrassa les Etats-Unis, les gens n'étaient pas prêts : il n'y avait pas eu de grand débat permettant de définir une stratégie spatiale. Quelques pionniers ont vu ce qu'il fallait faire : construire une station spatiale et un vaisseau réutilisable, puis atteindre la Lune ou des astéroïdes pour exploiter leurs ressources. Mais le tumulte provoqué par des politiciens agités eut bien vite raison de ces plans et les hommes politiques américains se tournèrent vers un objectif à la fois grandiose et simple à comprendre. C'est ainsi qu'est né le projet Apollo, la course pour faire atterrir un citoyen américain à l'endroit le plus proche où planter un drapeau. Le projet Apollo court-circuita la construction d'une station et d'une navette spatiale et engendra à la place d'énormes fusées capables d'atteindre la Lune en un bond gigantesque. Le projet fut glorieux, il fournit aux scientifiques quelques informations et engendra de nombreuses retombées technologiques -mais dans le fond, c'était un coup sans lendemain. Les contribuables s'en aperçurent, les membres du congrès aussi et le programme spatial périclita. Pendant le programme Apollo, de vieux rêves étaient ravivés dans l'esprit du public : des rêves simples et romantiques d'installation sur d'autres planètes. Mais les instruments robotisés ont dissout ce rêve de jungle vénusienne en révélant un four planétaire rempli de poison sous haute pression. Ils ont effacé les lignes que les astronomes avaient tracées à la surface de Mars et avec celles-ci les canaux et les martiens. A leur place, Mars est maintenant recouverte de cratères et de canyons balayés par de la poussière sèche. Entre Vénus et le soleil ne se trouvent que les roches cuites de Mercure et au-delà de Mars, un désert de débris et de glaces. Les planètes se révélèrent mortes ou meurtrières et le rêve de nouvelles Terres recula jusqu'aux étoiles lointaines. L'espace semblait être une impasse. Le nouveau programme spatial Un nouveau programme spatial s'est élevé sur les ruines du précédent. Une nouvelle génération de partisans de l'espace, des ingénieurs et des entrepreneurs ont maintenant pour objectif de faire de l'espace la frontière qu'il aurait dû être depuis le début -une place réservée au développement, pas aux gestes politiques inutiles. Ils sont sûrs de leur succès parce que le développement spatial ne requiert pas de percée technologique ou scientifique. En vérité, les humains peuvent conquérir l'espace en appliquant des techniques utilisées depuis vingt ans -et en évitant les vols extravagants, nous pourrions probablement en retirer du profit. Les activités spatiales n'ont pas besoin d'être coûteuses. Considérez le coût élevé nécessaire pour atteindre l'altitude d'orbite aujourd'hui -des milliers de dollars par kilogramme. D'où vient ce prix ? Pour le spectateur d'un lancement spatial, secoué par le rugissement et ébloui par les flammes, la réponse semble facile : le carburant doit coûter une fortune. Pour les avions de ligne, le kérosène représente environ la moitié des coûts d'exploitation directs. Une fusée ressemble à un avion -ils sont tous les deux faits en aluminium et remplis de moteurs, de pupitres de commande et d'électronique -mais le carburant constitue presque toute sa masse quand elle est sur le pas de tir. Ainsi, on s'attendrait à ce que le carburant représente bien plus de la moitié des coûts d'exploitation d'une fusée. Mais cette hypothèse est fausse. Pour les lancements en direction de la Lune, le prix du carburant nécessaire à la mise en orbite était de moins d'un million de dollars -soit quelques dollars par kilo placé en orbite : une fraction d'un pour cent du coût total. Aujourd'hui encore, le carburant ne représente qu'une part négligeable du prix d'un voyage spatial. Pourquoi un vol spatial est-il si cher par rapport à un vol aérien ? En partie parce que les vaisseaux spatiaux ne sont pas produits en grande quantité, ce qui oblige les fabricants à amortir leurs coûts de conception sur seulement quelques unités et à fabriquer ces fusées "à la main", pour un coût très élevé. En outre, la plupart des lanceurs sont jetés après une seule utilisation et même les navettes ne volent que quelques fois par an -leur coût ne peut pas être réparti sur plusieurs vols journaliers pendant des années, à la différence des avions de ligne. Mais des études menées par Boeing Aerospace Company -l'entreprise qui a apporté au monde le transport par avion à bon marché- montrent qu'une flotte de navettes entièrement réutilisables, qui voleraient et seraient gérées comme des avions, diviserait le prix de mise en orbite d'un facteur cinquante ou plus. La clé ne réside pas dans une nouvelle technologie mais dans des économies d'échelle et des modifications de gestion. L'espace offre de vastes horizons industriels. Les avantages des satellites d'observation et de communication en orbite sont bien connus. Les futurs satellites de communication seront suffisamment puissants pour communiquer avec des stations portables au sol, apportant le service ultime en téléphonie mobile. Des entreprises ont déjà en projet de tirer profit de l'apesanteur pour réaliser des séparations délicates intervenant dans la synthèse de médicaments. D'autres compagnies prévoient de fabriquer de meilleurs cristaux semi-conducteurs en orbite. Dans les années qui vont précéder le remplacement des processus de fabrication par les assembleurs, les ingénieurs vont utiliser l'environnement spatial pour étendre les performances de la technologie grossière. L'industrie spatiale va répondre à l'expansion du marché des lancements et en réduire le coût. Cette réduction stimulera à son tour la croissance de l'industrie spatiale. Le transport jusqu'à l'orbite terrestre deviendra alors économique. Les urbanistes spatiaux et les entrepreneurs sont déjà en train de regarder au-delà de l'orbite terrestre, vers les ressources du système solaire. Dans l'espace lointain, cependant, les fusées deviennent rapidement trop chères pour transporter du fret -elles dévorent du carburant qui doit lui-même être amené dans l'espace par d'autres fusées. Les fusées qui brûlent du carburant sont aussi vieilles que les feux d'artifices chinois, bien plus vieilles que la bannière étoilée des Etats-Unis. Elles ont évolué pour des raisons naturelles : elles sont compactes, puissantes et utiles pour les militaires ; elles peuvent fendre l'air et vaincre la gravité. Cependant, les ingénieurs de l'espace sont placés devant des choix99. Les véhicules n'ont pas besoin de fournir une puissante poussée pour avancer sans frottement dans le vide spatial. De petites forces appliquées continuellement peuvent lentement amener des véhicules à des vitesses énormes. La lumière du Soleil qui se réfléchit sur un petit miroir -un voilier solaire- peut fournir une telle force. L'attraction gravitationnelle du soleil en fournit une autre. Ensemble, la pression de la lumière et la gravité du soleil permettent de faire voyager un vaisseau spatial n'importe où dans le système solaire et de le faire revenir. Seule la chaleur près du soleil et le frein que constitue l'atmosphère des planètes limiteront ces voyages, contraignant les voiliers à ne pas s'en approcher. La NASA a étudié des voiliers solaires conçus pour être transportés vers l'espace dans des fusées, mais la résistance nécessaire au lancement et au déploiement risque de les rendre un peu lourds. Finalement, les ingénieurs fabriqueront les voiliers directement dans l'espace, en utilisant une structure à faible masse pour supporter des miroirs faits de fins films métalliques. Le résultat sera un "voilier de lumière100", une classe de voilier solaire à hautes performances. Après une année d'accélération, un voilier de lumière peut atteindre une vitesse de cent kilomètres par seconde, laissant les fusées les plus rapides sur place. Si vous pouvez imaginer un réseau de fils en fibres de carbone ayant la forme d'une toile d'araignée de plusieurs kilomètres et en rotation, avec des trous de la taille de terrains de football entre les fils, vous ne serez pas loin de vous représenter la structure d'un voilier de lumière. Imaginez maintenant que les trous sont recouverts par des panneaux réfléchissants construits avec des feuilles d'aluminium plus fines que des bulles de savon et vous aurez une bonne idée de son apparence : les nombreux panneaux réfléchissants sont reliés ensemble pour constituer une vaste mosaïque de miroirs. Maintenant, imaginez une charge suspendue à la toile d'araignée comme à un parachute pendant que la force centrifuge maintient l'armature ouverte et les miroirs tendus dans le vide : vous savez maintenant ce qu'est un voilier de lumière. Pour construire des voiliers de lumière avec notre technologie grossière, nous devons apprendre à les fabriquer dans l'espace ; leurs vastes réflecteurs seraient trop délicats pour survivre à un lancement puis à un déploiement. Nous aurons besoin de construire la structure globale et les films réflecteurs fins et légers, puis nous devrons utiliser des bras robots télécommandés pour assembler le tout dans l'espace. Mais les ingénieurs spatiaux ont déjà pour objectif de maîtriser les techniques de construction, d'assemblage et de robotique dans d'autres applications spatiales. Si nous construisons des voiliers de lumière assez tôt dans notre développement spatial, les efforts pour les construire nous permettront de nous exercer à ces aptitudes sans que cela nécessite beaucoup de matériel. Bien que vaste, la structure (avec des matériaux pour construire plusieurs voiles) d'un voilier de lumière sera suffisamment légère pour qu'un ou deux vols de la navette suffisent à la mettre en orbite. Une usine de production de voiliers de lumière les construira de manière économique. Les voiliers, une fois produits, ne coûteront presque rien en frais d'exploitation : ils n'auront que peu de pièces mobiles, une petite masse et une consommation de carburant nulle. Ils seront fondamentalement différents des fusées dans leur forme, leur fonction et leurs coûts d'exploitation. En fait, les calculs suggèrent que les voiliers seront environ un millier de fois plus économiques à l'usage. Aujourd'hui, la plupart des gens voient le reste du système solaire comme étant vaste et inaccessible. C'est vaste ; comme la Terre, il faudra des mois pour en faire le tour en voilier. Plus que la distance, c'est le coût du transport qui le met hors de portée. Les voiliers de lumière peuvent faire tomber cette barrière de prix et nous ouvrir la porte du système solaire. Les voiliers solaires rendront les autres planètes faciles à atteindre mais ceci ne les rendra pas beaucoup plus utiles : elles resteront des déserts sans vie. La gravité des planètes empêchera les voiliers d'aller et venir à leur surface, ce qui handicapera l'industrie à la surface de cette planète. Des stations spatiales en rotation peuvent simuler la gravité si nécessaire mais des stations spatiales liées à une planète ne peuvent pas y échapper. Pire encore, l'atmosphère des planètes bloque l'énergie solaire, répand de la poussière, corrode les métaux, réchauffe les réfrigérateurs, refroidit les fours et dégrade les objets. Même la Lune, qui est dépourvue d'atmosphère, cache le Soleil la moitié du temps lors de sa rotation, et sa gravité est suffisante pour attirer un voilier de lumière sans qu'il puisse s'en échapper. Les voiliers sont rapides et infatigables mais peu solides. La grande valeur de l'espace résidera longtemps dans ses ressources en matière, énergie et place. Les planètes occupent de la place et interceptent l'énergie lumineuse. Les ressources matérielles qu'elles offrent ne sont pas idéalement placées. Les astéroïdes, au contraire, sont des montagnes volantes de ressources101 qui orbitent un peu partout dans le système solaire. Certains croisent l'orbite de la Terre ; quelques-uns l'ont même percutée, laissant des cratères à sa surface. Exploiter les astéroïdes semble pratique. Nous avons besoin de fusées rugissantes pour transporter des choses vers l'espace mais les météorites prouvent que les rochers peuvent tomber de l'espace -et comme la navette spatiale, les objets qui tombent de l'espace ne brûlent pas forcément au cours de leur chute. Livrer des blocs de matériaux provenant d'un astéroïde vers des cibles d'atterrissage dans d'anciens lacs salés ne coûtera pas grand chose. Même les petits astéroïdes sont gros à l'échelle humaine : ils contiennent des milliards de tonnes de ressources. Certains astéroïdes contiennent de l'eau et une substance ressemblant à une argile huileuse. D'autres, de la pierre tout à fait ordinaire, d'autres encore sont faits d'un alliage métallique comprenant des éléments rares dans la croûte terrestre (parce qu'ils ont migré vers le noyau métallique au cours de sa formation) : fer nickel, cobalt, métaux précieux du groupe des platinoïdes et or. Un gros morceau d'un kilomètre de diamètre de ce matériau -et il y en a beaucoup- contient du métal précieux pour plusieurs billions de dollars et du nickel et du cobalt en quantité suffisante pour alimenter l'industrie terrestre pendant plusieurs années. Le Soleil déverse dans l'espace des quantités d'énergie facilement récupérables. Une armature d'un kilomètre carré recouverte de film métallique réfléchissant recueillerait plus d'un milliard de watts d'énergie solaire, libérée de toute interférence avec les nuages ou la nuit. Dans le calme de l'espace, le plus frêle collecteur sera aussi durable qu'un barrage hydroélectrique102. Puisque le Soleil dégage en une microseconde l'équivalent de ce que l'humanité consomme en un an, l'énergie ne risque pas de se faire rare dans les quelques années qui viennent. Enfin, l'espace offre également de la place pour vivre. Les hommes ont autrefois imaginé la vie dans l'espace uniquement sur d'autres planètes. Ils ont imaginé des villes enfermées dans des dômes, des planètes arides lentement transformées en lieux habitables ou des planètes habitables gravitant autour d'autres étoiles, trouvées après plusieurs années de voyages. Mais les planètes ont des caractéristiques qui sont rarement idéales en ce qui concerne la gravité, la durée du jour et la position. L'espace libre offre une bien meilleure place pour s'installer. Le professeur Gerard O'Neill103 de l'université de Princeton a mis l'accent sur cette idée, aidant ainsi à raviver l'intérêt pour l'espace après la chute du projet Apollo. Il montra que des matériaux de construction ordinaires comme l'acier et le verre pouvaient être utilisés pour construire dans l'espace des cylindres d'une longueur et d'un diamètre de plusieurs kilomètres. Dans son idée, la terre placée sous les pieds des habitants les protégerait des radiations de l'espace, comme les habitants de la Terre sont protégés par l'atmosphère au-dessus de leur tête. La rotation du cylindre produirait une accélération de la pesanteur égale à celle de la Terre et de grands miroirs et des panneaux transparents feraient rentrer de la lumière dans le cylindre. En ajoutant un sol, des cours d'eau, de la végétation et de l'imagination, on pourrait faire dans ces cylindres des endroits aussi agréables à vivre que les plus belles vallées terrestres. Avec les ressources que nous fournissent les astéroïdes, nous avons de quoi fabriquer un millier de ces nouvelles terres. En adaptant les technologies qui existent aujourd'hui, nous pouvons ouvrir les frontières de l'espace. Cette perspective est encourageante. Elle nous montre un moyen évident d'échapper aux limites terrestres de la croissance, ce qui diminue l'une des peurs qui a jusqu'à présent obscurci notre avenir. La promesse de la frontière spatiale peut donc mobiliser les espoirs humains -une ressource dont nous aurons besoin en abondance quand nous aurons à résoudre d'autres problèmes. L'espace et la technologie avancée En adaptant les technologies actuelles, nous pourrions ouvrir les frontières de l'espace -mais nous ne le ferons pas. Parce qu'en prolongeant la tendance des efforts entrepris actuellement dans le domaine spatial, il nous faudrait plusieurs décennies avant que nous soyons solidement établis dans l'espace. Avant cela, des percées technologiques ouvriront de nouvelles voies. De nos jours une équipe d'ingénieurs met normalement cinq à dix ans pour développer un nouveau système spatial, en dépensant de quelques dizaines de millions à quelques milliards de dollars. Les délais en ingénierie et les coûts rendent les progrès horriblement lents. Dans les années qui viennent, cependant, les systèmes de conception assistée par ordinateur évolueront vers des systèmes d'ingénierie automatique. Avec cette transformation, les délais et les coûts vont diminuer, puis chuter très rapidement. Des systèmes de fabrication contrôlés par ordinateurs réduiront encore plus les coûts. Un jour viendra où la conception et la production automatique auront réduit les prix et les délais de fabrication des systèmes spatiaux d'un facteur dix. Nos progrès dans l'espace seront alors vertigineux. Dans le futur, les colons de l'espace verront-ils dans notre programme actuel la clé de la conquête spatiale ? Probablement pas. Ils auront vu plus de progrès technologiques en quelques années que les ingénieurs actuels en plusieurs décennies. Ils concluront sûrement que les robots et l'IA auront fait plus pour le développement spatial que ne le fit une armée d'ingénieurs de la NASA. La percée des assembleurs et l'ingénierie automatique se combineront et les avancées qui en résulteront rendront surannés nos actuels efforts de conquête spatiale. Dans le chapitre 4, je décris comment les assembleurs répliquants pourront construire un moteur léger et solide sans faire appel à un humain. En utilisant des méthodes similaires, nous construirons des vaisseaux spatiaux entiers aux performances extraordinaires et à faible coût. Pour une même masse, leur structure en fibres de diamant aura environ cinquante fois la résistance et quatorze fois la rigidité de l'aluminium utilisé dans les fusées à l'heure actuelle. Des engins construits avec ces matériaux peuvent être dix fois plus légers que nos véhicules. Une fois dans l'espace, les vaisseaux étaleront leurs panneaux pour récupérer l'énergie solaire abondante. Cette énergie pourra servir à alimenter des assembleurs104 et des désassembleurs qui pourront réparer le vaisseau ou le faire évoluer selon les conditions extérieures ou la fantaisie des passagers. Aujourd'hui, le voyage spatial est un défi. Demain, il sera facile et pratique. Puisque les nanotechnologies se prêtent bien à la fabrication de petites choses, il faut penser au plus petit vaisseau transportant une personne : la combinaison spatiale. Obligés d'utiliser des matériaux lourds, fragiles et passifs, les ingénieurs font des combinaisons volumineuses et incommodes. Un regard sur des combinaisons spatiales évoluées illustrera quelques possibilités offertes par les nanotechnologies. Imaginez que vous êtes à bord d'une station spatiale, mise en rotation pour simuler la gravité terrestre. Après quelques instructions, vous recevez une combinaison spatiale pour l'essayer. Elle est grise, caoutchouteuse et munie d'un casque transparent. En la prenant, vous constatez son poids important, puis vous vous déshabillez et l'enfilez en rentrant par devant. La combinaison semble plus douce que de la gomme mais sa surface interne est glissante, si bien qu'elle s'enfile très facilement. La couture se referme sans laisser de traces. La combinaison recouvre tout le corps de manière très serrée ; comme un fin gant de cuir autour des doigts, puis allant en s'épaississant lorsqu'on remonte sur les bras pour finir en ayant l'épaisseur d'une main sur le torse. Derrière vos épaules se trouve incorporé un petit sac à dos, à peine visible. Le casque est autour de votre tête, quasiment invisible. La combinaison vous serre un peu à la gorge mais cette pression uniforme disparaît bientôt. Vous vous levez et marchez un peu, en étudiant les nouvelles sensations que vous ressentez. Vous vous mettez sur la pointe des pieds et ne ressentez pas le poids supplémentaire de la combinaison. Vous vous contorsionnez, vous étirez et ne ressentez pas de contraintes, pas de plis, pas de zones comprimées. Quand vous frottez vos doigts les uns contre les autres, ils vous paraissent aussi sensibles que s'ils étaient nus -juste un peu plus épais. Quand vous respirez, l'air paraît frais et sain. En fait, vous pourriez tout à fait oublier que vous portez une combinaison spatiale. Qui plus est, vous vous sentez aussi bien quand vous sortez dans le vide sidéral. La combinaison arrive à faire tout ceci et plus encore grâce à une activité complexe de sa structure qui est presque aussi compliquée que celle d'un tissu vivant. Un doigt de gant d'un millimètre d'épaisseur peut contenir un millier de couches d'un micron d'épaisseur, constituées de nanomachineries et de nanocomposants électroniques. Un bout de combinaison de la taille d'un ongle peut contenir un milliard de nano-ordinateurs mécaniques et il resterait encore 99,9 % de la place pour mettre d'autres composants. En particulier, cela laisse de la place pour une structure active. La couche intermédiaire de la combinaison105 est tissée en trois dimensions avec des fibres de diamant qui agissent comme des muscles artificiels, capables de pousser et de tirer (voir les Notes). Ces fibres occupent la majorité du volume et rendent la combinaison aussi solide que l'acier. Alimentées par des moteurs électriques microscopiques et contrôlées par des nano-ordinateurs, elles donnent à la combinaison sa grande souplesse en l'étirant, la contractant ou la pliant selon les besoins. Si combinaison paraissait douce au début, c'est parce qu'elle avait été programmée pour agir de façon à être douce. Cette combinaison n'a pas de mal à conserver sa forme dans le vide : elle est suffisamment solide pour ne pas exploser comme un ballon. Il lui est aussi facile de supporter son propre poids et de se mouvoir rapidement et sans heurts pour être en harmonie avec vos mouvements, sans que vous éprouviez la moindre résistance. C'est une des raisons qui vous la font oublier. Vos doigts semblent nus parce que vous ressentez réellement la texture de ce que vous touchez. Ceci est possible parce que la surface de la combinaison est recouverte de capteurs de pression et que la doublure en contact avec vos doigts est une structure active : le gant perçoit la forme de tout ce que vous touchez -la répartition détaillée des pressions- et transmet ces informations à la couche interne de la combinaison pour que votre main ressente la même chose. Le processus inverse a également lieu puisque le gant transmet vers l'extérieur l'ensemble des forces appliquées par la peau sur la paroi intérieure. Ainsi, le gant vous fait croire qu'il n'est pas là et vos doigts vous semblent presque nus. Cette combinaison a la résistance de l'acier et la flexibilité de votre corps. Mais vous pouvez tout à fait reprogrammer les paramètres de la combinaison pour faire en sorte que la force de vos mouvements soit multipliée par dix et que les chocs que vous recevez voient leur intensité divisée par dix106. Vous êtes maintenant prêt pour faire du catch contre un gorille. L'air frais que vous respirez ne doit pas vous surprendre : votre sac à dos contient une réserve d'air ainsi que des vivres. Cependant, après quelques jours passés dehors à la lumière du Soleil, vos réserves d'air ne seront pas épuisées : comme une plante, la combinaison absorbe la lumière et le dioxyde de carbone que vous exhalez pour le transformer en oxygène. Comme une plante également (ou un écosystème en entier), le système réduit les autres déchets en des molécules simples et les réassemble en de nouvelles configurations moléculaires pour donner une nourriture fraîche et saine. En fait la combinaison vous procurera une enveloppe confortable107, vous permettant de respirer et de manger n'importe où dans le système solaire. Qui plus est, la combinaison est durable. Elle peut tolérer la panne de nombreuses nanomachines parce qu'elle en contient bien plus que nécessaire. L'espace entre les fibres actives est suffisant pour que des assembleurs et des désassembleurs y circulent et réparent les dispositifs altérés. La combinaison se répare aussi vite qu'elle se dégrade. La combinaison pourrait encore avoir de nombreuses fonctions. Une poussière plus petite qu'une tête d'épingle peut contenir le texte de tous les livres publiés depuis les débuts de l'écriture. Ils peuvent être lus sur un écran dépliable. Une autre poussière pourrait être une "graine" contenant plus de plans d'appareils que l'humanité n'en a déjà dessiné108 en même temps qu'un petit nombre d'assembleurs pour pouvoir fabriquer n'importe lequel d'entre eux (ou tous). Qui plus est, des systèmes rapides d'IA technique comme ceux décrits dans le chapitre précédent pourraient concevoir la combinaison en une matinée109 et la construire pour l'après-midi. Tout ce que nous accomplissons dans l'espace avec notre technologie grossière sera largement dépassé peu de temps après l'arrivée de la technologie moléculaire et de l'ingénierie automatique. En particulier, nous fabriquerons des assembleurs répliquants capables de travailler dans l'espace110. Ces réplicateurs utiliseront l'énergie solaire comme le font les plantes pour convertir la matière des astéroïdes en copies d'eux-mêmes et en produits utiles à l'homme. Avec eux, nous accéderons aux ressources du système solaire. La plupart des lecteurs auront noté que tout ceci, comme certaines discussions précédentes, ressemble à de la science fiction. Certains s'en réjouiront, d'autres seront consternés qu'on puisse croire que le futur revêtira un aspect aussi merveilleux. Certains auront peut-être le sentiment que "ressembler à de la science fiction" constitue déjà l'amorce d'un argument de réfutation. Ce sentiment est répandu et mérite qu'on y porte attention. La technologie et la science fiction entretiennent depuis longtemps une curieuse relation. Pour imaginer des technologies du futur, les auteurs de SF ont été guidés en partie par la science, en partie par les grands désirs humains et en partie par la demande du marché en histoires insolites. Certaines de leurs rêveries sont devenues plus tard des réalités, parce que des idées qui semblent plausibles et intéressantes dans la fiction sont parfois possibles dans la réalité. Qui plus est, quand les scientifiques et les ingénieurs prédisent une importante avancée, comme les vols spatiaux grâce aux fusées, les auteurs de SF s'emparent de l'idée et la popularisent. Puis quand les avancées en ingénierie rendent ces prédictions proches de leur réalisation, d'autres auteurs examinent les faits et dépeignent les perspectives. Ces descriptions, à moins qu'elles ne soient vraiment très abstraites, sonnent alors comme de la fiction. Les possibilités de demain ressembleront toujours à la fiction d'aujourd'hui, comme dans le cas des robots, des fusées et des ordinateurs qui ressemblent à la fiction d'hier. Comment pourrait-il en être autrement ? De nouvelles technologies révolutionnaires ressemblent à de la science fiction parce que les auteurs de SF, malgré leur fantaisie débordante, ne sont pas aveugles et ont des intérêts professionnels dans le domaine. Les auteurs de SF "fictionalisent" -c'est-à-dire contrefont- le contenu scientifique de leurs histoires pour "expliquer" des technologies révolutionnaires. Quelques esprits brouillons mélangent alors toutes les descriptions d'avancées techniques décisives avec cette fausse science et rejettent le tout : c'est regrettable. Quand les ingénieurs font des projections au sujet de leurs futures capacités, ils testent leurs idées et les adaptent aux dernières découvertes sur les lois de la nature. Les concepts qui en résultent ne doivent pas être confondus avec des idées qui ont évolué pour répondre à une demande de fiction en livre de poche. Nos vies en dépendront. Mais beaucoup de choses resteront impossibles, même avec une technologie moléculaire. Aucune combinaison spatiale, aussi merveilleuse soit-elle, ne pourra propulser son utilisateur de ci de là indéfiniment et à grande vitesse, résister à de fortes explosions ou passer à travers les murs ou même rester indéfiniment froide dans une pièce surchauffée. Nous avons beaucoup de chemin à faire avant d'atteindre les limites du possible, cependant ces limites existent bel et bien. Mais ce sujet sera traité plus tard. Abondance Les ressources spatiales, associées aux assembleurs et à l'ingénierie automatique ouvrent les portes d'un futur de grande abondance matérielle. On peut mieux se le représenter en examinant les coûts. Les coûts reflètent les limites de nos ressources et de nos capacités ; des coûts élevés sont synonymes de ressources rares et d'objectifs difficiles. Les annonciateurs de pénurie ont en effet prédit une croissance rapide du coût des ressources déterminante pour l'avenir. Mais le prix des ressources dépend toujours de la technologie. Malheureusement, les ingénieurs qui ont essayé de prédire les coûts associés aux futures technologies se sont généralement heurtés à un enchevêtrement de détails et d'incertitudes qui rendaient la tâche impossible. Ce problème a obscurci notre compréhension du futur. La perspective d'assembleurs répliquants, d'ingénierie automatique et de ressources spatiales coupe le n¦ud gordien de la prédiction des coûts. Aujourd'hui, le prix des produits inclut le coût du travail, du capital, des matières premières, de l'énergie, du terrain, des déchets, de l'organisation, de la distribution, des taxes et de la conception. Pour voir comment les coûts totaux vont changer, considérons ces éléments un par un. Travail. Les assembleurs répliquants se passeront du travail de l'homme pour construire, dès que le premier d'entre eux existera. A quoi pourrait bien servir une main pour diriger un assembleur ? De plus, avec des robots de tailles diverses pour assembler les pièces en des systèmes plus grands, le processus de fabrication en entier, de l'assemblage des molécules à l'assemblage des gratte-ciel peut être libéré des coûts de travail. Capital. Des systèmes d'assembleurs, s'ils sont correctement programmés, seront eux-mêmes un capital productif. Avec des robots de taille supérieure, ils seront capables de construire pratiquement tout, y compris des copies d'eux-mêmes. Et puisque ce capital peut se répliquer plusieurs fois par jour, seules la demande et les ressources limiteront son importance. Un capital que l'on possède à volonté ne coûte pratiquement rien. Matières premières. Comme les machines moléculaires arrangeront les atomes de la meilleure manière possible, elles produiront beaucoup avec peu de matière. Pour l'essentiel, la construction de la plupart des infrastructures et la fabrication des véhicules, des ordinateurs, des vêtements, etc. semblent réalisables avec des éléments très répandus : l'hydrogène, le carbone, l'azote, l'oxygène, l'aluminium et le silicium sont les meilleurs pour cela. Ils sont légers et forment des liaisons solides. Parce que la terre et l'air contiennent ces éléments en abondance, la matière première ne coûtera presque rien. Energie. Les assembleurs pourront exploiter aussi bien l'énergie chimique que l'énergie électrique. Des systèmes construits par des assembleurs convertiront l'énergie solaire en énergie chimique, comme les plantes ou en énergie électrique, comme les cellules solaires. Les cellules solaires actuelles sont déjà plus efficaces que les plantes. Avec des assembleurs répliquants pour construire ces panneaux solaires, le carburant et l'électricité seront bon marché. Terrain. Les systèmes de production à base d'assembleurs occuperont une place réduite. La plupart pourront tenir dans une armoire -ou dans un dé à coudre ou dans un chas d'aiguille. Des systèmes plus imposants pourront être enterrés et s'il faut vraiment beaucoup de place, ils pourront être installés dans l'espace. Et les systèmes de production à base d'assembleurs rendront les foreuses et les vaisseaux spatiaux bon marché. Déchets. Les systèmes d'assembleurs contrôleront entièrement les atomes qu'ils utiliseront ; la production sera donc aussi propre que la croissance d'un pommier, ou même plus propre. Et si le verger est encore trop polluant ou laid, nous pourrons l'installer ailleurs que sur la Terre111. Organisation. Aujourd'hui, les usines ont besoin d'une organisation précise pour coordonner des flots d'ouvriers et de cadres. Les machines de production fondées sur des assembleurs se passeront des hommes et resteront sagement au même endroit pour fabriquer ce qu'on leur ordonne de construire. Leur programmation initiale leur fournira toute l'organisation et toutes les informations requises pour produire une gamme étendue de produits. Distribution. En premier lieu, la distribution sera réduite par les assembleurs domestiques. Avec des véhicules automatiques circulant dans des tunnels creusés par des foreuses bon marché, elle ne nécessite ni labeur des hommes ni destruction du paysage. Taxation. La plupart des taxes prennent un pourcentage fixe du prix et ajoutent ainsi un pourcentage fixe aux coûts. Si les coûts sont négligeables, les taxes seront négligeables. De plus, les gouvernements, en disposant de leurs propres assembleurs et matières premières, auront moins de raisons de taxer les particuliers. Conception. Ce point également va dans le sens d'une production à faible coût. Des systèmes d'IA technique, en évitant le coût du travail d'ingénierie, réduiront de manière significative les charges liées à la conception. Ces systèmes d'IA seront eux-mêmes économiques à produire et à faire fonctionner puisqu'ils seront construits avec des assembleurs et qu'ils n'auront pas d'autres occupations que de concevoir des choses. Pour résumer, après une suite de développements profitables en informatique et en technologies moléculaires, les coûts de conception et de production des biens chuteront de manière vertigineuse. Je parle plus haut de matière première "pour rien " et en effet, les assembleurs pourront faire presque n'importe quoi avec de la terre et de la lumière. Avec les ressources spatiales, la matière première coûtera "moins que rien" : la couche arable est précieuse dans l'écosystème de la terre, alors que la matière des astéroïdes proviendra d'espaces désertiques, mornes et morts. Du même coup, les assembleurs travailleront économiquement dans l'espace avec la lumière provenant directement du Soleil. Les ressources spatiales sont vastes. Un astéroïde pourrait enterrer un continent sous un kilomètre de matériaux. L'espace engloutit 99,999999955 % de la lumière du Soleil qui passe à côté de la Terre et la plus grande partie de cette énergie est perdue dans le vide intersidéral. L'espace contient suffisamment de matière, d'énergie et de place pour nourrir de vastes projets, y compris de grandes colonisations spatiales. Des systèmes à base de réplicateurs pourront construire de nouveaux mondes grands comme des continents, ressemblant aux cylindres du Dr O'Neill mais faits avec des matériaux plus solides, à base de carbone. Avec ces matériaux et de l'eau trouvée dans les lunes glacées provenant de l'extérieur du système solaire, nous serons capables non seulement de construire des terres dans l'espace mais aussi de véritables mers, plus grandes et plus profondes que la Méditerranée. Produits avec de l'énergie et des matériaux trouvés dans l'espace, ces nouvelles mers et ces nouveaux continents ne coûteront quasiment rien à la Terre et à ses habitants en termes de ressources. La principale condition requise sera la fabrication du premier réplicateur mais les systèmes d'IA technique nous y aideront. Le plus grand problème sera de décider de ce que l'on veut faire. Comme Konstantin Tsiolkovsky l'a écrit112 à la fin du siècle dernier, "L'homme ne restera pas toujours sur la Terre ; la quête de la lumière et de l'espace le poussera à pénétrer les limites de l'atmosphère, timidement d'abord, puis sans retenue, pour aller conquérir l'ensemble du système solaire". A l'espace mort, nous apporterons la vie. Et les réplicateurs nous donneront les ressources nécessaires pour atteindre les étoiles. Un voilier de lumière poussé vers les étoiles par le seul rayonnement du Soleil se retrouverait vite dans le noir et mettrait des millénaires à franchir l'océan interstellaire -ce qui est tout de même bien plus rapide que les fusées modernes. Mais nous pourrions construire un gigantesque projecteur constitué de lasers en orbite autour du Soleil pour diriger un faisceau de lumière bien au-delà de notre système solaire113, propulsant ainsi un voilier à une vitesse relativiste (proche de celle de la lumière). La traversée ne prendra alors plus que quelques années. Une fois la distance franchie se pose le problème de la décélération. Freeman Dyson114, de Princeton, propose de freiner avec des champs magnétiques qui entreraient en contact avec le gaz ionisé ténu que l'on trouve entre les étoiles. Robert Forward115 du Hughes Research Laboratory suggère de faire rebondir le laser sur la voile pour qu'il vienne freiner un voilier de plus petite dimension qui la suivrait. D'une manière ou d'une autre (et il y en a beaucoup d'autres), les étoiles elles-mêmes sont à notre portée. Pour une longue période à venir cependant, le système solaire peut fournir assez de place. L'espace près de la Terre est assez grand116 pour contenir l'équivalent d'un million de fois la surface terrestre. Rien ne s'oppose à une émigration et ces nouveaux mondes seront totalement indépendants. Nous n'aurons pas de problèmes pour alimenter en énergie nos systèmes de transport -la lumière du Soleil qui tombe sur la Terre fournit assez d'énergie en dix minutes117 pour mettre toute la population de la planète en orbite. Les voyages spatiaux et la colonisation spatiale deviendront économiques. Si nous utilisons de manière avisée la technologie moléculaire, nos descendants se demanderont ce qui nous aura tenu pendant si longtemps et dans une telle misère à la surface de la Terre. La société à bilan positif Il peut sembler que le prix de tout sera réduit à néant -même celui des terrains si personne ne les fait disparaître en creusant quelques milliers de kilomètres sous nos pieds. C'est à la fois vrai et faux. Les gens donneront toujours de la valeur à la matière, à l'énergie, à l'information, aux services humains ; ainsi, tout aura encore un prix. Et à plus long terme, nous devrons faire face à de véritables limites de la croissance, aussi ne peut-on pas négliger le coût des ressources. Néanmoins, si nous survivons, les réplicateurs et les ressources spatiales nous apporteront une longue ère de prospérité au cours de laquelle les véritables limites des ressources ne nous aiguillonneront pas trop -une ère où, pour nos standards actuels, même la plus grande profusion semblera gratuite. Cela peut paraître trop beau pour être vrai mais la nature, comme d'habitude, n'a pas fixé ses limites en s'appuyant sur des sentiments humains. Nos ancêtres pensaient que parler avec quelqu'un habitant de l'autre côté de la mer (à plusieurs mois de voyage en bateau à voile) serait trop beau pour être vrai : les câbles sous-marins et les satellites le permettent quand même. Mais il y a une autre réponse, moins plaisante, pour ceux qui pensent que les assembleurs sont trop beaux pour être vrais : ils nous menacent de périls et d'armes plus dangereuses que tout ce que nous connaissons déjà. La raison voudrait qu'on bannisse la nanotechnologie faute de la maîtriser, à condition que ce soit possible. Cependant, la course technologique fera émerger les assembleurs à partir des biotechnologies, aussi sûrement que les fusées spatiales ont émergé de la technologie des missiles. Les avantages militaires à eux seuls seront suffisants pour nous mener presque inévitablement aux assembleurs. Les assembleurs sont inévitables mais ils sont peut-être contrôlables. Notre défi est d'en éviter les dangers et cela nécessitera une coopération. Nous sommes plus enclins à coopérer si nous comprenons combien nous avons à y gagner. Les perspectives du développement spatial et des assembleurs répliquants nous aideront peut-être à chasser quelques schèmes anciens et dangereux. La vie humaine a longtemps été un jeu à somme nulle. Les tribus humaines vivaient près de leurs limites écologiques et elles se combattaient pour l'espace vital. Quand les pâturages, les champs et les terrains de chasse constituaient la richesse, plus pour un groupe signifiait moins pour un autre. Parce que le gain de l'un était à peu près égal à la perte de l'autre, le bénéfice net était nul. Cependant, les gens qui coopéraient dans d'autres activités ont prospéré et c'est ainsi que nos ancêtres, qui jusqu'à présent se contentaient de cueillir, ont appris à construire en coopération. Dans le cas des taxes, des paiements et des batailles juridiques, "plus pour quelqu'un" est encore synonyme de "moins pour un autre". Nous augmentons les richesses totales lentement, mais nous les redistribuons très vite. Pour un jour donné, nos ressources semblent fixées et cela nous donne l'illusion que la vie est un jeu à gain nul. Cette illusion suggère qu'une large coopération est inutile, parce que notre gain doit résulter d'une perte équivalente chez l'adversaire. L'histoire des avancées humaines prouve qu'il peut y avoir un gain global. La croissance économique, qui est allée en s'accélérant durant les derniers siècles, montre que les riches peuvent devenir plus riches et les pauvres plus riches également. Malgré la croissance de la population -et l'idée de partager un même gâteau-, la richesse moyenne par habitant dans le monde entier (en incluant bien sûr le Tiers Monde), a crû de manière régulière. Les fluctuations économiques, les bouleversements locaux et la tendance naturelle des médias à s'appesantir sur les mauvaises nouvelles se combinent pour occulter cette réalité de la croissance économique ; mais les statistiques officielles le montrent clairement. Les ressources spatiales et les assembleurs répliquants vont accélérer cette tendance historique au-delà des rêves des économistes, précipitant ainsi l'espèce humaine dans un nouveau monde. 7 Les engins de guérison Ce qui distingue notre génération des précédentes, c'est que nous avons vu nos atomes. Karl K. Darrow, La renaissance de la physique Nous utiliserons la technologie moléculaire pour guérir, parce que le corps humain est fait de molécules. Une personne âgée, un malade ou un blessé souffrent tous de configurations d'atomes incorrectes, qu'ils soient mal placés à cause du temps écoulé, d'une invasion de virus ou d'un accident de voiture. Des dispositifs capables de réarranger les atomes pourront les remettre à la bonne place. Les nanotechnologies apporteront une percée fondamentale en médecine. Les médecins s'appuient essentiellement sur la chirurgie et les médicaments pour soigner. Les chirurgiens ont commencé par faire des points de suture et amputer des membres pour maintenant les rattacher et réparer des c¦urs. En utilisant des microscopes et de fins outils, ils recousent de petits vaisseaux sanguins et des nerfs. Cependant, même le meilleur microchirurgien ne peut pas couper et coudre des structures plus fines. Les scalpels modernes et les sutures sont simplement trop grossiers pour réparer les capillaires, les cellules et les molécules. Mettez-vous à la place d'une cellule pour observer une intervention chirurgicale "délicate" : une énorme lame s'abat brutalement, découpant aveuglément les machineries cellulaires d'une foule de cellules qui meurent par milliers. Plus tard, un obélisque géant plonge parmi les cellules divisées, traînant derrière lui un câble aussi gros qu'un train de marchandises pour encorder les cellules ensemble. Du point de vue d'une cellule, même l'opération la plus délicate, menée par des mains expertes équipées d'outils raffinés, reste un travail de boucher. Seule la faculté qu'ont les cellules d'abandonner leurs morts, de se regrouper et de se multiplier rend possible la guérison. Cependant, comme beaucoup de victimes paralysées à cause d'un accident le savent, tous les tissus ne guérissent pas. Les thérapies médicamenteuses, à la différence de la chirurgie, agissent sur les plus petites structures des cellules. Les molécules des drogues sont des dispositifs moléculaires simples. Nombre d'entre elles influencent des molécules spécifiques dans les cellules. La morphine, par exemple, se lie à une molécule réceptrice dans les cellules du cerveau, diminuant ainsi les impulsions nerveuses qui signalent la douleur. L'insuline, les bêtabloquants et les autres médicaments se lient à d'autres récepteurs. Mais les médicaments travaillent sans être dirigés. Une fois injectés dans le corps, ils y circulent et se cognent au hasard jusqu'à ce qu'ils tombent sur une molécule cible à laquelle ils s'accrochent pour modifier sa fonction. Les chirurgiens voient les problèmes et programment leurs actions mais ils manient des outils grossiers ; les molécules de médicaments agissent sur les tissus à l'échelle moléculaire mais elles sont trop simples pour sentir, planifier et agir. En revanche, les machines moléculaires pilotées par des nano-ordinateurs offriront aux médecins une autre possibilité. Elles comporteront des capteurs, des programmes et des outils moléculaires pour former des systèmes capables d'examiner et de réparer les composants ultimes des cellules. Elles introduiront le contrôle chirurgical dans le domaine moléculaire. Ces appareils évolués mettront des années à arriver mais des chercheurs en médecine étudient déjà les machines et l'ingénierie moléculaires. Les meilleurs médicaments agissent sur des machines moléculaires précises de manière spécifique. La pénicilline, par exemple, bien qu'elle ait peu d'effet sur nos cellules, tue certaines bactéries en bloquant la nanomachinerie qu'elles utilisent pour fabriquer leur paroi. Les biochimistes étudient les machines moléculaires pour apprendre comment les construire et les détruire. Il existe dans le monde (et plus particulièrement dans le Tiers Monde) une éc¦urante variété de virus, de bactéries, de protozoaires, de champignons et de vers qui parasitent les humains. Des drogues sûres et efficaces contre ces organismes bloqueraient leur machinerie moléculaire sans altérer la nôtre. Le Dr Seymour Cohen118, professeur de pharmacologie à l'université de Stony Brooks (New York), milite pour que les biochimistes étudient systématiquement la structure des machines moléculaires de ces parasites. Car une fois déterminée la forme et la fonction d'une machine protéique essentielle, il est souvent possible de concevoir une molécule qui va empêcher son fonctionnement. De tels médicaments pourraient libérer l'humanité d'horreurs ancestrales comme la bilharziose ou la lèpre et de plus récentes comme le SIDA. Les groupes pharmaceutiques modifient déjà des molécules grâce aux données obtenues sur leur fonctionnement. Des chercheurs de chez Upjohn Company119 ont conçu et synthétisé des molécules modifiées de vasopressine, une hormone faite d'une courte chaîne d'acides aminés. La vasopressine stimule le c¦ur et ralentit la production d'urine par les reins, ce qui augmente la pression sanguine. Les chercheurs ont conçu une molécule de vasopressine qui agit plus sur les récepteurs des reins que sur ceux du c¦ur. Les effets thérapeutiques du médicament sont ainsi mieux contrôlés. Plus récemment, ils ont synthétisé une molécule de vasopressine modifiée qui se lie aux récepteurs des reins mais qui ne produit pas d'effet direct. En bloquant les récepteurs, elle inhibe l'action de la vasopressine naturelle. Les besoins médicaux vont encourager ces travaux et les chercheurs iront plus loin encore dans le processus de conception et d'ingénierie moléculaire. Les pressions médicales, militaires et économiques poussent toutes dans la même direction. Et comme les perspectives en biotechnologie le garantissent, la technologie moléculaire apportera d'importantes avancées en médecine, même avant la percée des assembleurs. Cependant, ces avancées se feront au coup par coup et seront difficiles à prévoir car chacune exploitera un détail biochimique. Plus tard, quand nous appliquerons la technologie des assembleurs et des systèmes d'IA technique à la médecine, nous aurons des capacités plus générales, plus faciles à prévoir. Pour comprendre ces facultés, imaginez les cellules et leurs mécanismes d'auto-réparation. Dans les cellules de votre corps, les radiations naturelles et les produits chimiques nocifs brisent des molécules, qui donnent des fragments moléculaires réactifs. Ces fragments peuvent forcer d'autres molécules à établir des liaisons avec eux. Comme des projectiles ou des boules de glu peuvent endommager les machines, les radiations et les fragments réactifs endommagent les cellules en altérant les machines cellulaires ou en les agglomérant. Si les cellules ne pouvaient pas se réparer, les dégâts causés à leurs mécanismes les tueraient rapidement ou les laisseraient s'emballer en altérant leurs systèmes de régulation. L'usine auto-répliquante du chapitre 4 se répare en remplaçant ses parties endommagées ; c'est ce que font les cellules. Tant que l'ADN d'une cellule reste intact, il peut produire des séquences moléculaires d'informations dépourvues d'erreurs qui vont servir à diriger l'assemblage de nouvelles machines protéiques par les ribosomes. Malheureusement pour nous, l'ADN lui-même peut être endommagé ; cela se traduit par des mutations. Des enzymes de réparation compensent une partie des dégâts en agissant dans certains cas. Ces réparations aident les cellules à survivre mais les machines correctrices sont trop simples pour corriger toutes les erreurs, dans l'ADN ou ailleurs. Celles-ci s'accumulent et contribuent au processus de vieillissement et à la mort des cellules -et des personnes. La vie, l'esprit et les machines Est-il sensé de parler des cellules comme de "machineries", auto-réparantes ou non ? Car puisque nous sommes faits de cellules, cela semble nous réduire à de "simples machines", ce qui entre en contradiction directe avec une conception sacrée de la vie. Une définition du globalisme120 peut être : "théorie selon laquelle la réalité est faite d'ensembles qui sont plus que la somme de leurs parties". Ceci s'applique certainement pour les êtres humains : la simple somme de nos parties ressemblerait à un hamburger sans vie et sans esprit. Le corps humain contient dix mille milliards de milliards de protéines, et une machine si complexe mérite plus que l'adjectif "simple". Toute description brève d'un système aussi complexe est forcément incomplète. Cependant, le niveau cellulaire peut être décrit comme une machine. La cellule considérée dans son ensemble peut sembler moins mécanique mais les biologistes trouvent quand même utile de la décrire ainsi. Les biochimistes ont démêlé ce qui constituait autrefois le mystère central de la vie et ils commencent à en décrire les mécanismes en détail. Ils ont compris comment les machines moléculaires cassent les molécules dans la nourriture en des composants élémentaires afin de les réassembler pour renouveler les tissus. De nombreux détails de la cellule humaine demeurent inconnus (une seule cellule contient des milliards de macromolécules de plusieurs milliers de sortes) mais les biochimistes ont déjà "cartographié" la totalité de certains virus. Les laboratoires de biochimie sont souvent décorés de grands schémas qui récapitulent comment les principales molécules de bases interagissent dans une bactérie. Les biochimistes comprennent la plus grande partie du processus de la vie en détail et ce qu'ils ne connaissent pas semble obéir aux mêmes principes. Le mystère de l'hérédité est devenu l'industrie de l'ingénierie génétique. Même le développement embryonnaire et la mémoire sont en cours d'explication par des changements dans la biochimie et la structure des cellules. Dans les dernières décennies, l'interrogation sur ce que nous ignorons encore a changé. Il y a quelque temps, quand les biologistes se penchaient sur la vie, ils disaient : "Comment est-ce possible ?". Mais aujourd'hui, ils en comprennent les principes généraux et quand ils étudient un processus particulier en détail, ils se demandent plutôt : "Parmi toutes les manières possibles de le faire, quel fut le choix de la nature ?". Dans beaucoup de cas, leurs études ont réduit le champ des explications à une seule. Certains processus biologiques -la coordination cellulaire pour former des embryons, l'apprentissage et les systèmes immunitaires- restent de véritables défis à notre imagination. Ce n'est pas qu'un épais mystère entoure le fonctionnement de leurs parties, c'est que la complexité des interactions fait de ces parties un tout extrêmement enchevêtré. Les cellules obéissent aux mêmes lois naturelles que le reste du monde. Les machines protéiques placées dans un environnement adapté fonctionneront, que ce soit dans des cellules ou isolées dans des tubes à essai. Les machines moléculaires ne savent rien de la "vie" et de la "mort". Les biologistes -quand ils s'en soucient- définissent la vie comme la faculté de grandir, de se répliquer et de répondre à des stimuli. Mais avec cette définition, un système d'usines auto-répliquantes dépourvu d'esprit peut être qualifié de vivant, alors qu'un système conscient d'intelligence artificiel calqué sur le cerveau humain ne le serait pas. Les virus sont-ils vivants ou sont-ils "juste" des machines moléculaires élaborées ? Aucune expérience ne peut le dire, parce que la nature ne trace pas de ligne nette entre l'inerte et le vivant. Les biologistes qui travaillent sur les virus s'interrogent plutôt en terme de viabilité : "ce virus va-t-il fonctionner, si on lui donne une chance ?". Les termes de "vie" et de "mort" en médecine dépendent des capacités médicales. Les médecins se demandent : "Est-ce que ce patient va fonctionner, si nous faisons de notre mieux ?". Auparavant, les médecins déclaraient que leurs patients étaient morts quand le c¦ur s'arrêtait de battre. C'est maintenant quand ils désespèrent de pouvoir rétablir l'activité du cerveau qu'ils annoncent la mort. Les avancées en cardiologie ont changé la définition du décès ; les avancées en neurologie la changeront à nouveau. Tout comme l'idée de machines pensantes, celle de machines à la base de notre propre pensée met certaines personnes mal à l'aise. Le mot "machine" semble encore évoquer l'image négative d'un gros objet métallique et bruyant. Il s'agit pourtant de signaux fluctuants à travers un canevas changeant de fibres nerveuses, une trame vivante trop intriquée pour que l'esprit qu'elle abrite la comprenne pleinement. Les composants du cerveau qui ressemblent à des machines ont une taille moléculaire ; ils sont plus petits que les plus fines fibres. Mais un tout n'a pas besoin de ressembler à ses parties. Les jeux d'eau d'une fontaine n'ont rien de solide, pourtant leur fluidité repose sur des molécules d'eau qui n'ont rien de fluide. De la même manière, des milliards de machines moléculaires constituent les fibres nerveuses et les synapses, des milliers de fibres nerveuses et de synapses constituent une cellule, des milliards de cellules nerveuses font le cerveau et le cerveau lui-même représente la fluidité de la pensée. Dire de l'esprit qu'il n'est que machines moléculaires est comme dire de la Joconde qu'elle n'est que taches de peinture. De telles affirmations confondent la partie et le tout, la matière avec son agencement. Nous ne sommes pas moins humains parce que nous sommes faits de molécules. Des médicaments aux machines à réparer les cellules Comme nous sommes constitués de molécules et que nous sommes concernés par notre santé, nous utiliserons les machines moléculaires en médecine. Les biologistes utilisent déjà des anticorps pour marquer des protéines, des enzymes pour couper et coller l'ADN et des seringues virales, comme le phage T4, pour injecter de l'ADN modifié dans des bactéries. Dans le futur, ils utiliseront des nanomachines construites par des assembleurs pour examiner et modifier les cellules. Avec des outils comme les désassembleurs, les biologistes pourront étudier les structures des cellules dans leurs détails moléculaires ultimes. Ils catalogueront alors les centaines de milliers de molécules différentes et relèveront la structure des centaines de types cellulaires humains. Un peu comme les ingénieurs font des dessins techniques et dressent des listes de pièces pour concevoir une voiture, les biologistes décriront les parties et les structures des tissus sains. Et d'ici là, ils seront aidés par des systèmes d'IA technique sophistiqués121. Les médecins ont pour but de rendre sains des tissus mais avec la chirurgie et les médicaments, ils peuvent seulement encourager les tissus à se réparer eux-mêmes. Les machines moléculaires permettront d'effectuer des réparations plus directes. Une nouvelle ère s'ouvrira en médecine. Pour réparer une voiture, un mécanicien repère d'abord l'organe défectueux, puis il identifie les pièces endommagées et les retire pour les réparer ou les remplacer. La réparation cellulaire impliquera ces mêmes opérations élémentaires -des opérations dont les systèmes vivants prouvent la faisabilité. Les voici : Accès. Les globules blancs quittent la circulation sanguine et se déplacent à travers les tissus. Les virus peuvent pénétrer dans les cellules. Les biologistes peuvent même planter des aiguilles dans les cellules sans les tuer. Ces exemples montrent que les machines moléculaires peuvent atteindre les cellules et entrer dedans. Reconnaissance. Les anticorps et les fibres de la queue du phage T4 -et en fait, toutes les interactions biochimiques spécifiques- montrent que les systèmes moléculaires peuvent reconnaître d'autres molécules par le toucher. Désassemblage. Les enzymes digestives (et d'autres produits chimiques plus corrosifs) montrent que les systèmes moléculaires peuvent désassembler des molécules. Reconstruction. La réplication des cellules montre que les systèmes moléculaires peuvent construire ou reconstruire toutes les molécules trouvées dans les cellules. Réassemblage. La nature montre également que les molécules qui ont été séparées peuvent être réassemblées122. La machinerie du phage T4123, par exemple, s'auto-assemble en solution apparemment à l'aide d'une seule enzyme. La réplication des cellules prouve que les systèmes moléculaires peuvent assembler tous les systèmes que l'on trouve dans les cellules. Ainsi, la nature démontre que toutes les opérations fondamentales nécessaires pour accomplir une réparation à l'échelle moléculaire dans les cellules sont possibles. Qui plus est, comme je l'ai indiqué dans le chapitre 1, les systèmes de nanomachines seront généralement plus compacts et polyvalents que leurs équivalents naturels. Les systèmes naturels ne nous montrent que les limites basses de ce qui est possible, en réparation cellulaire comme dans les autres domaines. Machines de réparation cellulaire En résumé, avec une technologie moléculaire et des systèmes d'IA technique, nous pourrons effectuer une description complète à l'échelle moléculaire de la structure d'un tissu sain. Et nous pourrons également construire des machines capables d'entrer dans les cellules et de modifier leur structure en fonction des informations fournies par leurs senseurs. Les machines de réparation cellulaire auront une taille comparable aux bactéries et aux virus mais leur assemblage plus compact leur conférera une plus grande complexité. Elles traverseront les tissus comme le font les globules blancs et entreront dans les cellules à la manière des virus -elles pourront aussi ouvrir et refermer les membranes cellulaires avec une délicatesse de chirurgien. A l'intérieur de la cellule, une machine de réparation jaugera d'abord la situation en examinant le contenu cellulaire et son activité. Elle pourra alors entrer en action. Les premières machines réparatrices seront hautement spécialisées, capables par exemple de reconnaître et de corriger un seul type de désordre moléculaire, comme l'altération d'une enzyme spécifique ou un dégât causé à l'ADN. Les machines suivantes (mais elles les suivront de près, parce que ce seront des systèmes d'IA technique qui se chargeront du travail de conception) seront programmées pour effectuer des tâches plus générales. Les machines réparatrices complexes nécessiteront des nano-ordinateurs pour les guider. Un ordinateur mécanique d'un micron cube comme celui décrit dans le chapitre 1 tiendra dans l/1000 du volume d'une cellule moyenne. Il contiendra cependant plus d'informations que l'ADN d'une cellule. Dans un système de réparation, de tels ordinateurs dirigeront des ordinateurs plus simples, qui eux-mêmes commanderont des machines pour examiner, mettre de côté et reconstruire les structures moléculaires endommagées. Molécule par molécule et structure après structure, les machines pourront réparer des cellules entières. En travaillant cellule par cellule et tissu après tissu, elles régénéreront des organes entiers (aidées par des machines de taille plus importante, si nécessaire). En travaillant à la restauration des organes d'une personne, elles lui redonneront la santé. Parce que les machines moléculaires seront capables de construire des molécules et des cellules à partir de rien, elles seront capables de réparer des dommages cellulaires considérés comme irréversibles. Ainsi, les machines à réparer les cellules apporteront une percée fondamentale : elles libéreront la médecine de sa dépendance envers l'auto-réparation des cellules comme unique voie de guérison. Pour se représenter une machine réparatrice évoluée, imaginez-la -et une cellule avec- grossie jusqu'à ce que ses atomes aient la taille de petites billes. A cette échelle, l'extrémité des outils les plus fins de la machine ont la taille du bout de votre doigt. Une protéine moyenne comme l'hémoglobine est de la taille d'une imprimante à jet d'encre et un ribosome a la taille d'une machine à laver. Une machine de réparation contient un ordinateur simple de la taille d'un petit camion, ainsi que de nombreux capteurs ayant la taille de protéines, plusieurs bras manipulateurs de la taille de ribosomes et encore un peu de volume occupé par des réserves de mémoire et d'énergie. Un cube de dix mètres de côté (la taille d'un immeuble de trois étages) peut contenir toutes ces pièces et bien d'autres. Avec des pièces de la taille de billes pour remplir ce volume, la machine réparatrice peut faire des choses complexes. Mais cet appareil de réparation ne fonctionne pas tout seul. Comme tous ses proches, il est relié à un plus gros ordinateur par des voies de communication mécaniques de la taille de votre bras. A cette échelle, un ordinateur d'un micron cube possédant une grosse mémoire occupe le volume d'une construction de trente étages large comme un terrain de football. La machine à réparer lui donne des informations et il renvoie des instructions générales. Des objets si larges et si complexes restent suffisamment petits car à cette échelle, la cellule fait un kilomètre de diamètre. Elle représente mille fois le volume d'un ordinateur d'un micron cube et plus d'un million de fois celui d'un dispositif réparateur simple. Les cellules sont spacieuses. De telles machines seront-elles capables de faire tout ce qui est nécessaire pour réparer les cellules ? Les machines moléculaires existantes démontrent qu'il est possible de voyager à travers les tissus, d'entrer dans les cellules, de réorganiser les structures moléculaires, etc. Mais d'autres aptitudes sont également importantes. Est-ce que les machines réparatrices travailleront assez vite ? Et si oui, ne dégageront-elles pas une chaleur telle que le patient rôtira ? Les réparations majeures ne nécessitent pas énormément plus de travail que la construction d'une cellule en partant de zéro. La machinerie moléculaire qui travaille dans l'espace limité de la cellule fait cela couramment : elle construit une nouvelle cellule en dix minutes (dans les bactéries) ou en quelques heures (chez les mammifères). Ceci montre qu'une machinerie cellulaire qui occupe un volume de quelques pour-cent d'une cellule peut accomplir des réparations importantes en un temps raisonnable -quelques jours ou semaines au plus. Les cellules peuvent se passer de ce volume. Même les cellules du cerveau continuent à fonctionner quand un déchet appelé lipofuscine -apparemment un produit de dommages moléculaires- remplit plus de dix pour cent124 de leur volume. Fournir de l'énergie aux dispositifs de réparation sera facile : les cellules contiennent déjà naturellement des molécules qui alimentent leur nanomachinerie. La nature montre aussi que les nanomachines peuvent être refroidies : les cellules gardent une température uniforme et les jeunes animaux grandissent rapidement sans se faire cuire. Evacuer la chaleur correspondant à un niveau d'activité similaire ne devrait pas faire transpirer -ou au moins pas trop transpirer, si une semaine de transpiration est le prix de la santé. Toutes ces comparaisons de machines réparatrices avec des mécanismes biologiques existants soulèvent une question : ces machines pourront-elles faire mieux que la nature ? La réparation de l'ADN le montre clairement. Tout comme une "machine à réparer les livres" illettrée peut reconnaître et réparer une page déchirée, les enzymes de réparation cellulaire peuvent reconnaître et réparer des cassures et des liaisons croisées dans l'ADN. Cependant corriger des fautes d'orthographe, des mutations, nécessiterait la faculté de lire. Il n'y a pas de machines capables de le faire dans la nature mais elles seront faciles à construire. Imaginez trois molécules d'ADN identiques, chacune portant la même séquence de nucléotides. Imaginez maintenant que chaque molécule porte quelques mutations réparties sur sa longueur. Chaque brin d'ADN paraît normal, pris individuellement. Néanmoins, une machine réparatrice pourrait comparer chaque brin avec les deux autres, segment après segment, et noter quand un nucléotide diffère de ses confrères. Il suffit pour réparer la mutation de changer le nucléotide anormal pour qu'il s'accorde avec les deux autres. Cette méthode ne fonctionne pas quand deux molécules sont mutées au même endroit. Imaginez que l'ADN de trois cellules humaines soit sévèrement endommagé -après avoir subi des milliers de mutations, chaque brin d'ADN en a une tous les millions de nucléotides. Le risque d'erreur avec notre correction sur trois brins est en n'importe quel point de un millionième de millionième. Mais si l'on compare cinq brins en même temps, les risques tombent à un pour un million de million de million125 et ainsi de suite. Un dispositif qui contrôle de nombreux brins réduit à néant le risque qu'une erreur ne soit pas corrigée. En pratique, les machines réparatrices vont comparer les molécules d'ADN de plusieurs cellules pour en faire une version ne contenant pas d'erreur126. Celle-ci sera alors utilisée directement pour vérifier et réparer l'ADN à l'intérieur d'un tissu. En comparant le contenu de plusieurs cellules, les machines à réparer surclasseront les systèmes de réparation à base d'enzymes. D'autres réparations nécessiteront différentes informations concernant les cellules saines ou les dommages particuliers subis par une cellule. Les anticorps identifient les protéines au toucher et deux anticorps choisis avec soin peuvent même distinguer deux protéines prises au hasard par leurs différences de surfaces et de formes. Les machines réparatrices identifieront les molécules de la même manière127. Avec un ordinateur et une base de données, elles pourront identifier les protéines en lisant leur séquence d'acides aminés. Considérez un système de réparation complexe128 et polyvalent. Un volume de deux microns cube -environ 1/2000 du volume d'une cellule typique- serait suffisant pour contenir une base de données permettant : 1. d'identifier rapidement n'importe laquelle des cent mille protéines humaines en examinant une courte séquence d'acides aminés ; 2. d'identifier toutes les autres molécules complexes trouvées dans les cellules ; 3. d'enregistrer la nature et la position de toutes les grosses molécules de la cellule. Chacun des appareils de réparation les plus simples, avec peut-être plusieurs milliers d'entre eux par cellule, possédera un ordinateur moins complet. Chacun de ces ordinateurs sera capable d'effectuer plus d'un millier de pas de calcul dans le temps que met une enzyme pour changer une simple liaison moléculaire. Ainsi la puissance de calcul disponible semble plus que suffisante. Et comme chaque ordinateur sera en communication129 avec un ordinateur plus puissant et avec la base de donnée centrale, la mémoire disponible semble également suffisante. Les machines de réparation cellulaire auront les outils moléculaires nécessaires pour effectuer les réparations et les "cerveaux" suffisants pour décider de leur utilisation. Une telle sophistication sera largement surdimensionnée pour beaucoup de problèmes de santé. Des appareils qui reconnaissent et détruisent un certain type de cellule, par exemple, seront suffisants pour soigner un cancer. Placer un tel réseau de machines moléculaires dans chaque cellule du corps s'apparente peut-être à découper du beurre à la tronçonneuse, mais avoir une tronçonneuse disponible garantit au moins que même le beurre le plus dur sera effectivement découpé. Mieux vaut en montrer trop que trop peu pour décrire les limites du possible en médecine. Quelques traitements Les applications médicales les plus simples pour les nanomachines ne concerneront pas la réparation mais la destruction sélective. Les cancers fournissent un exemple et les maladies infectieuses un autre. Le but est simple : il faut reconnaître et détruire les réplicateurs dangereux, que ce soient des bactéries, des cellules cancéreuses, des virus ou des vers parasites. De la même manière, la croissance anormale de dépôts dans les artères est la cause de nombreuses maladies cardiaques. Des machines qui reconnaissent les molécules du dépôt pour les casser et les évacuer peuvent ainsi nettoyer les artères et rétablir une bonne circulation sanguine. La destruction sélective permettra aussi de soigner des affections comme l'herpès, qui est un virus intégrant ses gènes à l'ADN d'une cellule hôte. Un appareil de réparation pourra entrer dans la cellule, lire son ADN et supprimer le fragment qui indique : "herpès". Réparer les dégâts chimiques dans les protéines sera aussi relativement direct. Devant une protéine endommagée, une machine à réparer les cellules va d'abord tenter de l'identifier en examinant de courtes séquences d'acides aminés. Elle apprendra ainsi sa structure correcte en cherchant dans la base de données. Comme un correcteur qui trouve des coquilles et des caractères étranges (car#ctères), la machine trouvera tous les acides aminés modifiés et toutes les liaisons inadéquates. En corrigeant ces erreurs, la machine laissera derrière elle une protéine normale, prête à travailler pour la cellule. Les machines réparatrices aideront aussi à guérir. Après une attaque cardiaque, un tissu cicatrisé prend la place du muscle mort. Les machines à réparer stimuleront le c¦ur pour qu'il produise à nouveau du muscle en agissant sur les mécanismes de contrôle cellulaire. En enlevant les cicatrices et en favorisant la croissance de tissu neuf, elles dirigeront la guérison du c¦ur. On pourrait continuer à énumérer des problèmes les uns après les autres (empoisonnement aux métaux lourds ? Trouver et enlever les atomes de métal) mais la conclusion est facile à tirer. Les désordres physiques prennent leur source dans la désorganisation des atomes ; les machines réparatrices pourront restaurer la santé puisqu'elles pourront replacer les atomes dans un ordre fonctionnel. Plutôt que d'établir la liste sans fin des maladies curables (de l'arthrite et la bursite aux cancers et à la dengue en passant par la fièvre jaune et le paludisme), il est plus raisonnable de voir les limites des assembleurs. Car il en existe bel et bien. Prenez la rupture d'anévrisme ou l'embolie comme exemples d'accidents pouvant endommager le cerveau. La prévention sera facile : si un vaisseau sanguin s'affaiblit, gonfle et menace de rompre, il faut lui rendre sa forme et diriger la croissance de ses fibres de renfort. Si un caillot anormal menace de bloquer la circulation, il faut dissoudre le caillot et soigner les parois des vaisseaux sanguins pour que le problème ne se pose plus. Des dégâts neuraux modérés à la suite d'une embolie seront réparables car si la circulation n'a pas été réduite trop longtemps, les fonctions ont pu s'arrêter sans que les structures des cellules soient altérées. Si la circulation est rétablie et que les cellules sont réparées en utilisant leur structure pour reconstruire le tissu comme il était avant, non seulement les fonctions des cellules seront à nouveau normales mais les souvenirs et les capacités encodés dans ces réseaux seront aussi retrouvés. Les machines réparatrices seront également capables de régénérer le tissu nerveux même là où les dommages auront modifié ces structures. Mais le patient perdra les souvenirs et les capacités qui étaient stockés dans cette partie du cerveau. Si des réseaux de neurones sont par trop abîmés, les machines à réparer ne pourront rien faire de plus que des conservateurs de musée qui essaient d'empêcher une tapisserie de tomber en poussière. Des pertes d'informations par destruction de structures imposent les limites les plus importantes et les plus fondamentales dans la réparation des tissus. D'autres tâches sont hors de portée des machines réparatrices pour différentes raisons : maintenir la santé mentale, par exemple. Les machines pourront bien sûr régler certains problèmes : ceux qui ont une origine biochimique comme quand le cerveau se drogue ou s'empoisonne tout seul et ceux liés à l'altération de tissus. Cependant de nombreux dysfonctionnements n'ont pas de rapport avec la santé des cellules nerveuses mais avec celle de l'esprit. L'esprit et le tissu de son cerveau sont un peu comme un roman et le papier sur lequel il est écrit. Des tâches d'encre ou des dégâts causés par l'eau peuvent abîmer le livre et rendre le roman difficile à lire. Des machines à réparer les livres peuvent néanmoins "soigner" le livre en enlevant l'encre versée ou en séchant et réparant les pages abîmées. Mais de tels traitements ne feront cependant rien pour "soigner" le contenu du livre, qui, en un sens, est immatériel. Si le livre était un roman de gare avec une intrigue assommante et des personnages sans épaisseur, les réparations ne seraient pas requises pour l'encre et le papier mais plutôt pour le roman lui-même. Ceci ne ferait pas appel à des réparations physiques mais à plus de travail et de conseils pour l'auteur. De la même façon, assainir chimiquement le cerveau et réparer ses fibres le désembrumera sans changer le contenu de l'esprit. Les efforts du patient auront plus d'effet, car chacun est l'auteur de son propre cerveau. Parce que les esprits se transforment eux-mêmes en modifiant leurs cerveaux, posséder un cerveau sain aidera à bien penser, plus que d'avoir un papier de qualité n'aide à bien écrire. Les lecteurs familiers des ordinateurs préféreront peut-être penser en termes de matériel et de logiciel. Une machine peut réparer les composants d'un ordinateur sans comprendre ou changer son logiciel. De telles machines pourraient stopper l'activité de l'ordinateur en laissant la configuration de sa mémoire intacte et prête à redémarrer. Dans les ordinateurs, les utilisateurs font cela en coupant l'alimentation, quand l'ordinateur possède la mémoire adéquate (dite «non volatile »). Dans le cerveau, le travail semble plus complexe mais il pourrait y avoir quelques avantages médicaux à provoquer un état semblable. Anesthésie renforcée Les médecins peuvent déjà stopper et faire repartir la conscience en interférant avec l'activité chimique du cerveau. Au cours de la vie active, des machines moléculaires manipulent des molécules dans le cerveau. Certaines désassemblent le sucre et le combinent avec l'oxygène pour produire de l'énergie. Certaines pompent les ions salins à travers les membranes cellulaires. Un tel processus constitue le métabolisme du cerveau, la somme totale de son activité chimique. Accompagnée de ses effets électriques, cette activité métabolique constitue la matérialisation changeante de la pensée. Les chirurgiens coupent les gens avec des couteaux. Depuis les années 1850, ils ont appris à utiliser des produits chimiques qui agissent sur le métabolisme du cerveau et bloquent ainsi le processus de la pensée consciente, ce qui leur permet d'empêcher les patients de trouver à redire quand on les découpe. Ces produits chimiques sont des anesthésiants. Leurs molécules entrent et sortent librement dans le cerveau ; les anesthésistes peuvent ainsi interrompre et faire repartir la conscience humaine. Les hommes ont longtemps rêvé de découvrir une drogue qui interférerait avec le métabolisme du corps entier ; une drogue capable d'interrompre complètement le métabolisme pendant des heures, des jours ou des années. Le résultat serait un état de biostase (de bio, qui veut dire la vie et stase, qui indique un état stable, un arrêt). Une méthode pour mettre en biostase pourrait aider les astronautes à économiser de la nourriture et éviter l'ennui lors des longs voyages. Elle pourrait servir également pour voyager dans le temps (mais dans un seul sens !). En médecine, la biostase procurerait une anesthésie très profonde, laissant ainsi plus de temps aux médecins pour travailler. Quand une urgence survient loin de toute aide médicale, une bonne mise en biostase fournirait une sorte de traitement de premiers secours universel : elle stabiliserait l'état d'un patient et empêcherait les machines moléculaires de devenir incontrôlables et d'abîmer les cellules. Mais personne n'a trouvé de drogue pouvant stopper l'ensemble du métabolisme à la manière dont les anesthésiants stoppent la conscience -c'est-à-dire, de manière facilement réversible, par exemple en évacuant la drogue du corps du patient. Néanmoins, la biostase réversible deviendra possible quand les machines réparatrices seront disponibles. Une approche possible du problème serait que le flot sanguin transporte jusqu'aux tissus des appareils moléculaires simples qui entrent dans les cellules. Ils bloquent alors la machinerie moléculaire du métabolisme -dans le cerveau et partout ailleurs- et stabilisent l'ensemble des structures par des liaisons entre elles. D'autres machines moléculaires entrent alors pour remplacer l'eau et se répartir de manière compacte autour des molécules de la cellule. Ces étapes stoppent le métabolisme et préservent la structure des cellules. Comme des machines à réparer les cellules seront utilisées pour sortir de la biostase, ce traitement peut causer quelques dommages moléculaires sans gravité. Le patient, une fois son métabolisme stoppé et la structure de ses cellules fermement maintenue, peut reposer tranquillement, sans rêve et sans changement, jusqu'à ce que les machines réparatrices le ramènent à la vie. Si un patient en biostase était présenté à un médecin d'aujourd'hui, ignorant les capacités des machines à réparer les cellules, les conséquences pourraient être dramatiques. En ne voyant aucun signe de vie, le médecin en conclurait que le patient est mort et ferait de ce diagnostic une réalité en "prescrivant" une autopsie, suivie d'un enterrement ou d'une crémation. Mais notre patient imaginaire vit à une époque dans laquelle la biostase est considérée comme une interruption de la vie, pas une fin. Quand le contrat du patient indique "réveillez-moi" (ou quand les réparations sont finies ou le voyage vers les étoiles terminé), le médecin présent procède à la résurrection. Les machines réparatrices pénètrent dans les tissus du patient et retirent les machines agglutinées autour des molécules des cellules pour les remplacer par de l'eau. Puis, elles défont les liaisons entre les molécules et réparent celles qui seraient abîmées. Elles rétablissent alors les concentrations en sels, sucres, ATP, etc. Enfin, elles débloquent la machinerie métabolique. Le métabolisme interrompu reprend alors, le patient baille, s'étire, s'assoit, remercie le docteur, vérifie la date et sort de la pièce. De la structure à la fonction La réversibilité de la biostase et l'irréversibilité des dommages causés par les embolies cérébrales aident à montrer comment les machines réparatrices vont changer la médecine. Aujourd'hui, les médecins peuvent seulement aider les tissus à se guérir eux-mêmes. Par conséquent, ils se doivent de préserver la fonction des tissus, condition de leur guérison. Pire, à moins qu'ils ne soient conservés, ils se détériorent et la structure est finalement altérée. C'est comme si un outil ne pouvait être utilisé que sur un moteur en marche. Les machines réparatrices font évoluer le but fondamental de la préservation de la fonction à la préservation de la structure. Comme je l'ai indiqué dans la discussion à propos de l'embolie, les machines réparatrices pourront rétablir les fonctions cérébrales, la mémoire et les autres capacités uniquement si les structures sont restées intactes. La biostase entraîne la préservation de la structure nerveuse tout en bloquant délibérément la fonction. Tout ceci est une conséquence directe de la nature moléculaire des réparations. Les médecins qui utilisent des scalpels et des médicaments ne peuvent pas plus réparer les cellules qu'un horloger ne peut réparer une montre de précision avec une pioche et un bidon d'huile. En revanche, disposer de machines réparatrices et de nutriments reviendrait à disposer de tous les outils d'un horloger et d'une quantité illimitée de pièces de rechange. Les machines à réparer les cellules vont changer jusqu'aux fondements de la médecine. Du traitement des maladies au maintien de la santé Les chercheurs en médecine étudient à présent les maladies et cherchent le plus souvent à les éviter ou les faire reculer en bloquant une étape clé de leur développement. Les connaissances qui en ont découlé ont grandement aidé les médecins ; la liste est impressionnante : ils prescrivent maintenant de l'insuline pour le diabète, des hypotenseurs pour éviter les embolies, de la pénicilline pour soigner les infections, etc. Grâce aux machines moléculaires qui aideront l'une et l'autre, la compréhension de la santé prendra le pas sur celle des maladies. Le corps peut être malade de plus de manières qu'il ne peut être sain. Un tissu musculaire sain, par exemple, ne varie pas selon beaucoup de critères : il peut être plus fort ou plus faible, plus rapide ou plus lent, posséder cet antigène ou un autre, etc. Le tissu musculaire endommagé peut également varier selon tous ces critères mais il peut aussi souffrir d'une combinaison de stress, de déchirements, d'infections virales, de vers parasites, de contusions, de coupures, de poisons, de sarcomes, de pertes de chaleur et d'anomalies congénitales. De la même manière, bien que les neurones soient disposés en autant de réseaux nerveux qu'il y a d'humains, les synapses et les dendrites individuelles ne présentent pas une grande variété de formes -du moins si elles sont normales. Une fois que les biologistes auront décrit la structure normale de toutes les molécules, cellules et tissus, des machines convenablement programmées pourront même soigner des maladies inconnues. Quand les chercheurs auront décrit l'ensemble des structures normales qu'un foie par exemple peut adopter, des machines qui exploreraient un foie anormal n'auront besoin que de distinguer les différences et de les corriger. Des machines qui ne connaîtraient pas un poison et ses effets le reconnaîtraient quand même comme un corps étranger et l'évacueraient. Au lieu de combattre un million de maladies étranges, les machines réparatrices avancées établiront un état de bonne santé. Il faudra déployer de gros efforts et utiliser de nombreuses connaissances pour développer et programmer des machines à réparer les cellules. Les machines réparatrices possédant de nombreuses capacités paraissent plus faciles à construire qu'à programmer. Leurs programmes doivent contenir des informations détaillées sur les centaines de types cellulaires et les centaines de milliers de molécules que l'on trouve dans le corps humain. Elles doivent être capables de cartographier des structures cellulaires endommagées130 et de prendre des décisions sur la manière de les réparer. Combien de temps faudra-t-il pour développer de telles machines et de tels programmes ? A première vue, en considérant l'état actuel de la biochimie et la vitesse des progrès effectués, obtenir les connaissances de base prendra déjà des siècles. Mais nous devons être conscients que les avancées ne se feront pas de manière isolée. Les machines réparatrices arriveront en même temps qu'une vague d'autres technologies. Les assembleurs qui les construisent seront d'abord utilisés pour bâtir des instruments d'analyse de la structure des cellules. Même un pessimiste admettra que les biologistes et les ingénieurs pourront construire un programme pour machines de réparation cellulaire avancée en moins d'un siècle. Un pessimiste présomptueux et voyant loin dira peut-être un millier d'années. Un opposant vraiment motivé déclarera que le travail prendrait un million d'années. Très bien : des systèmes d'IA technique rapides -un million de fois plus rapides que des scientifiques et des ingénieurs- développeront donc des machines à réparer les cellules performantes en une seule année131. Une maladie appelée " vieillissement" Le vieillissement est naturel mais la variole aussi l'était, ainsi que nos efforts pour l'éradiquer. Nous avons vaincu la variole et il semble bien que nous vaincrons la vieillesse. L'espérance de vie a augmenté durant le siècle, principalement grâce aux progrès sanitaires et aux médicaments qui ont tous les deux réduit les infections bactériennes. La durée de vie maximale a peu augmenté. Toutefois, les chercheurs ont progressé dans la compréhension et le ralentissement du processus de vieillissement. Ils ont identifié certaines de ses causes, comme des liaisons incontrôlées. Ils ont trouvé des solutions de traitement partielles, comme les antioxydants et les inhibiteurs de radicaux libres. Ils ont proposé et étudié d'autres mécanismes responsables du vieillissement, comme celui d'une "horloge" dans les cellules et des modifications des équilibres hormonaux. Dans des expériences de laboratoire, des médicaments et des régimes spéciaux ont accru la durée de vie de souris de 25 à 45 %132. Un tel travail va continuer : le vieillissement de la génération du baby boom va engendrer une explosion des recherches sur le le sujet. Une entreprise de biotechnologie danoise, Senetek, est spécialisée dans la recherche sur le vieillissement. En avril 1985, Eastman Kodak133 et ICN Pharmaceuticals ont passé pour 45 millions de dollars un accord portant sur la production d'isoprinosine et d'autres médicaments capables d'allonger la vie. Il est probable que les résultats des recherches conventionnelles sur le vieillissement prolongeront sensiblement la vie de l'Homme -et amélioreront la santé des personnes âgées- au cours des dix ou vingt prochaines années. De combien d'années les médicaments, la chirurgie, l'exercice et les régimes augmenteront la durée de vie ? Les estimations restent pour l'instant des hypothèses. Seul un nouveau savoir scientifique peut sortir ces estimations du royaume de la spéculation, parce qu'elles reposent sur des connaissances nouvelles134 et pas seulement des techniques. Avec des machines de réparation cellulaire, cependant, les possibilités d'extension de la vie deviennent claires. Elles seront capables de réparer les cellules tant que leurs structures resteront intactes et pourront remplacer les cellules qui auront été détruites. D'une manière ou d'une autre, cela rétablira la santé. Le vieillissement n'est pas fondamentalement différent de tous les autres désordres physiques ; ce n'est pas l'action magique des dates du calendrier sur une force vitale mystérieuse. Les os fragiles, la peau ridée, une activité enzymatique réduite, une vitesse de réparation des blessures diminuée, une mémoire faible et tout le reste ne sont que les résultats d'une machinerie moléculaire endommagée, de déséquilibres chimiques et de structures mal arrangées. En remaniant toutes les cellules et tous les tissus pour leur rendre une structure comparable à celle d'une jeune personne, les machines réparatrices apporteront la santé de la jeunesse. Les gens qui atteindront intacts l'ère des machines de réparation cellulaire pourront retrouver la santé de leur jeunesse et la garder presque aussi longtemps qu'il leur plaira. Bien sûr, rien ne peut permettre à une personne (ou à une chose) d'exister éternellement, mais mis à part les accidents graves, ceux qui voudront vivre longtemps le pourront pour une très très longue durée. Lorsqu'une technologie se développe, il arrive un temps où ses principes deviennent clairs, ainsi que ses conséquences. Les principes de la fusée étaient clairs dans les années 30 et avec eux les conséquences des vols spatiaux. Mettre au point les détails impliquait simplement de concevoir et de tester les réservoirs, les moteurs, les instruments, etc. Au début des années 50, de nombreux détails étaient connus. Le rêve ancien d'un voyage vers la Lune était devenu un but pour lequel des plans pouvaient être élaborés. Les principes de la machinerie moléculaire sont déjà clairs et avec eux les conséquences des machines à réparer les cellules. Mettre au point les détails impliquera de concevoir et de fabriquer des outils moléculaires, des assembleurs, des nano-ordinateurs, etc. Mais de nombreux détails des machines moléculaires existantes sont déjà connus à l'heure actuelle. Le rêve ancien de rester en bonne santé durant une longue vie est devenu un but pour lequel nous pouvons élaborer des plans. La recherche médicale nous y conduit, pas après pas, en suivant le chemin de la machinerie moléculaire. La compétition globale pour fabriquer de meilleurs matériaux, composants électroniques et outils biochimiques nous pousse dans la même direction. Les machines réparatrices de cellules nécessiteront des années de développement mais elles sont à notre portée. Leurs capacités seront nombreuses, en bien et en mal. Un instant de réflexion sur des applications militaires de réplicateurs ayant les facultés des machines réparatrices de cellules suffit pour imaginer d'éc¦urantes possibilités. Plus tard, je décrirai comment nous pourrions éviter de telles horreurs mais il semble sage de considérer d'abord les bénéfices apportés par des machines réparatrices. Sont-elles réellement bénéfiques ou n'est-ce qu'une apparence ? Comment l'allongement de la vie va-t-il affecter le monde ? 8 Longue vie dans un monde ouvert Notre longue habitude de la vie nous indispose à mourir. Sir Thomas Browne Les machines réparatrices de cellules soulèvent des interrogations, comme par exemple l'utilité de prolonger la vie. Ce ne sont pas les questions de l'éthique médicale actuelle, qui impliquent couramment des dilemmes en raison du coût, de la rareté ou de la relative efficacité des traitements. Ce sont plutôt des questions qui concernent la valeur attribuée à des vies longues et saines obtenues grâce à des moyens peu coûteux. Pour les gens qui donnent de la valeur à la vie humaine et pour ceux qui aiment vivre, une telle question n'a pas besoin de réponse. Mais après une décennie marquée par la croissance de la population, la pollution et l'épuisement des ressources, de nombreuses personnes mettront peut-être en question l'intérêt de prolonger la vie. De telles craintes ont en effet encouragé la propagation de schèmes mortifères. Ceux-ci méritent d'être examinés de nouveau parce que nombre d'entre eux prennent leurs racines dans une vision du monde dépassée. Les nanotechnologies changeront bien plus de choses que la durée de la vie. Nous aurons non seulement les moyens de nous guérir nous-mêmes mais encore de guérir la Terre des blessures que nous lui avons infligées. Sauver des vies augmentera le nombre d'êtres humains ; l'extension de la vie augmentera donc le nombre d'habitants. Quels seront les effets d'une augmentation de population ? Notre capacité à soigner la planète affaiblira un des motifs de controverse. Cependant, les machines à réparer les cellules alimenteront elles-mêmes la polémique. Elles perturbent les affirmations traditionnelles concernant notre corps et notre avenir : c'est ce qui rend les doutes réconfortants. De plus, elles nécessiteront plusieurs percées majeures : c'est ce qui rend les doutes faciles. Comme la possibilité de fabriquer ou non des machines réparatrices de cellules conduit à des situations futures très différentes, il est important de considérer les objections qui peuvent être soulevées. Pourquoi pas des machines à réparer les cellules ? Quelle sorte d'arguments peut suggérer que les machines à réparer les cellules sont impossibles ? Un argument convaincant doit parvenir à d'étranges contorsions. Il doit présenter l'idée que les machines moléculaires ne peuvent pas construire et réparer des cellules tout en admettant que les machines moléculaires dans nos corps construisent et réparent nos cellules en permanence. Un bien cruel paradoxe pour notre sceptique acharné ! Il est vrai que les machines moléculaires auront à faire des choses que les machines naturelles ne font pas mais elles n'auront rien à faire qui soit qualitativement nouveau. Les dispositifs de réparation naturels et artificiels doivent tous les deux atteindre, identifier et reconstruire des structures moléculaires. Nous serons capables de faire un meilleur travail de réparation que celui des enzymes pour l'ADN simplement en comparant plusieurs brins d'ADN entre eux. La nature n'a évidemment pas exploité toutes les astuces. Comme ce contre-exemple ruine les efforts de tout argument général visant à démontrer que les machines réparatrices ne peuvent pas être plus performantes que celles de la nature, une démonstration de l'impossibilité des machines à réparer les cellules semble difficile à établir. Cependant, deux questions générales méritent des réponses directes. Premièrement, pourquoi devrions-nous nous attendre à allonger la vie dans les décennies à venir, alors que les hommes ont essayé et échoué pendant des millénaires ? Deuxièmement, si nous pouvons réellement utiliser des machines à réparer les cellules pour allonger la vie, pourquoi la nature -qui répare des cellules depuis des milliards d'années- ne les a-t-elle pas déjà perfectionnées ? Les Hommes ont essayé et échoué. Depuis des siècles, les hommes ont eu envie d'échapper à leur courte durée de vie. De temps en temps, un Ponce de Léon ou un charlatan promet de le faire grâce à une potion quelconque mais cela n'a jamais marché. Les statistiques des échecs ont fini par persuader quelques personnes que les échecs passés garantissent les échecs futurs. Ils disent que "le vieillissement est naturel" et pour eux, cela semble assez raisonnable. Les avancées médicales ont peut-être un peu ébranlé leur vision, mais les avancées ont surtout réduit les morts précoces, elles n'ont pas augmenté la durée de vie maximale. Actuellement, les biochimistes étudient les machines qui construisent, réparent et contrôlent les cellules. Ils ont appris à assembler des virus et à reprogrammer des bactéries. Pour la première fois dans l'histoire, les hommes étudient leurs molécules et découvrent les secrets moléculaires de la vie. Il semble que les ingénieurs en nanotechnologies vont s'appuyer à la fois sur des connaissances biochimiques étendues et des machines moléculaires sophistiquées pour apprendre à réparer les structures des tissus endommagés ; donc à les faire rajeunir. Il n'y a rien d'étrange là-dedans -ce serait au contraire plutôt étrange si des capacités et des connaissances aussi étendues n'apportaient pas de résultats décisifs. Le nombre incalculable d'échecs que l'on peut trouver dans le passé n'est tout simplement pas à prendre en compte, parce que nous n'avons jamais essayé de construire des machines réparatrices de cellules. La nature a essayé et échoué. La nature a construit des machines à réparer les cellules. L'évolution a essayé des assemblages différents dans des organismes pluricellulaires pendant des centaines de millions d'années et cependant tous les animaux évolués vieillissent et meurent, parce que les nanomachines naturelles réparent les machines imparfaitement. Pourquoi des améliorations seraient-elles possibles ? Les rats arrivent à maturité en deux mois ; ils vieillissent et meurent en deux ans -mais les humains ont évolué pour vivre plus de trente fois plus longtemps. Si le but majeur de l'évolution était de faire vivre longtemps, alors les rats vivraient eux aussi plus longtemps. Mais la longévité a un coût135 : réparer les cellules demande un investissement en énergie, en matériaux et en machines réparatrices. Les gènes de rats orientent la stratégie de survie de l'espèce vers une croissance et une reproduction rapide et non vers une auto-réparation méticuleuse. Un rat qui batifolerait à l'âge des amours augmenterait ses risques de finir dans l'estomac d'un chat. Les gènes de rats ont évolué en traitant les corps de rats comme des enveloppes jetables. Les gènes humains se débarrassent des hommes de la même manière mais après une vie des dizaines de fois plus longue. Les réparations de mauvaise qualité ne sont cependant pas la seule cause du vieillissement. Les gènes transforment un ¦uf en un adulte en suivant un schéma de développement qui se déroule à une vitesse assez régulière. Ce schéma est assez bien conservé, parce que l'évolution ne remet que rarement en cause des concepts fondamentaux. Tout comme la configuration du système ADN-ARN-protéine s'est figée il y a plusieurs milliards d'années, le schéma de base des signaux chimiques et des réponses des tissus lors du développement des mammifères a été fixé il y a plusieurs dizaines de millions d'années. Ce processus dispose apparemment d'une horloge, réglée à différentes vitesses dans différentes espèces et d'un programme qui expire. Quelles que soient les causes du vieillissement, l'évolution aurait peu de raisons de l'éliminer. Si les gènes construisaient des individus pouvant rester en bonne santé pendant des millénaires, ils n'y gagneraient que peu d'avantages dans leur "effort" pour se répliquer. La plupart des individus mourraient quand même en bas âge : de faim, de maladie, par accident ou par manque de défense. Comme Sir Peter Medawar le souligne136, un gène qui aiderait les jeunes -majoritaires- et nuirait aux vieux -minoritaires- se répliquerait bien et se répandrait rapidement à travers la population. Si de tels gènes s'accumulent suffisamment, la mort s'inscrit au programme des animaux. Des expériences menées par le docteur Leonard Hayflick137 suggèrent que les cellules contiennent des "horloges" qui comptent le nombre de divisions des cellules et qui les empêchent de le faire quand le compteur passe au-dessus d'un certain seuil. Un mécanisme de cette sorte138 peut aider les jeunes animaux : si une cellule tumorale se met à se diviser très rapidement mais sans avoir détruit son horloge, la tumeur qui en résulte sera de taille limitée. L'horloge évite ainsi la croissance illimitée des vrais cancers. De telles horloges peuvent causer du tort aux animaux âgés en stoppant les divisions139 des cellules normales et donc la régénération des tissus. L'animal bénéficiera donc d'un taux de cancers réduit dans sa jeunesse mais il aura de quoi se plaindre s'il vient à vieillir. Cependant ses gènes ne l'écouteront pas -ils auront déjà quitté le navire, puisque des copies se perpétuent dans les générations suivantes. Avec des machines à réparer les cellules, nous pourrons remonter ces horloges. Rien ne permet d'affirmer que l'évolution a perfectionné nos corps, même en prenant comme critère la reproduction et la survie. Les ingénieurs ne câblent pas les ordinateurs avec des fibres aussi lentes que les fibres nerveuses et ils ne construisent pas de machines avec des matériaux aussi mous que les protéines. Et ils ont de bonnes raisons de ne pas le faire. L'évolution génétique, à la différence de l'évolution schémétique, n'a pas été capable de s'adapter à de nouveaux matériaux ou de nouveaux systèmes mais s'est contentée de perfectionner les anciens. Les machines de réparation cellulaire sont bien loin des limites du possible -elles n'ont même pas d'ordinateurs pour les diriger. L'absence d'ordinateurs dans les cellules montre seulement que les ordinateurs ne peuvent pas évoluer graduellement, ou tout simplement n'ont pu le faire, à partir d'autres machines moléculaires. La nature n'a pas réussi à construire les meilleures machines à réparer les cellules possibles mais il y a de bonnes raisons pour cela. Guérir et protéger la Terre L'incapacité d'adaptation des systèmes biologiques à la révolution industrielle est également facile à comprendre. De la déforestation à l'épandage de produits toxiques, nous avons causé des dommages à un rythme auquel l'évolution ne peut s'adapter. Dans la course que nous menons pour trouver toujours plus de nourriture, de biens et de services, notre technologie grossière a continué à faire de tels dégâts. Avec les technologies du futur, nous serons capables de produire plus de biens pour chacun en causant moins de tort à la Terre. De plus, nous pourrons construire des "machines à réparer la planète" pour réparer les dégâts déjà commis. Les cellules ne sont pas les seules choses que nous voudrons réparer. Prenez par exemple le problème des déchets toxiques. Qu'ils soient dans l'air, la terre ou l'eau, les déchets nous concernent parce qu'ils peuvent endommager les êtres vivants. Mais tous les matériaux qui peuvent entrer en contact avec la machinerie moléculaire de la vie sont à la portée d'autres formes de machineries. Cela signifie que nous serons à même de construire des machines nettoyantes pour éliminer ces poisons140 partout où ils menacent la vie. Quelques déchets, comme la dioxine, sont des molécules dangereuses constituées d'atomes inoffensifs. Les machines nettoyantes les rendront donc sans danger en réarrangeant leurs atomes. D'autres déchets, comme le plomb et les isotopes radioactifs, contiennent des atomes dangereux. Les machines nettoyantes les rassembleront pour leur appliquer un des nombreux traitements possibles. Le plomb provient de roches souterraines ; les assembleurs peuvent le retransformer en minerai pour le replacer au fond des mines desquelles il provient. Les isotopes radioactifs peuvent également être isolés des êtres vivants, soit en les incorporant dans des roches stables, soit en utilisant des moyens plus radicaux : avec des transports spatiaux sûrs et peu coûteux, nous pourrions aller les enterrer dans le sol lunaire. En utilisant des nanomachines, nous pourrions les enfermer dans des conteneurs ayant la taille de collines et s'auto-réparant en utilisant de l'énergie solaire récoltée dans un désert. Ceci serait un moyen de stockage plus sûr que n'importe quel rocher ou fût à structure passive. Avec des assembleurs répliquants, nous serons même capables de retirer de l'atmosphère les milliards de tonnes de dioxyde de carbone que notre civilisation, grande consommatrice de pétrole, y a répandu. Les climatologues prédisent que l'important taux de dioxyde de carbone dans l'atmosphère fera partiellement fondre les calottes polaires en piégeant une partie de l'énergie solaire plus importante. Cette fonte des glaces fera monter le niveau des eaux jusqu'à inonder les côtes quelque part au milieu du siècle prochain. Les assembleurs répliquants, toutefois, rendront l'énergie solaire suffisamment bon marché pour que l'utilisation d'énergie fossile soit abandonnée141. Comme les arbres, les nanomachines alimentées en énergie solaire seront capables de capter le dioxyde de carbone de l'air142 pour le dissocier, récupérer le carbone et libérer l'oxygène. A la différence des arbres, elles seront capables de faire pousser des racines très profondes pour renvoyer le carbone dans les veines de charbon d'où il vient. Les machines à soigner la planète du futur nous aideront aussi à remodeler des paysages ravagés et à rétablir des écosystèmes déséquilibrés. L'exploitation minière a écorché et foré la Terre ; la négligence l'a polluée. La lutte contre les feux de forêt a laissé les broussailles remplacer les anciennes forêts cathédrales et provoque des feux plus dangereux. Nous utiliserons des robots bon marché et sophistiqués pour inverser ces tendances et d'autres encore. Capables de mouvoir les rochers et la terre, ils reconstruiront les paysages. Capables de désherber et de digérer, ils pourront simuler l'effet bénéfique des feux de forêt naturels sans en présenter les inconvénients dévastateurs. Capables de soulever et de transporter des arbres, ils reboiseront les collines dénudées et affineront les sols trop épais. Nous fabriquerons des appareils ayant la taille d'écureuils qui affectionneront particulièrement les vieux dépôts d'ordures. Nous ferons des appareils semblables aux arbres qui étendront leurs racines profondément pour nettoyer le sol de ses pesticides et en contrôler l'acidité. Nous ferons des nettoyeurs de lichens et des grignoteurs de peinture de la taille d'insectes. Nous fabriquerons tous les dispositifs nécessaires au nettoyage du désordre laissé par la civilisation du XXème siècle. Après le grand nettoyage, nous recyclerons la plupart de ces machines, sauf celles encore nécessaires pour protéger l'environnement d'une civilisation plus propre utilisant les technologies moléculaires. Ces quelques appareils qui resteront en service aideront les écosystèmes à contrebalancer les effets induits par l'humanité. Pour les rendre efficaces, inoffensifs et discrets, nous aurons besoin de systèmes d'IA technique mais aussi d'une bonne connaissance de la nature et d'un certain sens de l'esthétique. Avec une technologie de réparation cellulaire, nous serons mêmes capables de faire revenir une espèce d'une apparente extinction. Le quagga africain -un animal ressemblant au zèbre- s'est éteint il y a un siècle, mais une peau de quagga conservée dans le sel se trouve encore dans un musée allemand. Alan Wilson et ses coéquipiers143, de l'université de Californie à Berkeley, ont utilisé des enzymes pour extraire des fragments d'ADN à partir de muscles présents dans cette peau. Ils ont cloné les fragments dans des bactéries, les ont comparés à de l'ADN de zèbre et ils ont trouvé comme prévu que les gènes témoignaient d'une étroite parenté. Ils ont aussi réussi à extraire et à répliquer de l'ADN prélevé dans une peau de bison vieille d'un siècle ainsi que dans un mammouth millénaire conservé dans le permafrost arctique. Ce succès est bien sûr très éloigné du clonage d'une cellule ou d'un organisme en entier -cloner un gène en laisse 100 000 dans l'ombre et cloner tous les gênes ne suffit pas pour réparer une cellule- mais cela nous montre que le matériel héréditaire de ces espèces survit encore. Comme je l'ai décrit dans le chapitre précédent, les machines qui comparent plusieurs copies altérées d'une molécule d'ADN peuvent reconstruire l'original intact -et les milliards de cellules dans la peau asséchée contiennent des milliards de copies. Nous serons capables de reconstruire l'ADN original en partant de toutes ces copies et de construire autour de cet ADN une cellule intacte du type requis. Quelques espèces d'insectes passent l'hiver sous la forme de cellules ¦ufs pour être ramenées à la vie par la chaleur du printemps. Ces espèces "éteintes" passeront à travers le XXème siècle comme des cellules de peau et de muscle, pour être transformées en ¦ufs fertiles et ramenées à la vie par des machines réparatrices de cellules. Le Docteur Barbara Durrant, une physiologiste de la reproduction au zoo de San Diego, préserve des échantillons de tissus des espèces en voie de disparition dans l'azote liquide. La récompense sera probablement plus grande que ce que la plupart des gens imaginent. Conserver seulement des échantillons de tissus ne préserve pas la vie d'un animal ou d'un écosystème mais cela préserve l'héritage génétique de ces espèces. Nous serions bien insouciants de ne pas nous prémunir contre la perte totale d'une espèce. La perspective des machines réparatrices de cellules influence nos décisions d'aujourd'hui. Les extinctions ne sont pas un problème nouveau. Il y a environ 65 millions d'années, la plupart des espèces qui existaient alors ont disparu, y compris tous les dinosaures. Dans le livre de pierre des entrailles de la Terre, l'histoire des dinosaures se termine à une page qui montre une fine couche d'argile. Cette glaise est riche en iridium, un élément commun dans les astéroïdes et les comètes. A l'heure actuelle, la meilleure théorie indique qu'une collision a eu lieu entre la Terre et un astéroïde. Une énergie d'une centaine de millions de mégatonnes a été libérée et la poussière répandue dans l'atmosphère a entraîné un "hiver astéroïdien". Depuis que les cellules se sont associées pour la première fois pour former des vers, la Terre a connu cinq grandes extinctions. Il y a seulement 34 millions d'années -30 millions d'années après l'extinction des dinosaures-, une couche de perles vitreuses a recouvert le fond des mers. Au-dessus de cette couche, les fossiles de nombreuses espèces ont disparu. Ces perles se sont formées lors de l'impact d'un astéroïde. Le Meteor Crater, en Arizona, témoigne d'un impact plus faible et plus récent équivalant à une bombe de quatre mégatonnes. Il n'y a pas si longtemps, le 30 juin 1908, une boule de feu a traversé le ciel sibérien et a ravagé une zone de forêt d'une centaine de kilomètres de diamètre. Comme les gens l'ont longtemps suspecté, les dinosaures sont morts parce qu'ils étaient stupides. Non pas parce qu'ils étaient trop stupides pour pouvoir se nourrir, marcher et garder leurs ¦ufs -ils ont survécu tout de même 140 millions d'années- mais parce qu'ils étaient trop stupides pour construire des télescopes avec lesquels repérer les astéroïdes et des vaisseaux spatiaux avec lesquels les dévier de leur trajectoire. L'espace a encore des rochers à nous envoyer mais nous montrons les signes d'une intelligence adéquate pour parer à ce genre de problème. Quand les nanotechnologies et l'ingénierie automatique nous auront doté d'une technologie spatiale plus évoluée, nous trouverons facile de traquer et dévier les astéroïdes ; en fait, nous pourrions même le faire avec la technologie actuelle. Nous pouvons à la fois soigner la Terre et la protéger. Longévité et pression démographique Les hommes recherchent généralement une vie longue et heureuse, cependant, la perspective d'une telle réussite peut perturber. Une plus grande longévité altérera-t-elle la qualité de la vie ? Comment la perspective d'une vie allongée affectera-t-elle nos problèmes immédiats ? Au moins quelques-unes de ces conséquences peuvent être prévues. Par exemple, au fur et à mesure que les machines à réparer les cellules vont allonger la vie, la population va augmenter. Si rien d'autre ne changeait, cela signifierait certainement une surpopulation, une augmentation de la pollution et une raréfaction des biens -mais il est impossible que rien d'autre ne change : les avancées en ingénierie automatique et en nanotechnologie qui nous apporteront les machines réparatrices de cellules nous permettront aussi de soigner la Terre, de la protéger et de vivre en l'exploitant moins intensément. Nous pourrons produire ce dont nous avons besoin et tout le superflu sans polluer l'air, la terre et l'eau. Nous accéderons aux ressources et fabriquerons des objets sans gâcher le paysage avec des mines et des usines. Des assembleurs efficaces fabriqueront des produits durables et de meilleure qualité avec moins de déchets. Plus de gens pourront vivre sur la Terre, tout en l'abîmant moins -si bien sûr nous arrivons à utiliser nos nouvelles capacités pour faire le bien. Quelqu'un qui verrait le ciel nocturne comme un mur noir et espérerait l'arrêt de la course technologique, aura naturellement peur des perspectives d'une longévité accrue, qui ferait des hommes un fardeau sur la "pauvre terre surpeuplée de nos enfants". Cette peur prend toujours racine dans l'idée que la vie est un jeu à bilan nul, qu'avoir plus de gens signifie toujours couper un petit gâteau en parts plus petites. Mais quand nous serons capables de faire des machines à réparer les cellules, nous serons également capables de faire des assembleurs répliquants et d'excellents vaisseaux spatiaux. Nos "pauvres" descendants se partageront un monde de la taille du système solaire avec assez de matière, d'énergie et de place pour rendre naine la planète entière. Cela ouvrira l'espace pour une ère de croissance et de prospérité telle qu'il n'y en a jamais eu par le passé. Cependant, le système solaire lui-même est limité et les étoiles sont éloignées. Sur Terre, même l'industrie à base d'assembleurs la plus propre produira de la chaleur. L'inquiétude à propos de la population et des ressources demeurera importante parce que la croissance exponentielle de réplicateurs (comme les hommes) finit toujours par excéder des ressources disponibles en quantité finie. Mais cela signifie-t-il que nous devons sacrifier des vies pour retarder la catastrophe ? Peu de gens seraient volontaires et cela ne servirait pas à grand chose. En vérité, l'allongement de la vie n'aura que peu d'influence sur le problème fondamental : une croissance exponentielle restera exponentielle, que les gens meurent jeunes ou vivent indéfiniment. Un martyr, en mourant tôt, pourrait retarder la crise d'une fraction de seconde -mais une personne moins excessive et qui participerait à un mouvement réfléchissant à résoudre ce problème à long terme serait plus utile. Après tout, beaucoup de gens ont ignoré les limites de la croissance sur Terre. Qui, sinon les personnes à longévité accrue se prépareront pour affronter les limites plus importantes encore mais plus distantes, de la croissance extraterrestre ? Ceux qu'inquiètent les problèmes de limite à long terme serviront mieux l'humanité en vivant pour les traiter. La longévité pose aussi le problème de la stagnation culturelle. S'ils étaient inévitablement liés, il ne serait pas facile d'y remédier, sauf peut-être à mitrailler les vieux aux opinions trop figées ? Heureusement, deux facteurs réduiront le problème d'une manière ou d'une autre. D'abord, dans un monde aux frontières ouvertes, les jeunes pourront partir construire de nouveaux mondes, tester de nouvelles idées, puis tenter de convaincre leurs aînés de changer ou partir en les laissant derrière. Ensuite, les gens âgés en années seront jeunes de corps et d'esprit. L'âge ralentit à la fois l'apprentissage et la pensée, tout comme il ralentit d'autres processus physiques ; le rajeunissement leur redonnera leur vitesse. Puisque la jeunesse des muscles et des tendons rend les corps jeunes plus souples, peut-être que la jeunesse du tissu nerveux maintiendra l'esprit agile, même après avoir traversé de longues années de sagesse. Les effets de l'anticipation La longévité ne sera pas le plus important de nos problèmes futurs. Elle aidera même peut-être à en résoudre certains. Imaginez ses effets sur la détermination des gens à partir vers les étoiles. Le vieillissement et la mort ont rendu plus acceptables les massacres des batailles. Comme Homère le fait dire à Sarpédon, héros de Troie : "O, mon ami144, si nous pouvions échapper au vieillissement et à la mort en quittant cette guerre, je ne serais pas ici, à combattre en première ligne. Mais puisque la mort semble être de toute façon le destin de chacun, lançons-nous sans crainte dans la bataille et apportons la renommée à d'autres hommes ou à nous-mêmes". Cependant, est-il bon que l'espoir d'échapper au vieillissement et à la mort détourne les hommes des batailles ? Cela peut permettre d'éviter de petits conflits qui auraient pu se transformer en holocaustes nucléaires. Mais cela peut également affaiblir notre résolution à nous défendre contre une longue oppression -si nous ne tenons pas compte du temps supplémentaire de liberté dont elle nous priverait. Heureusement, l'aversion qu'auront également les oppresseurs de mourir pour leurs dirigeants ira dans le bon sens. Les attentes modèlent toujours les actes. Nos institutions et nos plans personnels reflètent la perspective de la mort dans quelques décennies de tous les adultes contemporains. Cette idée attise le désir d'acquérir des biens et d'ignorer le futur à la poursuite de plaisirs éphémères. Elle nous empêche de nous projeter dans le futur et voile à notre vue les bénéfices à long terme d'une coopération. Erich Fromm écrit : "Si l'individu vivait cinq cents ou mille ans, ce décalage (entre ses intérêts et ceux de la société) serait inexistant ou au moins considérablement réduit. Il vivrait et travaillerait peut-être dans la joie au lieu de semer dans la peine. La souffrance endurée pendant une période historique afin de porter des fruits dans la suivante pourrait le servir directement". Savoir si la plupart des gens vivront encore uniquement dans le présent n'est pas la question. Savoir s'il y aura un changement significatif vers le meilleur est plus intéressant. La perspective d'une vie plus longue dans un meilleur futur rendra peut-être quelques maladies politiques moins mortelles. Les conflits entre humains sont bien trop ancestraux et ancrés pour être déracinés par un simple changement. Cependant, la perspective d'une grande richesse demain pourrait au moins diminuer la détermination à se battre aujourd'hui pour des miettes. C'est un grand problème que celui des conflits et nous avons besoin de toutes les forces disponibles. La perspective de déchoir et mourir a toujours assombri l'horizon de notre avenir. Les visions de pollution, de misère et d'annihilation nucléaire ont récemment rendu presque insupportables les réflexions sur le futur. Cependant, avec au moins l'espoir d'un futur meilleur et de temps pour en profiter, nous regarderons peut-être plus volontairement vers l'avant. En nous focalisant sur l'avenir, nous y verrons plus clair. En prenant conscience que nous serons encore là, nous y ferons plus attention. Des prévisions et des espoirs meilleurs serviront à la fois le présent et la postérité ; ils amélioreront même nos chances de survie. Allonger les vies signifiera qu'il y aura plus d'hommes, mais sans faire empirer les problèmes de surpopulation actuels. La perspective de vies plus longues dans un monde meilleur apportera de réels bénéfices en encourageant les gens à consacrer plus de temps à réfléchir au futur. Globalement, l'allongement de la vie et les espérances qui lui sont associées semblent bonnes pour la société, presque aussi certainement que raccourcir l'espérance de vie à trente ans serait mauvais. De nombreuses personnes désirent avoir une vie longue et de qualité. Quels sont les perspectives de la génération actuelle ? Les progrès dans l'allongement de la vie Cher Gilgamesh, roi d'Uruk145 : "J'ai regardé par-dessus le mur et vu les corps emportés par la rivière et je sais que ce sera aussi mon sort. En vérité, je sais qu'il en est toujours ainsi, puisque même le plus grand des hommes ne peut ni atteindre les cieux ni entourer la Terre". Quatre millénaires se sont écoulés depuis que les scribes sumériens ont gravé dans des tablettes d'argile l'épopée de Gilgamesh et les temps ont changé. Des hommes, pas plus grands que la moyenne, ont atteint les cieux et fait le tour de la terre. Nous qui sommes à l'âge spatial, l'âge biotechnologique, l'âge des percées -devons-nous encore nous désespérer devant la barrière des années ? Ou bien apprendrons-nous l'art de l'allongement de la vie suffisamment tôt pour nous sauver et sauver ceux que nous aimons de la dissolution ? Le rythme de l'évolution biomédicale promet des progrès rapides. Les maladies majeures du vieillissement -maladies cardio-vasculaires, cancers- commencent à céder devant les traitements. Les études des mécanismes du vieillissement ont commencé à porter des fruits et les chercheurs ont déjà réussi à allonger la vie de certains animaux. Comme le savoir s'appuie sur le savoir et que les outils amènent de nouveaux outils, les avancées vont sûrement s'accélérer. Même sans machine à réparer les cellules, nous pouvons nous attendre à des progrès majeurs dans le ralentissement et l'inversion partielle du vieillissement. Même si les gens de tous âges pourront bénéficier de ces avancées, les jeunes y gagneront plus. Ceux qui survivront assez longtemps atteindront une époque à laquelle le vieillissement sera totalement réversible : ce sera le temps des machines réparatrices des cellules. C'est à ce moment là, si ce n'est plus tôt que la santé des gens s'améliorera avec l'âge ; comme le vin qui se bonifie en vieillissant au lieu de tourner comme le lait. Ils retrouveront une excellente santé s'ils le veulent et vivront longtemps, très longtemps. A cette époque de réplicateurs et de vols spatiaux peu coûteux, les gens auront à la fois une longue vie et de la place ainsi que des ressources pour en profiter. Une question brûle peut-être la langue : "Quand ? Serons-nous la dernière génération à vieillir et mourir ? Quelle sera la première à passer au travers ?". Beaucoup de gens partagent aujourd'hui la tranquille conviction que le vieillissement sera vaincu un jour. Mais ceux qui sont vivants à l'heure actuelle sont-ils maudits par une naissance prématurée ? La réponse est à la fois claire et surprenante. Pour atteindre la longévité, il suffit de vivre assez longtemps pour être rajeuni par les machines à réparer les cellules. Les avancées en biochimie et en technologie moléculaire allongeront la vie vers une limite de plus en plus repoussée. Tout d'abord, nous utiliserons des médicaments, des régimes et des exercices pour allonger la vie et maintenir la santé. Dans moins de quelques décennies, les avancées en nanotechnologies apporteront probablement les premières machines réparatrices de cellules -et avec l'aide de systèmes d'ingénierie automatique, les premières machines seront rapidement suivies par des machines sophistiquées. Les dates doivent rester de simples suppositions mais une supposition vaut mieux qu'un point d'interrogation. Imaginez quelqu'un qui a aujourd'hui trente ans. Dans trente ans, les biotechnologies auront beaucoup progressé ; cet homme n'aura que soixante ans. Les tables statistiques, qui ne prennent en compte aucune avancée de la médecine, indiquent qu'un citoyen américain de trente ans peut espérer vivre encore cinquante ans -c'est-à-dire, jusqu'au milieu des années 2030k. D'ici là, des progrès modestes -comme ceux démontrés à l'heure actuelle sur les animaux- allongeront probablement l'espérance de vie de plusieurs années, peut-être même d'une dizaine. Les tout débuts de la technologie de réparation cellulaire étendront peut-être la vie de plusieurs décennies. En bref, la médecine des années 2010, 2020 et 2030 prolongera probablement la vie de notre homme de trente ans jusqu'en 2040-2050. D'ici là, si ce n'est bien avant, les avancées médicales permettront le rajeunissement. Ainsi, ceux qui ont moins de trente ans (et peut-être aussi ceux qui ont un peu plus) peuvent peut-être s'attendre à voir la médecine vaincre leur processus de vieillissement et les conduire vers une ère de réparation cellulaire, de vigueur et de durée de vie indéfinie. Si c'était là toute l'histoire, alors le partage entre les derniers à mourir jeunes et les premiers à bénéficier de l'allongement de la vie serait peut-être l'ultime fossé entre les générations. La rongeante incertitude sur le destin individuel contribuera à maintenir ces questions dérangeantes dans les oubliettes du subconscient. Mais est-ce vraiment notre situation ? Il semble y avoir une autre solution pour sauver des vies, autre que les réparateurs cellulaires et qui est déjà applicable aujourd'hui. Comme il est écrit dans le chapitre précédent, les machines à réparer les cellules pourront guérir les tissus tant que leur structure est conservée. La capacité d'un tissu à remettre en route son métabolisme et à se réparer devient donc inutile pour guérir ; c'est ce que la discussion sur la biostase illustre. La biostase, telle qu'elle a été décrite, nécessitera des machines moléculaires pour stopper le fonctionnement des cellules et figer leurs structures en établissant des liaisons entre les machines moléculaires naturelles. Des nanomachines artificielles inverseront l'état de biostase en réparant les dégâts moléculaires, en libérant les machineries moléculaires et en aidant les cellules -et par là même, les tissus, les organes et le corps tout entier- à reprendre leurs fonctions normales. Atteindre l'époque des machines réparatrices de cellules semble bien être la clef d'une vie longue et débordante de santé, parce que presque tous les problèmes physiques seront curables. Quelqu'un peut parvenir dans cette ère en restant actif et en vie durant toutes les années qui l'en séparent -et c'est certainement la voie la plus évidente, celle qui requiert le minimum de prédictions. De nombreux patients meurent aujourd'hui d'une atteinte cardiaque, alors que les structures de leur cerveau qui contiennent leur mémoire et leur personnalité restent intactes. Dans de tels cas, la médecine d'aujourd'hui ne pourrait-elle pas stopper les processus biologiques en utilisant une méthode que la médecine de demain pourra inverser ? Si oui, alors la plupart des morts sont diagnostiquées prématurément et inutilement. 9 Une porte sur le futur Londres, avril 1773. A Jacques Dubourg146. Vos observations sur les causes de la mort et les expériences que vous proposez pour rappeler à la vie ceux qui semblent avoir été tués par la foudre démontrent à la fois votre sagacité et votre humanité. Mais la doctrine de la vie et de la mort est encore peu comprise... J'aimerais qu'il soit possible [...] d'inventer une méthode pour embaumer les noyés de manière à ce qu'ils puissent être ramenés à la vie à une époque donnée, même éloignée. J'ai un très ardent désir de voir et d'observer l'état de l'Amérique dans une centaine d'années. A une mort naturelle je préférerais être immergé dans une barrique de Madère, avec quelques amis, pour être ramené à la vie cent ans plus tard par la chaleur du soleil de ma chère patrie ! Mais [...] selon toute probabilité, nous vivons dans un siècle trop peu avancé et trop proche de la naissance de la science pour qu'un tel art soit porté à sa perfection de notre vivant... Veuillez... Benjamin Franklin Benjamin Franklin voulait un procédé pour stopper et faire repartir le métabolisme mais il n'y en avait alors aucun de connu. Vivons-nous à une époque suffisamment avancée dans laquelle la biostase est disponible -pour ouvrir un futur de bonne santé à des patients qui n'auraient d'autre choix que d'être désagrégés après qu'ils ont expiré ? Nous pouvons actuellement stopper le métabolisme de différentes manières mais la biostase, pour être utile, doit être réversible. Ceci conduit à une situation curieuse. Notre faculté de placer des gens en biostase avec les techniques actuelles dépend entièrement de la capacité des techniques futures à inverser le processus. La procédure comprend deux parties et nous n'avons besoin que d'en maîtriser qu'une seule. Si la biostase peut garder les structures du patient inchangées pendant des années, alors ces futures techniques incluront des systèmes de réparation cellulaire sophistiqués. Nous devons donc juger le succès des techniques de biostase actuelles à la lumière des capacités ultimes de la médecine du futur. Avant que les machines de réparation cellulaire ne deviennent une perspective claire, ces capacités -et donc les conditions requises pour réussir une biostase- demeuraient très incertaines. Maintenant, les conditions fondamentales semblent assez évidentes. Les conditions requises pour la biostase Les machines moléculaires peuvent construire des cellules en partant de zéro, comme le démontrent les cellules qui se divisent. Elles peuvent aussi construire des organes et des systèmes d'organes en partant de rien, à l'instar du développement des embryons. Les médecins pourront utiliser une technologie de réparation cellulaire pour diriger la croissance de nouveaux organes en partant d'une cellule d'un patient. Ceci laisse une grande liberté aux médecins actuels pour effectuer une biostase, parce que même s'ils étaient obligés d'endommager la majorité des organes d'un patient ou de s'en débarrasser, ils ne causeraient pas de torts irréversibles. Leurs collègues du futur, équipés de meilleurs outils, seront capables de réparer ou remplacer les organes impliqués. La plupart des gens seraient heureux d'avoir un nouveau c¦ur, de jeunes reins ou une peau plus lisse147. Mais le cerveau est une autre affaire. Un médecin qui autorise la destruction du cerveau d'un patient autorise en fait la destruction de la personne en tant que telle, quoi qu'il advienne du reste du corps. Le cerveau contient la mémoire, la personnalité, le soi. Les victimes d'embolies cérébrales ne perdent qu'une partie de leur cerveau ; ils souffrent cependant de maux allant de la cécité partielle à la paralysie totale et de la perte du langage à la baisse d'intelligence, en passant par des troubles de la personnalité et bien pire encore. Les effets dépendent de l'emplacement des dégâts. Ceci suggère que la destruction totale du cerveau cause une cécité, une paralysie, une aphasie et une perte de la personnalité totale, que le corps continue à respirer ou non. Comme Voltaire l'a écrit : "Pour naître à nouveau -en restant la personne que vous étiez- vous devez conserver parfaitement votre mémoire, puisque c'est la mémoire qui constitue l'identité. Si votre mémoire était perdue, comment pourriez-vous être le même homme ?". L'anesthésie interrompt la conscience sans perturber la structure du cerveau et la biostase doit faire de même mais plus longtemps. Ceci soulève la question de la nature des structures physiques qui sous-tendent la mémoire et la personnalité. La neurobiologie et le bon sens s'accordent sur la nature fondamentale de la mémoire. Quand nous formons des souvenirs et que nous façonnons notre personnalité, notre cerveau change. Ces changements affectent le fonctionnement du cerveau en modifiant son activité : quand nous nous souvenons, notre cerveau fait quelque chose ; quand nous agissons, pensons ou percevons, notre cerveau fait autre chose. Le cerveau travaille en utilisant une machinerie moléculaire. Des changements durables dans le fonctionnement du cerveau proviennent de modifications stables de cette machinerie moléculaire -à la différence des ordinateurs, le cerveau n'a pas été conçu pour pouvoir être vidé et rempli à nouveau à volonté. La personnalité et la mémoire à long terme sont durables. Dans tout le corps, des changements de fonctions durables impliquent des changements à long terme dans les machineries moléculaires. Quand les muscles deviennent plus forts ou plus rapides, leurs protéines varient en nombre et en répartition. Quand un foie s'habitue à faire face à l'alcool, son contenu en protéines change aussi. Quand le système immunitaire apprend à reconnaître une nouvelle sorte de grippe, son contenu en protéines change à nouveau. Il fallait s'attendre à une telle relation, puisque les machines à base de protéines effectuent réellement le travail qui consiste à bouger les muscles, dégrader les toxines et reconnaître les virus. Dans le cerveau, les protéines donnent leur forme aux cellules nerveuses, parsèment leur surface, relient une cellule à la suivante, contrôlent les courants ioniques lors de chaque impulsion nerveuse, produisent les signaux chimiques que les cellules nerveuses utilisent pour communiquer à travers les synapses et bien d'autres choses encore... Quand les imprimantes écrivent des mots, elles déposent des motifs d'encre ; quand les neurones changent leur comportement, ils modifient des motifs de protéines. L'impression bosselle également le papier ; les cellules nerveuses changent plus que la configuration de leurs protéines. Mais l'encre sur le papier et les protéines dans le cerveau sont suffisantes pour rendre ces motifs lisibles. Les modifications impliquées ne sont pas trop subtiles148. Les chercheurs rapportent que les changements à long terme dans le comportement des cellules nerveuses impliquent des "modifications morphologiques d'importance149" dans les synapses : elles changent de manière visible en taille et en structure. Il semble bien que la mémoire à long terme ne soit pas une sorte de motif terriblement délicat, prêt à s'évaporer du cerveau à la moindre excuse. La mémoire et la personnalité sont au contraire fermement attachées à la manière dont les cellules ont grandi ensemble, en des réseaux sculptés à travers les ans. La mémoire et la personnalité ne sont pas plus matérielles que les personnages d'un roman mais elles sont comme eux incarnées dans la matière. La mémoire et la personnalité ne s'exhalent pas avec le dernier souffle d'un patient. En fait, de nombreuses personnes sont revenues de ce qui est appelé la "mort clinique", même sans machine à réparer les cellules pour les aider. Les structures de l'esprit ne sont détruites que lorsque le médecin laisse le cerveau du patient entrer dans un processus de dégradation. Ceci également laisse aux médecins une grande marge de man¦uvre pour procéder à une biostase : en particulier, ils n'ont pas besoin de stopper le métabolisme avant l'arrêt des fonctions vitales150. Il semble que la préservation de la structure des cellules et de la configuration des protéines du cerveau préservera la structure de l'esprit donc la personne. Les biologistes savent déjà comment préserver ainsi les tissus. La technologie qui les ressuscitera devra attendre de pouvoir utiliser les réparateurs cellulaires mais la biostase est quant à elle déjà entre nos mains. Méthodes de biostase L'idée que nous disposons déjà de techniques de biostase peut sembler surprenante, puisque de nouvelles capacités surgissent rarement du jour au lendemain. En fait, ces techniques sont anciennes -seule la compréhension de leur réversibilité est nouvelle. Les biologistes ont développé les deux principales approches pour d'autres raisons. Pendant des décennies, ils ont utilisé des microscopes électroniques pour étudier la structure des cellules et des tissus. Pour préparer les échantillons, ils utilisent une technique appelée fixation qui fixe les structures moléculaires en place. Une méthode classique utilise des molécules de glutaraldéhyde qui sont des chaînes flexibles de cinq atomes de carbone avec un groupe réactif d'un hydrogène et d'un oxygène à chaque extrémité. Les biologistes fixent les tissus en perfusant une solution de glutaraldéhyde à travers les vaisseaux sanguins. Les molécules diffusent ainsi dans les cellules. Une molécule s'agite de ci de là dans une cellule jusqu'à ce qu'elle entre en contact avec une protéine (ou une autre molécule réactive) : elle s'y accroche alors. L'autre extrémité remue librement jusqu'à ce qu'elle aussi s'attache à une molécule réactive. Ceci enchaîne donc les protéines ensemble. Ces liaisons bloquent les machines et les structures moléculaires en place ; d'autres produits chimiques peuvent être alors ajoutés pour effectuer un travail de fixation plus détaillé ou plus robuste. Le microscope électronique montre qu'une telle fixation préserve les cellules151 et leurs structures internes, y compris dans le cerveau. La première étape d'une hypothétique technique de biostase que j'ai décrite au chapitre 7 implique l'utilisation de dispositifs moléculaires simples capables d'entrer dans les cellules, de bloquer leur machinerie moléculaire et de lier leurs structures ensemble avec des liaisons croisées. Les molécules de glutaraldéhyde correspondent assez bien à cette définition. L'étape suivante dans cette procédure consiste à retirer l'eau et à la remplacer par des appareils moléculaires simples qui s'agglutinent autour des molécules d'une cellule. Ceci correspond également à un processus chimique connu. Des produits chimiques comme le propylène glycol, l'éthylène glycol et le diméthyl sulfoxyde peuvent diffuser à l'intérieur des cellules et remplacer l'eau en faisant peu de dégâts. Ils sont appelés des "cryoprotectants" parce qu'ils peuvent protéger les cellules des dommages causés par les basses températures. S'ils remplacent une quantité suffisante de l'eau d'une cellule, alors le refroidissement ne se traduit pas par une congélation, parce que la solution protectrice passe de la viscosité d'un sirop à celle d'un goudron chaud, jusqu'à atteindre celle du verre. En fait, selon la définition scientifique du mot, la solution protectrice à cette température est qualifiée de verre ; le processus de solidification sans congélation152 est appelé une vitrification. Des embryons de souris153 vitrifiés et stockés dans l'azote liquide sont devenus des souris en bonne santé. Le processus de vitrification plaque le cryoprotectant solidement autour des molécules de chaque cellule ; la vitrification correspond donc bien à la définition que j'ai donnée de la deuxième étape de la biostase. La fixation et la vitrification appliquées ensemble semblent adéquates pour assurer une biostase longue. Pour inverser cette forme de biostase, les machines réparatrices de cellules seront programmées pour enlever le produit vitreux et les molécules de glutaraldéhyde, puis elles répareront et remplaceront les molécules, restaurant ainsi la fonction des cellules, des tissus et des organes. La fixation et la vitrification ne sont pas les premières solutions évoquées pour effectuer une biostase. En 1962, Robert Ettinger154, un professeur de physique à Highland Park College dans le Michigan, publia un livre suggérant que les futures avancées en cryobiologie conduiraient peut-être à des techniques permettant de congeler des patients facilement et de manière réversible. Il suggéra ensuite que des médecins, utilisant une technologie du futur, pourraient faire revivre ces humains congelés avec les techniques actuelles peu de temps après leur mort officielle. Il fit remarquer que l'azote liquide préserverait ces patients pendant plusieurs siècles si nécessaire, en causant peu de changements. Peut-être qu'un jour, indiqua-t-il, la médecine disposera de "fabuleuses machines" ayant la faculté de restaurer les tissus congelés molécule par molécule. Son livre donna naissance au mouvement cryogéniste. Les cryogénistes se sont concentrés sur la congélation parce que de nombreuses cellules humaines se réveillent spontanément155 après avoir été congelées puis décongelées délicatement. Croire que le gel fait éclater les cellules est un mythe assez répandu ; en fait, la congélation provoque des dommages plus subtils -si subtils qu'ils ne laissent parfois pas de traces. Le sperme congelé produit régulièrement des bébés en bonne santé. Certains humains en vie actuellement ont survécu à leur congélation dans l'azote liquide -quand ils étaient à l'état d'embryons. Les cryobiologistes recherchent activement des techniques pour congeler et décongeler des organes vivants156 afin que les chirurgiens puissent les stocker pour une utilisation ultérieure. La perspective de technologies de réparation cellulaire est un thème récurrent157 parmi les cryogénistes. Cependant, ils se sont concentrés sur des procédures qui préservent la fonction des cellules, pour des raisons évidentes. Les chercheurs ont amélioré leurs résultats en testant différents mélanges de cryoprotectants et en faisant varier, sous contrôle précis, les vitesses de congélation et de décongélation. La complexité de la cryobiologie offre de grandes possibilités d'expérimentation. Des succès tangibles, associés aux buts prometteurs des recherches futures, ont fait de la quête d'un processus de congélation facilement réversible l'objectif phare des cryogénistes. Un succès lors de la congélation et du retour à la vie d'un mammifère adulte serait immédiatement manifeste et convaincant. Qui plus est, même la préservation partielle de la fonction des tissus suggère une excellente préservation de leur structure. Les cellules qui peuvent revenir à la vie (ou presque le faire) ne nécessitent pas beaucoup de réparations. L'insistance prudente et conservatrice de la communauté cryongéniste sur la préservation de la fonction des tissus a toutefois semé le doute dans l'esprit du public. Des expérimentateurs ont congelé des mammifères adultes entiers et les ont décongelés sans attendre l'aide des machines à réparer les cellules. Les résultats ont été apparemment décourageants : les animaux ne revenaient pas à la vie158. Aux yeux d'un public et d'une communauté médicale qui ne connaissaient rien des perspectives de réparation cellulaire, ces expériences ont rendu vaine la biostase par congélation. Ainsi, après la proposition d'Ettinger, quelques cryobiologistes décidèrent de faire des déclarations infondées à propos du futur de la technologie médicale. Comme Robert Prehoda159, qui indique dans un livre en 1967 : "Presque tous les experts en métabolisme réduit [...] pensent que les dommages cellulaires causés par les techniques de congélation actuelle ne pourront jamais être réparés". Bien sûr, ce n'étaient pas les bons experts à interroger. La question aurait dû être posée à des experts en technologie moléculaire et en machines de réparation cellulaire. Ces cryobiologistes auraient seulement dû dire que les dommages causés par la congélation nécessiteraient apparemment des réparations à l'échelle moléculaire et que personnellement, ils n'avaient pas étudié la question. Au lieu de cela, ils induisent négligemment le public en erreur sur un sujet d'une importance médicale vitale. Leurs déclarations empêchent la banalisation d'une technique de biostase160. Les cellules sont principalement constituées d'eau. A une température suffisamment basse, les molécules d'eau se lient pour former des réseaux solides. Puisque ceci préserve les structures neurales161 et donc la configuration de l'esprit et de la mémoire, Robert Ettinger a apparemment identifié une approche fonctionnelle de la biostase. Au fur et à mesure des avancées de la technologie moléculaire, ses conséquences deviendront plus familières au public et la réversibilité de la biostase (qu'elle soit fondée sur la congélation, la fixation et la vitrification ou encore d'autres méthodes) deviendra de plus en plus évidente. Inversion de la biostase Imaginez un patient qui meurt d'une crise cardiaque. Les médecins ont tenté de le ressusciter et ont échoué ; ils abandonnent la restauration des fonctions vitales. Mais à ce moment précis cependant, le corps et le cerveau du patient ne sont qu'à peine non fonctionnels -en fait, la plupart des cellules et des tissus sont toujours vivants et actifs. Après quelques préparatifs, le patient est rapidement placé en biostase pour éviter une dissolution irréversible en attendant un jour meilleur. Les années passent. Le patient change peu mais la technologie avance à grands pas. Les biochimistes apprennent à concevoir des protéines. Les ingénieurs utilisent des machines protéiques pour construire des assembleurs dont ils se servent pour développer des capacités générales en technologie moléculaire. Avec de nouveaux instruments, les connaissances en biologie explosent. Les ingénieurs en médecine utilisent ces nouvelles connaissances, l'ingénierie automatique et les assembleurs pour développer des machines à réparer les cellules d'une sophistication croissante. Ils apprennent à arrêter puis à inverser le vieillissement. Les médecins utilisent alors la technologie de réparation des cellules pour ressusciter les patients en biostase -en commençant par ceux qui ont été placés en biostase avec les techniques les plus sophistiquées et en remontant vers ceux qui ont bénéficié de techniques plus anciennes et plus grossières. Finalement, après la réussite de la résurrection d'animaux congelés avec les vieilles techniques des années 1980, les médecins se penchent sur le cas de notre patient mort de crise cardiaque. Dans les premières étapes de préparation, la patient repose dans un réservoir d'azote liquide entouré d'équipements. Le cryoprotectant bloque encore fermement la machinerie moléculaire de chaque cellule. Ce produit doit être retiré mais un réchauffement simple permettrait à des structures cellulaires de bouger prématurément. Des appareils chirurgicaux conçus pour fonctionner à basse température atteignent la poitrine du patient en se déplaçant dans l'azote liquide. Ils retirent alors un morceau de tissu pour ouvrir un accès aux veines et artères majeures. Une armée de nanomachines équipées pour retirer le cryoprotectant entre alors par ces ouvertures, en dégageant d'abord les gros vaisseaux162, puis les capillaires. Ceci ouvre des voies d'accès à tous les organes163 du patient. Les machines chirurgicales les plus grosses attachent alors des tubes à la poitrine du patient pour qu'ils pompent du fluide à travers le système vasculaire. Le fluide nettoie le corps des machines qui ont retiré le cryoprotectant (plus tard, il fournira les matériaux nécessaires au fonctionnement des machines réparatrices et évacuera la chaleur produite). Maintenant, les pompes font circuler un liquide laiteux qui contient des billions de machines qui rentrent dans les cellules pour retirer le cryoprotectant164, molécule par molécule. Elles les remplacent par un échafaudage moléculaire provisoire165 qui laisse suffisamment de place aux machines réparatrices pour travailler. Les biomolécules libérées du protectant, y compris les composants structurels et mécaniques des cellules, sont reliées à l'échafaudage grâce à des liaisons provisoires. Quand les molécules doivent être déplacées, elles sont marquées166 pour être replacées au bon endroit. Comme les autres machines à réparer les cellules, ces appareils seront dirigés par des nano-ordinateurs in situ. Quand elles ont fini leur travail, les machines capables de travailler aux basses températures se retirent. Le fluide est petit à petit remplacé par une solution aqueuse lors de l'élévation progressive de température, jusqu'au-dessus de zéro. Les machines de réparation cellulaire sont envoyées dans la circulation et entrent dans les cellules. Les réparations commencent. De petits appareils analysent les molécules et indiquent à un ordinateur central placé à l'intérieur de la cellule167 leur position et leur structure. L'ordinateur identifie les molécules, ordonne d'éventuelles réparations et détermine les structures cellulaires en s'appuyant sur ces configurations moléculaires168. Quand les dégâts impliquent des structures cellulaires, l'ordinateur oriente les réparateurs pour qu'ils restaurent le bon arrangement des molécules, en utilisant des liaisons temporaires si nécessaire. Pendant ce temps, les artères du patient sont nettoyées et le muscle cardiaque, endommagé plusieurs années auparavant, est réparé. Finalement la machinerie moléculaire fine est remise en ordre de marche et des réparateurs moins précis replacent les cellules convenablement au sein des tissus et des organes pour les rendre à nouveau fonctionnels. L'échafaudage est alors démonté et retiré des cellules ainsi que la plus grande partie des machines réparatrices. La majorité des liaisons ont été supprimées mais les molécules actives de la cellule restent bloquées pour éviter une activité prématurée qui ne serait pas bien contrôlée. A l'extérieur du corps du patient, le système de réparation a synthétisé du sang frais à partir des ses cellules. Il transfuse maintenant ce sang pour remplir le système vasculaire du patient et remplir le rôle de c¦ur artificiel temporaire. Les appareils encore présents dans les cellules ajustent les concentrations en sels, sucres, ATPl et autres petites molécules, principalement par le déblocage sélectif des machineries aux cellules. Les machines moléculaires permettent petit à petit au métabolisme de reprendre, en débloquant d'autres machineries. Le c¦ur est finalement débloqué et les battements reprennent ; le patient se trouve dans un état anesthésié. Pendant que les médecins vérifient que tout se passe bien, les machines de réparation ferment l'ouverture pratiquée dans la poitrine sans laisser ni point de suture ni cicatrice. Les appareils qui sont encore présents dans les cellules se désassemblent les uns les autres en des molécules de nutriments. Alors que le patient passe dans un sommeil normal, des visiteurs entrent dans la pièce : c'était prévu de longue date. Finalement, le dormeur se réveille à la lumière de ce jour nouveau -et à la vue de ses vieux amis. Esprit, corps et âme Avant de parler de résurrection cependant, certains peuvent se demander ce qu'il advient de l'âme d'une personne placée en biostase. Quelques personnes répondront que l'âme et l'esprit sont deux facettes d'une même chose : une structure contenue dans la substance du cerveau, active pendant la vie, au repos pendant la biostase. Imaginez plutôt que l'âme et l'esprit, la mémoire et la personnalité quittent le corps à la mort, emportés par une subtile substance. Dans ce cas, les choses sont assez simples : la mort a un autre sens que celui de dommages irréversibles causés au cerveau. Elles est plutôt définie par le départ irréversible de l'âme. Ceci ferait de la biostase une action inutile -mais inoffensive. Après tout, les chefs religieux ne se sont pas exprimés sur le possible emprisonnement de l'âme dans le cas où le corps ne se dégrade presque pas. La résurrection vue sous cet angle nécessiterait la coopération de l'âme pour réussir. En fait, des catholiques et des juifs ont déjà organisé des cérémonies lors de mises en biostase. Avec ou sans biostase, la réparation cellulaire ne peut pas apporter l'immortalité. La mort physique, bien que largement différée, demeurera inévitable pour des raisons enracinées dans la nature même de l'univers. La biostase suivie d'une réparation cellulaire semble cependant ne soulever aucune question théologique. Elle ressemble à une anesthésie profonde qui serait suivie d'une opération chirurgicale vitale : les deux procédures interrompent la conscience pour prolonger la vie. Parler "d'immortalité" au lieu de longue vie serait ignorer les faits et faire une mauvaise utilisation des mots. Réactions et arguments La perspective de la biostase semble être faite sur mesure pour troubler les esprits. La plupart des gens trouvent que l'accélération des changements constatée à l'heure actuelle est déjà perturbante, alors qu'en fait, les avancées se font encore au compte-gouttes. Mais la possibilité de la biostase est une conséquence actuelle de toute une série de percées futures. Cette perspective interfère avec les difficiles ajustements psychologiques qui accompagnent le déclin physique. Jusqu'ici, j'ai utilisé pour justifier la biostase et la réparation cellulaire des faits bien connus de la biologie et de la chimie. Mais qu'en pensent les spécialistes de la biologie ? En particulier, pensent-ils (1) que des machines réparatrices pourront corriger le type de dommages causés par les liaisons établies lors de la fixation et (2) que la mémoire est réellement contenue sous une forme que l'on peut préserver ? Après une discussion portant sur les machines moléculaires et leurs capacités -une discussion durant laquelle nous n'avons pas abordé les implications médicales-, le docteur Gene Brown, professeur de biochimie et directeur du département de biochimie au MIT, nous permet de le citer : "En consacrant suffisamment de temps et d'efforts au développement de machines moléculaires artificielles et en menant des études détaillées sur la structure biologique de la cellule, de très importantes capacités devraient émerger. Parmi celles-ci, il y aura probablement la faculté de séparer les protéines (ou d'autres biomolécules) attachées par des liaisons, de les reconnaître, les réparer et les remplacer". Cette déclaration aborde une grande partie des problèmes de la réparation cellulaire. Elle a été nettement soutenue par toute une série de biochimistes et de biologistes moléculaires au MIT et à Harvard après des discussions similaires. Après une discussion touchant au cerveau et à la nature physique de la mémoire et de la personnalité -ici encore, sans aborder les implications médicales-, le docteur Walle Nauta, professeur de neuroanatomie au MIT, permet qu'on le cite : "En m'appuyant sur les connaissances actuelles de la biologie moléculaire des neurones, je pense que la plupart des spécialistes s'accorderont pour dire que les changements qui ont lieu lors de la consolidation de la mémoire à long terme sont reflétés par des changements correspondants dans le nombre et la distribution de différentes protéines dans les neurones du cerveau". Comme pour la déclaration du Dr Brown, cette remarque éclaire un point d'une importance fondamentale en ce qui concerne la faisabilité de la biostase. Cette déclaration a elle aussi été approuvée par d'autres experts lors d'une discussion exempte de tout préjugé émotionnel lié aux implications médicales. De plus, puisque ces questions relevaient directement de leurs spécialités, le Dr Brown et le Dr Nauta étaient parfaitement qualifiés pour être consultés. Il semble que l'instinct de survie des humains en pousserait des millions à utiliser la biostase -en dernier recours- s'ils la considéraient comme praticable. Avec les avancées en technologie moléculaire, la compréhension de la réparation cellulaire se démocratisera. Des experts soutiendront de plus en plus cette idée et la biostase deviendra une pratique répandue ; c'est alors que son prix chutera. On peut penser que de nombreuses personnes finiront par considérer la biostase comme la norme, comme un traitement standard permettant de sauver la vie de ceux qui ont expiré. Mais jusqu'aux premières démonstrations de machines réparatrices de cellules, la tendance trop humaine à ne pas prendre en compte ce qui n'existe pas encore, ralentira le développement de la biostase. Des millions de personnes finiront sans doute par se désagréger irrémédiablement après leur mort, simplement à cause d'habitudes ou de traditions peu justifiées. L'importance d'une prédiction claire à propos de la biostase oblige à examiner les objections possibles avant de quitter le sujet de l'extension de la vie pour se tourner vers d'autres questions. Pourquoi la biostase ne semble t'elle donc pas être une idée naturelle, évidente ? Parce que les machines de réparation cellulaire ne sont pas encore là. Il peut paraître étrange de vouloir sauver une personne de la dissolution et espérer lui redonner la santé alors que la technologie de réparation n'existe pas encore. Mais est-ce plus étrange que de mettre de l'argent de côté afin de payer les études de son enfant ? Après tout, l'étudiant qu'il sera n'existe pas encore. Epargnerm est utile parce que l'enfant va mûrir ; sauver des gens est utile parce que la technologie va mûrir. Nous espérons d'un enfant qu'il grandisse parce que nous avons déjà vu beaucoup d'enfants grandir. Nous pouvons espérer que la technologie s'améliorera parce que nous avons déjà vu de nombreuses technologies s'améliorer. Il est vrai que certains enfants souffrent d'affections congénitales, comme certaines technologies, mais les experts peuvent souvent estimer le potentiel d'enfants ou de technologies alors qu'ils sont encore jeunes. La micro-électronique a commencé avec quelques fils et dépôts métalliques sur une plaque de silicium. Des physiciens comme Richard Feynman avait en partie prévu169 jusqu'où cela irait. La technologie nucléaire a commencé avec des faisceaux de neutrons qui cassaient quelques atomes dans un laboratoire mais elle a mûri jusqu'à donner des centrales nucléaires produisant des milliards de watts et des bombes nucléaires. Leo Szilard avait en partie prévu jusqu'où cela nous conduirait. La technologie des fusées à carburant liquide a commencé par des engins grossiers tirés à partir d'un champ dans le Massachussets mais elle a vite grandi pour aller conquérir la Lune et donner des navettes spatiales. Robert Goddard avait en partie prévu jusqu'où cela irait. L'ingénierie moléculaire a commencé avec la chimie ordinaire et les machines moléculaires empruntées aux cellules mais elle aussi deviendra vite puissante. Et ses conséquences sont en partie discernables. Parce que les petites machines manquent de panache. Nous avons tendance à n'attendre de résultats grandioses que de grandes causes mais la nature trahit souvent cette attente. Elle emballe souvent avec le même papier les merveilles et les désastres. Fait banal : des interrupteurs électriques peuvent en ouvrir et en fermer d'autres. Ces interrupteurs, économes en énergie, peuvent être miniaturisés. Conséquence fabuleuse : lorsqu'ils sont correctement interconnectés, ces interrupteurs forment des ordinateurs, moteurs de la révolution de l'information. Fait banal : l'éther n'est pas un poison trop dangereux, cependant, il agit temporairement sur le cerveau. Conséquence fabuleuse : ce produit a marqué la fin des souffrances atroces endurées par les patients opérés vivants, ouvrant ainsi une nouvelle voie en médecine. Fait banal : les moisissures et les bactéries sont en compétition pour leur survie, c'est pourquoi certains champignons sécrètent du poison pour tuer les bactéries. Conséquence fabuleuse : la découverte de la pénicilline, qui a permis de sauver des millions de vies en luttant contre de nombreuses affections bactériennes. Fait banal : les machines moléculaires peuvent être utilisées pour manipuler des molécules et construire des interrupteurs mécaniques de taille moléculaire Conséquence fabuleuse : des machines réparatrices de cellules dirigées par des ordinateurs qui permettent de soigner pratiquement n'importe quelle maladie. Fait banal : la mémoire et la personnalité sont contenues dans des structures préservables du cerveau Conséquence fabuleuse : les techniques d'aujourd'hui peuvent nous préserver de la dissolution en donnant le temps à la génération actuelle de maîtriser les machines de réparation cellulaire de demain. Parce que cela paraît trop incroyable. Nous vivons dans le siècle de l'incroyable. Dans Astronautics and Aeronautics, un article écrit par l'ingénieur aérospatial Robert T. Jones170 intitulé "L'idée de Progrès " indique : "En 1910, l'année de ma naissance, mon père était procureur. Il parcourait toutes les mauvaises routes du comté de Macon dans une voiture tirée par un seul cheval. L'année dernière, j'ai pris l'avion sans escale qui va de Londres à San Francisco en passant au-dessus des régions polaires, propulsé par des moteurs de plus de 50 000 chevaux". Au temps de son père, de tels avions étaient presque au-delà de la science fiction ; trop incroyables pour être pris en considération. Dans un article intitulé "Recherches médicales fondamentales : un investissement à long terme" publié dans Technology review au MIT, le docteur Lewis Thomas écrit171 : "Il y a quarante ans, juste avant que la profession ne subisse une transformation en profondeur qui la fit passer d'un art à une science et une technologie, il était tenu pour acquis que la médecine qu'on nous enseignait serait précisément celle dont nous aurions besoin pour la plus grande partie de notre vie. Si quelqu'un nous avait dit que la maîtrise des infections bactériennes était toute proche, que les opérations à c¦ur ouvert ou les transplantations de reins se feraient dans une vingtaine d'années, que certains cancers pourraient être soignés par chimiothérapie et que nous étions tout proches d'une compréhension à l'échelle biochimique de la génétique et des maladies héréditaires, nous aurions réagi avec la plus totale incrédulité. Nous n'avions aucun raison de croire que la médecine changerait un jour [...] Ce que ces souvenirs nous enseignent, c'est que nous devons garder nos esprits grands ouverts sur le futur". Parce que ça semble trop beau pour être vrai. Une information concernant une méthode permettant d'éviter la fatalité associée à la plupart des maladies mortelles peut en effet sembler trop belle pour être vraie -elle l'est en effet, puisque ce n'est que la première partie d'une histoire plus équilibrée. En fait, les dangers de la technologie moléculaire contrebalancent à peu près toutes ses promesses. Dans la troisième partie, j'aborderai les raisons qui font penser que les nanotechnologies sont plus dangereuses que les armes nucléaires. Fondamentalement cependant, la nature ne se soucie pas de notre sens du bien et du mal ni de notre sens de l'équilibre. En particulier, la nature ne déteste pas suffisamment l'humain pour nous empêcher de réussir. Les horreurs du passé ont déjà disparu. Il y a quelques temps, les chirurgiens s'efforçaient d'amputer les jambes rapidement. Robert Liston, d'Edimburgh en Ecosse, scia la cuisse d'un patient en un temps record de trente-trois secondes, retirant par la même occasion trois doigts à la main de son assistant. Les chirurgiens travaillaient vite pour abréger les souffrances de leurs clients, parce que ceux-ci restaient conscients. Si la phase terminale d'une maladie est un cauchemar aujourd'hui sans biostase, imaginez ce qu'était la chirurgie sans anesthésie pour nos ancêtres : le couteau découpant la chair, le sang qui coule, la scie qui gratte et râpe l'os du patient encore conscient...Cependant, en octobre 1846, W.T.G. Morton et J.C. Warren retirèrent la tumeur d'un patient sous anesthésie à l'éther. Arthur Slater déclare que leur succès "fut à juste titre salué comme la découverte du siècle". En utilisant des techniques simples et un produit chimique connu, l'épouvantable cauchemar du couteau et de la scie pour les opérations chirurgicales arrivait enfin à son terme. La chirurgie, débarrassée de la torture, put se développer, et avec elle les infections chirurgicales et l'horreur quotidienne de la mort causée par le pourrissement des chairs. Mais en 1867, Joseph Lister publia172 les résultats de ses expériences menées avec le phénol, établissant ainsi les principes de l'antisepsie en chirurgie. Avec des techniques simples utilisant un produit chimique connu, le cauchemar du pourrissement vivant disparut presque. Vinrent alors les médicaments à base de sulfamides et de pénicilline, qui mirent fin à de nombreuses maladies mortelles d'un seul coup...et la liste peut continuer... Des percées fabuleuses ont déjà eu lieu par le passé en médecine ; parfois simplement grâce à une nouvelle utilisation d'un produit déjà connu, comme dans le cas de l'anesthésie et de l'antisepsie. Bien que ces avancées parussent trop belles pour être vrai, elles le furent quand même. Sauver la vie en utilisant des produits chimiques et des procédures connues pour mettre en biostase peut tout aussi bien être vrai. Parce que les médecins n'utilisent pas la biostase. Robert Ettinger a proposé une technique de biostase en 1962. Il déclara que le professeur Jean Rostand avait déjà proposé cette approche quelques années auparavant et prédit son utilisation éventuelle en médecine. Pourquoi la biostase par congélation n'est-elle pas devenue une technique populaire ? A cause de son coût, de l'inertie humaine et parce que les moyens permettant de réparer les cellules demeuraient obscurs. Mais c'est aussi le conservatisme patent de la profession qui a joué un rôle de tout premier plan. Repensez à l'histoire de l'anesthésie. En 1846, Morton et Warren stupéfièrent le monde avec "la découverte du siècle" : l'anesthésie à l'éther. Cependant, deux ans auparavant, Horace Wells avait procédé à une anesthésie à l'oxyde nitreux et deux ans encore avant lui, Crawford W. Long avait effectué une opération en utilisant de l'éther. En 1824, Henry Hickman avait déjà réussi à anesthésier des animaux en utilisant simplement du dioxyde de carbone. Il passa des années à tenter de convaincre des chirurgiens en France et en Angleterre de tester l'oxyde nitreux en tant qu'anesthésiant. Et en 1799, soit quarante-sept longues années avant la fabuleuse "découverte" et quelques années avant que l'assistant de Liston ne perdit ses doigts, Sir Humphry Davy écrivit173 : "Etant donné que l'oxyde nitreux semble être en mesure de détruire la douleur physique, il pourrait être utilisé lors des opérations chirurgicales". Malgré cela, la victoire sur la douleur semblait encore impossible à de nombreux médecins aussi tard qu'en 1839 : le docteur Alfred Velpeau déclara cette année-là : "L'abolition de la douleur en chirurgie est une chimère. Il est absurde de vouloir la rechercher de nos jours. "Couteau" et "douleur" sont deux mots qui, en chirurgie, resteront associés pour toujours dans la conscience des patients. Nous devons nous ajuster à cette inévitable combinaison". Beaucoup de gens craignaient la douleur des opérations plus que la mort elle-même. Le temps est peut-être venu de se réveiller et de sortir du cauchemar final de la médecine. Parce qu'il n'est pas prouvé que ça fonctionne. Il est vrai qu'aucune expérience ne peut actuellement démontrer la résurrection d'un patient placé en biostase. Mais demander une telle démonstration reviendrait à supposer (indirectement) que la médecine moderne est proche des limites finales du possible et qu'elle ne sera jamais dépassée par des réalisations futures. Une telle demande pourrait donc paraître prudente et raisonnable ; elle refléterait en fait une incroyable arrogance. Malheureusement une démonstration est exactement ce que les médecins sont habitués à demander et pour une bonne raison : ils veulent éviter les procédures inutiles qui peuvent causer du tort. Peut-être suffira-t-il que la mise à l'écart de la biostase conduise à un tort évident et irréversible pour qu'ils prennent conscience de son utilité. Temps, coût et action humaine L'utilisation de la biostase se développera si les gens pensent que le jeu en vaut la chandelle. Ce pari implique le prix de la vie -qui est une affaire personnelle-, le coût de la biostase -qui semble raisonnable au vu des standards de la médecine moderne-, la probabilité que la technologie nécessaire à la résurrection fonctionne -elle semble excellente- et enfin la probabilité que l'humanité survive, qu'elle développe la technologie et qu'elle procède à la résurrection des personnes en biostase. Le dernier point constitue la source majeure d'incertitude. Imaginez que les humains et les sociétés démocratiques survivent (personne ne peut calculer une telle probabilité mais supposer un échec ruinerait les efforts susceptibles d'amener au succès). S'il en est ainsi, alors la technologie va continuer à avancer. Développer des assembleurs prendra des années. Etudier les cellules et apprendre à réparer les tissus des patients placés en biostase prendra encore plus longtemps. Pour donner une estimation, entre trente et cent ans seront nécessaires pour développer des systèmes de réparation cellulaire et les adapter au problème de la résurrection -sans compter que les avancées en ingénierie automatique accéléreront le processus. Le temps requis semble cependant sans importance. La plupart des patients ressuscités se préoccuperont plus des conditions de vie -y compris la présence de leur famille et de leurs amis- que de la date sur le calendrier. Avec des ressources abondantes, les conditions de vie pourront en effet être très bonnes. La présence des proches est un autre problème. Dans un sondage publié récemment, plus de la moitié des gens qui ont répondu ont indiqué qu'ils aimeraient vivre au moins cinq cents ans s'ils en avaient la possibilité. Des enquêtes informelles montrent que la plupart des gens préféreraient la biostase à la mort s'ils pouvaient revivre en bonne santé et explorer le monde futur avec leurs anciens compagnons. Peu de gens disent "qu'ils veulent partir quand leur heure sera venue" et ils conviennent généralement que tant qu'ils peuvent choisir d'allonger leur vie, leur heure n'a pas encore sonné. Il semble que de nombreuses personnes partagent les désirs de Benjamin Franklin mais nous sommes à une époque où ces désirs peuvent être satisfaits. Si la biostase remporte un rapide succès, ou que d'autres formes d'extension de la vie progressent rapidement, alors un patient ressuscité ne se réveillera pas dans un monde d'étrangers mais au milieu des sourires de visages familiers. Mais est-ce que les gens placés en biostase seront ressuscités ? Les techniques de biostase sont déjà connues et leur coût pourrait devenir faible, du moins en comparaison avec des opérations chirurgicales majeures ou des soins prolongés en hôpital. Les technologies de résurrection seront à la fois complexes et coûteuses à mettre au point. Les gens s'en soucieront-ils dans le futur ? Il semble bien que oui. Ils ne développeront peut-être pas les nanotechnologies pour des raisons médicales -mais s'ils ne le font pas pour cela, ce sera alors pour construire des ordinateurs plus puissants. Ils ne développeront peut-être pas des machines à réparer les cellules avec la résurrection comme objectif mais ils le feront sûrement pour se guérir eux-mêmes. Ce n'est peut-être pas un acte de charité gratuit qui les poussera à programmer les machines de réparation pour qu'elles ressuscitent les patients en biostase mais ils auront du temps, des richesses et des systèmes d'ingénierie automatisée et quelques uns d'entre eux auront aimé des personnes en attente de réveil. Les techniques de résurrection sont pratiquement sûres d'être développées. Avec des réplicateurs et des ressources spatiales, un temps viendra où les gens auront mille fois plus de richesses et de place que nous pour vivre. La résurrection ne nécessitera que peu d'énergie et de matériaux, même avec les standards actuels. De plus, les personnes qui procéderont à la résurrection ne verront pas de conflits entre leurs intérêts personnels et leurs actions humanitaires. Des raisons simplement humaines semblent suffisantes pour s'assurer que la population du futur réveillera les personnes placées en biostase. La première génération qui regagnera sa jeunesse sans être forcée de recourir à la biostase est peut-être déjà parmi nous. La perspective de la biostase donne à plus de gens plus de raisons d'espérer une longue vie -elle offre une possibilité aux personnes âgées et une sorte de garantie aux plus jeunes. Les avancées en biotechnologie conduisent à la conception protéique, aux assembleurs et à la réparation cellulaire. Quand les implications deviendront évidentes, l'espérance d'une vie plus longue se répandra. En élargissant le chemin qui mène à la longévité, l'option de la biostase incitera à faire plus attention au futur. Et cela stimulera les efforts pour se préparer aux dangers à venir. 10 Les limites de la croissance L'échiquier est le monde, les pièces sont les phénomènes de l'univers, les règles du jeu sont ce que nous appelons les lois de la nature. T. H. Huxley Au cours de ce siècle, nous avons développé l'avion, la fusée, la puissance nucléaire et les ordinateurs. Au cours du prochain, nous développerons les assembleurs, les réplicateurs, l'ingénierie automatique, les transports spatiaux économiques, les machines à réparer les cellules et bien plus encore. Cette série de percées pourrait faire croire que la course technologique progressera sans limite et que nous passerons à travers toutes les barrières imaginables, atteignant ainsi l'inconnu infini -mais ce point de vue est faux. Les lois de la nature et les conditions du monde restreindront ce que nous ferons. Sans limite, le futur serait totalement inconnaissable et cela ruinerait tous nos efforts de prédiction. Même limité, le futur reste encore largement empreint d'incertitudes mais il ne peut s'écouler qu'entre des berges bien définies. Les limites naturelles nous renseignent sur les problèmes et les possibilités qui nous sont offertes. Elles définissent les frontières du possible, les ressources utilisables, la vitesse de nos vaisseaux spatiaux et ce que les assembleurs pourront faire ou non. Parler des limites est risqué : il est plus facile d'affirmer la possibilité de quelque chose que son impossibilité. Les ingénieurs y parviennent par des approximations et en prenant des cas particuliers. Avec du temps, des matériaux et des outils, ils peuvent démontrer les choses directement. Ils peuvent rester dans le domaine du possible, même en faisant de la "conception exploratoire", s'ils ne s'approchent pas trop des limites. Les scientifiques au contraire, ne peuvent pas prouver des théories générales -et toute déclaration d'impossibilité est elle-même une sorte de théorie générale. Aucune expérience ni série d'expériences (réalisée en un lieu et un temps donnés) ne peut démontrer une impossibilité (valable partout et pour toujours). Cependant, les théories scientifiques générales fixent des limites au possible. Bien que les scientifiques ne puissent pas prouver une loi générale, ils ont amélioré la représentation dont nous disposons du fonctionnement de l'Univers. Et bien que des expériences exotiques et des mathématiques élégantes modifient encore nos concepts sur les lois de la physique, peu de limites en ingénierie bougeront. La relativité n'influence pas la conception des voitures... Ce n'est pas parce que des limites ultimes existent que nous allons bientôt les heurter de plein fouet, et cependant, beaucoup de gens se sont imaginés que les limites allaient rapidement arrêter notre croissance. Cette notion simplifie le tableau du futur en laissant de côté les nouveaux développements que la croissance apportera. D'autres personnes sont favorables à une vague théorie de croissance sans limite -une notion qui obscurcit leur vision du futur en le rendant incompréhensible. Les gens qui confondent la science et la technologie ont tendance à être désorientés par les problèmes de limites. Comme l'ingénieur en informatique Mark S. Miller le souligne, ils imaginent qu'un nouveau savoir implique directement un nouveau savoir-faire ; certains imaginent même que tout savoir nous permettra de tout faire. Les avancées en technologie apportent en effet un nouveau savoir-faire ; elles ouvrent de nouvelles possibilités. Mais des avancées fondamentales en sciences redessinent simplement notre carte des ultimes limites ; elles nous montrent de nouvelles impossibilités. Les découvertes d'Einstein, par exemple, montrèrent que rien ne peut aller plus vite que la lumière. La structure du vide La vitesse de la lumière est-elle une limite réelle ? Les gens parlaient autrefois d'un "mur du son" et certains croyaient en effet qu'il empêcherait les avions de dépasser la vitesse du son. Mais en 1947, à la base de l'US Air Force d'Edwards, Chuck Yeager déchira le ciel d'octobre d'un bang supersonique. Aujourd'hui, certains parlent du "mur de la lumière" et se demandent s'il tombera lui aussi. Malheureusement pour les auteurs de science fiction, ce parallèle est très superficiel. Personne ne pouvait réellement soutenir que la vitesse du son était une véritable limite physique. Les météores et les balles de fusils la dépassaient tous les jours et même les fouets qui claquent brisent le mur du son. Mais personne n'a jamais rien vu qui se déplace plus vite que la lumière dans le vide. Des points distants paraissent parfois se mouvoir plus vite mais de simples explications optiques expliquent ces faits. Des particules hypothétiques appelées "tachyons" iraient plus vite que la lumière si elles existaient -mais on n'en a jamais observé et les théories actuelles ne prédisent pas leur existence. Des chercheurs ont réussi à accélérer des protons jusqu'à plus de 99,9995 % de la vitesse de la lumière, avec des résultats qui corroborent parfaitement les prédictions d'Einstein. Quand une particule est encore plus accélérée, elle se rapproche lentement de la vitesse de la lumière tandis que son énergie (sa masse) tend vers l'infini. Sur Terre, une personne ne peut s'éloigner d'un point que d'une distance limitée, pourtant aucun mur ou aucune barrière ne le retient. La Terre est tout bonnement ronde. La vitesse limitée de la lumière dans l'espace n'implique pas plus "un mur de la lumière" que la distance limitée sur Terre ne nécessite un quelconque mur. L'espace lui-même -le vide qui contient toute la matière et l'énergie- possède des propriétés. L'une d'entre elles est sa géométrie, qui peut être décrite en considérant le temps comme une dimension spéciale. Cette géométrie fait que la vitesse de la lumière s'éloigne devant un vaisseau spatial en accélération, de la même manière que l'horizon recule devant un bateau en mouvement. La vitesse de la lumière, comme l'horizon, est également éloignée dans toutes les directions. Mais l'analogie s'arrête ici, parce que cette propriété n'a rien à voir avec la courbure de l'espace. Il suffit de se souvenir que la vitesse limite n'est pas aussi simple à franchir174 qu'une barrière. Les objets peuvent aller toujours plus vite, ils iront toujours moins vite que la lumière. Les hommes rêvent depuis longtemps de contrôler la gravité. Dans l'édition de 1962 de Profils du futur, Arthur C. Clarke écrit175 que "de toutes les forces, la gravité est la plus mystérieuse et la plus insaisissable" et il suggère alors que nous serons un jour capables de construire des appareils permettant de contrôler la gravité. Mais la gravité est-elle vraiment si mystérieuse ? Dans la théorie de la relativité générale, Einstein décrit la gravité comme la courbure spatio-temporelle de la structure du vide. Les mathématiques qui décrivent ceci sont élégantes et précises et elles ont permis de faire des prédictions qui ont jusqu'à présent résisté à tous les tests. La gravité n'est ni plus ni moins insaisissable que les autres forces. Personne ne peut faire perdre son champ de gravité à un boulet ; mais personne ne peut non plus faire perdre sa charge électrique à un électron ou son champ magnétique à un courant. Nous contrôlons les champs électriques et magnétiques en faisant bouger les particules qui les créent ; nous pouvons contrôler les champs gravitationnels de la même manière, en bougeant des masses ordinaires. Il semble bien que nous ne puissions pas apprendre le secret de la gravitation puisque nous le connaissons déjà. Un enfant qui joue avec un petit aimant peut soulever un clou : il utilise un champ magnétique pour contrer le champ gravitationnel de la Terre orienté vers le bas. Mais malheureusement pour les enthousiastes ingénieurs en gravitation, soulever un clou à l'aide d'un champ gravitationnel nécessite une masse énorme. Tenir Vénus juste au-dessus de votre tête serait à peine suffisant pour faire le travail -avant qu'elle ne vous tombe dessus. Les ingénieurs créent des ondes électromagnétiques en agitant des charges électriques d'avant en arrière dans une antenne. On peut très bien créer des ondes gravitationnelles en agitant un rocher dans les airs. Mais encore une fois, l'effet gravitationnel est faible. Une station de radio d'une puissance d'un kilowatt n'a rien d'extraordinaire ; mais l'effet global de l'agitation et de la rotation de toute la matière du système solaire ne suffirait pas à produire un kilowatt d'ondes gravitationnelles. Nous comprenons la gravitation suffisamment bien ; elle n'est simplement pas d'une grande utilité quand il s'agit de construire des machines plus légères que la Lune. Mais des appareils utilisant de grandes masses fonctionnent. Un barrage hydroélectrique est une partie d'une machine gravitationnelle (l'autre partie étant la Terre) qui extrait de l'énergie de masses en mouvement. Les machines qui utiliseront la matière qui tombe dans les trous noirs pour produire de l'énergie en extrairont plus de cinquante pour cent, d'après la formule E=mc2. Jeter un seul seau d'eau dans un trou noir produirait autant d'énergie que des billions de seaux versés dans les turbines d'un barrage d'un kilomètre de haut. Les lois de la gravitation décrivent la manière dont le vide est courbé, elles s'appliquent donc aux histoires de déformations de l'espace-temps que l'on trouve en science-fiction. Il semble que des tunnels d'un point à un autre de l'espace seraient instables, quand bien même nous parviendrions à les former. Ceci empêche les futurs vaisseaux spatiaux d'atteindre un point éloigné plus vite que la lumière en prenant un raccourci et cette limite au voyage, à son tour en fixe une à la croissance. Les lois d'Einstein semblent donner une description exacte de la structure globale du vide. Si c'est le cas, alors les limites qui en résultent seront inéluctables : vous pouvez vous affranchir de beaucoup de choses mais pas du vide lui-même. D'autres lois et d'autres limites semblent inéluctables pour des raisons similaires. En effet, les physiciens en sont venus à analyser toutes les lois de la physique en termes de structure du vide. Les ondes gravitationnelles sont une certaine sorte de vague dans le vide ; les trous noirs sont une espèce de pliure. De la même manière, les ondes radios sont une autre sorte de vague dans le vide et les particules élémentaires sont une espèce très différente de pliure (qui ressemble, dans certaines théories, à de très petites cordes en vibration). Selon ce point de vue, il n'y a qu'une substance dans l'univers -le vide- mais elle prend une grande variété de formes, y compris ces configurations de particules que nous appelons la "matière solide". Ce qui souligne le caractère inéluctable des lois naturelles : si une unique substance remplit l'univers, est l'univers, alors ses propriétés limitent tout ce que l'on peut faire176. L'étrangeté de la physique moderne conduit cependant beaucoup de gens à s'en méfier. Les révolutions qu'ont été la mécanique quantique et la relativité générale ont conduit à des concepts comme "le principe d'incertitude", "la nature ondulatoire de la matière", "l'équivalence matière-énergie" et "l'espace-temps courbe". Ces idées et donc la physique elle-même semblent paradoxales. On peut comprendre que les nouvelles technologies nous paraissent étranges ; mais pourquoi les lois immuables de la nature seraient-elles bizarres et choquantes ? Nos cerveaux et nos langues ont évolué pour appréhender des choses bien plus grosses que des atomes qui se déplacent à de très petites vitesses comparées à celles de la lumière. Ils ont fait un assez bon travail dans ce domaine, bien qu'il leur ait fallu des siècles pour décrire la chute d'un rocher. Mais nous avons désormais étendu nos connaissances bien au-delà du monde décrit par nos sens. Nous avons trouvé des choses (ondes de matière, espace courbe) qui semblent étranges -et c'est parce que la plupart sont au-delà de nos facultés de représentation. Mais "étrange" ne signifie pas mystérieux et imprédictible. Les mathématiques et les expériences sont toujours applicables et les scientifiques sélectionnent des théories variées, les faisant évoluer pour s'accorder à une réalité même particulière. L'esprit humain est remarquablement flexible mais ce n'est pas une grande surprise que nous ne soyons pas toujours capables de nous représenter l'invisible. Une autre raison qui rend la physique si bizarre est que les gens sont très avides de choses étranges. Ils tendent à répandre des schèmes qui décrivent les choses bizarrement. Certaines personnes favorisent la propagation d'idées qui décrivent le monde comme étant constitué de matière fantomatique remplie de mystères de série B. Naturellement, ils favorisent des schèmes qui font de la matière quelque chose d'évanescent et de la physique quantique une branche de la psychologie. Ils disent par exemple que la relativité démontre que la matière -ce bon vieux truc que les gens croient connaître- est vraiment de l'énergie -cette chose subtile et immatérielle qui fait que des choses se produisent. Cette présentation des mystères de l'univers est ambiguë. Il serait plus clair de dire que l'énergie est une forme de matière et que dans toutes ses formes, l'énergie a une masse. De fait, les voiliers solaires fonctionnent sur ce principe, grâce aux impacts de masses sur une surface. La lumière elle-même est présente sous forme de particules. Intéressons-nous également au principe d'incertitude de Heisenberg et au fait relaté que "l'observateur affecte toujours l'objet observé". Le principe d'incertitude est intrinsèque aux mathématiques qui décrivent la matière ordinaire (à l'échelle des atomes) mais "l'effet associé de l'observateur" a été présenté dans quelques livres populaires comme une influence magique de la conscience sur le monde. En fait, l'idée originale est bien plus prosaïque. Imaginez que vous regardez un grain de poussière éclairé par un rayon de lumière : quand vous observez la lumière réfléchie, vous l'affectez - votre ¦il l'absorbe. De la même manière, la lumière (avec sa masse) affecte le comportement de la poussière en exerçant une force lorsqu'elle rebondit dessus. Le résultat n'est pas l'effet de votre esprit sur la poussière mais celui de la lumière. Bien que les mesures en physique quantique impliquent des quantités bien plus subtiles177 que cela, aucune ne correspond à l'esprit sortant du cerveau pour aller modifier la réalité. Enfin, considérez le "paradoxe des jumeaux". La relativité prédit que si un jumeau voyage jusqu'à une étoile et en revient quasiment à la vitesse de la lumière, il sera plus jeune que celui resté sur Terre. Et en effet, des mesures avec des horloges précises ont démontré l'effet de ralentissement du temps que provoque la vitesse. Mais ce n'est pas un paradoxe, c'est un simple fait naturel. La physique va-t-elle encore être bouleversée ? En 1894, l'éminent physicien Albert A. Michelson déclara : "Les lois et les faits fondamentaux les plus importants des sciences physiques ont désormais tous été découverts. Ils sont maintenant si fermement établis que la possibilité qu'ils soient remis en cause par de nouvelles découvertes est excessivement lointaine [...] Nos futures découvertes ne pourront se faire qu'au-delà de la sixième décimale des résultats déjà acquis". Mais en 1895, R¦ntgen découvrait les rayons X. En 1896, Becquerel découvrit la radioactivité. En 1897, Thomson découvrit l'électron. En 1905, Einstein formula la théorie de la relativité restreinte (et expliqua ainsi les propres observations de Michelson faites en 1887 sur la vitesse de la lumière). En 1905, Einstein présenta également la théorie photonique de la lumière. En 1911, Rutherford découvrit le noyau atomique. En 1915, Einstein formula la théorie générale de la relativité. De 1924 à 1930, de Broglie, Heisenberg, Bohr, Pauli et Dirac développèrent les fondements de la mécanique quantique. En 1929, Hubble annonça des preuves de l'expansion de l'univers. En 1931, Michelson mourut. Michelson a fait une erreur mémorable. Les gens s'appuient sur cette déclaration et les découvertes qui ont suivi pour justifier le fait que nous ne devrions pas (jamais ?) prétendre à une connaissance fondamentale irréfutable des lois de la nature ou des limites du possible. Après tout, si Michelson était si sûr de lui et pourtant avait tort, ne devrions-nous pas avoir peur de répéter son erreur ? La grande révolution qu'a connue la physique au début du siècle a conduit quelques personnes à conclure que la science réservera sans fin des surprises de taille -et même pour les ingénieurs. Mais est-il réellement probable que nous aurons à nouveau à faire face à un tel bouleversement ? Peut-être que non. La mécanique quantique fut une surprise par son contenu mais la physique de l'époque était de toute évidence largement incomplète. Avant le développement de la mécanique quantique, vous auriez pu aller trouver n'importe quel scientifique, grimacer malicieusement et lui demander en frappant doucement sur son bureau : "Qu'est-ce qui maintient ceci ? Pourquoi est-ce brun et solide alors que l'air est transparent et gazeux ?". Votre victime vous aurait peut-être répondu quelque chose d'assez vague178 sur les atomes et leurs configurations mais si vous aviez insisté pour avoir une explication, vous auriez eu au mieux une réponse comme : "Qui sait ? La physique ne peut pas encore expliquer la matière !". La rétrospection est bien sûr trop facile mais dans un monde fait de matière, habité par des êtres faits de matière qui utilisent des outils matériels, l'ignorance de la nature de cette matière était un gouffre dans la connaissance humaine que Michelson aurait peut-être dû noter. Car il ne portait pas sur "la sixième décimale" mais bien sur la première. Cela vaut aussi la peine de voir en quoi Michelson avait raison. Les lois dont il parlait incluaient celles de la gravitation et du mouvement de Newton ainsi que celles de l'électromagnétisme de Maxwell. Et en fait, dans les conditions normales de l'ingénierie, ces lois n'ont été modifiées qu'à partir de leur sixième décimale. Les lois de la gravitation et du mouvement d'Einstein ne diffèrent de celles de Newton que dans des conditions extrêmes de gravitation et de vitesse ; les lois de l'électrodynamique quantique de Feynman, Schwinger et Tomonaga sont similaires à celles de Maxwell sauf pour les tailles et les énergies extrêmes. D'autres révolutions se cachent encore sans doute dans les recoins de ces théories. Mais ces recoins semblent très éloignés du monde du vivant et des machines que nous construisons. Les révolutions de la relativité et de la mécanique quantique changèrent notre vision de la matière et de l'énergie mais la matière et l'énergie ne changèrent pas en elles-mêmes -elles sont réelles et n'ont rien à faire de nos théories. Les physiciens utilisent maintenant une seule série de lois pour décrire comment les noyaux atomiques et les électrons interagissent au sein des atomes, des molécules, des machines moléculaires, des êtres vivants, des planètes et des étoiles. Ces lois ne sont pas encore totalement généralisées et la quête d'une théorie unifiée de toute la physique se poursuit. Mais comme le physicien Stephen W. Hawkins l'indique179 : "Nous disposons à l'heure actuelle de quelques lois partielles qui nous permettent de décrire le comportement de l'univers dans toutes les conditions sauf les plus extrêmes". Et pour les standards des ingénieurs, ces conditions sont extraordinairement extrêmes. Les physiciens annoncent régulièrement la découverte de nouvelles particules repérées dans les débris de collisions de particules extrêmement énergétiques mais vous ne pouvez pas acheter l'une de ces particules dans une boîte. Et il est important de le reconnaître, parce que si une particule ne peut pas être conservée, alors elle ne peut pas servir en tant que composant d'une machine stable. Les boîtes et leurs contenus sont faits d'électrons et de noyaux. Ceux-ci à leur tour sont faits de protons et de neutrons. Le noyau de l'atome d'hydrogène n'est constitué que d'un seul proton, celui du plomb en possède quatre-vingt deux, ainsi qu'une centaine de neutrons. Les neutrons isolés se désintègrent en quelques minutes. Il y a peu d'autres particules stables connues180 : les photons (les particules de lumière) sont utiles et peuvent être attrapés dans des boîtes quelque temps ; les neutrinos sont presque indétectables et ne peuvent pas être capturés. Ces particules -excepté le photon- ont chacune leur antiparticule. Toutes les autres particules se désintègrent en quelques millionièmes de seconde voire moins. Ainsi, les seules briques connues, utilisables pour construire des choses, sont les électrons et les noyaux (ou leurs antiparticules pour des applications spécifiques, bien isolées) ; ces blocs de construction se combinent ordinairement pour donner des atomes et des molécules. Cependant, malgré la puissance de la physique moderne, notre savoir comporte toujours d'évidentes lacunes. La précarité de la théorie des particules élémentaires laisse dans le flou certaines limites. Nous trouverons peut-être de nouvelles particules "capturables" comme des monopôles magnétiques ou des quarks libres. Si c'est le cas, elles auront certainement des applications. Nous pourrions même trouver un nouveau champ ayant une action à longue distance ou une nouvelle forme de radiation ; mais cela semble de plus en plus improbable. Enfin, de nouveaux types de collisions entre les particules pourraient améliorer nos capacités à les faire passer d'un type connu à un autre. Mais en général, un dispositif complexe devra être construit avec des particules stables. A part dans la banlieue d'une étoile effondrée, ces motifs atomiques seront parfaitement décrits par les lois de la mécanique quantique relativiste. Les frontières de la physique ont bougé. A un niveau théorique, les physiciens cherchent une description des interactions de toutes les particules possibles, même celles qui ont une durée de vie très courte. D'un point de vue expérimental, ils étudient les débris subatomiques libérés dans les accélérateurs de particules lors des collisions de haute énergie. Tant qu'une nouvelle particule, utile et stable, ne sera pas trouvée dans les produits de telles collisions -ou dans les produits d'événements cosmiques violents du passé- les atomes resteront les seuls blocs de construction de la matière stable. Et l'ingénierie restera un jeu consistant à manipuler des pièces connues en fonction de règles connues. De nouvelles particules ajouteraient des pièces mais ne modifieraient pas les règles. Les limites de la matière La machinerie moléculaire est-elle réellement l'étape ultime dans la miniaturisation ? L'idée que les machines moléculaires seraient une étape vers des "machines nucléaires" plus petites semble assez naturelle. Un jeune homme (un étudiant en économie à l'université de Columbia) entendit parler de technologie moléculaire et de sa capacité à manipuler les atomes. Il en conclut immédiatement que les nanotechnologies pouvaient à peu près tout faire, même par exemple transformer à distance des bombes nucléaires en train de tomber en simples morceaux de plomb. La technologie moléculaire ne peut pas faire une telle chose. Transformer du plutonium en plomb (que ce soit à distance ou non) est au-delà de ce que les nanotechnologies peuvent faire pour la même raison que transmuter du plomb en or est au-delà de la chimie d'un alchimiste. Les forces moléculaires ont peu d'effets sur les noyaux atomiques. Le noyau contient plus de 99,9 % de la masse d'un atome mais il n'occupe que 1/1 000 000 000 000 000 de son volume. Comparé au noyau, le reste de l'atome (son nuage électronique) est moins qu'un fin duvet. Tenter de changer un noyau181 en tapant dedans avec une molécule est encore moins efficace que de vouloir aplatir une bille d'acier en la caressant avec de la barbe à papa. La technologie moléculaire peut manipuler et réorganiser les atomes mais elle ne peut pas atteindre les noyaux pour en modifier la structure. Les nanomachines ne sont pas utiles pour construire des machines à l'échelle nucléaire mais de telles machines peuvent-elles exister ? Apparemment pas, au moins dans les conditions que l'on peut recréer en laboratoire. Les machines doivent avoir un certain nombre de pièces en contact mais les noyaux se repoussent entre eux avec vigueur. Lors de l'explosion d'Hiroshima, la plus grosse partie de l'énergie libérée le fut par la violente répulsion électrostatique qui se manifeste entre les morceaux d'atomes au cours de la fission. Le fameux problème de la fusion nucléaire prend également sa source dans cette répulsion. En plus d'être cassés ou fusionnés, les noyaux peuvent également émettre ou absorber différents types de radiations. Dans une application médicale, ils sont mis en rotation pour émettre des informations utiles. Les médecins peuvent alors faire des images de ces résonances magnétiques nucléaires. Mais tous ces phénomènes s'appuient seulement sur les propriétés de noyaux bien séparés182. Les atomes isolés sont trop simples pour être utilisés comme des machines ou des circuits électroniques. Les noyaux peuvent être maintenus collés ensemble mais uniquement sous les pressions immenses que l'on trouve dans les étoiles effondrées. Faire de l'ingénierie dans un tel endroit présenterait quelques difficultés183 même si une étoile effondrée était pratique à manipuler. Cela nous ramène à la question fondamentale : que peut-on accomplir avec des atomes correctement assemblés ? Quelques limites semblent déjà claires. Les matériaux les plus résistants auront environ dix fois la résistance du meilleur acier actuel ; le matériau le plus résistant pour faire des câbles semble être le carbyne, une forme de carbone où les atomes sont arrangés en chaînes rectilignes). Il semble qu'aux pressions ordinaires, les vibrations de la chaleur déstructurent les solides les plus réfractaires aux alentours de quatre mille degrés Celsius, soit environ 1500°C de moins que la température à la surface du soleil). Ces propriétés fondamentales de la matière -résistance aux forces et à la chaleur- ne peuvent pas être beaucoup augmentées en utilisant des configurations d'atomes ingénieuses et complexes. Les meilleurs arrangements semblent plutôt être simples et réguliers. D'autres objectifs faciles concerneront la transmission de chaleur, l'isolation thermique184, la transmission de l'électricité, l'isolation électrique, la transmission, la réflexion et l'absorption de la lumière. Dans certains cas, la recherche de la perfection nous conduira à des conceptions simples mais dans d'autres, nous ferons face à des problèmes insolubles. Concevoir le meilleur transistor possible pour un ordinateur peut s'avérer très facile ; créer le meilleur ordinateur possible est beaucoup plus complexe. En fait, ce que l'on considère comme "le meilleur possible" dépendra de nombreux facteurs comme les coûts de la matière, de l'énergie et du temps -et de ce que l'on veut calculer. Dans tous les projets d'ingénieurs, ce que l'on appelle "meilleur" dépend d'un grand nombre de facteurs, y compris des désirs humains changeants et mal définis. Qui plus est, même quand "meilleur" est bien défini, le coût des améliorations ultimes qui séparent le meilleur du simplement excellent est souvent prohibitif. Nous pouvons cependant ignorer toutes ces questions de complexité et de coût de conception quand nous voulons savoir si des limites ultimes existent. Pour définir une limite, il faut choisir une direction, une échelle de qualité. Comme cette direction définit un "mieux", il y aura forcément un meilleur. Les arrangements des atomes déterminent les propriétés des objets et selon la mécanique quantique, il y a un nombre fini d'arrangements possibles -un nombre plus qu'astronomique mais pas infini. Il en découle mathématiquement qu'en fixant un but précis, l'un de ces arrangements sera le meilleur ou tenu pour être le meilleur. On trouve une similitude aux échecs, où le nombre limité de pièces et de cases limite les arrangements possibles, et donc les possibilités. Mais aux échecs comme en ingénierie, les possibilités à l'intérieur de ces limites sont inépuisables. Ne connaître que les lois fondamentales de la matière est insuffisant pour nous indiquer exactement où se trouvent toutes les limites. Nous aurons encore à faire face aux complexités de conception des systèmes. Notre connaissance de certaines limites reste vague : "Nous savons que la limite se situe entre ici, à quelques encablures et là-bas, un point à l'horizon". Les assembleurs ouvriront les portes sur les limites où qu'elles résident et les systèmes d'ingénierie automatique accéléreront ce processus. Le meilleur absolu sera souvent insaisissable mais les autres compétiteurs seront souvent presque aussi bons185. Alors que nous approcherons des limites, nos capacités cesseront de s'étendre dans un nombre croissant de secteurs technologiques. Les avancées dans ces domaines ne seront pas arrêtées pendant une décennie ou un siècle mais pour toujours. Certains seront rebutés par le mot "toujours", en pensant : "Pas d'amélioration en un millier d'années ? En un million alors ? Ca doit être une exagération". Mais là où nous aurons atteint les véritables limites physiques, nous n'irons pas plus loin. Les règles du jeu sont écrites dans la structure du vide, dans la structure de l'univers. Aucun réarrangement d'atomes, aucune collision de particules, aucune législation ou aucun marchandage ne fera bouger les lois naturelles d'un iota. Nous pouvons nous tromper sur notre évaluation des limites mais où qu'elles soient, elles y resteront. Cet aspect des lois naturelles montre ce qui limite la qualité des choses. Mais il y a aussi des limites à la quantité, fixées non seulement par les lois naturelles mais aussi par la façon dont la matière et l'énergie sont distribuées dans l'univers. Les auteurs de Les limites de la croissance, comme tant d'autres, essayèrent de décrire ces limites sans examiner en premier lieu les limites de la technologie. Ceci conduit à des résultats erronés. L'entropie, une limite à l'utilisation de l'énergie Récemment, quelques auteurs ont décrit l'accumulation de chaleur et les désordres comme des limites ultimes à l'activité humaine. Dans Les années de vaches maigres : La politique à l'ère de la pénurie, Richard Barnet écrit186 : "Il est amusant de constater que la redécouverte des limites coïncide avec deux des exploits technologiques les plus audacieux de l'histoire de l'homme. Le premier est l'ingénierie génétique : l'apparition soudaine du pouvoir de façonner la vie. Le second est la colonisation de l'espace. Ces percées encouragent les rêves de puissance mais elles ne déchirent pas la camisole de force écologique connue sous le nom de "deuxième loi de la thermodynamique" : une consommation accrue d'énergie produit une augmentation proportionnelle de la quantité de chaleur dégagée. Elle ne se dissipe jamais et peut être comptée comme un coût énergétique permanent. Puisque l'accumulation de chaleur peut causer des catastrophes écologiques, ces coûts limitent l'aventure humaine dans l'espace aussi sûrement que sur la Terre". Jeremy Rifkin (avec Ted Howard) a écrit187 un livre entièrement consacré aux limites thermodynamiques et à l'avenir de l'humanité : Entropie : une nouvelle vision du monde. L'entropie est une mesure scientifique standard de la dégradation de l'énergie et de l'agitation moléculaire. Quand des activités consomment de l'énergie, elles produisent de l'entropie ; l'entropie du monde augmente donc en permanence et de manière irréversible. Finalement, la dissipation d'énergie détruira les bases mêmes de la vie. Comme Rifkin le dit, cette idée semble trop déprimante pour qu'on y pense mais il indique que nous devons faire face à ces terribles vérités lorsqu'on considère l'entropie, l'humanité et la Terre. Mais ces faits sont-ils aussi terrifiants ? Barnet écrit que la chaleur accumulée est un coût en énergie permanent qui limite l'action humaine. Rifkin déclare que "la pollution est la somme totale de toute l'énergie jadis disponible dans le monde et qui a été transformée en énergie inutilisable". Cette énergie inutilisable est principalement représentée par les petites pertes de chaleur, comme celles qui rendent chauds les postes de télévision. Mais la chaleur s'accumule-t-elle vraiment, comme le craint Barnet ? Si oui, alors la Terre devrait constamment devenir plus chaude, minute après minute et année après année. Nous devrions maintenant tous être grillés à moins que nos ancêtres n'aient pas été solidifiés par le gel. Mais pourtant, d'une manière ou d'une autre, les continents se débrouillent pour être plus froids la nuit que le jour et plus froids encore en hiver. Durant les périodes glacières, la Terre entière se refroidissait. Rifkin tente également une autre man¦uvre. Il déclare que "la quantité limitée de matière qui constitue la croûte terrestre se dissipe sans cesse. Les montagnes s'érodent et le sol est emporté un peu plus à chaque seconde qui passe". Par "emporté", Rifkin ne veut pas dire emporté dans l'espace ou hors du monde ; il veut juste dire que les atomes des montagnes se mélangent de manière désordonnée avec d'autres. Ce processus, indique-t-il, signifie notre perte. Le "mélange des atomes" les transforme en "matière inutilisable", c'est la conséquence de la "quatrième loi de la thermodynamique", énoncée par un économiste Nicolas Georgescu-Roegen : "Dans un système clos, l'entropie matérielle finit toujours par atteindre un maximum" ou encore que "la matière inutilisable ne peut pas être recyclée". Rifkin déclare que la Terre est un système clos qui échange de l'énergie mais pas de la matière avec l'extérieur ; par conséquent, "l'entropie matérielle augmente sans arrêt sur Terre et finira par atteindre un maximum" ce qui fera vaciller et disparaître la vie de sa surface. Une bien regrettable situation en effet -la Terre dégénère maintenant depuis des milliards d'années. La fin doit sûrement être proche ! Mais ceci peut-il réellement être vrai ? La vie s'est développée en apportant plus d'ordre sur Terre, pas moins. Et la formation des gisements minéraux a fait de même. L'idée que la Terre est en dégénérescence semble au mieux bien singulière (mais alors Rifkin pense que l'évolution est une blague). En outre, puisque la matière et l'énergie sont essentiellement la même chose, quelle loi irréfutable pourrait privilégier cette chose appelée "entropie matérielle". Rifkin présente la diffusion d'un parfum provenant d'une bouteille comme un exemple de "matière dissipée", d'augmentation d'entropie matérielle -de matière devenant "indisponible". La diffusion du sel dans l'eau en est un autre exemple probant. Imaginons donc un test de la "quatrième loi de la thermodynamique" dans "l'expérience de la bouteille d'eau salée" : Soit une bouteille possédant une séparation qui la divise en deux compartiments jusqu'à mi-hauteur. On place de l'eau dans l'un et du sel dans l'autre. Un bouchon ferme la bouteille : ceci ferme le système et permet donc à la soi-disant quatrième loi de la thermodynamique de s'appliquer. Le contenu de la bouteille est dans un état organisé : l'entropie matérielle n'est pas encore à son maximum. Maintenant attrapez la bouteille et secouez-la. L'eau se répand dans l'autre bassin et dissout le sel, ce qui augmente l'entropie -allez-y carrément ! Dans un tel système fermé, la "quatrième loi de la thermodynamique" indique que cette augmentation de l'entropie matérielle doit être irréversible. Toutes les menaces de Rifkin à propos de l'inexorable augmentation de l'entropie de la Terre reposent sur ce principe. Pour voir s'il y a une quelconque vérité dans la nouvelle vision du monde de Rifkin, attrapez la bouteille et inclinez-la de manière à passer toute l'eau salée dans un seul compartiment. Cela ne devrait pas faire de différence puisque le système reste clos. Placez maintenant la bouteille bien droite, en exposant le côté où se trouve l'eau salée au soleil et en laissant l'autre dans l'ombre. La lumière entre dans la bouteille et de la chaleur en sort mais la bouteille reste aussi isolée que la Terre elle-même. Mais regardez : la lumière du soleil évapore l'eau salée qui se condense du côté obscur ! L'eau pure remplit lentement le compartiment vide en laissant le sel derrière elle. Rifkin lui-même déclare que "en sciences, une seule exception suffit pour invalider une loi". Cette expérience de pensée, qui imite la manière dont se sont déposés les gisements de sel gemme sur Terre, invalide la loi sur laquelle il a entièrement construit son livre. Les plantes également l'invalident. La lumière du soleil apporte de l'énergie de l'espace et la chaleur dissipée dans l'espace en retour emporte de l'entropie (dont il n'y a qu'une seule sorte). Ainsi, l'entropie peut diminuer dans un système que Rifkin dit fermé, et les fleurs éclore sur Terre siècle après siècle. Rifkin dit vrai quand il indique qu'il est "impossible d'inverser la progression de l'entropie dans un système fermé sans apport d'énergie et que l'utilisation de cette énergie augmente l'entropie globale de l'environnement". Mais Rifkin et Barnet font la même erreur : quand ils parlent de l'environnement, ils parlent de la Terre -mais la loi s'applique à l'environnement dans son ensemble, c'est-à-dire à l'univers. En effet, Rifkin et Barnet ignorent tous les deux la lumière du soleil et les pertes de chaleur nocturnes. Selon Rifkin, ses idées détruisent la notion de l'histoire en tant que progression, transcendant ainsi la vision moderne du monde. Il en appelle au sacrifice, déclarant "qu'aucune nation du Tiers monde ne devrait espérer atteindre un jour l'abondance matérielle qui a existé en Amérique". Il craint la panique et les massacres qui pourraient en découler. Rifkin conclut en nous informant que "la loi de l'entropie répond à la question au centre des débats de toutes les civilisations : comment l'être humain doit-il se comporter sur la Terre ?". Sa réponse ? "L'ultime impératif moral188 est de gaspiller le moins possible l'énergie". Ceci semblerait signifier que nous devons épargner autant d'énergie que possible en cherchant à éliminer les déchets. Mais qui est le plus grand gaspilleur d'énergie dans les environs ? Le soleil, bien sûr ! Il gâche plusieurs trillons de fois plus d'énergie que l'humanité. Pris au sérieux, l'ultime impératif moral de Rifkin nous presse "d'éteindre le soleil !". Cette conséquence stupide aurait dû à elle seule mettre Rifkin sur la voie de la raison. Lui et bien d'autres ont une conception du monde qui rivalise avec l'arrogance pré-copernicienne : ils pensent que la Terre est tout l'univers et que l'activité humaine est automatiquement d'une importance cosmique. Il y a bien sûr une véritable loi de l'entropie, c'est la deuxième loi de la thermodynamique. A la différence de la fausse "quatrième loi", elles est décrite dans les manuels et utilisée par les ingénieurs. Elle limitera même ce que l'on fait. L'activité humaine générera de la chaleur et la capacité de radiation limitée de la Terre fixera une limite ferme à la quantité d'activité industrielle terrestre. De la même manière, nous aurons besoin de panneaux en formes d'ailes pour dissiper la chaleur produite par nos vaisseaux spatiaux. Enfin, la loi de l'entropie amènera -au bout d'un immense laps de temps- au crépuscule de l'univers tel que nous le connaissons actuellement, limitant ainsi l'espérance de vie de la vie elle-même. Pourquoi agiter la carcasse de l'entropie de Rifkin ? Simplement parce que les systèmes d'information actuels présentent souvent des idées mort-nées comme si elles étaient vivantes. En encourageant de faux espoirs, de fausses peurs et des actes malavisés, ces idées peuvent gâcher les efforts de personnes activement concernées par les problèmes mondiaux à long terme. Parmi ceux qui font l'éloge du livre de Rifkin sur la quatrième de couverture ("un travail stimulant", "un travail brillant", "stupéfiant", "devrait être pris à c¦ur"), on trouve un professeur à l'université de Princeton, un animateur de télévision et deux sénateurs des USA. Un séminaire au MIT ("Le monde fini : visions du monde pour un avenir supportable) met en vedette le livre de Rifkin. Tous les mécènes du séminaire provenaient de départements généralistes. La plupart des sénateurs de notre société technologique manquent de formation technique, comme la plupart des professeurs et des animateurs de télévision. Georgescu-Roegen lui-même, inventeur de la "quatrième loi de la thermodynamique", est couvert de diplômes ... de sciences sociales. La menace de l'entropie est une absurdité flagrante et cependant ses inventeurs et ses promoteurs ne sont pas ridiculisés quand ce genre de thème est abordé dans des conversations privées. Imaginez un millier, un million de distorsions similaires de la vérité -certaines subtiles, d'autres effrontées mais qui toutes déforment la compréhension que le public a du monde. Imaginez maintenant un groupe de pays démocratiques souffrant d'une infestation par ces schèmes alors qu'il tente de faire face à une révolution technologique en accélération. Nous avons là un réel problème. Pour augmenter nos chances de survie, nous aurons besoin de moyens plus efficaces pour éclaircir nos schèmes et permettre à une compréhension véritable de se développer. Aux chapitres 13 et 14, j'indiquerai deux propositions qui nous aideront peut-être à le faire. Les limites des ressources Les lois naturelles limitent la qualité de la technologie mais nous utiliserons des assembleurs à l'intérieur de ces limites pour construire des vaisseaux spatiaux performants. Avec ceux-ci, nous nous ouvrirons les portes de l'espace. Aujourd'hui, la Terre commence à paraître un peu étroite et cela suscite des inquiétudes quant à l'épuisement de ses ressources. Cependant, l'énergie que nous utilisons ne représente même pas 0,01 % de l'énergie solaire qui arrive sur Terre. Nous ne nous inquiétons pas pour notre approvisionnement en énergie en tant que tel mais pour nos réserves exploitables en gaz et en pétrole. Nos mines égratignent à peine la surface du globe ; nous ne nous inquiétons pas pour le volume des ressources disponibles mais pour leur facilité d'exploitation et leur coût. Quand nous aurons développé des nanomachines non polluantes pour exploiter l'énergie solaire et les ressources, la Terre pourra supporter une civilisation bien plus grande et plus riche que toutes celles qui ont existé tout en souffrant moins de son exploitation qu'à l'heure actuelle. Les ressources que nous exploitons aujourd'hui sont insignifiantes par rapport au potentiel de la Terre. Cependant, la Terre n'est qu'une poussière. Les débris de la formation des planètes que sont les astéroïdes donneront suffisamment de matériaux pour construire une surface habitable correspondant à mille fois celle de la Terre. Le soleil déverse sur le système solaire une quantité d'énergie un milliard de fois supérieure à ce que la Terre capte. Les ressources du système solaire sont vraiment très vastes et font de celles de la Terre quelque chose d'insignifiant en comparaison. Cependant, le système solaire n'est qu'une poussière. Les étoiles qui remplissent le ciel nocturne sont des soleils et l'¦il humain ne peut voir que les plus proches. Notre galaxie en contient cent milliards et il y en a sûrement beaucoup parmi ceux-ci qui déversent leur énergie sur des planètes et des astéroïdes déserts prêts à accueillir la vie. Comparées à celles de notre galaxie, les ressources de notre système solaire sont insignifiantes. Cependant, même notre galaxie est une poussière. De la lumière plus ancienne que notre espèce nous montre des galaxies au-delà de la nôtre. L'univers visible en contient cent milliards, chacune étant une nuée de milliards d'étoiles. Les ressources de l'univers visible font même de celles de notre galaxie quelque chose d'insignifiant en comparaison. Nous atteignons ici les limites de la connaissance, si ce n'est celle des ressources. Le système solaire semble suffisant pour pallier les limites de la Terre -et si le reste de l'univers n'est pas déjà la propriété d'autres espèces, alors nos perspectives d'expansion dépassent l'imaginable. Cela signifie-t-il que les assembleurs répliquants et le transport spatial économique nous rassureront quant à nos ressources ? Dans un sens, ouvrir les frontières de l'espace fera sauter les limites de la croissance, puisque nous ne connaissons pas de fin à l'univers. Néanmoins, Malthus avait essentiellement raison. Malthus Dans son Essai sur les principes démographiques datant de 1798, Thomas Robert Malthus, un clergyman anglais, exposa le premier des raisonnements en faveur d'une croissance limitée. Il notait que les populations croissant librement avaient tendance à doubler périodiquement ; elles avaient donc une croissance exponentielle. C'est une remarque sensée : puisque tous les organismes sont des descendants de réplicateurs à succès, ils tendent à se répliquer quand on leur en donne l'occasion. Pour son raisonnement, Malthus supposa que les ressources -la nourriture- ne pouvaient augmenter que d'une quantité fixe chaque année (un processus appelé croissance linéaire puisque les points sont en ligne sur un graphe). Et comme les mathématiques montrent que n'importe quel taux de croissance exponentielle finit par dépasser189 n'importe quel taux de croissance linéaire, Malthus fit remarquer que la croissance de la population, si elle n'était pas maîtrisée, finirait par dépasser la production de nourriture. De nombreux auteurs ont repris depuis ces idées en introduisant quelques variations dans des livres tels que La bombe démographique et Famine 1975. Cependant, la production de nourriture a tenu le rythme face à la population. Il a même été supérieur, hormis en Afrique. Malthus avait-il tort ? Pas vraiment : il s'est principalement trompé sur le calendrier et les détails des événements. La croissance sur la Terre est bien limitée, comme la place pour l'agriculture ou toute autre activité. Malthus s'est trompé quand il a prédit le moment où nous serions bloqués par les limites, principalement parce qu'il n'a pas su anticiper les progrès décisifs du matériel agricole, de la génétique et des engrais. Certains constatent maintenant que la croissance exponentielle dépassera la quantité limitée de ressources terrestres, un argument plus simple que celui de Malthus. Même si la technologie spatiale fait voler en éclats cette limite, elle ne les abattra pas toutes. Quand bien même l'univers serait infiniment large, nous ne pourrions toujours pas voyager infiniment vite. Les lois de la nature limiteront le taux de croissance : la vie provenant de la Terre ne se répandra pas plus vite que la lumière. L'expansion continue permettra l'exploitation de nouvelles ressources à un rythme qui ira en s'accélérant avec le recul des frontières qui deviendront de plus en plus larges. Il n'en résultera pas une croissance linéaire mais une croissance cubique. Cependant, Malthus avait raison, parce qu'une croissance exponentielle viendra aussi facilement à bout d'une croissance cubique que d'une croissance linéaire. Les calculs montrent qu'une démographie incontrôlée, avec ou sans durée de vie accrue, grossirait au-delà des ressources disponibles en mille à deux mille ans au plus. Une croissance exponentielle illimitée demeure un fantasme, même dans l'espace. Quelqu'un nous arrêtera-t-il ? D'autres civilisations possèdent-elles déjà les ressources de l'univers ? Si oui, alors elles pourraient limiter notre croissance. Sur cette question, les faits relatifs à l'évolution et aux limites technologiques sont éclairants. Puisque de nombreux systèmes solaires ayant une étoile qui ressemble au soleil ont plusieurs millions d'années de plus que le nôtre, quelques civilisations (s'il en existe un nombre appréciable) devraient avoir plusieurs centaines de millions d'années d'avance sur nous. Nous nous attendrions à ce que l'une de ces civilisations fasse ce que toute forme de vie connue a fait : qu'elle se répande aussi vite qu'elle le peut. La Terre n'est pas seulement verte dans les océans où la vie a commencé mais également sur les côtes, les collines et les montagnes. Les plantes vertes se sont maintenant répandues jusqu'aux stations orbitales et si nous prospérons, les plantes de la Terre se répandront même jusqu'aux étoiles. Les organismes se répandent aussi loin qu'ils le peuvent, puis encore un peu plus loin. Quelques-uns échouent et meurent mais ceux qui réussissent survivent et se répandent plus loin encore. Les pionniers en route pour l'Amérique ont navigué et ont sombré, sont arrivés sur la terre ferme et sont morts de faim mais certains ont survécu et ont fondé de nouvelles nations. Partout les organismes sentiront la pression qu'a décrite Malthus, parce qu'ils auront évolué pour survivre et se répandre ; les gènes et les schèmes poussent tous les deux dans la même direction. Si des civilisations extraterrestres existent et si une petite fraction d'entre elles se comportent comme la vie le fait sur Terre, alors ils doivent déjà s'être répandus à travers l'espace. Comme nous, ils tendraient probablement à faire évoluer des technologies qui approchent des limites fixées par les lois naturelles. Ils apprendraient à voyager à une vitesse proche de celle de la lumière et la compétition ou la simple curiosité en pousserait certains à faire ainsi. En fait, seule une société hautement organisée et stable pourrait refréner suffisamment les pressions compétitives pour éviter une explosion vers l'extérieur à une vitesse proche de celle de la lumière190. A l'heure qu'il est, après des centaines de millions d'années d'expansion, même des civilisations très éparses devraient s'être répandues suffisamment loin pour se rejoindre toutes et se répartir l'espace. Si ces civilisations sont vraiment partout, alors elles ont fait preuve d'une grande discrétion et ont dû bien se cacher. Elles auraient déjà pris le contrôle de galaxies entières depuis des millions d'années et devraient faire face à des limites de croissance à une échelle cosmique. Une civilisation avancée en butte à des limites écologiques ne devrait pas, presque par définition, gaspiller de la matière et de l'énergie. Cependant, nous observons un tel gâchis dans toutes les directions et aussi loin que nous pouvons voir des galaxies spirales : leurs bras contiennent des nuages de poussière faits de matière inutilisée, éclairée par de la lumière gaspillée par des étoiles. Si de telles civilisations avancées existaient, alors notre système solaire ferait partie du royaume de l'une d'entre elles. Si c'est le cas, alors ce serait maintenant à eux de jouer -nous ne pourrions rien faire pour les menacer et ils pourraient nous étudier à leur convenance, avec ou sans notre coopération. Les gens sensés les écouteraient s'ils indiquaient fermement leurs exigences. Mais s'ils existent, ils doivent se cacher -et garder secrètes leurs projets pour la terre. L'idée que l'homme est seul dans l'univers visible est étayée par ce que nous voyons dans le ciel et sur ce que nous savons des origines de la vie. Il n'y a pas besoin d'extraterrestres timides pour expliquer les faits. Certains disent que puisqu'il y a tant d'étoiles dans le ciel, il doit sûrement y avoir d'autres civilisations parmi elles. Mais il y a moins d'étoiles dans l'univers visible qu'il n'y a de molécules dans un verre d'eau. Tout comme un verre d'eau n'a pas besoin de contenir tous les produits chimiques possibles191 (même en aval d'une usine chimique), les autres étoiles n'ont pas besoin d'abriter de civilisations. Nous savons que les réplicateurs en compétition tendent à se répandre jusqu'à leurs limites écologiques et que les ressources sont néanmoins gaspillées à travers tout l'univers. Nous n'avons encore reçu aucune délégation provenant des étoiles et nous n'avons semble-t-il pas de gardien de zoo pour la Terre, même tolérant. Il n'y a peut-être tout simplement personne. S'ils n'existent pas, alors nous n'avons pas besoin de les prendre en compte dans nos plans. Et s'ils existent, alors ils superviseront nos plans selon leurs désirs insondables et il semble n'y avoir aucune façon de se préparer à cette éventualité. Ainsi, pour l'instant et peut-être pour toujours, nous pouvons tracer des plans pour le futur sans nous préoccuper des limites que pourraient nous imposer d'autres civilisations. La croissance à l'intérieur des limites Extraterrestres ou pas, nous allons notre chemin. L'espace nous attend ; les rochers désolés et la lumière du soleil sont comme les continents vierges baignés de lumière que portait la Terre il y a un milliard d'années, avant que la vie ne les envahisse en sortant des mers. Nos ingénieurs font évoluer des schèmes qui nous aideront à créer d'excellents vaisseaux et de magnifiques bases : nous irons confortablement conquérir les terres du système solaire. Au-delà des richesses du système solaire, on trouve un nuage de comètes. C'est un vaste milieu de croissance qui s'appauvrit aux abords de l'espace interstellaire et s'enrichit à nouveau autour d'autres systèmes solaires : de jeunes soleils et des rochers stériles y attendent le souffle de la vie. Bien qu'une croissance exponentielle sans limite demeure un fantasme, l'expansion de la vie et de notre civilisation n'aura à faire face à aucune frontière précise. La propagation de la vie aura lieu si nous survivons parce que nous faisons partie d'un système vivant et que la vie tend à se répandre. Les pionniers iront sans fin vers de nouveaux mondes. D'autres resteront derrière et établiront des cultures dans les oasis de l'espace. Dans toutes les colonies, le temps viendra où les frontières seront très loin, puis plus loin encore. Le temps viendra vite où la plupart des gens et de leurs descendants connaîtront les limites de la croissance. Nous pouvons aimer ou maudire ces limites mais leur réalité est indépendante de nos désirs. Elles existent partout où les buts sont clairement définis. Mais pour des frontières en mouvement permanent, cette idée de limites n'est plus pertinente. Dans l'art des mathématiques, la valeur d'un travail dépend de standards complexes, sujets à des débats et des modifications. L'un de ces standards est la nouveauté et elle ne peut jamais être épuisée. Là où les règles changent et la complexité prédomine, les limites ne nous ligotent pas. Il ne semble pas y avoir de fin à la création de symphonies et de chansons, de tableaux et de mondes, de logiciels, de théorèmes, de films et d'autres ravissements qui restent à inventer. Les nouvelles technologies nourriront de nouveaux arts et de nouveaux arts apporteront de nouveaux modèles de pensée. Le monde de la matière brute permet une croissance immense, quoique limitée. Mais le monde des idées et des inventions est ouvert à une évolution et à des changements sans fin. Le monde du possible semble assez spacieux. Aperçu des limites L'idée de grandes avancées à l'intérieur de limites strictes ne s'est pas développée pour plaire mais pour être exacte. Les limites tracent les contours des possibilités et certaines sont hideuses ou terrifiantes. Nous devons nous préparer à l'avance aux percées technologiques et pourtant de nombreux futurologues prédisent qu'il n'y aura pas de percées du tout. Cette école de pensée est associée au rapport du Club de Rome intitulé Les limites de la croissance192. Le professeur Mihajlo D. Mesarovic a été plus tard le coauteur du second rapport du même groupe de travail, Le moment décisif pour l'humanité193. Le professeur Mesarovic développe des modèles informatiques comme ceux utilisés dans Les limites de la croissance -chaque modèle est un ensemble de nombres et d'équations qui servent à décrire les futurs changements en démographie mondiale, en économie et en écologie. Au printemps 1981, il est venu au MIT faire un exposé sur "Le monde fini : visions du monde pour un avenir supportable", ce même séminaire qui encensait l'Entropie de Jeremy Rifkin. Il décrivit un modèle destiné à donner une description grossière du prochain siècle. Quand il lui fut demandé si lui-même ou un de ses collègues avait incorporé dans leur modèle ne serait-ce qu'une percée technique comparable à l'industrie pétrolière, l'automobile, l'aviation, l'électricité ou l'informatique -peut-être des systèmes de robots auto-répliquants ou une technologie spatiale économique ?-, il répondit carrément : "Non". De tels modèles du futur ne sont évidemment pas crédibles. Mais certaines personnes semblent vouloir croire -parfois passionnément- que les percées technologiques vont soudainement s'arrêter et que la course technologique qui prévaut depuis des siècles va soudainement stopper dans un futur proche. L'habitude de négliger ou de nier la possibilité d'avancées technologiques est un problème courant. Certaines personnes croient à l'existence de limites rassurantes parce qu'ils ont entendu des gens respectables présentant des arguments d'apparence plausible pour les soutenir. Mais il semble que quelques personnes réfléchissent plus à partir de leurs désirs qu'à partir des faits, malgré un siècle d'accélération du progrès. Des limites rassurantes simplifieraient notre futur et le rendraient plus facile à comprendre, plus confortable à imaginer. Croire en elles libère également de certaines inquiétudes et responsabilités. Après tout, si les forces naturelles arrêtent automatiquement la course technologique au moment convenable, nous n'avons pas besoin de la maîtriser. Qui plus est, cette fuite ne paraît pas en être une. Se représenter des images de déclin global doit donner le sentiment de faire face à des situations difficiles sans sourciller. Cependant un tel avenir ne serait pas très nouveau : il nous ramènerait à la misère familière en Europe autrefois ou dans le Tiers monde aujourd'hui. Le véritable courage implique d'affronter la réalité, de faire face au changement en accélération dans un monde qui n'a pas de frein automatique. Ceci impose des défis intellectuels, moraux et politiques d'une toute autre ampleur. Des avertissements à propos de fausses limites causent un double tort. D'abord, ils discréditent l'idée même de limite et affaiblissent donc un outil intellectuel dont nous aurons besoin pour comprendre notre avenir. Mais plus gravement, de tels avertissements détournent l'attention de nos véritables problèmes. Dans le monde politique occidental existe une forte tradition de suspicion à l'égard de la technologie. En supposant que cette tradition parvienne à surmonter ses soupçons en les confrontant à la réalité et qu'elle permette de choisir des stratégies efficaces pour guider les changements, elle pourrait vivement contribuer à la sauvegarde de la vie et de notre civilisation. Mais les gens concernés par la technologie et le futur ne sont pas très nombreux. Le monde ne peut pas se permettre de voir leurs efforts gâchés par les futiles mouvements de protestation occidentaux contre la marée technologique. Les problèmes à venir requièrent des stratégies plus subtiles. Personne ne peut encore dire quels seront les plus importants problèmes et les meilleures stratégies pour les résoudre. Cependant, nous pouvons déjà voir de nouveaux problèmes d'une grande importance et discerner des stratégies plus ou moins prometteuses. Pour résumer, notre vision du futur est suffisante pour identifier les buts qui valent la peine d'être atteints. Troisième partie Dangers et espoirs 11 Les engins de destruction Je ne doute pas non plus que les plus formidables armées présentes sur la Terre soient constituées de soldats invisibles grâce à leur taille. Sir William Perry, à propos des microbes, 1640 Les assembleurs répliquants et les machines intelligentes représentent des menaces importantes pour les êtres humains et la vie sur Terre en général. Les organismes vivants actuels possèdent des capacités éloignées des limites du possible et nos machines évoluent plus vite que nous. Elles nous surpasseront probablement en l'espace de quelques décennies. A moins que nous n'apprenions à vivre en paix avec elles, notre avenir sera probablement à la fois mouvementé et court. N'espérons pas anticiper tous les problèmes. Cependant, en nous penchant sur les grandes questions, nous pouvons peut-être prévoir les principaux défis et proposer quelques solutions. Des livres entiers seront sans doute écrits sur les futurs bouleversements sociaux : qu'adviendra-t-il de l'équilibre mondial quand les assembleurs et l'ingénierie automatique auront éliminé la plupart des échanges commerciaux internationaux ? Comment la société va-t-elle évoluer quand les individus pourront vivre indéfiniment ? Que ferons-nous quand les systèmes d'IA penseront plus vite que nous ? (Et avant de conclure que les gens seront désespérés de pouvoir tout faire et tout créer, les auteurs de ces livres devraient se demander ce que les coureurs pensent des voitures et les peintres des appareils photo). En fait, quelques auteurs ont déjà prévu et discuté plusieurs de ces problèmes. Chacune de ces questions est importante mais la plus fondamentale est celle de la survie de la vie et de la liberté. Après tout, si la vie ou la liberté sont supprimées, alors nos idées à propos des problèmes sociaux n'ont plus lieux d'être. La menace des machines Dans le chapitre 4, j'ai décrit ce que pourront faire les assembleurs si nous les manipulons correctement. Alimentés en carburant ou en lumière solaire, ils seront capables de construire presque n'importe quoi (y compris eux-mêmes) à partir de matériaux courants. Les organismes vivants sont aussi alimentés en carburant ou en lumière solaire et ils se construisent et se répliquent en utilisant des matériaux courants. Mais à la différence des systèmes à base d'assembleurs, ils ne peuvent pas faire "presque n'importe quoi". L'évolution génétique a limité la vie à des systèmes fondés sur l'utilisation de l'ADN, de l'ARN et des ribosomes mais l'évolution schémétique permettra de fabriquer des machines semblables aux organismes vivants utilisant des nano-ordinateurs et des assembleurs. J'ai déjà décrit comment les machines moléculaires confectionnées par les assembleurs différeront de la machinerie de la vie fabriquée par les ribosomes. Les assembleurs exécuteront les mêmes tâches que les ribosomes et bien d'autres ; les réplicateurs fondés sur les assembleurs seront donc capables de créer, à l'image de la vie, et même de la surpasser. D'un point de vue évolutionniste, cela représente une menace évidente pour les loutres, les hommes, les cactus et les fougères -pour toute la biosphère et tout ce que nous chérissons. Les premiers ordinateurs à transistors ont rapidement battu les ordinateurs à tubes à vide parce qu'ils utilisaient des dispositifs supérieurs. Pour la même raison, les premiers réplicateurs utilisant des assembleurs pourront surpasser les organismes modernes les plus perfectionnés. Des "plantes" avec des "feuilles" pas plus efficaces que les cellules solaires actuelles peuvent l'emporter sur les végétaux naturels, peuplant la biosphère d'un immangeable feuillage. Des "bactéries" omnivores peuvent surpasser les bactéries actuelles : elles pourraient se répandre avec le vent comme le pollen, se répliquer rapidement et réduire la biosphère en poussière en quelques jours. Des réplicateurs dangereux pourraient être trop résistants, trop petits et se propager trop vite pour qu'on puisse les arrêter -du moins si nous ne nous y préparons pas. Nous avons déjà du mal à contrôler les virus et les criquets194. Chez les familiers des nanotechnologies, cette menace a reçu le nom de "péril de la mélasse grise". Bien qu'une multitude de réplicateurs incontrôlés ne soit pas forcément grise ou goudronneuse, le terme de "mélasse grise" suggère que les réplicateurs capables de supprimer la vie peuvent être encore moins engageants qu'une unique espèce de chiendent. Ils seraient peut-être supérieurs d'un point de vue évolutionniste mais cela ne les rend pas désirables pour autant. Nous avons évolué pour aimer un monde riche de choses vivantes, d'idées et de diversité, il n'y a donc pas de raison de valoriser la mélasse grise sous prétexte qu'elle se répand bien. En fait, si nous l'empêchons de se répandre, nous aurons prouvé la supériorité de notre évolution. La menace de la mélasse grise montre à l'évidence que nous ne pouvons pas nous permettre certains types d'accidents avec les assembleurs répliquants. Au chapitre 5, j'ai décrit quelques applications des systèmes d'IA avancée si nous les utilisons correctement. Finalement, ils parviendront au stade de la pensée mais celle-ci progressera dans leurs circuits à une vitesse qu'aucun mammifère ne peut soutenir. Des systèmes d'IA travaillant ensemble surpasseront en pensée non seulement les individus mais aussi les sociétés entières. A nouveau, l'évolution fondée sur les gènes a bloqué la vie. Encore une fois, l'évolution des schèmes par l'action des humains -et finalement par celle des machines- fera évoluer notre matériel bien au-delà des limites du vivant. Et une fois de plus, d'un point de vue évolutionniste, cela représente une menace évidente. La connaissance peut apporter le pouvoir et la puissance peut apporter la connaissance. Selon leur nature et leurs buts, les systèmes d'IA avancée peuvent accumuler assez de connaissances pour nous remplacer si nous ne nous y préparons pas correctement. Et comme pour les réplicateurs, la simple "supériorité" dans l'évolution n'implique pas que les vainqueurs soient meilleurs que les vaincus, excepté du point de vue de la capacité compétitive brute. Cette menace fait clairement comprendre que nous devons trouver des manières de vivre avec les machines pensantes, d'en faire des citoyens respectueux des lois. Engins de pouvoir Certaines sortes de réplicateurs et de systèmes d'IA pourront prendre des formes matérielles capables d'effectuer indépendamment des actions rapides et efficaces. Mais la nouveauté de cette menace -provenant des machines elles-mêmes- ne doit pas nous masquer un danger plus classique. Les réplicateurs et les systèmes d'IA peuvent être utilisés comme de formidables engins de pouvoir s'ils sont utilisés librement par des Etats souverains. A travers toute l'histoire, les Etats ont développé leurs techniques pour accroître leur puissance militaire et il n'y a aucun doute qu'ils joueront un rôle dominant dans le développement des systèmes d'IA et des assembleurs. Les Etats pourraient utiliser ceux-ci pour construire rapidement, facilement et en grande quantité des arsenaux d'armes avancées. Les Etats pourraient utiliser directement des réplicateurs spéciaux pour mener une sorte de guerre bactériologique -avec des "microbes" rendus beaucoup plus pratiques grâce à leurs ordinateurs programmables. Selon leurs spécialités, les systèmes d'IA pourraient servir de concepteurs d'armes, de stratèges ou de combattants195. Des financements militaires soutiennent déjà les recherches en technologie moléculaire et en intelligence artificielle. Les Etats peuvent utiliser les assembleurs et les systèmes d'IA avancée pour parvenir rapidement à des percées déstabilisantes. J'ai discuté plus haut des raisons qui font que l'avènement des assembleurs s'accompagnera de changements relativement brusques : capables de se répliquer rapidement, ils peuvent devenir abondants en quelques jours. Capables de faire presque n'importe quoi, ils peuvent être programmés pour dupliquer les armes existantes en leur conférant des propriétés supérieures. Capables de travailler avec des composants bien connus (les atomes), les assembleurs peuvent subitement construire des choses conçues par anticipation en vue de leur arrivée. Ces choses peuvent être des germes programmables ou d'autres épouvantables nouveautés. Pour toutes ces raisons, un Etat qui parvient à la percée des assembleurs peut rapidement disposer d'une puissance militaire déterminante -à une vitesse inégalée ; peut-être en une seule nuit. Les Etats peuvent utiliser les systèmes d'IA pour parvenir à des fins similaires. Les systèmes d'ingénierie automatique faciliteront la conception par anticipation et accéléreront le développement des assembleurs. Des systèmes d'IA qui concevront de meilleurs systèmes d'IA permettront une explosion des capacités avec des effets difficiles à imaginer. Les systèmes d'IA et les assembleurs répliquants permettront aux Etats d'étendre leurs capacités militaires de plusieurs ordres de grandeur en un temps très court. Les réplicateurs peuvent être plus puissants que les armes nucléaires : dévaster la Terre avec des bombes nécessiterait une quantité énorme de matériel de haute technologie et d'isotopes rares. Mais détruire la vie avec des réplicateurs ne nécessiterait qu'une simple poussière d'éléments ordinaires. Les réplicateurs s'ajoutent à la guerre nucléaire comme cause potentielle d'extinction et élargissent les implications morales de celle-ci. Malgré leur potentiel de destruction, les nanotechnologies et les systèmes d'IA se prêteront à des usages plus subtils que les armes nucléaires. Une bombe ne peut que détruire des choses mais les nanomachines et les systèmes d'IA peuvent être utilisés pour infiltrer, conquérir et dominer un territoire ou un monde. Même la police la plus impitoyable n'utilise pas d'arme nucléaire mais des virus, des drogues, des assassins et d'autres engins de pouvoir polyvalents. Avec des technologies avancées, les Etats seront à même de renforcer leur emprise sur les gens. Comme les gènes, les schèmes, les organismes et la technologie, les Etats ont évolué. Leurs institutions se sont répandues (avec des variations) par croissance, scissions, imitations et conquêtes. Les Etats en guerre se battent comme des bêtes mais en utilisant les citoyens comme leurs os, leurs cerveaux et leurs muscles. Les percées à venir confronteront les Etats à de nouvelles pressions et à de nouveaux choix, les obligeant à des changements rapides de leur comportement. Cela est évidemment inquiétant : les Etats se sont révélés par le passé excellents pour égorger et oppresser. Dans un sens, un Etat est simplement la somme des gens qui constituent son organisation : leurs actions s'ajoutent pour faire ses actions. Mais la même chose peut être dite pour un chien et ses cellules, bien qu'un chien soit clairement plus qu'un amas de cellules. Les chiens et les Etats sont tous les deux des systèmes évolués avec des structures qui affectent le fonctionnement de leurs parties. Pendant des milliers d'années, les chiens ont évolué principalement pour satisfaire les hommes, parce qu'ils ont survécu et se sont reproduits en accord avec les désirs humains. Depuis quatre mille ans, les Etats évoluent selon d'autres pressions sélectives. Les individus ont bien plus de pouvoir sur leurs chiens qu'ils n'en ont sur "leur" Etat. Bien que les Etats puissent eux aussi bénéficier de la satisfaction des gens, leur existence même a surtout dépendu de leur capacité à utiliser les gens que ce soit en tant que dirigeants, policiers ou soldats. Il peut sembler paradoxal de dire que les gens ont une emprise limitée sur leur Etat : après tout, les hommes ne sont-ils pas derrière chacune des actions d'un Etat ? Mais dans une démocratie, les chefs d'Etat déplorent leur manque de pouvoir, les élus plient devant les groupes de pression, les bureaucrates sont tenus par des règles et les électeurs qui sont prétendument dépositaires du pouvoir maudissent toute cette pagaille. L'Etat agit et les hommes le transforment mais personne ne peut prétendre le contrôler. Dans les Etats totalitaires, l'appareil du pouvoir a une tradition, une structure et une logique interne qui ne laissent de liberté ni aux dirigeants ni aux dirigés. Même les rois agissaient dans les limites des traditions monarchiques et des pratiques du pouvoir s'ils voulaient rester sur le trône. Bien qu'ils soient faits d'hommes, les Etats ne sont pas humains. Malgré cela, l'histoire montre que les changements sont possibles, même en bien. Mais ils font toujours passer le système d'un Etat inhumain et semi-autonome, à un autre -également inhumain mais peut-être plus humaniste. Dans nos espoirs d'amélioration, nous ne devons pas confondre les Etats à façade humaine et les Etats à institutions humaines. Décrire les Etats comme des quasi-organismes ne rend compte que d'un aspect d'une réalité complexe. Cependant, cela suggère une évolution en réponse à de futures percées. La croissance de la puissance des gouvernements, plus spectaculaire encore dans les régimes totalitaires, indique une direction. Les Etats pourraient se rapprocher du modèle des organismes vivants en contrôlant plus finement leurs composantes. En utilisant des assembleurs répliquants, les Etats pourraient saturer l'environnement de la population avec des dispositifs de surveillance miniatures. Des systèmes d'IA de compréhension de la parole leur permettraient d'écouter tout le monde sans avoir à employer une moitié de la population pour épier l'autre. En utilisant des nanotechnologies comme celles proposées pour réparer les cellules, ils pourraient facilement tranquilliser, lobotomiser ou modifier encore autrement des populations entières. Ceci ne ferait que donner une autre échelle à des pratiques familières aux Etats. Le monde compte encore des gouvernements qui espionnent, torturent et droguent ; une technologie avancée va simplement étendre ces possibilités. Mais avec une technologie avancée, les Etats n'ont pas vraiment besoin de contrôler les personnes : ils peuvent simplement s'en débarrasser. La plupart des gens, dans la plupart des Etats travaillent comme des ouvriers, des cultivateurs ou des éleveurs et la plupart de ces ouvriers fabriquent des choses, les déplacent ou les font pousser. Un Etat possédant des assembleurs répliquants n'a pas besoin d'un tel travail. Qui plus est, des systèmes d'IA avancée peuvent remplacer les ingénieurs, les scientifiques, les directeurs et même les dirigeants. La combinaison nanotechnologies/systèmes d'IA permettra de construire des robots intelligents et efficaces. Avec de tels robots, un Etat peut prospérer en se débarrassant de n'importe qui et en principe, de tout le monde. Les implications en sont différentes selon que l'Etat sert les personnes ou que ce sont les personnes qui servent l'Etat. Dans le premier cas, nous avons un Etat façonné par les hommes pour servir des buts humains généraux ; les démocraties tentent d'être au moins une grossière approximation de cet idéal. Si un gouvernement contrôlé démocratiquement n'a plus besoin d'employés, bureaucrates ou contribuables, cela ouvrira de nouvelles possibilités dont certaines peuvent se révéler désirables. Dans le second cas, nous avons un Etat qui a évolué pour exploiter les hommes, peut-être selon des règles totalitaires. Les Etats ont toujours eu besoin des humains parce que le travail humain a toujours été le fondement nécessaire du pouvoir. Qui plus est, les génocides ont été coûteux et difficiles à organiser et à exécuter. Cependant, durant ce siècle, les Etats totalitaires ont massacré leurs citoyens par millions. La technologie avancée rendra les travailleurs inutiles et le génocide facile. L'histoire suggère donc que les Etats totalitaires pourraient supprimer systématiquement leurs citoyens. Il semble probable qu'un Etat qui veut et qui peut nous réduire en esclavage se contentera simplement de nous tuer. La menace d'une technologie avancée entre les mains de gouvernements rend une chose parfaitement claire : nous ne pouvons pas nous permettre qu'un Etat oppressif prenne la tête dans la course aux percées à venir. Les problèmes fondamentaux que j'ai soulignés sont évidents : dans le futur comme par le passé, de nouvelles technologies causeront des abus et des accidents. Puisque les réplicateurs et les machines pensantes apporteront des pouvoirs puissants et nouveaux, les risques d'accidents et d'abus seront probablement très grands. Ces possibilités représentent de réelles menaces pour nos vies. La plupart des gens aimeraient avoir la chance de vivre et de choisir librement leur mode de vie. Cet objectif ne semble pas trop utopique, au moins dans certaines parties du monde. Cela ne consiste pas à accorder toute vie à un plan grandiose ; il s'agit principalement d'éviter l'esclavage et la mort. Tel l'accomplissement d'un rêve utopique, voilà qui ouvrira les portes d'un avenir plein de merveilles. Etant donnés ces problèmes de vie et de mort et ce but général, nous pouvons imaginer quelles dispositions pourraient nous aider à réussir. Notre stratégie doit impliquer les personnes, les principes et les institutions mais elle doit également utiliser des tactiques qui impliqueront inévitablement la technologie. Systèmes fiables Pour utiliser une telle technologie en tout sécurité, nous devons fabriquer du matériel fiable. Notre confiance repose sur un jugement précis des faits techniques, ce qui dépendra en partie de la qualité de nos institutions spécialisées dans ce genre de jugements. Cependant, cela dépendra plus fondamentalement de la possibilité physique de construire du matériel sûr. C'est une question de fiabilité des composants et des systèmes. Nous pouvons fabriquer souvent des composants fiables même sans assembleur pour nous y aider. "Fiable" ne veut pas dire "indestructible" -rien ne peut résister à une explosion nucléaire trop proche. Cela ne signifie même pas "solide" -une télévision peut être fiable, sans cependant survivre à une chute sur du béton. Nous pouvons plutôt définir un système comme étant fiable s'il fonctionne comme prévu. Un composant fiable n'a pas besoin d'être la parfaite réalisation d'une conception non moins parfaite. Il faut seulement qu'il soit la réalisation suffisamment soignée d'une conception prudente. Un concepteur de ponts peut mal connaître la vitesse des vents, le trafic routier et la résistance de l'acier mais en effectuant les calculs pour de forts vents, un trafic dense et un acier faible, l'ingénieur peut concevoir un pont qui tiendra. Les dysfonctionnements inattendus des composants trouvent souvent leur origine dans des défauts physiques. Mais les assembleurs construiront des pièces dont un nombre négligeable -voire nul si nécessaire196- d'atomes ne sera pas à sa place. Ceci les rendra parfaitement uniformes et dans un certain sens parfaitement fiables. Les radiations causeront cependant toujours des dégâts, parce qu'un rayon cosmique peut déplacer de manière inattendue un atome dans une structure197. Dans un composant suffisamment petit (même dans une mémoire informatique actuelle), une seule particule de radiation peut provoquer une erreur. Mais certains systèmes peuvent fonctionner quand quelques-unes de leurs parties tombent en panne : la clé est la redondance. Imaginez un pont suspendu par des câbles qui cèdent aléatoirement, une fois par an et de manière imprévisible. Si le pont tombe quand un câble casse, le pont est trop dangereux pour être utilisé. Imaginez cependant qu'il faille un jour pour remplacer un câble endommagé (parce que des équipes compétentes peuvent intervenir rapidement avec du câble supplémentaire) et que, bien qu'il faille cinq câbles pour soutenir le pont, il y en ait en fait six. Alors, si un seul câble lâche, le pont tiendra toujours. En stoppant le trafic et en remplaçant le câble, les opérateurs du pont peuvent rétablir la sécurité. Pour que le pont soit détruit, il faut qu'un second câble lâche le même jour que le premier. Supporté par six câbles ayant chacun quotidiennement une chance sur 365 de se casser, le pont a des chances de tenir douze ans. Cependant, pour qu'un pont avec dix câbles (cinq nécessaires et cinq en plus) tombe, il faut que six câbles se cassent le même jour : le pont a maintenant de bonnes chances de tenir quarante millions d'années. Avec quinze câbles, le temps de vie espéré du pont sera 170 000 fois supérieur à l'âge de la Terre. La redondance peut apporter une explosion exponentielle de la sûreté. La redondance fonctionne au mieux quand les composants redondants sont véritablement indépendants. Si nous n'avons pas confiance dans la conception, alors nous devons utiliser des composants conçus indépendamment. Si une bombe, une balle ou un rayon cosmique peut endommager plusieurs pièces voisines, alors nous devons disperser les parties redondantes à une plus grande distance. Les ingénieurs qui veulent augmenter la fiabilité d'un système de transport entre deux îles ne devraient pas se contenter simplement de rajouter des câbles à un pont. Ils devraient construire deux ponts bien distincts utilisant des concepts différents, puis rajouter un tunnel, un ferry et deux aéroports. Les ingénieurs en informatique utilisent aussi la redondance. Stratus Computer Inc, par exemple198, fabrique des machines qui utilisent quatre microprocesseurs (en deux paires) pour faire le travail d'un seul mais pour le faire d'une manière bien plus fiable. Chaque paire est scrutée en permanence pour son bon fonctionnement et une paire endommagée peut être remplacée pendant que sa jumelle continue de fonctionner. Une forme de redondance encore plus efficace s'appelle la diversité de la conception199. Dans un ordinateur, cela signifie qu'on a recours à plusieurs ordinateurs ayant des architectures différentes, toutes fonctionnant en parallèle. Ainsi, la redondance peut non seulement résister à des dégâts dans un composant mais également à des erreurs dans sa conception. De nombreux travaux ont été menés sur le problème de la création de grands programmes informatiques dépourvus d'erreurs. Beaucoup de personnes considèrent que de tels programmes sont impossibles à développer. Mais des chercheurs du département d'informatique de l'UCLA ont montré que la diversité de conception peut également être appliquée aux logiciels. Si plusieurs programmeurs travaillent indépendamment sur le même problème, alors il est ensuite possible de faire tourner tous leurs programmes simultanément et de les faire voter pour donner la valeur de la réponse. Cela multiplie les coûts de développement et d'exploitation du programme mais rend le système résistant à des bogues qui apparaissent dans certaines de ses parties. Nous pouvons utiliser la redondance pour contrôler les réplicateurs. Comme les machines à réparer les cellules qui comparent plusieurs brins d'ADN200 pour corriger les mutations dans les gènes des cellules, les réplicateurs compareront plusieurs copies de leurs instructions (ou utiliseront un autre système de correction d'erreurs201) pour résister aux mutations de leurs "gènes". La redondance peut encore une fois apporter une explosion de la fiabilité. Nous pouvons construire des systèmes qui sont extrêmement fiables mais cela entraîne des coûts supplémentaires. La redondance rend les systèmes plus lourds, plus encombrants, plus chers et moins efficaces. Les nanotechnologies rendront cependant la plupart des choses plus légères, plus petites, moins chères et plus efficaces. Cela rendra la redondance et la fiabilité plus pratiques. A l'heure actuelle, nous voulons rarement payer pour avoir le système le plus sûr possible ; nous tolérons plus ou moins volontairement les pannes et considérons rarement les limites réelles de la fiabilité. Ceci biaise nos jugements sur ce qui peut être atteint. Un facteur psychologique déforme aussi notre perception de la fiabilité : les échecs restent gravés dans nos mémoires mais les succès de chaque jour ne retiennent pas notre attention. Les médias amplifient cette tendance naturelle en rapportant les plus grandes catastrophes autour du monde et en ignorant les succès sans fin qui sont vite ennuyeux. Pire encore, les composants de systèmes redondants peuvent céder d'une manière visible, en actionnant une alarme. Imaginez comment les médias parleraient de la rupture d'un câble dans notre pont super-fiable à quinze câbles décrit plus haut. Et puisque chaque composant surnuméraire ajoute une chance de dysfonctionnement, la fiabilité d'un système peut sembler pire même si elle approche de la perfection. Les apparences mises à part, les systèmes redondants constitués de composants sans défaut peuvent souvent être presque parfaitement fiables. Des systèmes redondants répandus sur des surfaces suffisamment grandes résisteront même à des bombes ou à des balles. Mais qu'en est-il des erreurs de conception ? Posséder une douzaine de composants redondants ne sert à rien si toutes ces parties ont la même erreur fatale de conception en commun. La diversité de la conception est une réponse ; une bonne procédure de tests en est une autre. Nous pouvons faire évoluer des conceptions fiables même sans être un bon ingénieur : il suffit de savoir bien tester, rafistoler et d'être patient. La nature a fait évoluer des machines moléculaires grâce à un processus de bricolage et de test totalement dépourvu d'intelligence. Ayant un esprit, nous pouvons faire aussi bien, voire mieux. Nous concevrons facilement du matériel sûr si nous utilisons des systèmes d'ingénierie automatique fiables. Mais ceci soulève la question plus générale des systèmes d'intelligence artificielle fiables. Nous n'aurons pas trop de problèmes pour fabriquer des systèmes d'IA avec du matériel sûr mais qu'en est-il de leurs programmes ? Comme les systèmes d'IA actuels et les cerveaux humains, les systèmes d'IA avancée résulteront de la combinaison synergique de nombreuses parties plus simples. Chaque partie sera plus spécialisée et moins intelligente que le système en entier. Certaines repéreront des motifs dans des images, des sons ou d'autres données et suggéreront ce qu'ils peuvent signifier. D'autres compareront et jugeront les suggestions de ces parties. Tout comme les identificateurs de formes dans le système visuel humain sont sujets à de mauvaises interprétations et des illusions d'optique, les identificateurs de motifs des systèmes d'IA pourront commettre des erreurs d'interprétation -en fait, certains systèmes de vision artificielle sont déjà victimes d'illusions d'optique familières. Et tout comme d'autres parties du cerveau peuvent identifier et compenser les illusions, d'autres parties des systèmes d'IA compenseront ces erreurs. Comme dans le cerveau humain, l'intelligence sera constituée de parties mentales202 chargées de proposer des estimations et d'autres qui se débarrasseront de la plupart des mauvaises propositions avant qu'elles n'accaparent l'attention ou affectent des décisions importantes. Les parties mentales qui rejettent des idées d'actions pour des motif éthiques correspondent à ce que nous appelons la conscience. Les systèmes d'IA possédant de nombreuses parties seront rendus fiables par la possibilité d'incorporer des redondances et des mécanismes de conception diversifiés. Un véritable système d'IA polyvalent doit pouvoir faire évoluer des idées. Pour ce faire, il doit trouver ou former des hypothèses, les faire varier, les tester et modifier ou rejeter celles qui sont inadéquates. Supprimer une seule de ces capacités le rendrait stupide, entêté ou fou ("Cette fichue machine ne peut pas penser et ne peut pas apprendre de ses erreurs. Balancez-la !"). Pour éviter de se faire piéger par des erreurs initiales, le système devra tenir compte de points de vue opposés et les comparer entre eux pour décider de celui qui rend le mieux compte des données ou encore déterminer celui qui peut expliquer d'autres points de vue. Les communautés scientifiques utilisent un processus similaire. Et dans une publication intitulée "La métaphore de la communauté scientifique203", William A. Kornfeld et Carl Hewitt du laboratoire d'intelligence artificielle du MIT proposent que les chercheurs en IA donnent à leurs programmes une structure encore plus proche de la communauté scientifique évoluée. Ils soulignent le pluralisme de la science, la diversité des inventeurs en compétition, des défenseurs et des critiques. Sans inventeur, les idées ne peuvent pas apparaître ; sans défenseur, elles ne peuvent pas se développer et sans critique pour les mettre à l'épreuve, les mauvaises idées pourraient supplanter les bonnes. Ceci reste vrai en science, en technologie, pour les systèmes d'IA et entre les parties de notre propre cerveau. C'est parce que le monde est peuplé d'inventeurs, de défenseurs et de critiques divers et redondants que les avancées de la science et de la technologie sont fiables. Avoir plus d'inventeurs conduit à plus de bonnes propositions ; avoir plus de critiques rend les mauvaises idées plus vulnérables. Il en résulte de meilleures idées, plus nombreuses. Une forme similaire de redondance peut aider les systèmes d'IA à développer des idées judicieuses. Les personnes guident parfois leurs actions selon des standards de vérité et d'éthique et nous devrions être capables de faire évoluer des systèmes d'IA qui font de même mais d'une manière plus fiable. Capables de penser un million de fois plus vite que nous, ils auront plus de temps pour prendre du recul. Il semble que les systèmes d'IA peuvent être rendus fiables204, du moins selon des critères humains. J'ai souvent comparé les systèmes d'IA à des esprits humains individuels mais la ressemblance n'a pas besoin d'être grande. Un système qui doit pouvoir imiter un humain nécessite probablement un type de raisonnement comparable à celui des hommes. Mais un système d'ingénierie automatique n'en a probablement pas besoin. Il pourrait s'appeler Agora205 (en référence au terme grec désignant la place publique) et consister en de nombreux modules logiciels qui interagiraient les uns avec les autres en offrant des services contre de l'argent. La plupart des modules seraient des agents ultraspécialisés, certains seraient capables de proposer une modification de la conception et d'autres d'en analyser une. Tout comme l'écologie de la Terre a fait évoluer des organismes extraordinaires, cette "économie informatique" pourrait faire évoluer des conceptions extraordinaires -peut-être d'une façon également dépourvue d'esprit. Qui plus est, puisque le système serait réparti sur plusieurs machines et serait constitué de nombreuses parties programmées par beaucoup de personnes différentes, il pourrait être robuste et difficile pour qui que ce soit à détourner ou tromper. Finalement, d'une manière ou d'une autre, les systèmes d'ingénierie automatique seront capables de concevoir des choses de manière plus fiable que n'importe quel groupe d'ingénieurs206 aujourd'hui. Notre défi sera de les concevoir correctement. Nous aurons besoin d'institutions humaines qui développent de manière sûre des systèmes fiables. Les institutions humaines sont des systèmes artificiels évolués et elles peuvent souvent résoudre des problèmes insolubles pour leurs membres pris individuellement. Cela en fait des sortes de "systèmes d'intelligence artificielle". Les entreprises, les armées et les laboratoires de recherche en sont des exemples, tout comme le sont les structures plus lâches du marché et de la communauté scientifique. Même les gouvernements peuvent être vus comme des systèmes d'intelligence artificielle -grossiers, apathiques et embrouillés et cependant surhumains dans leurs capacités réelles. Et à quoi servent les conseils et les assemblées sinon à contrebalancer les pouvoirs afin d'augmenter la fiabilité d'un gouvernement grâce à une diversité et une redondance institutionnelle ? Quand nous construirons des machines intelligentes, nous les utiliserons pour qu'elles vérifient et apprécient l'une l'autre leurs fonctionnements. En appliquant les mêmes principes, nous pourrions développer des institutions fiables, possédant des contrôles et des pouvoirs bien répartis, chargées de guider le développement technique des systèmes dont nous aurons besoin pour maîtriser les percées à venir. Tactiques pour la percée des assembleurs Une certaine force dans le monde, qu'elle soit digne de confiance ou non, prendra la tête dans le développement des assembleurs. Appelons-la "le précurseur" ; ce sera vraisemblablement une organisation ou une institution contrôlée par un gouvernement ou un groupe de gouvernements parce que les assembleurs sont d'une importance stratégique. Pour simplifier les choses, supposons pour le moment que nous (les bons, ceux qui essayons d'être sages) puissions influencer le pouvoir politique dans le but d'être le précurseur. Pour les citoyens des états démocratiques, cela semble être une bonne attitude à adopter. Que devrions-nous faire pour augmenter nos chances de vivre dans un futur qui en vaille la peine ? Que pouvons nous faire ? Nous pouvons commencer par ce qui ne doit pas arriver : nous ne devons pas laisser s'échapper un seul assembleur répliquant d'un mauvais type dans un monde qui n'y est pas préparé. Des parades efficaces semblent possibles (comme je vais le décrire) mais il semble que celles-ci doivent être fabriquées avec des assembleurs, c'est-à-dire quand les réplicateurs dangereux seront déjà réalisables. La conception anticipée peut aider le précurseur à se préparer mais même une action vigoureuse en faveur de ce genre de développement ne semble pas pouvoir écarter une période quasi-obligatoire de danger. La raison en est simple : les réplicateurs dangereux seront bien plus simples à fabriquer que les systèmes qui peuvent les contrer, tout comme les bactéries sont bien plus simples que les systèmes immunitaires. Nous aurons besoin de tactiques permettant de contenir les nanotechnologies pendant que nous apprendrons à les maîtriser. L'isolation est une tactique évidente : le précurseur sera capable de contenir les systèmes réplicateurs à l'intérieur de plusieurs murs ou dans des laboratoires dans l'espace. Les réplicateurs simples n'auront aucune intelligence et ils ne seront pas conçus pour s'échapper et devenir incontrôlables. Les domestiquer ne semble pas être un grand défi. Mieux, nous serons capables de construire des assembleurs qui ne peuvent pas s'échapper et se répliquer en liberté. Nous pouvons les construire en incorporant des compteurs -comme ceux des cellules- fixant un nombre limite de réplications. Nous pouvons les construire pour qu'ils ne puissent se répliquer qu'en présence d'une "vitamine" synthétique ou dans des conditions qui ne sont réunies qu'en laboratoire. Bien que les réplicateurs puissent être rendus plus résistants et plus voraces que toutes les bactéries actuelles, nous pouvons également les rendre utiles et inoffensifs. Parce que les réplicateurs seront conçus en partant de zéro, ils n'auront pas besoin de posséder toutes les facultés de survie que l'évolution a construites dans les cellules vivantes. De plus, ils n'auront pas besoin d'évoluer. Nous pouvons donner aux réplicateurs des copies redondantes des leurs instructions "génétiques", ainsi que des mécanismes de réparation d'éventuelles mutations. Nous pouvons les concevoir pour qu'ils s'arrêtent de fonctionner bien avant que des dégâts ne permettent à une mutation de se transmettre. Enfin, nous pouvons les concevoir de manière à entraver leur évolution, même si des mutations peuvent se produire. Les expérimentateurs montrent que la plupart des programmes informatiques -autres que les programmes d'IA spécialement conçus207, tel l'EURISKO du Dr. Lenat- répondent rarement aux mutations par de petits changements. Au lieu de cela, ils cessent de fonctionner. Parce qu'ils ne peuvent pas être modifiés utilement, ils ne peuvent pas évoluer. A moins qu'ils ne soient spécialement construits pour cela, les réplicateurs dirigés par des nano-ordinateurs partageront ce handicap. Les organismes modernes sont doués pour évoluer en partie parce qu'ils descendent d'ancêtres qui ont évolué. Ils sont évolués pour pouvoir progresser ; c'est une raison des complexités de la reproduction sexuée et du brassage des segments de chromosomes lors de la production des spermatozoïdes et des ovules. Nous pouvons simplement ne pas doter les réplicateurs de telles facultés208. Il sera facile pour le précurseur de fabriquer des assembleurs utiles, inoffensifs et stables. Empêcher le vol ou l'abus d'assembleurs est un problème différent et plus difficile parce que ce sera un jeu contre des adversaires intelligents. Pour réduire ces risques, nous pouvons diminuer l'envie de voler des assembleurs en les rendant disponibles sous des formes sûres. Cela réduira également la motivation des autres groupes à développer indépendamment des assembleurs. Le précurseur, après tout, sera suivi de près par ses poursuivants. Assembleurs limités Dans le chapitre 4, j'ai décrit comment un système d'assembleurs dans une cuve pouvait construire un excellent moteur de fusée. J'ai aussi indiqué que nous serons capables de faire des systèmes d'assembleurs qui agissent comme des graines et pousseront donc dans le sol, à la lumière du soleil, en utilisant des matériaux ordinaires pour donner presque n'importe quoi. Ces assembleurs spécialisés ne se répliqueront pas où ne le feront qu'un nombre limité de fois. Ils ne feront à la demande que ce pour quoi ils ont été programmés. Quelqu'un qui ne posséderait pas les outils moléculaires adéquats (construits avec des assembleurs généralistes) ne pourrait pas les reprogrammer pour fabriquer autre chose. En utilisant des assembleurs de cette sorte, les gens pourraient fabriquer autant de fois qu'ils le veulent les produits qu'ils désirent, en restant bien sûr limités par ce qu'il est permis de construire avec ces assembleurs. Si aucun n'est programmé pour construire des armes nucléaires, aucun ne le fera. Si aucun n'est programmé pour fabriquer des réplicateurs dangereux, aucun ne le fera. Si certains d'entre eux sont programmés pour construire des maisons, des voitures, des ordinateurs, des brosses à dents ou des étagères, alors ces produits peuvent devenir bon marché et abondants. Les machines construites par des assembleurs limités nous ouvriront l'espace, guériront la biosphère et répareront les cellules humaines. Les assembleurs limités peuvent apporter une richesse presque illimitée aux habitants du monde. Cette tactique atténuera la pression morale qui s'exercera pour la diffusion d'assembleurs illimités. Mais les assembleurs limités laisseront des besoins légitimes insatisfaits. Les scientifiques auront besoin d'assembleurs librement programmables pour mener des expériences tout comme les ingénieurs pour tester des conceptions. Ces besoins peuvent être satisfaits par des laboratoires scellés d'assembleurs. Laboratoires scellés d'assembleurs Imaginez un périphérique pour ordinateur de la taille de votre pouce avec une prise sophistiquée à sa base. Sa surface semblable à du plastique est uniformément grise et porte un numéro de série gravé. Ce laboratoire scellé d'assembleurs est un objet construit par des assembleurs qui contient beaucoup de choses. A l'intérieur, juste au-dessus de la prise, on trouve un gros nano-ordinateur électronique faisant tourner un programme de simulation moléculaire sophistiqué (un de ceux développés durant la phase de développement des assembleurs). Une fois ce laboratoire d'assembleurs branché et allumé, votre ordinateur personnel (construit avec des assembleurs limités) affiche l'image tridimensionnelle de ce que l'ordinateur du laboratoire est en train de simuler, avec les atomes représentés par de petites sphères colorées. Une manette de jeu vous permet de diriger le bras assembleur simulé pour construire des choses. Le programme peut faire bouger le bras plus vite afin de construire des structures élaborées en un clin d'¦il sur l'écran. La simulation marche tout le temps parfaitement parce que le nano-ordinateur triche : lorsque vous dirigez le bras assembleur simulé pour qu'il déplace la molécule simulée, l'ordinateur dirige un bras réel pour qu'il déplace une molécule réelle. Il vérifie alors les résultats pour éventuellement corriger ses calculs209. Le haut de cet objet de la taille d'un pouce contient une sphère faite de nombreuses couches concentriques. Des fils électriques fins conduisent l'énergie et les informations à travers les couches. Ceci permet à l'ordinateur placé dans la base de communiquer avec le dispositif qui se trouve au centre de la sphère. La couche la plus externe contient des capteurs. Toute tentative pour la retirer ou la percer envoie un signal à une couche qui se trouve près du centre. La couche suivante est une épaisse enveloppe d'un composite précontraint en diamant, avec sa couche externe tendue et sa couche interne compressée. Ceci entoure une couche d'isolation thermique qui elle-même recouvre une carapace de la taille d'un grain de poivre faite de blocs microscopiques soigneusement disposés de métal et d'oxydant. Ils sont sillonnés par des détonateurs électriques. La couche sensible externe met le feu aux détonateurs si une intrusion est détectée. La charge explosive constituée par le métal et l'oxydant brûle en une fraction de seconde, produisant un gaz de métal oxydé plus dense que l'eau et presque aussi chaud que la surface du soleil. Mais la déflagration est petite ; le dispositif se refroidit rapidement et la sphère de diamant confine la forte pression. La charge de démolition entoure une coquille composite plus petite qui entoure une autre couche de capteurs qui peuvent eux aussi déclencher l'explosion. Ces capteurs tapissent la cavité qui contient le laboratoire scellé d'assembleurs. Ces précautions sophistiquées justifient l'utilisation du mot "scellé". Personne ne peut ouvrir la capsule contenant les assembleurs sans en détruire le contenu et aucun assembleur ou structure construite par un assembleur ne peut s'échapper de l'intérieur. Le système est conçu pour laisser sortir des informations mais pas des réplicateurs ou des outils dangereux. Une couche de capteurs210 est faite de plusieurs sous-couches redondantes destinée chacune à détecter indépendamment n'importe quel type d'intrusion, rendant le système inviolable. Une intrusion, en déclenchant la charge de démolition fait monter la température au-delà du point de fusion de toutes les substances possibles et élimine donc les possibilités de survie d'un dispositif dangereux. Ces mécanismes de protection entourent tous une structure un million de fois plus petite -c'est-à-dire n'importe quelle structure qui tient dans le laboratoire fournissant un espace de travail plus petit que le diamètre d'un cheveu humain. Bien que petit selon les critères ordinaires, cet espace de travail est encore suffisamment grand pour contenir des millions d'assembleurs et des dizaines de billions d'atomes. Ces laboratoires scellés permettront à n'importe qui de construire et de tester des dispositifs en toute sécurité, même des réplicateurs voraces. Les enfants utiliseront les atomes placés à l'intérieur comme les pièces d'un jeu de construction presque illimité. Des passionnés échangeront des programmes pour construire différents gadgets. Les ingénieurs fabriqueront et testeront de nouvelles nanotechnologies. Les chimistes, les scientifiques des matériaux et les biologistes construiront des appareils et feront des expériences. Dans des laboratoires construits autour d'échantillons biologiques, les ingénieurs en biomédecine testeront les premières machines à réparer les cellules. Au cours de ces travaux, des choses utiles seront forcément développées, que ce soient des circuits d'ordinateurs, des matériaux résistants, des dispositifs médicaux ou autres. Après un débat public sur leur innocuité, ces choses pourront être rendues disponibles hors des laboratoires scellés en les faisant produire par des assembleurs limités. Les laboratoires scellés et les assembleurs limités formeront une paire complémentaire : les premiers nous permettront d'inventer librement, les seconds de profiter de nos inventions en toute sécurité. La possibilité de s'arrêter entre conception et diffusion nous aidera à éviter des surprises mortelles. Les laboratoires scellés d'assembleurs permettront à l'ensemble de la société d'appliquer sa créativité aux problèmes des nanotechnologies. Ceci permettra de préparer des parades qui seront utiles lorsqu'une force indépendante aura appris à construire quelque chose de vraiment épouvantable. Cacher des informations Une autre tactique pour gagner du temps consiste pour le précurseur à tenter de faire sauter le pont qu'il a construit pour passer de la technologie grossière à la technologie moléculaire. Ceci implique de détruire les données qui décrivent la manière dont le premier assembleur fut construit ou de les rendre totalement inaccessibles. Le précurseur sera peut-être capable de développer le premier assembleur grossier sans que personne d'autre ne connaisse les détails qui lui ont permis de le faire. Imaginez que nous parvenions aux assembleurs par la voie décrite dans le chapitre 1. Les machines protéiques que nous utiliserons pour construire le premier assembleur grossier seront rapidement obsolètes. Détruire les données se rapportant à la conception de ces protéines211 ralentira ceux qui souhaitent les reconstruire mais ne freinera pas les futurs progrès en nanotechnologies. Si des laboratoires scellés et des assembleurs limités sont largement distribués, les pressions économiques et scientifiques pour développer à nouveau les nanotechnologies de manière indépendante seront moins fortes. Et le pont détruit entre la technologie grossière et la technologie moléculaire rendra ces développements indépendants plus difficiles encore. Cependant, ces tactiques ne peuvent que servir à gagner du temps. Elles ne stopperont pas les développements indépendants ; la course humaine à la puissance alimentera des efforts qui finiront par aboutir. Seul un contrôle totalitaire complet et universel pourrait stopper indéfiniment les développements individuels. Si ce travail de surveillance était construit par un gouvernement moderne, le remède serait peut-être encore pire que le mal. Et même ainsi, une vigilance parfaite pourrait-elle être maintenue pour toujours ? Il semble que nous soyons finalement obligés d'apprendre à vivre dans un monde peuplé de réplicateurs dangereux. Se cacher derrière un mur ou fuir très loin n'est pas suffisant : des réplicateurs dangereux peuvent percer le mur ou couvrir la distance et provoquer un désastre complet. Et bien que des murs puissent être rendus résistants à de petits réplicateurs, aucun ne peut parer une malveillance212 organisée à plus grande échelle. Nous aurons besoin d'une approche plus forte et plus souple. Boucliers actifs Il semble que nous puissions construire des nanomachines qui agissent un peu comme les globules blancs du système immunitaire humain : des dispositifs qui ne luttent pas seulement contre les bactéries et les virus mais aussi contre les réplicateurs dangereux de toutes sortes. Appelons une défense automatisée de ce type un bouclier actif, pour le distinguer d'un mur fixe. A la différence des systèmes d'ingénierie ordinaires, les boucliers actifs fiables doivent faire plus que simplement résister à la nature ou à l'utilisateur maladroit. Ils doivent aussi faire face à un défi bien plus grand : le spectre entier des menaces que des forces intelligentes peuvent concevoir et construire. Construire et améliorer des prototypes de bouclier ressemblera à la course entre l'obus et la cuirasse réduite à l'échelle d'un laboratoire. Mais le but ici sera de chercher les capacités minimum requises pour que la défense l'emporte. Au chapitre 5, j'ai décrit comment le Dr. Lenat et son programme EURISKO ont fait évoluer des flottes pour combattre selon les règles du jeu d'une bataille navale. De la même manière, nous pouvons transformer en jeu l'effort intense de développement de boucliers fiables en utilisant les laboratoires scellés d'assembleurs de taille variable comme terrain. Nous pouvons faire travailler sur la question une kyrielle d'ingénieurs, de pirates informatiques, de biologistes, d'amateurs passionnés et de systèmes d'ingénierie automatisée pour qu'ils présentent chacun un système devant combattre contre un autre dans des joutes limitées seulement par les conditions initiales et les murs des laboratoires scellés. Ces compétiteurs feront évoluer des menaces et des boucliers dans une succession de micro-batailles. Quand les assembleurs répliquants auront apporté l'abondance, les gens auront assez de temps pour se consacrer à ces jeux d'importance vitale. Finalement, nous pourrons tester les systèmes de boucliers actifs prometteurs dans des environnements terrestres reconstitués dans l'espace. Le succès d'une telle entreprise permettra de protéger la vie humaine et la biosphère terrestre contre le pire, provoqué par une poignée de réplicateurs déchaînés. Le succès est-il possible ? Avec les incertitudes actuelles, nous ne pouvons encore décrire ni les menaces ni les boucliers avec une quelconque précision. Ceci veut-il dire que nous ne pouvons pas être certains de la faisabilité des boucliers actifs ? Apparemment, nous le pouvons ; il y a une différence entre savoir si quelque chose est possible et savoir comment le faire. Et dans ce problème, le monde recèle de quelques exemples de succès analogues. Il n'y a rien de fondamentalement nouveau à propos de la défense contre des invasions de réplicateurs ; la vie le fait depuis des milliards d'années. Les assembleurs répliquants, bien qu'inhabituellement puissants, seront des systèmes physiques tels que ceux que nous connaissons déjà. L'expérience suggère qu'ils peuvent être contrôlés. Les virus sont des machines moléculaires qui envahissent les cellules. Les cellules utilisent des machines moléculaires (comme des enzymes de restriction et des anticorps) pour se défendre contre eux. Les bactéries sont des cellules qui envahissent les organismes. Les organismes utilisent des cellules (comme les globules blancs) pour se défendre contre elles. De la même manière, les sociétés utilisent des policiers pour se défendre contre les criminels et des armées pour se défendre contre les envahisseurs. A un niveau moins physique, les esprits utilisent des schèmes comme la méthode scientifique pour lutter contre les non-sens, et les sociétés utilisent des institutions comme les tribunaux pour se défendre contre le pouvoir d'autres institutions. Les exemples biologiques du paragraphe précédent montrent que même après un milliard d'années de course aux armements, les machines moléculaires ont toujours maintenu des parades efficaces contre les réplicateurs moléculaires. Les échecs ont cependant eux aussi été fréquents mais les succès prouvent que la défense est possible. Ceci suggère que nous pouvons utiliser des nanomachines pour lutter contre d'autres nanomachines. Les assembleurs apporteront de nombreuses avancées mais il n'y a pas de raison de croire qu'ils maintiendront indéfiniment le rapport de force en défaveur de la défense. Les exemples donnés au-dessus -certains impliquant des virus, d'autres des institutions- sont suffisamment différents pour indiquer que la supériorité de la défense repose sur des principes généraux. On pourrait se demander pourquoi toutes ces défenses réussissent dans leur rôle. Mais tournons la question autrement : pourquoi devraient-elles échouer ? Chaque conflit fait combattre des systèmes similaires entre eux : l'assaillant n'a pas d'avantage évident213. Qui plus est, dans chaque conflit, l'attaquant fait face à une défense qui est bien établie. Les défenseurs se battent sur leur terrain et profitent d'avantages : positions préparées, connaissances détaillées du terrain, ressources accumulées, alliés nombreux -quand le système immunitaire reconnaît un microbe, il peut mobiliser les ressources du corps entier. Tous ces avantages sont généraux, fondamentaux et n'ont rien à voir avec les détails d'une technologie. Nous pouvons donner à notre bouclier actif ces mêmes avantages sur les réplicateurs dangereux. Et ils n'ont pas besoin de rester oisifs pendant que des armes dangereuses sont amassées, pas plus que le système immunitaire ne reste inactif pendant qu'une bactérie se multiplie. Il serait difficile de prédire l'issue d'une course aux armements ouverte entre des puissances équipées d'assembleurs répliquants. Mais avant cela, le précurseur peut vraisemblablement acquérir une supériorité militaire temporaire mais écrasante. Si l'issue d'une course aux armements est indécise, il utilisera probablement sa puissance pour s'assurer qu'aucun adversaire ne puisse la rattraper. Si elle se comporte ainsi, alors les boucliers actifs n'auront pas à soutenir l'attaque de la moitié d'un continent avec toutes ses ressources ni de la moitié d'un système solaire. Ils seront plutôt comme une force de police ou un système immunitaire qui doit faire face à de petites menaces soutenues par de faibles moyens secrètement rassemblés dans le territoire protégé. Dans tous les cas de défense victorieuse que j'ai cités plus haut, les assaillants et les défenseurs se sont développés à travers des processus largement similaires. Le système immunitaire, façonné par l'évolution génétique, rencontre des menaces également façonnées par celle-ci. Les armées, commandées par des cerveaux humains, font face à des menaces similaires. De la même manière, les réplicateurs dangereux et les boucliers actifs seront développés par évolution schémétique. Mais si le précurseur peut développer des systèmes d'ingénierie automatique qui travaillent un million de fois plus vite que les ingénieurs humains et si elle peut les utiliser pendant une année entière, alors elle disposera de boucliers actifs fondés sur des concepts qui auront un million d'années d'avance. Avec de tels systèmes nous pourrions probablement explorer les limites du possible suffisamment loin pour construire un bouclier actif fiable qui résisterait à toutes les menaces physiques possibles. Même sans connaître les détails des menaces et des boucliers, il semble y avoir des raisons de croire que les boucliers sont possibles. De ce point de vue, l'exemple de schèmes contrôlant des schèmes et celui d'institutions contrôlant des institutions suggère également que des systèmes d'IA peuvent contrôler des systèmes d'IA. En construisant des boucliers actifs, nous serons capables d'utiliser la puissance des réplicateurs et des systèmes d'IA pour multiplier les avantages traditionnels de la force défensive : nous pouvons lui donner une supériorité écrasante en mettant à sa disposition une grande abondance de matériel construit par des assembleurs et dont les concepts auront l'équivalent d'un million d'années d'avance technologique. Nous pourrons construire des boucliers actifs qui auront une fiabilité et une solidité à ridiculiser les anciens systèmes. Les nanotechnologies et l'intelligence artificielle peuvent apporter des outils de destruction ultimes, mais ils ne sont pas intrinsèquement destructeurs. En étant prudents, nous pouvons en faire des outils ultimes de paix. 12 Stratégies et survie Ceux qui n'appliquent pas les nouveaux remèdes doivent s'attendre à voir apparaître de nouveaux maux ; car le temps est le plus grand inventeur. Francis Bacon Dans les chapitres précédents, je suis resté proche des fondations solides des possibilités techniques. Ici cependant, je vais devoir m'aventurer plus avant dans le domaine de la politique et de l'action humaine. Ce terrain est moins ferme mais les faits technologiques et les principes du changement fournissent quand même quelques points solides sur lesquels s'appuyer et mener plus avant notre investigation. La course technologique, menée par des pressions évolutionnistes, nous conduit vers des dangers que nous n'avons jamais affrontés. Nous devons trouver des stratégies adéquates pour les surmonter. Puisque nous voyons poindre de si grands dangers, il serait bon de songer à arrêter cette course effrénée. Mais comment le pourrions-nous ? Abstentions personnelles En tant qu'individus, nous pouvons nous abstenir de mener des recherches qui conduisent à de dangereuses possibilités. En fait, la plupart des gens vont s'abstenir, puisque seule une minorité mène des recherches. Mais cette stratégie n'arrêtera pas les avancées : dans notre monde de diversité, d'autres feront le travail à leur place. Suppression locale Une stratégie d'abstention personnelle revient à la simple inaction, au moins dans ce cas là. Mais qu'en est-il d'une stratégie d'action politique locale, de pression pour faire voter des lois interdisant certains types de recherches ? Ce serait une action personnelle ayant pour but de forcer l'inaction collective. Bien que cela puisse réussir à supprimer la recherche dans une ville, une région, un pays ou une alliance, cette stratégie ne peut pas nous aider à donner le ton ; au lieu de cela, une quelconque force hors de notre contrôle prendrait la tête. Un mouvement populaire de ce type peut arrêter la recherche uniquement là où les citoyens détiennent le pouvoir. Il ne réussirait qu'à permettre à un état plus répressif de devenir le précurseur. Quand il s'agit d'armes nucléaires, il est facile de trouver des arguments en faveur d'un désarmement unilatéral et d'une résistance non-violente ou du moins non nucléaire. Ces armes peuvent frapper des installations militaires et semer la terreur mais elles ne peuvent pas être utilisées pour occuper un territoire ou contraindre des personnes -du moins pas directement. Les armes nucléaires n'ont pas supprimé les guérillas et les troubles sociaux ; le désarmement nucléaire ne supprime pas la possibilité de résister. Au contraire, la suppression unilatérale des nanotechnologies et de l'IA équivaudrait à un désarmement unilatéral sans résistance possible. Un état agressif pourrait utiliser ces technologies pour conquérir et maîtriser (ou exterminer) même une nation peuplée de Gandhis ou de combattants armés voués à la liberté. Ceci mérite qu'on s'y arrête. Si l'on ne dispose pas d'une méthode permettant de réformer les états totalitaires, de simples mouvements de suppression de la recherche ne peuvent pas remporter un succès total. Mais à défaut d'un succès total, un succès seulement majeur conduirait les démocraties au désastre. Même s'ils ne mènent nulle part, des efforts de ce type engloutiraient le travail et la passion des militants ; ils gâcheraient de rares ressources humaines dans une vaine stratégie. De plus les efforts de suppression provoqueraient l'opposition des chercheurs concernés, opposeraient les alliés potentiels et gaspillerait plus de ressources humaines encore. Cette stratégie inutile et perturbatrice est donc à éviter. Néanmoins, la suppression est sans aucun doute attirante. Elle est simple et directe : "Un danger survient ? Arrêtons-le !". Qui plus est, des succès dans des groupes de pressions locaux promettent des satisfactions à court terme : "Un danger arrive ? Nous pouvons l'arrêter ici et maintenant, pour commencer !". Le commencement ne sera qu'apparent mais tout le monde ne le remarquera pas. L'idée de simple suppression séduira probablement de nombreux esprits. Après tout, la suppression locale de dangers locaux a une longue et fructueuse tradition : arrêter un pollueur, par exemple, réduit la pollution locale. Des efforts de suppression locale de dangers globaux sembleront similaires, aussi différentes que puissent en être les conséquences. Nous aurons besoin d'organisations locales et de pressions politiques mais elles doivent être dirigées vers une stratégie efficace. Accords de suppression globale Dans une approche plus prometteuse, nous pouvons utiliser les pressions locales pour négocier un moratoire mondial véritable. Une telle stratégie pourrait avoir une chance dans le cas du contrôle des armes nucléaires. Mais stopper les nanotechnologies et l'intelligence artificielle pose des problèmes d'un ordre différent, pour au moins deux raisons. D'abord, parce que ces technologies sont moins bien définies que les armes nucléaires : la technologie nucléaire actuelle requiert l'utilisation de certains isotopes spécifiques de métaux rares, ce qui la rend distincte des autres activités. Elle peut être définie et (en principe) bannie. Mais la biochimie moderne mène aux nanotechnologies par petits pas et les ordinateurs modernes font de même pour l'IA. Il n'y a aucune limite particulière à laquelle s'arrêter. Et puisque chaque petite avancée apportera de grands bénéfices médicaux, militaires et économiques, comment pourrions-nous négocier un accord mondial indiquant où s'arrêter ? Ensuite, ces technologies sont plus puissantes que les armes nucléaires : les réacteurs et les systèmes d'armes sont plutôt de grande taille et des inspections peuvent limiter l'importance d'une force secrète et donc sa puissance. Mais des réplicateurs dangereux seront microscopiques et des logiciels d'IA seront intangibles. Comment pourrions-nous être sûrs qu'il n'y a pas quelque part un laboratoire tout près d'une percée stratégique ? Les mesures de vérifications ordinaires ne fonctionneront pas : les négociations et la mise en pratique d'un traité bannissant ces technologies seront presque impossibles. Les pressions pour des accords internationaux rendront notre futur plus sûr. Mais les accords visant simplement à supprimer les avancées dangereuses ne fonctionneront apparemment pas. De nouveau, les pressions locales doivent faire partie d'une stratégie efficace. Suppression globale par la force Si les accords pacifiques ne fonctionnent pas, on peut envisager l'action militaire pour supprimer les avancées dangereuses. Mais à cause des problèmes de vérification, la pression militaire seule ne suffira pas. Supprimer les avancées par la force implique la conquête et l'occupation de puissances hostiles214 équipées d'armes nucléaires -une politique peu sûre. De plus, le pouvoir conquérant sera lui-même une puissance technologique majeure possédant une grande force militaire et capable de l'utiliser. Peut-on faire confiance à une telle puissance pour qu'elle arrête ses propres progrès ?Et en supposant qu'on le puisse, pourra-t-on lui faire confiance pour maintenir une surveillance de tous les instants sur le monde entier ? Sinon, les menaces finiront par se développer en secret, dans un monde où le travail sur les boucliers actifs a été empêché. Le résultat probable serait un vrai désastre. La force militaire est bénéfique aux démocraties mais elle ne suffit pas pour résoudre toute seule le problème. Nous ne pouvons pas atteindre la sécurité à travers une stratégie de conquête et de suppression de la recherche. Ces stratégies d'arrêt des recherches -que ce soit par inaction personnelle, inaction locale, accord négocié ou conquête mondiale- semblent toutes vouées à l'échec. Cependant, l'opposition aux avancées aura un rôle à jouer, parce que nous aurons besoin de délais sélectifs intelligemment ciblés pour retarder les menaces jusqu'à ce que nous soyons capables de les maîtriser. La pression provenant d'activistes sera essentielle pour guider les avancées non pour les stopper. Avancée unilatérale Si les tentatives pour supprimer les recherches en nanotechnologies et en IA semblent inutiles et dangereuses, qu'en est-il de leur contraire -une course unilatérale toutes voiles dehors ? Cette stratégie aussi présente des problèmes. Les démocraties ne peuvent probablement pas parvenir à une percée majeure en gardant parfaitement le secret. Trop de personnes seraient impliquées pendant trop d'années. Puisque l'Union soviétiquen entendrait forcément parler de nos efforts, ses réactions seraient un sujet d'inquiétude évident, puisqu'elle se sentirait gravement menacée par une avancée substantielle de notre part. Si les nanotechnologies étaient développées dans le cadre d'un programme militaire secret, leurs analystes pourraient craindre le développement d'une arme subtile mais décisive comme un "microbe" programmable. Selon les circonstances, notre ennemi pourrait choisir d'attaquer tant qu'il le peut encore. Il est important que ce soit les démocraties qui mènent les avancées dans ces technologies mais nous serions plus en sécurité si nous pouvions associer à ces développements des accords de non-agression. Equilibre des puissances Si nous suivons n'importe laquelle des stratégies développées plus haut, nous allons au devant de grands conflits. Des tentatives de suppression des nanotechnologies et de l'IA dresseront les militants de la suppression contre les intérêts vitaux des chercheurs, des entreprises, des institutions militaires et des malades. Des tentatives pour obtenir un avantage unilatéral grâce à ces technologies mettront face-à-face les démocraties coopérantes et leurs adversaires. Toutes ces stratégies attiseront des conflits, mais vont-elles réellement diviser si gravement les sociétés occidentales et le monde entier ? Pour trouver un chemin intermédiaire, nous devons peut-être chercher un équilibre des pouvoirs dans celui de la technologie. Ceci prolongera apparemment une situation qui a maintenu la paix depuis quarante ans. Mais le mot clé est ici "apparemment" : les percées à venir seront trop rapides et déstabilisantes pour que le vieil équilibre perdure. Dans le passé, un pays pouvait avoir plusieurs années de retard technologique et maintenir quand même un équilibre militaire globalement stable. Avec des réplicateurs rapides et des systèmes d'IA avancée, un retard d'un seul jour peut être fatal. Il paraît excessif d'espérer un équilibre stable. Développement coopératif Il y a cependant, en principe, une manière de conserver l'équilibre technologique entre les démocraties alliées et le bloc soviétique : nous pouvons développer les technologies en coopération, en partageant les outils et les informations. Malgré les problèmes évidents, c'est au moins quelque chose de plus réaliste qu'il n'y paraît. La coopération est-elle négociable ? Des échecs dans les tentatives de négociations sur le contrôle des armements viennent immédiatement à l'esprit et une coopération peut sembler encore plus difficile à mettre en ¦uvre. Mais est-ce vraiment le cas ? Dans le problème du contrôle des armes, chaque partie tente d'entraver les actions de l'autre, ce qui renforce leur hostilité. De plus, il existe des tensions à l'intérieur de chaque camp entre ceux qui veulent effectivement limiter l'armement et ceux qui le construisent. Pire encore, les négociations tournent autour des mots et de leurs sens mais chaque camp possède son propre langage et une certaine tendance à déformer le sens des mots pour servir sa cause. La coopération, en revanche, implique un travail en commun vers le même but ; celle-ci atténue la nature conflictuelle des relations. De plus, elle réduirait également les tensions à l'intérieur de chaque partie puisque les efforts de coopération créeraient des projets plutôt que de les détruire. Enfin, les deux camps utiliseraient le même langage pour discuter -celui des mathématiques et des diagrammes utilisés en science et en ingénierie. Ainsi, la coopération a des résultats nets et visibles. Au milieu des années 70, les USA et l'URSS effectuèrent ensemble une mission spatiale et ils élaboraient les plans d'une station spatiale commune jusqu'à ce que des tensions politiques surviennent. Que ce soit sur terre ou dans l'espace, ce n'étaient pas des événements isolés : les projets communs et les échanges techniques avaient cours depuis des années. Malgré toutes ces difficultés, la coopération technologique a prouvé qu'elle était au moins aussi facile que le contrôle des armements -peut-être plus facile étant donné le peu de résultats de ce dernier malgré les efforts entrepris. Curieusement, là où l'IA et les nanotechnologies seront impliquées, la coopération technique et le contrôle des armements se ressembleront. Faire respecter un accord de contrôle des armements requiert une surveillance constante et des inspections dans les laboratoires de chaque camp par les experts de l'autre, ce qui constitue une relation aussi étroite que la plus complète coopération. Mais que pourra faire la coopération ? Elle peut assurer un certain équilibre mais un équilibre n'assure pas la stabilité. Si deux bandits se tiennent face à face, l'arme à la main et la peur au ventre, leur force est équilibrée mais le premier qui tire peut éliminer la menace de l'autre. Un effort de coopération dans le développement de la technologie, à moins qu'il ne soit soigneusement planifié et contrôlé, donnera à chaque camp des armes terribles sans leur fournir de boucliers solides. Quel côté peut être sûr que la partie adverse ne va pas trouver un moyen de le neutraliser en toute impunité ? Et même si quelqu'un pouvait le garantir, qu'en serait-il du problème des autres puissances, des amateurs et des accidents ? Dans le dernier chapitre, j'ai décrit une solution à ces problèmes : le développement, la mise à l'épreuve et la construction de boucliers actifs. Ils offrent un nouveau remède à un nouveau problème et personne n'a encore proposé une alternative plausible. Jusqu'à ce que quelqu'un le fasse, il semble sage de considérer comment ils peuvent être construits et s'ils peuvent permettre d'élaborer une stratégie qui fonctionne. Une synthèse des stratégies La restriction personnelle, l'action locale, les délais sélectifs, les accords internationaux, le développement unilatéral et la coopération internationale sont toutes des stratégies qui peuvent nous aider dans notre effort de développement des boucliers actifs. Regardez la situation actuelle : les démocraties sont au premier rang dans la plupart des domaines scientifiques et techniques depuis des décennies. Elles sont aussi en tête dans le domaine des logiciels et en biotechnologie. Ensemble, elles sont le précurseur. Ils ne semble pas y avoir de raison qui nous empêche de maintenir cette avance et de l'utiliser. Comme indiqué dans le chapitre précédent, le précurseur pourra utiliser plusieurs tactiques pour maîtriser la percée des assembleurs. Ceci inclut l'utilisation de laboratoires scellés d'assembleurs et d'assembleurs limités, ainsi que le maintien du secret en ce qui concerne les détails du développement du premier assembleur. Dans le même temps, nous pouvons travailler au développement de boucliers actifs capables de nous donner une protection permanente contre les nouveaux dangers. Voici un objectif qu'une stratégie en deux parties permet de mieux atteindre. La première partie concerne les actions à entreprendre à l'intérieur des démocraties coopérantes. Nous devons maintenir une avance suffisamment confortable pour avoir le temps de procéder avec précaution. Si nous n'y arrivons pas, nous risquons de perdre la course et de paniquer. Procéder avec précaution signifie qu'il faut développer des institutions fiables qui sauront maîtriser la percée initiale des assembleurs et le développement des boucliers actifs. Les boucliers que nous développerons doivent être conçus pour nous permettre de vivre dans un avenir agréable, favorisant la diversité. La seconde partie de cette stratégie concerne la politique à mener envers les puissances hostiles. Nous devons garder notre position dominante tout en minimisant la menace que nous représentons. L'équilibre technologique ne fonctionnera pas et nous ne pouvons pas nous permettre de perdre notre position de meneur. Notre seule possibilité est de rester à la fois en position de force et en tête, ce qui rend doublement compliqué le problème de ne pas être perçu comme menaçant. Ici encore, nous avons besoin d'institutions fiables : si nous pouvons leur donner suffisamment d'élan dans la poursuite de leurs objectifs, même nos adversaires auront peut-être quelque confiance en elles. Pour rassurer nos adversaires (et nous-mêmes !), ces institutions devraient être aussi ouvertes que possibles215 et bien adaptées à leur mission. Nous pouvons également fonder des institutions qui permettent aux Soviétiques de coopérer. En les invitant à participer, nous prouverions dans une certaine mesure nos bonnes intentions, même s'ils refusaient de se soumettre aux termes de l'accord. S'ils acceptaient, ils gagneraient l'approbation du public lors du succès commun. Cependant, si les démocraties sont encore puissantes à l'approche de la percée des assembleurs et si nous évitons de menacer le contrôle qu'un gouvernement possède sur son territoire, alors nos adversaires ne verront probablement pas d'avantage à nous attaquer. Ainsi, nous pouvons peut-être même y parvenir sans coopération, si nécessaire. Boucliers actifs contre armes spatiales Il peut être utile d'envisager les applications du bouclier actif dans des domaines plus conventionnels. Traditionnellement, la défense a souvent nécessité des armes également capables d'attaquer. C'est pourquoi le mot "défense" en est venu à signifier "capacité à faire la guerre" et pourquoi les efforts de "défense" donnent aux adversaires des raisons d'avoir peur. Des systèmes de défense installés dans l'espace renforceront cette conviction. Un système de défense antimissiles peut généralement détruire aussi les défenses de l'adversaire -ou imposer un blocus spatial pour empêcher un adversaire d'édifier le premier ses défenses. De telles "défenses" sentent l'attaque, dont elles doivent vraisemblablement être capables pour remplir leur fonction. De tel systèmes accélèrent dangereusement la course aux armements. L'attaque et la défense doivent-elles être inséparables ? L'histoire semble indiquer que oui. Les murs n'arrêtent les conquérants que lorsqu'ils sont défendus par des combattants mais ces soldats peuvent eux-mêmes envahir d'autres terres. Quand nous imaginons une arme, nous pensons bien sûr à la main humaine qui la pointe216 et à la volonté humaine qui décidera du moment où elle fera feu -et l'histoire nous apprend qu'il faut craindre le pire. Cependant, aujourd'hui, pour la première fois dans l'histoire, nous avons appris à construire des systèmes de défense qui sont fondamentalement différents des armes classiques. Considérez par exemple le cas de systèmes spatiaux. Nous pouvons désormais concevoir des dispositifs qui détectent (il semble qu'un millier de missiles viennent d'être tirés), évaluent (ça ressemble à une tentative de frappe décisive) et agissent (essayons de détruire tous ces missiles !). Si un système ne se met en marche que lors du lancement massif de missiles, alors il ne peut pas servir à attaquer ni à établir un blocus spatial. Mieux encore, il pourrait lui être impossible d'identifier l'attaquant. Bien que servant toujours les intérêts stratégiques de ses concepteurs, un tel système ne serait plus sous le contrôle de n'importe quel général versatile. Il se contenterait d'être dangereux pour un missile attaquant. Comme une mer ou une chaîne de montagnes dans les guerres passées, il protégerait chaque camp sans menacer l'autre217. Bien qu'utilisant des techniques d'armements (capteurs, traceurs, lasers, missiles antimissiles, etc.) cette défense ne serait pas un système d'arme parce que son rôle serait fondamentalement différent. Des systèmes de cette sorte doivent être nommés autrement: ils sont une sorte de bouclier actif -un terme qui peut désigner tout système automatique ou semi-automatique conçu pour protéger sans menacer. En défendant les deux camps sans en menacer aucun, les boucliers actifs peuvent stopper la course aux armements. Les problèmes techniques, économiques et stratégiques soulevés par les boucliers actifs sont complexes et ceux-ci ne pourront probablement pas être construits avant l'arrivée des assembleurs. S'ils peuvent l'être, plusieurs voies s'offriront. Dans l'une d'entre elles, seules les démocraties construiront en coopération des boucliers. Pour permettre à d'autres nations de vérifier ce que le système fera et -plus important- ne fera pas, nous pourrons autoriser les inspections plurilatérales des dispositifs clés, des composants et des étapes de production. Nous n'avons pas besoin de dévoiler toutes les techniques employées parce que le savoir est différent du savoir-faire. Dans une autre approche, nous construirions les boucliers conjointement en réduisant au minimum les transferts de technologies218 pour n'assurer que la coopération et les vérifications (en utilisant les principes discutés dans les notes). Il est plus facile de proscrire les armes spatiales que les nanotechnologies et c'est peut-être la meilleure manière de minimiser les risques à court terme. En choisissant cependant une stratégie à long terme de contrôle de la course aux armements, nous devons nous intéresser aux développements qui suivront ceux-là. L'analyse que j'ai présentée dans ce chapitre suggère que les approches traditionnelles de contrôle des armements, qui s'appuient sur la vérification de limites négociées, ne peut pas fonctionner dans le cas des nanotechnologies. Les boucliers actifs -qui semblent finalement essentiels- peuvent offrir une nouvelle alternative stable face à une course aux armements spatiaux. En explorant cette possibilité, nous pouvons dégager les questions communes à tous les boucliers actifs219. Si nous les développons, nous acquerrons de l'expérience et pourrons poser des règles institutionnelles dont notre survie pourrait dépendre. Les boucliers actifs sont de nouvelles options qui utilisent de nouvelles technologies. Les mettre au point nécessitera une synthèse créative et interdisciplinaire d'idées provenant de l'ingénierie, de la stratégie et des affaires internationales. Ils offrent des choix nouveaux qui nous permettront peut-être d'éviter les vieilles impasses. Ils offrent apparemment une réponse au problème ancien de la protection sans menace -mais une réponse complexe. Puissance, méchanceté, incompétence et paresse J'ai montré comment les nanotechnologies et l'IA avancée apporteront au précurseur une grande puissance -une puissance qui peut être utilisée pour détruire la vie ou pour la répandre et la libérer. Puisque nous ne pouvons pas empêcher l'émergence de ces technologies, il semble que nous devions apprendre à maîtriser l'apparition d'un pouvoir d'une ampleur sans précédent dans l'histoire. Nous aurons besoin d'un système d'institutions adaptées. Pour manipuler des technologies complexes en toute sécurité, ce système doit pouvoir juger correctement les faits. Pour contrôler sûrement une grande puissance, il doit comporter des mécanismes de vérification et d'autres permettant de maintenir des équilibres. Ses objectifs et ses méthodes doivent être ouverts à l'observation minutieuse du public. Enfin, puisque ce système nous aidera à établir les fondations d'un nouveau monde, il vaut mieux qu'il soit guidé par des intérêts communs, le tout s'appuyant sur des principes solides. Nous ne partirons pas de zéro ; nous construirons ce système en partant des institutions existantes. Celles-ci sont diverses. Toutes ne sont pas des bureaucraties installées dans de grands immeubles gris ; elles comprennent des institutions diffuses et vivantes telles que la presse libre, la communauté des chercheurs et les réseaux de militants. Ces institutions décentralisées nous aident à contrôler la machine grise bureaucratique. Nous sommes en partie confrontés au problème ancien et très général de la limitation des abus de pouvoir. Il n'y a rien de bien nouveau là-dedans : des principes centenaires et les institutions démocratiques libérales nous suggèrent des solutions. Les gouvernements démocratiques ont déjà le pouvoir de ravager des continents et de se saisir de leurs citoyens pour les emprisonner et les tuer. Mais nous pouvons vivre avec ces pouvoirs parce que ces gouvernements sont plutôt dociles et stables. Les années à venir vont alourdir les fardeaux qui pèsent sur nos institutions. Les principes de gouvernement représentatif comme la libre expression, la régularité des procédures, l'autorité du droit et la protection des droits de l'Homme resteront cruciaux. Pour se préparer aux nouvelles charges, nous allons devoir étendre et revigorer ces principes ainsi que les institutions qui les soutiennent. Protéger la libre expression dans les domaines techniques sera particulièrement important. Bien que nous ayons à faire face à un grand défi, nous avons des raisons de croire que nous pouvons réussir. Il y a également bien sûr d'évidentes raisons de douter. Mais le désespoir est contagieux et odieux parce qu'il laisse les gens déprimés. En outre, désespérer semble injustifié malgré quelques problèmes bien connus. Le mal : sommes-nous trop faibles pour faire le bien ? L'incompétence : sommes-nous trop stupides pour bien faire ? La paresse : Sommes-nous trop fainéants pour nous préparer ? Bien qu'il soit inconsidéré de prédire un avenir tout rose, ces problèmes ne semblent pas insurmontables. Les gouvernements démocratiques sont démesurés, mous et parfois responsables d'atrocités, cependant, ils ne semblent pas mauvais dans l'ensemble, bien que des gouvernants méritent ce qualificatif. En fait, leurs dirigeants obtiennent souvent le pouvoir en soutenant les valeurs traditionnelles. Le danger principal vient des politiques apparemment bonnes qui conduiraient au désastre ou de celles qui, bien qu'étant bonnes, ne seront pas inventées ni diffusées et appliquées à temps pour être efficaces. Les démocraties souffrent plus de la paresse et de l'incompétence que de la méchanceté. L'incompétence est bien sûr inévitable mais sera-t-elle fatale ? Nous autres humains sommes par nature stupides et ignorants mais il nous arrive parfois de combiner nos fragments de compétences et de connaissances pour parvenir à de grandes choses. Personne ne savait comment aller sur la Lune et personne n'a jamais appris ; cependant, une douzaine d'hommes ont marché à sa surface. Nous avons réussi d'un point de vue technique parce que nous avons appris à créer des institutions qui peuvent rassembler de nombreuses personnes pour inventer et tester des idées. Ces institutions augmentent leur fiabilité grâce à la redondance et la qualité des résultats dépend largement de l'attention que nous y consacrons et du travail que nous fournissons. Quand nous consacrons suffisamment d'attention et de ressources à des problèmes de fiabilité, nous réussissons la plupart du temps. C'est la raison pour laquelle les missions lunaires ont réussi sans qu'il n'y ait de victimes dans l'espace. La même raison explique qu'aucune arme nucléaire n'ait été lancée ou mise à feu par accident. C'est ce qui nous permet de croire que nous pouvons manipuler les nanotechnologies et l'IA avec suffisamment de précautions pour faire du bon travail. Des excentriques aux compétences limitées peuvent s'associer pour former des institutions fiables et compétentes. La paresse -intellectuelle, morale et physique- semble être le plus grand danger. Nous ne pouvons accomplir de grandes choses qu'en faisant de gros efforts. Serons-nous assez nombreux pour faire les efforts nécessaires ? Personne ne peut le dire car nul ne peut parler au nom de tous. Mais le succès ne nécessitera pas une compréhension universelle et une mobilisation subite. Il suffira d'une communauté de personnes qui s'efforcera de développer, promouvoir et tester des solutions fonctionnelles -avec d'incontestables succès croissants. Ce n'est pas improbable. Les inquiétudes à propos de la technologie se sont répandues, tout comme l'idée que l'accélération du progrès demandera de meilleures prédictions. Tous ne seront pas englués dans la paresse et les penseurs malavisés ne tromperont pas tout le monde. Des pseudo-solutions mortelles -comme le blocage de la recherche- perdront la bataille des idées si suffisamment de personnes les démolissent. Et bien que nous soyons face à un grand défi, le succès permettra l'accomplissement de formidables rêves. De grands espoirs et de grandes peurs peuvent mobiliser suffisamment de gens pour donner la victoire à la race humaine. Des intérêts et des actions passionnés ne suffiront pas : nous aurons aussi besoin de politiques sûres. Ceci requiert plus que de bonnes intentions et des buts précis : nous devons également comprendre la relation qui permet de passer de ce que nous faisons à ce que nous obtenons. A l'approche d'une crise technologique d'une complexité sans précédent, nous devons essayer d'améliorer nos institutions dans leur jugement des faits techniques importants. Comment ferions-nous autrement pour guider le précurseur et minimiser la menace d'une incompétence fatale ? Les institutions évoluent. Pour les rendre plus aptes à traiter les faits, nous pouvons copier, adapter et généraliser nos succès passés comme la presse libre, la communauté scientifique et les tribunaux. Ces institutions ont toutes leurs vertus dont certaines peuvent être combinées. 13 Analyser les faits La peur ne peut pas être bannie mais elle peut être modérée et maîtrisée par la raison et l'évaluation de la situation. Vannevar Bush Les sociétés ont besoin de meilleures voies de compréhension de la technologie -c'est évident depuis longtemps. Les défis à venir ne font que rendre ce besoin plus pressant. La promesse de nouvelles technologies nous attire et la pression de la compétition interdit pratiquement de s'arrêter. Alors que la course technologique s'accélère, les nouveaux développements nous arrivent plus vite et une erreur fatale devient de plus en plus probable. Nous devons atteindre un meilleur équilibre entre nos prévisions et notre vitesse de progression. Nous ne pouvons pas faire grand-chose pour ralentir le progrès technologique mais nous pouvons facilement améliorer l'état des prédictions. Et avec de meilleures prévisions, nous aurons plus de chances d'orienter la course technologique dans de bonnes directions. Différentes approches pour guider la technologie ont été proposées. "Les hommes doivent contrôler la technologie" est un bon slogan mais à double sens. S'il veut dire que nous devons mettre la technologie au service des besoins humains, alors il est juste. Mais s'il signifie que tous les hommes doivent contrôler les décisions techniques, il est de peu d'intérêt. Les électeurs ne peuvent pas tous analyser les liens inextricables entre la technologie, l'économie, l'environnement et la vie. Ils ne possèdent pas les connaissances nécessaires et le savent : selon un sondage de la U.S. National Science Foundation220, 85 % des américains adultes pensent que la majorité des citoyens n'ont pas les connaissances nécessaires pour choisir quelles technologies sont à développer. Le public laisse généralement les jugements techniques aux experts. Malheureusement, laisser les experts juger pose des problèmes. Primack et von Hippel soulignent dans Conseils et divergences221 : "En supposant que l'administration puisse réussir à garder cachées des informations qui lui sont défavorables et à induire le public en erreur, le bien-être général peut être sacrifié en toute impunité au confort de la bureaucratie et à des intérêts privés". Les commissions réglementant la mise sur le marché des médicaments subissent plus de critiques quand une substance provoque une seule mort que quand l'absence d'un médicament en cause un millier. Elles réglementent donc mal. Les bureaucrates militaires ont un grand intérêt à dépenser de l'argent, cacher leurs erreurs et continuer leurs projets. Ils dirigent donc mal leurs affaires. Ce genre de problème est si naturel et si fondamental qu'il n'y a pas besoin de donner plus d'exemples. Partout, le secret et l'opacité augmentent le confort des bureaucrates ; partout, les intérêts personnels déforment les affaires publiques en leur faveur. Avec l'augmentation de la complexité et de l'importance de la technologie, ces problèmes deviennent de plus en plus dangereux. Quelques auteurs considèrent que ce pouvoir des technocrates dissimulateurs est inévitable. Dans Création de futurs alternatifs, Hazel Anderson indique222 que les technologies complexes "sont intrinsèquement totalitaires" (l'italique est d'elle) parce que ni les législateurs ni les électeurs ne peuvent les comprendre. Dans le futur de l'humanité revisité, Harrison Brown indique de la même manière223 que la tentation de court-circuiter les processus démocratiques pour résoudre les crises complexes risque de "transformer la nature de la civilisation industrielle, si elle survit, en un régime de plus en plus totalitaire". Si c'était le cas, nous serions condamnés : nous ne pouvons pas arrêter la course technologique et un monde constitué d'états totalitaires disposant d'une technologie avancée pourrait bien se débarrasser de la plupart de ses citoyens puisqu'il n'a plus besoin d'ouvriers ni de soldats. Heureusement, les démocraties et la liberté ont déjà surmonté de telles épreuves par le passé. Les états sont devenus trop complexes pour une démocratie directe, des gouvernements représentatifs ont donc été inventés. Le pouvoir des états menace de détruire la liberté mais les lois sont là pour l'en empêcher. La technologie devient de plus en plus complexe mais ce n'est pas une raison pour ignorer ce que pensent les gens, mettre les lois au placard et engager un dictateur. Nous avons besoin de méthodes permettant de gérer la complexité de la technologie à l'intérieur d'un cadre démocratique. Cela peut être fait en utilisant des experts comme des instruments de clarification de la technique sans pour autant leur donner le contrôle de nos vies. Mais les experts techniques actuels sont embourbés dans un système de rancune partisane. Une salade d'experts Le gouvernement et l'industrie -et leurs adversaires- désignent couramment des comités d'experts qui se réunissent en secret, si toutefois ils se réunissent. Ces comités justifient leur crédibilité en indiquant qui ils sont et comment ils travaillent. Les groupes opposés recrutent les lauréats du Nobel opposés. Pour gagner de l'influence dans nos démocraties de masses, ces groupes tentent de se faire entendre en criant plus fort que les autres. Quand leurs positions présentent un intérêt collectif, ils les présentent au public à travers des campagnes de publicité. Quand leurs objectifs permettent d'arroser les législateurs, ils en font des propositions de loi par l'intermédiaire de groupes de pression. Quand leurs idées peuvent avoir un impact dramatique, ils les font connaître par des campagnes médiatiques. Les groupes mettent en avant leurs experts maison, la bataille devient publique, les scientifiques et les ingénieurs, plus discrets, sont noyés dans le vacarme. Plus le conflit devient public et plus les gens en viennent à douter des jugements des experts. Ils jugent les déclarations, selon leurs sources, avec bon sens : "Bien sûr qu'elle soutient que les marées noires sont sans danger : elle travaille pour Exxon." ou encore : "Bien sûr qu'il dit qu'Exxon ment, il travaille pour Ralph Nader". Quand les experts désignés perdent leur crédibilité, les démagogues peuvent se joindre à la bataille sur un pied d'égalité. Les journalistes -avides de controverses, s'efforçant à l'impartialité et rarement éclairés par une culture technique- rapportent tous les arguments directement au public. Des déclarations prudentes prononcées par des scientifiques consciencieux font faible impression ; d'autres scientifiques se résolvent à adopter un style démagogique. Les débats deviennent aigres et enfiévrés, les divisions grandissent et la fumée de la bataille obscurcit les faits. La paralysie ou la stupidité suivent souvent. Notre plus grand problème vient de notre façon d'aborder les problèmes. Des débats font rage à propos de la sûreté nucléaire224, de l'utilisation du charbon et du traitement des déchets chimiques. Des groupes bien intentionnés, soutenus par des experts connus se disputent sans cesse sur des détails techniques et ennuyeux -ennuyeux en dehors de leur importance : quels sont les effets des radiations de bas niveau ? Quel est la probabilité pour qu'un réacteur fonde ? Quels sont les causes et les effets des pluies acides ? Avec quelle efficacité des systèmes de défense spatiaux pourraient-ils bloquer des attaques de missiles ? Cinq cas de leucémie dans un rayon de cinq kilomètres autour d'un dépôt d'ordures sont-ils significatifs ? Des problèmes d'une plus grande importance nous attendent : les réplicateurs sont-ils sûrs ? Ce système de bouclier actif sera-t-il fiable ? Cette procédure de biostase sera-t-elle réversible ? Peut-on faire confiance à ce système d'IA ? Les disputes à propos de faits techniques225 alimentent souvent des disputes plus générales, à caractère politique. Les gens peuvent avoir des valeurs différentes -"que préférez-vous avoir : une encéphalite ou un empoisonnement aux pesticides ?"- et leurs vues concernant les faits techniques diffèrent souvent encore plus -"avec quelle fréquence ces moustiques sont-ils porteurs de l'encéphalite ? Quelle est la toxicité de ce produit ?". Quand des vues différentes à propos de faits ennuyeux conduisent à des désaccords sur des choix politiques importants, les gens peuvent se demander : "Comment peuvent-ils s'opposer à nous sur ce sujet vital à moins qu'ils n'aient de mauvaises raisons ?". Les disputes sur les faits peuvent ainsi en venir à opposer des alliés potentiels. Ceci anéantit nos efforts pour comprendre et résoudre nos problèmes. Les gens débattent depuis des millénaires ; seule la prééminence des disputes technologiques est nouvelle. Les sociétés ont développé des méthodes pour juger des faits concernant l'homme. Ces méthodes suggèrent des solutions pour juger des faits en rapport avec la technologie. Vers des jugements équitables A travers l'histoire, des groupes ont inventé des méthodes pour régler les conflits ; l'alternative a souvent été la rancune, sans fin et parfois mortelle. Les européens de l'époque médiévale utilisaient plusieurs procédures, toutes meilleures que la ranc¦ur intarissable : La bataille servait de procès : les opposants se battaient et la loi donnait raison au plus fort. Le témoignage justificatif : des voisins garantissaient l'honnêteté de l'accusé ; un nombre suffisant de témoignages levait les charges. Les accusés étaient soumis à l'ordalie : par exemple, l'accusé était attaché et jeté dans une rivière ; le coupable coulait, l'innocent surnageait. Ils rendaient des jugements par comités secrets : les conseillers du roi se réunissaient pour juger et convenir de la sentence à appliquer. En Angleterre, ils se réunissaient dans la pièce appelée "Chambre étoilée"o. Ces méthodes étaient censées découvrir l'auteur -pour les faits concernant des événements humains- mais toutes avaient de sérieux défauts. Aujourd'hui, nous utilisons des méthodes similaires pour déterminer la cause -pour les faits concernant la science et la technologie : Nous faisons des procès sous la forme de batailles rangées dans la presse : les adversaires échangent des mots acérés jusqu'à ce que l'une des deux parties disparaisse par mort politique. Malheureusement, ceci ressemble le plus souvent à une dispute sans fin. Nous utilisons le témoignage justificatif : les experts se prononcent sur certains faits ; s'il y en a suffisamment, ils sont déclarés vrais. Nous utilisons le jugement par comités secrets : des experts sélectionnés se réunissent pour juger les faits et recommander les actions adéquates à mener. Aux USA, ils se rencontrent souvent dans les comités de l'académie nationale des sciences. L'ordalie est passée de mode mais les combats dans la presse ressemblent à une torture pour le scientifique réservé. Les anglais ont aboli les rassemblements de la chambre étoilée en 1641, ce qu'ils considèrent comme un grand progrès. Les témoignages justificatifs et les ordalies sont également de l'histoire ancienne. Nous utilisons maintenant des processus appropriés, du moins en ce qui concerne le jugement des personnes. Les procédures judiciaires illustrent les principes de jugement équitable : les allégations doivent être fondées et appropriées. Les deux parties doivent pouvoir s'exprimer et se confronter, pour réfuter et mener des contre-interrogatoires. Le procès doit être public, afin que tous puissent en vérifier la régularité. Les débats doivent se dérouler devant un jury que les deux parties reconnaissent comme impartial. Enfin, un juge doit arbitrer le conflit et faire respecter les règles. Pour comprendre la valeur du jugement équitable, nous pouvons imaginer son contraire : un procès qui piétinerait tous ces principes donnerait la parole à une partie et ne permettrait pas à l'autre de s'exprimer ou de répondre. Il se déroulerait en secret et autoriserait les vagues allusions. Il n'y aurait pas de juge pour faire respecter les quelques règles qui pourraient encore exister. Les jurés arriveraient de toute façon avec leur décision prise. En résumé, cela ressemblerait à une foule rassemblée dans une grange cadenassée pour un lynchage -ou à un comité truqué qui rédigerait un rapport. L'expérience montre la valeur du jugement équitable utilisé pour juger des personnes. Pourrait-il aussi servir à juger des faits scientifiques et techniques ? Ce jugement équitable est une idée fondamentale ; elle n'est pas confinée dans les tribunaux. Quelques chercheurs en IA226, par exemple, tentent de programmer ces principes dans leurs logiciels. Il semble qu'un tel jugement équitable devrait être utile pour juger des faits techniques. En fait, la littérature scientifique -le principal forum de la science- utilise déjà une telle forme de jugement : dans les bons journaux, les déclarations scientifiques doivent être fondées et appropriées. En théorie, si le temps et la persévérance le permettent, toutes les parties peuvent exposer leurs vues dans les débats, puisque les journaux restent ouverts à la controverse. Bien que les adversaires ne soient pas face à face, ils s'affrontent à distance avec des questions et des réponses qu'ils échangent lentement à travers des articles et des lettres. Les comités d'arbitres, comme les jurys, évaluent les preuves et les raisonnements. Les éditeurs, comme les juges, font respecter les règles de la procédure. Les publications gardent le débat ouvert par l'examen du public. A la fois dans les journaux et devant les tribunaux, les idées conflictuelles s'affrontent selon des règles qui assurent une bataille ordonnée et équitable. Ces règles parfois ne fonctionnent pas, parce qu'elles sont détournées ou inadéquates mais elles sont les meilleures que nous ayons développées. Une méthode appropriée mais imparfaite est meilleure qu'aucune méthode du tout. Pourquoi les scientifiques accordent-ils de la valeur aux journaux scientifiques ? Ce n'est pas parce qu'ils font confiance à ces journaux ou à ce qu'ils publient. Avec la meilleure analyse critique, ils n'impriment pas que des vérités absolues. C'est plutôt parce que les journaux scientifiques tendent à promouvoir des discussions techniques judicieuses. Et en fait, ils y sont obligés, parce ce que les journaux sont en compétition les uns avec les autres pour obtenir les articles, le prestige et la plus forte audience. Les meilleurs journaux se doivent réellement d'être bons. Les journaux travaillent lentement ; cependant, après suffisamment de débats autour d'une question, ils parviennent le plus souvent à un consensus. L'expérience prouve la valeur des tribunaux et des journaux scientifiques. La similarité de leur fonctionnement suggère que leur valeur provient de la même source : l'analyse critique. Le procès équitable peut échouer, il reste cependant le meilleur que nous connaissions pour analyser les faits. Aujourd'hui, les journaux et les tribunaux ne sont pas suffisants. Des disputes vitales sur des points techniques durent parce que nous n'avons pas de méthode rapide et ordonnée pour publier les faits (ou pour rendre compte de notre ignorance). Les tribunaux ne sont pas adaptés pour traiter des questions techniques. Les journaux sont meilleurs, ils ont cependant des défauts. Ils ont pris forme dans des temps où les techniques étaient plus rudimentaires et le progrès moins rapide. Ils ont évolué pour s'adapter aux limites de l'imprimerie, à la vitesse du courrier et au besoin de sciences académiques. Mais aujourd'hui, nous sommes dans un monde de téléphones, d'avions à réaction, de photocopieurs, de télécopieurs et de courriers électroniques ; nous avons désespérément besoin de jugements techniques meilleurs et plus rapides. Peut-on utiliser les technologies modernes pour accélérer les débats techniques ? Bien sûr : les scientifiques ont déjà plusieurs approches pour ce faire. Les chercheurs prennent des avions à réaction pour participer à des congrès où des publications sont présentées et discutées. Mais les conférences ne se prêtent que très peu aux débats : l'aspect grand public et l'emploi du temps serré en limitent la vigueur et la profondeur. Les scientifiques font également partie de réseaux informels de recherche constitués par les téléphones, les courriers, les ordinateurs et les photocopieurs ; ces appareils accélèrent les échanges et les discussions. Mais ce sont essentiellement des institutions privées. Elles ne sont pas à même de fournir une procédure de jugement publique et crédible. Les conférences, les journaux et les réseaux informels ont des limitations communes. Ils se focalisent généralement sur des questions scientifiques. Et lorsqu'ils s'intéressent à des questions techniques, c'est qu'elles ont une importance plus scientifique que publique. Les journaux scientifiques ont tendance à dédaigner les questions techniques qui n'ont pas d'intérêt scientifique intrinsèque ; ils les traitent souvent comme des nouvelles qui n'ont pas besoin d'être vérifiées par les comités d'arbitrage. De plus, ces institutions ne disposent pas de moyen équilibré pour présenter des connaissances encore empêtrées dans les controverses. Bien que les articles scientifiques synthétisant un domaine présentent et évaluent plusieurs avis en compétition, ils correspondent toujours au point de vue d'un unique auteur. Tous ces inconvénients ont la même origine : les institutions scientifiques ont évolué pour faire avancer la science, pas pour trier les faits au profit des décideurs politiques. Ces institutions parviennent assez bien à leur propre but mais fonctionnent assez mal pour d'autres objectifs. Bien que ce ne soit pas vraiment un échec, il reste un réel besoin. Une approche du problème Pour débattre des questions techniques, nous avons besoin de meilleures procédures, qui doivent être ouvertes, crédibles et qui permettent d'analyser les faits sur lesquels fonder des politiques solides. Nous pouvons commencer par copier les stratégies utilisées dans d'autres procédures de procès équitables pour les modifier et les affiner à la lumière de l'expérience. En utilisant des moyens de communication et de déplacement modernes, nous pouvons développer un processus ciblé ressemblant à celui des journaux pour accélérer le débat public sur les faits cruciaux. Ce n'est que la moitié du travail. L'autre moitié consiste à incorporer les résultats du débat dans un tableau équilibré de l'état de nos connaissances (et de celui de notre ignorance). Pour ce faire, des procédures similaires à celles utilisées dans les tribunaux227 semblent utiles. Puisque la procédure, le forum de faits, a pour but de résumer les faits, chaque camp commencera par indiquer la liste de ceux qui lui semblent essentiels, par ordre d'importance. La discussion commencera par l'affirmation placée en tête de chaque liste. Le comité d'arbitrage cherchera les points d'accord entre les camps à travers des débats argumentés, des contre-examens et des négociations. Là où des dissensions demeureront, un éventail de techniciens se prononcera, pour indiquer ce qui semble connu et ce qui reste encore incertain. A la fin du forum de faits, un document regroupera les arguments de chacun, les déclarations d'accord et les opinions du groupe technique. Il pourra ressembler à un petit ensemble d'articles de journaux précédé d'une synthèse concise sur le sujet -une synthèse qui se limite à des déclarations factuelles, sans recommandations politiques. Cette procédure doit différer de celle des tribunaux de plusieurs manières. Par exemple, l'éventail de techniciens -le "jury" du forum- doit être techniquement compétent. Des préjugés peuvent conduire le groupe à mal interpréter des faits mais une incompétence technique peut faire autant de tort. Pour cette raison, le "jury" d'un forum de faits doit être sélectionné en utilisant une méthode qui serait dangereuse si elle était utilisée dans les tribunaux. Puisque ceux-ci exercent la justice, des jurys populaires protègent nos libertés. Ceci oblige le gouvernement à obtenir l'approbation d'un groupe de citoyens avant de punir quelqu'un, soumettant l'action gouvernementale aux codes de la société. Cependant, un forum de faits ne punira personne et ne fera pas la police. Le public sera libre d'observer le processus et de décider s'il faut croire en ses conclusions. Ceci donnera aux gens suffisamment de pouvoir. Toutefois, pour rendre efficace et équitable un forum de faits, nous aurons besoin d'une bonne procédure de sélection du groupe technique. Ces groupes correspondront grossièrement aux comités d'experts désignés par le gouvernement ou aux comités d'arbitrage des journaux scientifiques. Pour être certain de respecter l'équité, un groupe d'experts ne doit pas être sélectionné par un comité, un politicien ou un bureaucrate mais par un processus admis par les deux camps en lice. Dans la procédure judiciaire, les avocats de chaque partie peuvent refuser la participation d'un juré soupçonné de partialité. Nous pouvons utiliser un processus similaire pour constituer l'éventail des spécialistes pour un forum de faits. Des experts qui sont directement concernés par le débat ne peuvent pas être sélectionnés pour participer au groupe -ils en biaiseraient les décisions ou le diviseraient. Ceux qui choisissent les membres d'un groupe doivent rechercher des spécialistes reconnus dans des domaines proches. Ceci semble facile, parce que les méthodes de jugement techniques (souvent fondées sur l'expérimentation et le calcul) sont assez générales. Les experts qui possèdent de bonnes bases dans un domaine seront capables de juger les arguments détaillés soutenus par les spécialistes de chacun des camps. Les autres parties d'un forum de faits ressembleront aussi à celles des tribunaux et des journaux. Un comité, comme celui de la rédaction d'un journal, nommera un arbitre et les experts du groupe pour résoudre un conflit. Les défenseurs de chaque cause, comme les auteurs et les avocats, prépareront et présenteront leurs idées de la manière la plus convaincante possible. Malgré ces similitudes, un forum des faits différera d'un tribunal : il se focalisera sur des questions techniques. Il ne suggérera aucune action. Il ne possédera pas le pouvoir des gouvernements. Il sera différent par de nombreux détails de procédure. L'analogie avec un tribunal doit en rester là, ce n'est qu'une manière de trouver des idées. Un forum de faits différera également des procédures employées dans un journal : il sera aussi rapide que le courrier, les congrès, les courriers électroniques le permettent. Il n'y aura pas besoin de répartir les débats sur plusieurs mois, comme dans une revue scientifique. Il sera convoqué pour résoudre un problème précis, pas pour couvrir un domaine scientifique. Il résumera les connaissances pour aider la prise de décision plutôt que pour servir de source d'informations à la communauté scientifique. Bien qu'une série de forums de faits ne remplacera pas un journal, elle nous aidera à analyser et faire connaître des faits qui peuvent sauver nos vies. C'est le Docteur Arthur Kantrowitz (membre de l'Académie des sciences, qui est renommé dans des domaines allant des techniques médicales aux lasers de forte puissance) qui est à l'origine du concept228 que je viens juste de décrire. Il l'appela d'abord "bureau d'investigation technique". Les journalistes l'ont rapidement transformé en "cour de justice scientifique". Je l'ai appelé un "forum de faits" ; je réserverais le terme de "cour scientifique" à un forum de faits utilisé comme une institution gouvernementale229. Les propositions pour utiliser un jugement équitable dans la gestion des controverses techniques affluent ; différentes discussions utilisent différents termes. L'intérêt du Dr Kantrowitz pour un jugement équitable est né de la décision des USA de construire des fusées géantes pour atteindre la Lune d'un seul bond. Soutenu par un comité d'experts230, il recommanda à la NASA de construire au lieu de cela plusieurs petites fusées pour placer des éléments en orbite basse. Ces éléments seraient assemblés dans l'espace pour former un véhicule capable d'atteindre la Lune. Cette approche promettait d'économiser des milliards de dollars et de développer des capacités utiles de construction dans l'espace. Personne ne put contrer ses arguments, pourtant, il ne parvint pas à se faire entendre. Les idées étaient arrêtées, les politiciens étaient impliqués et le rapport fut enfermé dans un coffre-fort de la Maison Blanche : le débat était clos. Les faits techniques furent doucement dissimulés dans l'intérêt de ceux qui voulaient construire une nouvelle génération de fusées géantes. C'était une grave lacune dans nos institutions -qui persiste, gâchant notre argent et augmentant les risques d'erreurs désastreuses. Le Dr Kantrowitz arriva rapidement à la conclusion que nous avons grand besoin d'institutions spécialisées pour traiter les controverses techniques. Il élabora ce concept -dans sa forme de cour scientifique- à travers des discussions, des écrits, des études et des conférences. Il gagna à son idée des candidats à la présidence comme Ford, Carter et Reagan. Une fois élus, ils ne firent rien, encore que le groupe de conseil de l'administration de Ford présentât une proposition de procédure231 détaillée. Mais des progrès ont quand même été accomplis depuis. J'ai utilisé le futur pour décrire le forum de faits bien que des expérimentations soient en cours. Mais avant de décrire une méthode permettant de juger correctement des faits techniques, il convient de faire face à quelques objections. Pourquoi pas un jugement équitable ? Les adversaires de cette idée (au moins dans sa version de cour scientifique) ont souvent été en désaccord les uns avec les autres. Certains ont objecté que les dissensions à propos de faits étaient sans importance ou qu'elles pouvaient être réglées à huis clos. D'autres ont émis l'objection que les discussions à propos de faits scientifiques étaient trop fondamentales et importantes pour qu'un jugement équitable en vienne à bout. Certains ont dit que les cours de justice scientifiques seraient dangereuses ; d'autres qu'elles seraient sans pouvoir. Ces critiques sont toutes plus ou moins fondées : un tel processus ne serait pas le remède à tout. Parfois, il n'y aurait pas besoin d'y avoir recours, d'autres fois, il serait utilisé abusivement. Cependant, on pourrait également rejeter la pénicilline sous prétexte qu'elle est parfois inefficace, inutile ou dangereuse. Ces critiques ne proposent pas d'alternative et soutiennent rarement que nous avons aujourd'hui des jugements équitables ou que ceux-ci sont sans valeur. Nous devons résoudre des problèmes techniques complexes dont dépendent des millions de vies. Oserons-nous laisser ces décisions à des comités secrets, à des journaux désespérément lents, à des conflits médiatiques et des jugements techniques de politiciens ? Si nous ne faisons pas confiance aux experts, devons-nous accepter les décisions prises par des comités désignés en secret ou demander à ce qu'un processus plus transparent soit mis en place ? Finalement, notre système actuel peut-il maîtriser les dangers associés à une course technologique vers les nanotechnologies et l'intelligence artificielle ? Une institution ouverte et adaptée semble vitale. En associant toutes les parties, elle canalisera l'impétuosité des débats vers une analyse des faits. En limitant le rôle des experts à la description des faits, elle nous aidera à maîtriser la technologie sans laisser à des technocrates les décisions à prendre. Les individus, les associations, les élus conserveront le contrôle total de la politique et les experts techniques pourront proposer des conduites à tenir par d'autres voies. Comment peut-on distinguer les faits des valeurs ? La proposition de Karl Popper semble utile : une déclaration est factuelle (qu'elle soit vraie ou fausse), si une expérience ou une observation peut la réfuter. Pour certains, examiner les faits sans considérer les valeurs est comme faire de la politique sans se référer à des valeurs. Ce serait absurde : de par leur nature, les décisions politiques impliqueront toujours des faits et des valeurs. Les causes et les effets sont la substance des faits, ils nous indiquent ce qui est possible. Mais la politique englobe aussi nos valeurs et nos raisons d'agir. Sans fait précis, nous n'obtenons pas les résultats que nous recherchons mais sans valeur -sans désir ni préférence- nous ne chercherions rien. Un processus qui expose les faits correctement peut aider les gens à choisir les politiques qui servent leurs valeurs. Des critiques se sont inquiétés qu'une cour de justice scientifique puisse déclarer comme un fait que la Terre est plate, ignorant ainsi les propositions d'un Aristarque de Samos ou d'un Magellan qui découvre des preuves du contraire. Les erreurs, les préjugés et l'incomplétude de la connaissance causeront sûrement des erreurs mémorables. Mais les membres d'un groupe d'experts techniques n'ont pas besoin de se déclarer infaillibles. Ils peuvent plutôt décrire notre savoir et tracer les contours de notre ignorance en indiquant parfois que nous ne savons pas et d'autres fois que nous n'avons qu'une grossière idée des faits. De cette manière, ils préserveront leur réputation de bons juges. Quand de nouvelles preuves se font jour, une question peut-être rediscutée, les idées n'ont pas besoin d'être systématiquement remises en doute. Si les forums de faits deviennent populaires et respectés, ils gagneront en influence. Leur succès les rendra moins sujets aux abus, parce qu'ils seront parrainés par de nombreux groupes en compétition et celui qui biaiserait la procédure serait déconsidéré et rejeté. Aucun groupe de parrainage ne pourra brouiller les faits sur une question importante si les forums de faits gagnent en fiabilité par redondance. Aucune institution ne pourra éliminer les erreurs et la corruption mais les forums de faits seront guidés, bien qu'imparfaitement, par un protocole amélioré de conduite des débats publics. Ils auront à descendre bien bas pour devenir pires que nos systèmes actuels. Les arguments fondamentaux en faveur du forum de faits sont : (1) c'est par le jugement équitable qu'il faut aborder les problèmes, et (2) mieux vaut essayer quelque chose que ne rien faire. Construire un jugement équitable L'anthropologiste Margaret Mead fut invitée à un colloque sur les cours de justice scientifiques232 pour se prononcer contre cette idée. Mais quand ce fut à son tour de parler, elle s'exprima en faveur des forums de faits, en faisant remarquer : "Nous avons besoin de nouvelles institutions. Il n'y a pas de doutes là-dessus. Celles dont nous disposons sont totalement insatisfaisantes. Dans de nombreux cas, elles ne sont pas seulement insatisfaisantes, elles prostituent la science et prostituent le processus de prise de décision". Les gens sans intérêt particulier dans les institutions actuelles agréent souvent son analyse. Si analyser les faits est une chose véritablement essentielle à notre survie et si le processus décrit est vraiment la clé pour ce faire, alors comment le développer ? Nous n'avons pas besoin de commencer avec des procédures parfaites ; nous pouvons démarrer avec des tentatives informelles d'amélioration des procédures existantes. Nous pouvons alors faire évoluer les meilleures en faisant varier nos méthodes et en sélectionnant celles qui fonctionnent le mieux. Le jugement équitable est affaire de degré. Les institutions existantes peuvent se transformer en modifiant leurs règles233 et leurs traditions. Par exemple, les agences gouvernementales pourraient consulter régulièrement l'opposition avant de désigner les membres d'un comité d'experts. Elles pourraient garantir à chaque camp la possibilité de présenter des preuves, de les examiner et de contre-interroger les experts. Elles pourraient présenter leur rapport aux observateurs. Chacune de ces étapes renforcerait le processus, en le faisant passer de la Chambre étoilée à des institutions plus dignes de respect. Cependant, le bénéfice public du jugement équitable ne le rendra pas forcément populaire parmi les groupes à qui l'on demande de changer. Nous n'avons pas encore entendu le vacarme des groupes d'intérêts se précipitant pour faire valider leurs revendications ni les cris de joie des comités alors qu'ils ouvrent grand leurs portes pour se soumettre à la discipline du jugement équitable. Nous n'avons pas non plus encore entendu de politiciens annonçant qu'ils renonçaient à l'utilisation de faits déformés pour cacher les fondements politiques de leurs décisions. Et pourtant, trois candidats à la présidentielle ont soutenu l'idée de cour de justice scientifique. Le comité des présidents de sociétés scientifiques américaines, qui représente vingt-huit des plus grandes d'entre elles a également soutenu cette idée. Le département américain à l'énergie a utilisé une procédure proche pour évaluer les projets de fusion thermonucléaire en compétition ; il l'a qualifiée d'utile et efficace. Le Dr John C. Bailar, de l'institut national du cancer, après avoir échoué dans sa tentative de faire reconnaître les dangers des rayons X et de réduire leur utilisation dans les dépistages de masse a proposé que soit tenue une cour scientifique sur le sujet. Ses opposants ont alors battu en retraite et changé leur fusil d'épaule. Apparemment, la simple menace de jugement équitable sauve déjà des vies. Néanmoins, les vieilles méthodes perdurent, sans beaucoup de concurrentes. Pourquoi cela ? En partie parce que la connaissance est un pouvoir ; elle est donc jalousement gardée234. En partie parce que des groupes d'influence puissants peuvent déjà imaginer combien un jugement équitable pourrait les gêner. En partie parce qu'un effort pour améliorer les méthodes de résolution des problèmes manque de panache face à celui du combat direct. Un millier de militants font couler le navire de l'Etat pour chaque homme qui tente de colmater les trous dans la coque. Les gouvernements tenteront peut-être cependant d'établir des cours de justice scientifique et chaque effort dans ce sens mérite d'être soutenu. Cependant, il est raisonnable de craindre un parrainage des cours scientifiques par les gouvernements : un pouvoir centralisé tend souvent à engendrer des dinosaures. Une Agence centrale de cours scientifiques pourrait bien travailler, faire apparemment peu de mal et cependant nous coûter cher : son existence même (et l'absence de compétition qui en découle) peut bloquer les améliorations de l'évolution. D'autres voies restent ouvertes. Les forums de faits pourront avoir une influence sans disposer de pouvoirs légaux particuliers. Pour avoir un impact important, ses résultats ont seulement besoin d'être plus crédibles que les assertions de n'importe quel individu, comité, entreprise ou groupe d'intérêts. Un bon forum des faits sera crédible de par sa structure même. De tels forums pourraient être parrainés par des universités. En fait, le Dr Kantrowitz a récemment conduit une procédure expérimentale235 à l'université de Californie à Berkeley. Elle était centrée sur un débat public entre le généticien Beverly Paigen et le biochimiste William Havender sur le déficit de naissances et les risques génétiques autour d'un dépôt de déchets chimiques. Ils servirent tous les deux d'avocats et des étudiants tinrent le rôle de conseil technique. La procédure comportait des séances réparties sur plusieurs semaines, passées principalement à discuter des points d'accord et de désaccord. Elle se termina par plusieurs sessions de contre-examen en public et devant le conseil technique. Les avocats et le groupe d'étudiants se mirent d'accord sur onze déclarations de fait et ils clarifièrent ce qui leur restait de désaccords et de doutes. Arthur Kantrowitz et Roger Masters notèrent que "Si les nombreuses tentatives pour créer une cour scientifique patronnée par un gouvernement furent difficiles, des résultats encourageants ont été obtenus dès la première tentative sérieuse [...] dans un cadre universitaire. Ils remarquent que les traditions et les ressources font des universités des endroits parfaitement appropriés pour de telles tentatives. Ils planifièrent d'autres expériences de ce type. C'est une voie décentralisée pour développer le jugement équitable, qui nous permettra de contourner la bureaucratie et les intérêts puissamment défendus. En agissant ainsi, nous construisons sur des principes reconnus et des variations expérimentales, dans la meilleure tradition évolutionniste. Les dirigeants concernés par un millier de problèmes différents -même s'ils s'opposent sur un problème- peuvent cautionner le jugement équitable. Dans Getting to yesp, Robert Fisher et William Ury236 du "projet de négociation" à Harvard, soulignent que des adversaires tendent à préférer un arbitrage impartial quand chacun est convaincu d'avoir raison. Chaque camp237 espère gagner ; ils acceptent donc tous de participer. Les forums de faits devraient attirer les avocats honnêtes et repousser les charlatans. Alors que le jugement équitable deviendra la norme, les avocats d'une cause bien fondée auront l'avantage, même si leurs opposants refusent de coopérer -"S'ils ne viennent pas défendre leur cause en public, à quoi bon les écouter ?". Qui plus est, de nombreux différents seront résolus (ou évités) sans les inconvénients de la procédure actuelle : la perspective d'un débat public en présence d'un jury encouragera les avocats à bien vérifier leurs faits avant de les exposer. Etablir des forums de faits peut faire bien plus pour une bonne cause que de recruter un million de partisans. Cependant aujourd'hui, même les dirigeants qui défendent de bonnes causes sont obligés d'exagérer leur point de vue pour être entendus dans le vacarme des annonces publiques de leurs adversaires. Doivent-ils s'opposer avec regret à la discipline des forums de faits ? Certainement pas : un jugement équitable peut guérir la maladie sociale qui les a d'abord obligés à s'éloigner des faits. En présentant leurs arguments dans un forum de faits, ils peuvent recouvrer le respect dû à l'honnêteté intellectuelle. Faire jaillir la vérité peut ébranler une position confortable mais ne peut pas desservir les intérêts d'un groupe vraiment au service du public. Si quelqu'un doit revoir un peu sa position pour faire de la place à la vérité, est-ce si grave ? De grands dirigeants ont modifié leur position pour de moins bonnes raisons et le jugement équitable fera aussi bouger les opposants. Gregory Bateson déclara un jour "aucun organisme ne peut se permettre d'être conscient des phénomènes qui sont accomplis par des niveaux inconscients". Dans l'organisme de la démocratie, le niveau de la conscience correspond en gros à ce qui est débattu par les médias. Les niveaux inconscients sont représentés par tout ce qui fonctionne le plus souvent correctement, sans que le public ne manifeste à corps et à cri. Pour les médias, comme pour la conscience humaine, un sujet de préoccupation chasse l'autre. C'est ce qui rend l'attention consciente si rare et précieuse. Notre société a besoin d'identifier les caractéristiques de sa situation plus vite et sûrement, en gaspillant moins d'énergie à des querelles médiatisées. Le débat public retrouvera sa vraie fonction : juger les procédures permettant de dégager les faits importants, décider de ce que nous souhaitons et nous aider à choisir le chemin d'un monde où il fait bon vivre. Avec l'accélération des changements, nos besoins grandissent. Pour évaluer le risque que représente un réplicateur ou la faisabilité d'un bouclier actif, nous aurons besoin de meilleures manières de débattre des faits. Des inventions purement sociales comme le forum de faits nous y aideront mais de nouvelles technologies sociales fondées sur les ordinateurs sont également prometteuses. Elles aussi étendront le champ du jugement équitable. 14 Le réseau du savoir Les ordinateurs [...] sont entrés dans notre vie quotidienne et deviennent le système nerveux central de notre société. Tohru Moto-Oka238 Pour se préparer à la percée des assembleurs, la société doit apprendre à apprendre plus vite. Les forums de faits y contribueront mais de nouvelles technologies le feront encore plus. Avec elles, nous pourrons répandre, affiner et combiner nos informations bien plus vite qu'avant. La surcharge d'informations est maintenant un problème bien connu : les connaissances s'accumulent trop vite pour que les gens aient le temps de les trier et d'en extraire le sens. Des milliers de journaux techniques couvrent des milliers de domaines. Il y a plus d'un million d'articles publiés chaque année. Les forums de faits nous aideront à écarter les contrevérités et faciliteront donc nos efforts de compréhension du monde. Mais n'importe quelle institution traditionnelle sera dépassée par le flot d'information actuel ; les forums de faits ne pourront traiter qu'une fraction -certes importante- des faits et avec une inévitable lenteur. Des institutions traditionnelles ne peuvent analyser qu'une petite fraction de l'énergie mentale développée dans notre société. Aujourd'hui, nos systèmes d'information ralentissent nos progrès. Pour comprendre le problème, imaginez-vous en train de manipuler une information : vous en prenez connaissance, comment la répandez-vous ? Quelqu'un d'autre la publie, comment la trouvez-vous ? Vous la trouvez, où l'archivez-vous ? Vous vous apercevez d'une erreur, comment la corrigez-vous ? Vos archives grossissent, comment les organisez-vous ? Nous manipulons l'information maladroitement. Nos médias électroniques traditionnels sont rapides et divertissants mais ils ne sont pas adaptés pour présenter des informations complexes et mener des débats de fond. Comment pouvez-vous, en tant que spectateur, archiver, organiser et corriger les informations contenues dans un documentaire télévisé ? En d'autres termes, comment pouvez-vous intégrer ces informations dans un corpus de connaissances en évolution ? Nous pouvons plus facilement mener des débats complexes en utilisant les médias sur papier mais les semaines (ou les années) que prend un processus de publication classique les ralentissent énormément. Et même les publications sur papier sont difficiles à archiver, organiser et corriger. Les imprimeurs produisent des piles de papier ; grâce à des efforts héroïques, les bibliothécaires et les savants parviennent à les rassembler, les relier et les organiser d'une manière plus ou moins ordonnée. Cependant, les index, les références et les corrections ne font que rajouter des pages et suivre leurs corrélations demeure fastidieux. Avec l'habitude, on tire parti des livres et autres liasses de papier. Ils contiennent beaucoup de nos trésors culturels et nous n'avons actuellement pas mieux pour publier la plupart des informations. Cependant, ils peuvent être grandement améliorés. Nos difficultés à diffuser, corriger et organiser nos informations rendent le partage du savoir relativement rare, incorrect et désorganisé. Parce que les connaissances établies sont difficiles à trouver, nous nous en passons souvent et nous semblons plus ignorants que nous ne le sommes. Les nouvelles technologies peuvent-elles nous aider ? Elles l'ont déjà fait par le passé. L'invention de l'imprimerie a apporté de grandes avancées ; les possibilités offertes par la numérisation des textes promettent encore plus. Pour bien comprendre comment nos systèmes d'informations peuvent être améliorés, il est utile de voir comment ils pourraient être pires. Examinons alors une pagaille et une solution imaginaires : Le récit du temple Il était une fois un groupe de personnes ayant un problème d'information. Bien qu'ils eussent remplacé leurs encombrantes tablettes d'argiles par du papier, ils utilisaient celui-ci de manière étrange. Au c¦ur de leur contrée se dressait un dôme majestueux. Ce grand dôme contenait la grande Chambre des Ecritures. A l'intérieur de cette pièce, des bouts de papier de la taille d'une main d'enfant faisaient un énorme tas. De temps en temps, un savant prenait le chemin du temple du savoir pour apporter des connaissances. Un conseil de scribes vérifiait que ces informations valaient la peine d'être incorporées. Le cas échéant, ils les inscrivaient sur un bout de papier et le jetaient cérémonieusement sur la pile. De temps en temps, quelques besogneux savants venaient pour trouver des informations -pour fouiller dans le tas, à la recherche du bon papier. Les plus doués trouvaient en moins d'un mois une note particulière. Les scribes accueillaient toujours très chaleureusement les chercheurs : ils étaient si rares... Nous, les modernes, pouvons facilement identifier leur problème : dans une pile désordonnée, chaque feuille de papier qui s'ajoute enfouit les autres (comme sur tant de bureaux). Chaque note est individuelle, séparée des autres et ajouter des références ne serait pas très utile s'il faut des mois pour trouver une note. Si nous utilisons un tel tas pour stocker nos informations, nos masses d'archives en sciences et technologies deviendraient presque inutiles. Les recherches prendraient des années, si ce n'est des vies entières. Nous, les modernes, avons une solution simple : nous ordonnons les pages. Nous les plaçons les unes derrière les autres pour former des livres, que nous rangeons côte à côte sur des étagères et nous remplissons un bâtiment avec des étagères pour faire une bibliothèque. Nous pouvons retrouver des pages rangées et suivre des références plus rapidement. Si les scribes employaient des savants pour trier les papiers par thèmes, les recherches seraient déjà plus faciles. Cependant, face à des piles de papiers concernant l'histoire, la géographie et la médecine où mettraient-ils des morceaux de papier concernant la géographie historique, l'épidémiologie géographique et l'histoire médicale ? Où doivent-ils mettre des connaissances se rapportant à "l'histoire de la propagation de la peste noire" ? Mais dans notre pays imaginaire, les scribes ont opté pour une autre solution : ils font appel aux services d'un magicien. Avant cela, ils ont demandé aux savants, armés de fils et d'aiguilles, de relier les papiers entre eux. Un fil d'une certaine couleur relie un bout de papier à celui qui le suit dans la série, une autre couleur est utilisée pour les références et une autre encore pour une note importante, etc. Les chercheurs tissent ainsi un réseau de relations entre les papiers, représenté par un réseau de fils. Pour finir, le magicien (avec des yeux étincelants et de longs cheveux) lance un sort et la totalité du fouillis de papier s'élève dans les airs pour flotter sous le dôme, tel un nuage. Après cela, un chercheur qui a trouvé un papier et souhaite suivre un lien représenté par le fil attaché à son côté le tire pour que le papier suivant arrive directement dans sa main. Et par magie, les fils ne s'emmêlent jamais. Maintenant, les savants peuvent relier les feuillets traitant de "l'histoire de la propagation de la peste noire" à des feuilles d'histoire, de géographie et de médecine. Ils peuvent rajouter tout le texte et toutes les notes qu'ils veulent en les reliant de la manière la plus avantageuse. Ils peuvent ajouter des bouts de papier spéciaux qui servent d'index et amènent instantanément tous les papiers qu'ils demandent. Ils peuvent placer des liens où ils le désirent ; ils tissent ainsi un réseau de connaissances qui correspond à des connexions thématiques dans le monde réel. Nous ne pourrions que les envier avec nos piles de papier inertes, si nous n'avions pas d'ordinateurs. Le papier magique devenu réalité En 1945, Vannevar Bush proposa un système nommé "memex". C'était un appareil de la taille d'un bureau, bourré de microfilms et de pièces mécaniques permettant de présenter des pages mémorisées et d'indiquer à l'utilisateur les liens entre elles. Aucun memex à microfilms ne fut jamais construit mais le rêve survécut. Aujourd'hui, les ordinateurs et les écrans sont devenus suffisamment bon marché pour permettre de lire et écrire. Quelques éditeurs classiques sont devenus éditeurs électroniques en lançant des magazines et des journaux disponibles sur les réseaux informatiques. Avec des programmes appropriés, les ordinateurs nous permettront de relier les informations de façon encore plus efficace qu'avec les fils magiques. Theodore Nelson, le père de cette idée, a qualifié le résultat "d'hypertexte" : des textes reliés entre eux dans plusieurs directions, pas seulement en une longue séquence. Les auteurs, les lecteurs et les éditeurs qui utiliseront un système hypertexte ignoreront en majorité le fonctionnement de leurs ordinateurs et de leurs écrans, comme ils ignorent généralement le fonctionnement de leur photocopieuse ou d'une rotative. Un système hypertexte se comportera simplement comme du papier magique et quiconque en usera maîtrisera rapidement ses possibilités de base. Décrire la structure d'un système239 hypertexte aidera à en comprendre le fonctionnement. Dans l'approche adoptée par le groupe hypertexte Xanadu à San Jose en Californie, le c¦ur du système, sa colonne vertébrale, est un réseau d'ordinateurs qui stockent des documents et les liens qui les relient entre eux. Le système de départ pourrait être un ordinateur de bureau individuel ; par la suite, un réseau croissant d'ordinateurs fournira les services d'une bibliothèque électronique. Les documents enregistrés pourront représenter presque tout ce que l'on veut, des romans, des diagrammes, des manuels ou des programmes -et finalement, même de la musique ou des films. Les utilisateurs pourront relier toute partie de n'importe quel document à toute autre. Quand un lecteur pointe sur une extrémité d'un lien -qui peut être signalée par un soulignement, un astérisque ou l'image d'un fil coloré-, le système va chercher l'information à l'autre bout du lien et l'affiche. Cela permet également d'enregistrer de nouvelles versions d'un gros document sans avoir à sauvegarder des copies entières : seules les parties modifiées sont enregistrées. Les premières versions d'un document publié et modifié sur le système pourront être stockées économiquement et rapidement, même quand la quantité totale d'information deviendra immense. Un tel réseau de machines pourrait éventuellement déboucher sur une bibliothèque électronique mondiale. Pour trouver des informations dans la plupart des systèmes informatiques traitant du texte, l'utilisateur doit fournir des mots-clés ou des codes obscurs. L'hypertexte permettra également de relier du texte à des codes, à des mots-clés ou même à des catalogues de références mais la plupart des lecteurs préfèreront peut-être simplement lire les informations et suivre les liens. Comme Theodore Nelson le fait remarquer, l'hypertexte sera une nouvelle forme de lecture et d'écriture qui autorisera les citations et les annotations, comme les vieilles méthodes. Mais, par une auto-construction communautaire, se bâtira une vaste structure pénétrable, une nouvelle littérature Ce que le lecteur verra en butinant sur ce réseau dépendra en partie du terminal utilisé, qui peut être un micro-ordinateur. La partie cachée servira simplement à archiver et à chercher les documents, la partie visible transmettra les requêtes de l'utilisateur et affichera les résultats selon ses goûts. Cet utilisateur aura devant lui un écran de la taille d'un livre ouvert, aux caractères de même taille de corps que ceux que vous lisez maintenant -une écriture bien lisible, sur un bon écran. Ce qui aujourd'hui ressemble à un téléviseur aura dans quelques années l'apparence d'un livre, muni d'un cordon pour échanger des informations (avec les nanotechnologies, vous pouvez supprimer le cordon : un objet de la taille d'un livre pourra contenir toutes les pages de tous les livres du monde dans une mémoire moléculaire). Dans ce livre -celui que vous avez entre les mains-, je pourrais faire une description de ceux de Theodore Nelson240 à propos de l'hypertexte : Machines littéraires et Bibliothèque informatique, mais vous ne pourriez pas les voir sur ces pages. Elles sont figées et vous enferment dans les écrits d'un unique auteur. Mais si elles faisaient partie d'un système hypertexte et si moi ou un autre avait pris la peine de créer des liens, vous pourriez pointer sur les mots Machines littéraires et voir apparaître sur la page opposée de ce livre la table des matières de l'ouvrage de Ted Nelson ou ma sélection de ses citations. A partir de là, vous pourriez parcourir son livre en disposant peut-être des notes que j'aurais faites à propos de son texte. Vous pourriez ensuite revenir ici (en affichant maintenant ses notes à propos de mon texte) ou partir explorer d'autres documents reliés au sien. Sans quitter votre chaise, vous pourriez consulter tous les écrits majeurs sur l'hypertexte en suivant des liens reliant d'innombrables documents. En conservant la trace des liens (par exemple, entre les résumés, les brouillons et les références), l'hypertexte aidera les gens à écrire et éditer des travaux plus ambitieux. En utilisant des liens hypertextes, nous pouvons organiser nos connaissances en ensembles cohérents. John Muir a fait remarquer que "quand nous essayons d'isoler un élément, nous le trouvons toujours connecté avec tous les autres dans l'univers". L'hypertexte nous aidera à organiser les connexions entre les idées d'une manière plus conforme à la réalité. Avec l'hypertexte, nous serons à même de mieux rassembler et organiser le savoir, augmentant ainsi notre intelligence effective. Mais pour que le rassemblement des informations soit efficace, il faut qu'il soit décentralisé ; les informations réparties entre de nombreux cerveaux ne peuvent pas être facilement entrées dans un système par quelques spécialistes seulement. Le groupe Xanadu propose une solution simple : il faut laisser chaque utilisateur rentrer des données et laisser le système rétribuer automatiquement les auteurs lorsque leurs informations sont consultées. La publication sera ainsi très facile et les uns seront récompensés pour avoir fourni les informations que les autres veulent. Imaginez ce que vous-même avez voulu dire à propos d'idées ou d'événements, les commentaires judicieux d'orateurs et d'auditeurs qui partout dans le monde tombent dans l'oubli. Dans un système hypertexte, ces derniers seront faciles à publier et à consulter. Imaginez les questions qui vous ont tourmenté. Vous pourriez les publier également et quelqu'un qui lirait ces questions pourrait y répondre. Puisque tous ceux qui auront accès au système pourront écrire des textes et établir des liens, le réseau hypertexte accumulera une grande quantité de connaissance et de sagesse et des tas encore plus grands de vrais détritus. Un tel système contiendra de vieilles nouvelles, de la publicité, des gribouillages, des divagations et des mensonges. Comment un lecteur pourra-t-il éviter les déchets et consulter les bonnes données ? Nous pourrions désigner un comité chargé de la publication mais cela supprimerait l'ouverture du système. Trier les informations est heureusement un problème que l'hypertexte nous aidera à résoudre. Puisque l'hypertexte permet de faire à peu près tout ce que le papier classique autorise, nous pouvons appliquer les solutions que nous avons déjà pour ce support. Des éditeurs disposent d'une solide réputation dans leur domaine et certains ont déjà commencé à s'intéresser au monde de l'édition électronique. Dans un système hypertexte, ils pourront publier en ligne des documents à la hauteur de leur réputation. Les lecteurs de même sensibilité pourront régler leur terminal pour n'afficher que ces documents, excluant automatiquement les nouveaux détritus. Pour eux, le système hypertexte ne semblera contenir que des informations provenant d'éditeurs réputés ; ces documents seront simplement plus facilement accessibles grâce à une diffusion électronique et aux liens hypertextes. Les véritables déchets seront encore dans le système (aussi longtemps que leurs auteurs paieront la faible taxe pour les y stocker), cependant, ces déchets ne viendront pas nécessairement polluer l'écran de n'importe quel utilisateur. Mais nous pourrons faire mieux que cela. L'approbation d'un document (indiquée par des liens et des recommandations) peut venir de tout le monde et les lecteurs porteront leur attention sur des informations recommandées par des personnes qu'ils estiment. De la même manière, les lecteurs sauront qui recommande les documents qu'ils apprécient, ce qui leur permettra de rencontrer des gens partageant les mêmes centres d'intérêts. Indirectement, l'hypertexte reliera les gens et accélèrera la croissance de communautés. Quand publier sera devenu si facile et si rapide, les rédacteurs produiront plus d'informations. Et puisque l'hypertexte encouragera l'édition en indépendant, les éditeurs auront plus de travail. Des documents qui listent, citent et fournissent des liens vers d'autres documents serviront d'annuaires, de journaux et d'index à accès instantané. Les droits d'auteurs encourageront les gens à faire trouver aux lecteurs ce qu'ils cherchent. Des guides de littérature concurrents apparaîtront rapidement-et des guides de guides. Les liens hypertextes seront plus pratiques que les références sur papier et pas seulement pour des raisons de vitesse. Les références sur papier laissent un lecteur appliqué suivre un lien d'un document à un autre -mais essayez de trouver les documents qui se réfèrent à celui que vous êtes en train de lire ! Aujourd'hui, trouver de telles références nécessite un encombrant index de citations, disponible uniquement dans les bibliothèques de recherche, couvrant un sujet limité et souvent en retard de plusieurs mois. Les liens hypertextes fonctionneront dans les deux directions, permettant ainsi aux lecteurs de consulter des commentaires sur ce qu'ils sont en train de lire. Et c'est une vraie percée : cela soumettra les idées à une critique plus minutieuse et les fera évoluer plus vite. L'évolution du de la connaissance -que ce soit en philosophie, en politique, en science ou en ingénierie- requiert la création, la propagation et la mise à l'épreuve de schèmes. L'hypertexte accélérera ce processus. L'imprimé se prête relativement bien aux processus de création et de diffusion mais il se prête mal à l'étude critique. Une fois qu'une mauvaise idée a été publiée, elle devient en quelque sorte autonome et même ses auteurs peuvent rarement la clouer au pilori. Une réfutation exemplaire de cette mauvaise idée n'est qu'une publication supplémentaire, un bout de papier de plus. Des jours ou des années plus tard, des lecteurs qui rencontrent l'idée erronée auront peu de chance de tomber également sur sa réfutation. C'est comme cela que les inepties perdurent. C'est seulement avec l'avènement de l'hypertexte que les critiques pourront planter fermement leurs griffes dans leurs cibles. Seul l'hypertexte permettra aux auteurs de corriger leurs erreurs, non pas en brûlant toutes les bibliothèques ou en lançant une vaste campagne de clarification mais en modifiant leur texte et en annotant l'ancienne version comme étant "désavouée". Les auteurs pourront tranquillement se rétracter ; ce qui les consolera des critiques les plus féroces. Par des réfutations claires, les critiques pourfendront les inepties (par exemple les fausses limites de la croissance) quand celles-ci sauteront aux yeux, pour en débarrasser l'arène intellectuelle -mais pas les dossiers. Des répertoires critiques aideront les lecteurs à voir si une idée a résisté jusque là aux pires objections. Aujourd'hui, ne pas avoir connaissance de critiques n'est pas significatif, parce qu'il est difficile de les publier (et donc de les trouver). Mais dans un bon système hypertexte, les idées qui auront survécu à toutes les critiques connues auront victorieusement relevé un vrai défi. Leur crédibilité augmentera réellement. Relier nos connaissances Les avantages de l'hypertexte sont fondamentaux par leur étendue. L'hypertexte nous permettra d'exprimer la connaissance humaine plus naturellement. Elle forme une vaste trame ininterrompue et les problèmes humains se jouent des frontières floues de ses domaines. Des rangées de livres bien alignés sont bien incapables de représenter la structure de nos connaissances. Les bibliothécaires ont travaillé à rendre ces rangées plus similaires à des réseaux en inventant de meilleures manières d'indexer, de référencer et de disposer les morceaux de papier. Cependant, malgré leurs nobles efforts et leurs succès, la recherche en bibliothèque décourage le public à l'exception d'une minorité d'élus. Les librairies ont fait des progrès vers l'hypertexte mais la nature du papier leur est une entrave. Les systèmes hypertextes nous permettront de faire un bond de géant dans la direction que nous avons suivie depuis l'invention de l'écriture. Notre mémoire elle-même fonctionne par associations, avec des liens qui permettent la remémoration. Les chercheurs en IA se rendent également compte que les associations sont essentielles pour rendre les connaissances exploitables ; ils programment ce qu'ils appellent des "bassins sémantiques" pour construire des systèmes de représentation du savoir. Sur le papier, les associations entre les mots constituent un thesaurus utile ; dans le cerveau, un vocabulaire fonctionnel prend sa source dans des associations rapides et flexibles entre les mots. En effet, les relations qui s'établissent dans la mémoire fournissent le contexte qui donne un sens à nos idées. En utilisant l'hypertexte, les gens associeront les idées grâce à des liens ; ils en enrichiront le sens et les rendront plus accessibles -les incorporant mieux à notre propre esprit. Quand nous modifions notre conception du monde et de sa destinée, nous modifions nos réseaux internes de connaissance. Un changement raisonné nécessite souvent la comparaison des ensembles d'idées en compétition. Pour juger d'une représentation du monde dans un livre, un lecteur doit souvent se rappeler ou relire les explications des pages précédentes -ou d'un article contradictoire lu l'année précédente. Mais la mémoire humaine est imparfaite, et piocher dans les vieux papiers semble une charge de travail trop importante. Sachant cela, les auteurs hésitent entre mettre trop de détails (et ennuyer le lecteur) ou passer sur trop de notions (laissant ainsi des points faibles dans la discussion). Inévitablement, ils font un peu des deux. Les lecteurs qui disposeront de liens hypertextes pourront voir si des sources connectées soutiennent une idée ou si des critiques reliées la détruisent. Les auteurs écriront des résumés alertes et vivants sur leurs idées et les relieront à de longues explications détaillées et ennuyeuses. En exposant leurs vues, les auteurs compareront point par point leurs réseaux d'idées avec ceux des critiques. Les lecteurs ne seront pas encore à même de juger les idées instantanément et parfaitement mais ils pourront les juger mieux et plus rapidement. De cette manière, l'hypertexte nous aidera dans une importante tâche : juger l'avenir et nous adapter à des perspectives qui ébranlent notre conception du monde. L'hypertexte renforcera nos prévisions. D'ici là, de nombreuses applications d'un système hypertexte mature seront devenues évidentes -ou au moins aussi évidentes qu'elles peuvent l'être aujourd'hui, sans que nous ne les ayons expérimentées directement. La diffusion des nouvelles est une de ces applications évidentes. Les nouvelles modèlent notre vue du monde mais les médias modernes brident sévèrement les journalistes. Souvent, les reportages sur la technologie et les événements ne prennent sens que dans un contexte plus large, mais l'espace limité et les délais de publication empêchent la présentation de ce contexte. Notre perception des événements en est affaiblie. Avec l'hypertexte, les journalistes pourront plus facilement relier les nouvelles présentées à des discussions de fond. Qui plus est, les acteurs de ces histoires et les témoins occasionnels pourront intervenir, en reliant leurs commentaires à l'article du journaliste. La publicité graisse les rouages de l'économie, nous guidant (et nous égarant) vers les produits accessibles. Les consommateurs bien informés peuvent éviter les produits trop chers, de mauvaise qualité mais la recherche et les comparaisons nécessaires dévorent le temps. Dans un système hypertexte toutefois, les associations de services aux consommateurs publieront des catalogues comparatifs en reliant les descriptions de plusieurs produits en compétition avec des résultats de tests et des témoignages de consommateurs. Dans le domaine de l'éducation, nous apprenons mieux quand nous sommes intéressés par ce que nous lisons. Mais la plupart des livres présentent les idées de manière séquentielle, avec un seul niveau de difficulté quels que soient les intérêts ou les connaissances du lecteur. A nouveau, la demande générale favorisera la croissance de réseaux hypertextes utiles. Les gens relieront des présentations similaires mais exposées à des niveaux différents. Les étudiants pourront accéder à des discussions d'un niveau supérieur, poussant un peu plus loin l'analyse. Les informations complexes seront plus abordables parce que leurs liens avec les principes et les définitions de base offriront au lecteur la possibilité de réviser - sans retard, aide ou difficulté. D'autres liens relieront le sujet abordé à de nombreux autres thèmes : une description des barrières de corail conduira par exemple à des textes sur l'écologie des récifs et à des histoires de requins affamés. Quand nous pouvons satisfaire notre curiosité presque instantanément, apprendre devient amusant et attire plus de gens. Le jugement équitable se développera aussi dans le monde de l'hypertexte. Parce qu'ils seront ouverts à tous et qu'ils permettront questions et réponses ; les débats en hypertexte auront la qualité inhérente au jugement équitable. En fait, l'hypertexte sera un média idéal pour mener des forums de faits. Et les procédures des forums compléteront à leur tour l'hypertexte en distillant les débats technologiques sous forme de déclarations claires (quoique provisoires) à propos de faits techniques clés. L'hypertexte permettra finalement de replacer les citations dans leur contexte original d'une seule pression sur un bouton. Ceci n'évitera pas seulement une mauvaise interprétation de l'opinion d'un auteur mais présentera d'autres avantages. Des arguments valables présentés en dehors de leur contexte peuvent sembler absurdes. Mais les auteurs « hyper textuels » sauront qu'une citation absurde renverra les lecteurs directement au contexte original. L'écriture audacieuse sera encouragée, favorisant les schèmes fondés sur l'évidence et la raison plutôt que sur les conventions et la pusillanimité. La contribution la plus importante de l'hypertexte (mais la moins évidente) sera peut-être sa capacité à révéler les lacunes. Pour survivre dans les années qui viennent, nous devrons évaluer correctement les idées complexes, ce qui implique de connaître les failles du raisonnement. Mais à l'heure actuelle, nous avons du mal à les détecter. Il est encore plus difficile de se rendre compte qu'un raisonnement n'a pas de point faible, ce qui est pourtant le critère de sa solidité. L'hypertexte nous y aidera. Les lecteurs examineront les arguments importants et soulèveront des objections rigoureuses là où ils perçoivent des failles. Et l'absence de bonne objection indiquera clairement l'absence de faille. Mais celle-ci est difficilement perceptible : que d'occasions perdues parce que nous n'en n'avons peut-être pas assez conscience. Par exemple, imaginez que vous avez une idée et que vous essayez de décider si elle est juste et digne d'être publiée. Si elle n'est pas claire, vous pourriez douter de sa justesse et ne pas la diffuser. Si elle semble claire, vous pourriez penser qu'elle a déjà été publiée sans savoir où et quand. L'hypertexte, en rendant les informations plus accessibles, permettra de savoir plus facilement que quelque chose n'a pas été publié. En révélant les lacunes dans nos connaissances, l'hypertexte nous encouragera à les combler. Nous devons trouver les erreurs -y compris les omissions- dans les projets technologiques complexes pour comprendre et guider la technologie. Parce que nous en découvrons peu, nous commettons beaucoup d'erreurs et sommes d'une dangereuse incompétence. Ceci conduit à la prudence et peut aussi se transformer en paralysie : de peur de manquer les failles, nous redoutons qu'il y en ait partout, jusqu'à l'excès. L'hypertexte développera la confiance là où elle est justifiée en exposant les problèmes plus fidèlement. Les dangers de l'hypertexte Comme la plupart des bons outils, l'hypertexte peut être utilisé à de mauvaises fins. Il peut aussi bien nous aider à organiser nos connaissances, qu'aider les gouvernements à organiser notre surveillance. Cependant, son emploi équilibré peut favoriser la liberté. Conçu comme un système décentralisé -avec beaucoup de machines, de nombreux éditeurs et auteurs-, l'hypertexte servira plus les citoyens que ceux qui les dirigent. Les bases de données officielles sont en augmentation ; les systèmes hypertextes nous aideront peut-être à garder un ¦il sur elles. La publication électronique présente un autre danger. Les gouvernements des USA et d'ailleurs ont souvent interprété l'idéal de la "liberté d'expression" et de la "liberté de la presse" comme le droit de parler et de vendre du papier imprimé. Les gouvernements ont réglementé l'utilisation de la radio et de la télévision pour qu'elles satisfassent à la notion bureaucratique et changeante de l'intérêt public. Justifiée autrefois, la limitation du nombre de chaînes est maintenant dépassée. Nous devons étendre la liberté d'expression à d'autres médias. Nous serions horrifiés si le gouvernement ordonnait à des agents de brûler les livres de bibliothèque. Nous devrions l'être de la même manière si le gouvernement cherchait à effacer des documents publics des bibliothèques électroniques. Si l'hypertexte doit devenir le media qui conserve nos traditions, alors ce qui a été publié doit le rester. Une bibliothèque électronique n'en sera pas moins une bibliothèque parce qu'elle ne contient pas d'étagères ni de papier. L'effacement ne fera ni flammes ni fumée mais sera aussi répugnant qu'un autodafé de livres. Du bureau à la bibliothèque mondiale Certaines des capacités que j'ai décrites ne découleront que de vastes systèmes hypertextes évolués -par exemple, un système qui servirait déjà à mener de grands débats et qui serait en passe de devenir une bibliothèque électronique mondiale. Il n'aura peut-être pas le temps de se développer avant la percée des assembleurs et de l'IA. Son décollage serait favorisé par de petits systèmes aux applications pratiques. Et si leurs effets dépassent leur taille, alors l'hypertexte nous aidera à maîtriser la course technologique. Heureusement, nous pouvons nous attendre à de grands avantages dès le début. Les machines hypertextes individuelles pourront servir plusieurs utilisateurs en même temps. Même sans lien vers le monde extérieur, elles aideront les entreprises, les associations et les laboratoires de recherche à manipuler des informations complexes. Cependant, les liens vers l'extérieur seront faciles à établir. Le nombre de bases de données accessibles au public est passé de quelques dizaines vers 1965 à quelques centaines en 75 et quelques milliers en 85. Les entreprises les ont mises à disposition par l'intermédiaire de réseaux informatiques. Les systèmes pourront aller chercher les informations dans ces bases en en stockant le code d'accès plutôt que le texte lui-même. La présence virtuelle de l'information dans le système hypertexte suffira pour de nombreux usages. Les gens utiliseront les premiers systèmes hypertextes pour mettre à la disposition d'associations des services améliorés par rapport aux bulletins électroniques existants. Des groupes de discussions centrés sur des sujets précis sont déjà apparus sur les réseaux informatiques ; ils adopteront probablement l'hypertexte en tant que meilleur moyen de communication pour échanger des informations et des opinions. Les premiers systèmes hypertextes nous aideront également à créer et gérer des organisations. Les téléconférences par messagerie électronique aident déjà les groupes à communiquer. Les avantages de ce type de conférence par rapport aux rencontres classiques sont multiples : un coût réduit (pas besoin de voyager), des interactions facilitées (pas besoin d'attendre ou d'interrompre quelqu'un) et une meilleure compréhension mutuelle (grâce à des messages clairs et moins de conflits de personnes). Les communications hypertextes étendront ces possibilités en mettant à la disposition des participants de meilleurs outils pour trouver des références, comparer et résumer. Parce que les débats hypertextes s'affranchiront du monopole de l'éditeur, ils permettront aux organisations d'êtres plus ouvertes. Utiliser un système hypertexte à domicile par téléphone coûtera peut-être plusieurs dollars par heure dans les débuts. Mais ce coût se réduira très vite. Depuis maintenant plusieurs décennies, le prix des ordinateurs est divisé par dix tous les dix ans ; le coût des communications a lui aussi diminué. Les systèmes hypertextes seront d'un prix raisonnable dès leur lancement. Vraisemblablement, le prix aura suffisamment baissé dans moins de dix ans pour qu'un marché de masse se mette en place. L'édition électronique a déjà commencé. L'Encyclopédie académique américaine, structurée sous forme d'hypertexte simple, est disponible à la consultation pour 90 000 abonnés, dont 200 bibliothèques et huit écoles. Le Time magazine indique241 que les enfants le consultent avec avidité. Les terminaux installés dans les bibliothèques permettent déjà d'accéder aux titres des journaux, des magazines et des revues professionnelles. Nous n'aurons pas à attendre un système universel pour obtenir de grands avantages, parce que l'hypertexte provoquera très tôt des changements importants. Nous avons besoin d'hypertexte pour les étudiants, les auteurs, les chercheurs et les directeurs comme nous avons besoin de manuels pour les écoles, de matériel pour les laboratoires et d'outils dans les ateliers. Quelques livres ont provoqué de grands changements, même s'ils n'ont été lus que par une personne sur mille, parce qu'ils ont introduit de nouvelles idées au sein de la société. L'hypertexte fera de même en affinant les idées et en les répandant plus largement grâce aux autres médias. L'hypertexte et la presse écrite Quelle sera l'importance de la révolution de l'hypertexte par rapport à celle de l'imprimerie de Gutenberg ? Quelques chiffres suggèrent une réponse. L'impression grâce à des caractères mobiles réduisit le prix des livres de manière considérable. Au XIVème siècle, les soixante-seize livres de l'avocat du roi de France étaient considérés comme une grande bibliothèque. Les livres représentaient des semaines de travail qualifié des copistes, personnes érudites. La masse des paysans ne pouvait ni acheter ni lire de livres. Aujourd'hui, le travail d'une année permet d'acquérir des milliers de livres. Beaucoup de maisons en contiennent des centaines et les grandes bibliothèques des millions. L'imprimerie a réduit leur prix d'un facteur supérieur à cent. Elle a ouvert à tous les portes de l'écrit, a permis l'éducation de masse et donc les révolutions mondiales en cours que sont la technologie et la démocratie. Et l'hypertexte ? Gutenberg montra à l'Europe comment ranger des caractères de métal pour imprimer des pages ; l'hypertexte nous permettra de réarranger les textes en mémoire et de les envoyer à la vitesse de la lumière, au-delà des frontières. L'imprimerie a introduit des piles de livres dans les maisons et des montagnes dans les bibliothèques ; l'hypertexte permettra d'acheminer tout cela jusqu'au moindre terminal. Il étendra la révolution de Gutenberg en augmentant la quantité d'informations disponibles242. Cependant, les autres avantages qu'il procure semblent encore plus grands. Aujourd'hui, trouver une référence prend en général quelques minutes (quelques centaines de secondes avec de la chance et de l'habitude) mais cela peut prendre plusieurs jours si les informations sont rarement demandées (et donc absentes) ou le sont trop (et donc accaparées par quelqu'un). L'hypertexte réduira ce délai à une seule seconde. La révolution de Gutenberg divisa le coût de production des textes plusieurs centaines de fois ; la révolution de l'hypertexte réduira le coût du travail de recherche des textes de plusieurs centaines de fois. Ce sera véritablement une révolution. Comme la production des textes avec Gutenberg, leur recherche avec l'hypertexte verra son coût divisé plusieurs centaines de fois. Ainsi que je l'ai indiqué, établir des liens judicieux entre les idées changera la nature du texte en révolutionnant non seulement la quantité mais aussi la qualité des textes disponibles qui se manifestera sous plusieurs formes. De meilleurs index rendront l'information plus facile à trouver. De meilleures discussions critiques évinceront les absurdités et feront triompher les bonnes idées. De meilleures représentations des connaissances mettront en lumière les lacunes de nos connaissances. Avec des informations de qualité, disponibles en abondance, nous semblerons plus intelligents. Et nos chances de surmonter correctement les percées à venir augmenteront. Que pourrait-il y avoir de plus utile ? La prochaine fois que vous entendez un mensonge se propager ou que vous constatez qu'une mauvaise décision est prise en raison d'une ignorance quelconque, arrêtez-vous et pensez à l'hypertexte. 15 Beaucoup de mondes et de temps La difficulté n'est pas d'accepter les idées nouvelles mais d'abandonner les anciennes ; pour ceux qui ont été éduqués comme la plupart d'entre nous, elles s'enracinent dans tous les coins de notre esprit. John Maynard Keynes J'ai décrit comment les avancées en chimie et en biotechnologies nous conduiront jusqu'aux assembleurs, qui nous permettront à leur tour de construire des nanoordinateurs, des réplicateurs et des machines à réparer les cellules. J'ai décrit comment les avancées dans le domaine des logiciels conduiront aux systèmes de conception automatisée et à l'intelligence artificielle. Toutes ces avancées rendront l'avenir riche de possibilités ; l'une d'entre elle étant la destruction du monde. Si nous utilisons les forums de faits et l'hypertexte pour affermir nos prédictions, nous pouvons néanmoins éviter l'annihilation et aller de l'avant -mais vers quoi ? Vers une transformation profonde du monde qui pourrait apporter, si nous réussissons, une grande abondance matérielle et une longue vie à ceux qui le désirent243. C'est tout naturellement une perspective qui agite des rêves utopiques. Le modèle classique d'utopie, comme chacun sait, serait statique, ennuyeux et épouvantable -il n'aurait rien d'une utopie. Pourtant les rêves utopiques ont changé le cours de l'histoire, en bien ou en mal. Des rêves dangereux ont conduit des gens à tuer au nom de l'amour et à asservir au nom de la fraternité. Trop souvent, le rêve a été impossible à réaliser et la tentative pour y parvenir s'est révélée désastreuse. Nous avons besoin de rêves utiles pour guider nos actions. Un rêve utile doit nous montrer un but désirable et accessible par des étapes jalonnées de résultats bénéfiques. Pour nous aider à guider ensemble la course technologique il faut offrir à chacun un but qui le fait rêver. Mais quelles en seront les caractéristiques ? Ils devront être variés et se révéler dignes des potentialités futures, s'adaptant au progrès bien que choisis à l'aube de la nouvelle intelligence. Un seul type de futur semble assez grand pour être largement soutenu : seul un avenir ouvert sur la liberté, la diversité et la paix semble assez fort pour susciter l'adhésion. Assez ouvert pour contenir de nombreux rêves variés, il attirera beaucoup de gens différents. Des desseins plus ambitieux, comme la mise en place d'un ordre mondial uniforme, semblent plus dangereux. Si "un monde, sinon rien" signifie l'établissement d'un unique système social dans un monde de puissances nucléaires hostiles, c'est une bonne recette de désastre. "De nombreux mondes, sinon rien" semble être le véritable choix, si nous arrivons à construire des boucliers actifs pour assurer la paix. Nous pourrons peut-être le faire. En utilisant les systèmes de conception automatisée décrits dans le chapitre 5, nous serons capables d'explorer les limites du possible à une vitesse un million de fois plus élevée que ne le fait l'Homme. Nous pourrons alors tracer les limites ultimes de la course technologique, y compris dans le domaine des armes. Avec des boucliers fabriqués par cette technologie, il semble que nous serons à même d'assurer une paix stable et durable244. Les avancées de la technologie ne coulent pas forcément le monde dans un moule unique. Beaucoup de gens pensaient que des machines de plus en plus grosses et des organisations de plus en plus puissantes domineraient notre avenir, détruisant la diversité et la liberté. Il est vrai que les machines peuvent devenir plus grosses et certaines le deviendront, comme les organisations. Mais les machines géantes, bruyantes et nauséabondes comme les bureaucraties colossales semblent déjà passées de mode face aux microcircuits, aux biotechnologies et aux organisations efficaces. Nous pouvons maintenant distinguer les contours d'une technologie plus évoluée à l'échelle humaine, d'un monde peuplé de machines qui ne grincent pas, d'usines chimiques inodores et de systèmes de production qui n'utilisent pas les hommes comme des rouages. Les nanotechnologies montrent que les progrès peuvent apporter un style de technologie différent. Les assembleurs et l'IA nous permettront de construire des produits complexes avec une organisation simple. Les boucliers actifs maintiendront la paix sans recourir à de vastes complexes militaro-industriels. Ces technologies nous ouvriront des perspectives de diversité et d'indépendance inédites en réduisant nos contraintes. Etablir une ère de prospérité et de richesse générales ne nécessitera qu'un partage des vastes ressources libres de l'espace, accordant à chacun une part substantielle. Dans les quelques paragraphes qui suivent, je vais décrire quelques possibilités extrêmes que les nouvelles ressources et les engins créateurs nous ouvriront -allant de la science-fiction à l'âge de pierre. Pensez-y comme à des couleurs primaires, puis mélangez tout cela pour former votre propre palette et vous peindre un avenir aimable. Les nanotechnologies et la vie quotidienne Les avancées de la technologie peuvent détruire ou prolonger la vie ; elles peuvent aussi en changer la qualité. Des produits fabriqués grâce aux nanotechnologies s'introduiront dans la vie quotidienne de ceux qui souhaitent les utiliser. Certaines conséquences seront insignifiantes, d'autres seront majeures. Des produits auront pour effet tout simple de faciliter l'entretien des maisons (et pour conséquence importante de réduire les disputes dans les foyers). Ce ne serait pas bien compliqué, par exemple, de rendre tous les objets auto-nettoyants, des tapis jusqu'à la vaisselle. L'air de la maison pourrait être assaini en permanence. Des machines bien conçues produiraient de la nourriture à la place de déchets. D'autres systèmes utilisant les nanotechnologies pourraient produire de la nourriture fraîche -de la vraie viande, des graines, des légumes, etc.- à l'intérieur de la maison et ceci toute l'année. Ces aliments sont constitués de cellules qui grandissent selon un arrangement précis dans les plantes et les animaux ; ces cellules peuvent être dirigées pour grandir n'importe où de la même manière. Les élaborateurs de nourriture à domicile permettront aux gens de manger des aliments classiques sans avoir à tuer quoi que ce soit. Le mouvement pour les droits des animaux (le précurseur d'une défense de toutes les entités conscientes ?) gagnera là un précieux allié. Les nanotechnologies permettront la fabrication d'écrans à haute résolution qui présenteront à chaque ¦il des images différentes. Cette télévision en trois dimensions sera si réaliste qu'elle semblera être une fenêtre sur un autre monde. Des écrans de ce type peuvent équiper le casque d'une combinaison ressemblant à ce qui est décrit dans le chapitre 6 à propos de la combinaison spatiale. Celle-ci, plutôt que de transmettre les forces et les textures du monde extérieur, peut être programmée pour en appliquer d'autres à la peau, calculées par un programme interactif complexe. Une combinaison et un casque de ce type peuvent simuler la plupart des sensations d'un environnement, réel ou imaginaire. Les nanotechnologies permettront à des arts nouveaux d'émerger. Elles pourront aussi façonner des mondes fantastiques bien plus passionnants que n'importe quel livre, jeu ou film. Les technologies avancées fabriqueront toute une gamme de produits qui, en comparaison, rendront les produits actuels incommodes et dangereux. Pourquoi les objets ne pourraient-ils pas être légers, flexibles, durables et interactifs ? Pourquoi les murs ne pourraient-ils pas ressembler à ce que l'on veut et ne laisser passer que les bruits que l'on souhaite entendre ? Et pourquoi les immeubles et les voitures devraient-ils se détruire et brûler leurs occupants ? Pour ceux qui le désirent, notre environnement de tous les jours pourra ressembler à quelques-unes des descriptions les plus extravagantes de la science-fiction. D'autres rêves de science-fiction Ces rêves s'étirent vers tous les extrêmes pour ceux qui souhaitent les vivre. Ils vont des maisons qui coopèrent avec nous pour notre plus grand confort aux travaux pénibles que nous pourrions effectuer sur quelque planète éloignée. Les auteurs de science-fiction ont imaginé beaucoup de choses, certaines sont possibles et d'autres en contradiction directe avec ce que nous savons des lois de la nature. Certains rêvaient de vols spatiaux, d'autres de robots : ils sont réalisés. Certains rêvaient de voyages dans l'espace peu chers, de robots intelligents et tout ceci va arriver. D'autres rêves semblent possibles. Des auteurs ont écrit beaucoup de choses sur le partage des pensées et des émotions directement d'un cerveau à un autre. Les nanotechnologies semblent pouvoir rendre possible certaines formes de communication de ce genre en reliant les structures neurales au moyen de transducteurs et de signaux électromagnétiques. Bien qu'elle soit limitée à la vitesse de la lumière, cette forme de télépathie semble aussi possible que la téléphonie. Les vaisseaux spatiaux, les colonies spatiales et les machines intelligentes deviendront possibles. Tout ceci se passe à l'extérieur de la peau mais les auteurs de science-fiction ont également décrit des transformations à l'intérieur de notre corps : elles aussi deviendront possibles. Devenir complètement sain de corps et d'esprit est une étape mais certains voudront aller plus loin. Ils ne voudront pas se contenter d'être riches et en bonne santé. Ils chercheront leur accomplissement spirituel, bien que cette quête soit au-delà de la technologie matérielle grossière, de nouvelles possibilités physiques pourront être explorées sans limitation de temps. La technologie qui sous-tend les systèmes de réparation cellulaire permettra une vaste gamme de transformations allant du plus simple au plus époustouflant, en passant par le bizarre. On voit mal les limites de tels changements. Certaines personnes feront muer leur forme humaine, comme les chenilles transforment leur corps pour s'envoler ; d'autres amèneront le modèle humain à un nouveau niveau de perfection. Quelques personnes soigneront simplement leurs verrues, ignoreront les nouveaux papillons et partiront à la pêche. Des auteurs ont rêvé de voyages en arrière dans le temps mais la nature ne semble pas très conciliante245. Cependant, la biostase ouvre la porte des voyages dans le futur puisqu'elle permet de faire passer les années en un clin d'¦il. Les blasés chercheront peut-être les nouveautés d'un futur plus lointain, observant les lents progrès dans la maturation des arts ou de la société ou dans la cartographie des mondes de la galaxie. Si c'est le cas, ils choisiront peut-être de dormir, passant d'âge en âge à la recherche d'une époque qui les satisfasse. D'étranges futurs restent ouverts ; ils contiennent des mondes au-delà de notre imagination. Simplicité supérieure E. F. Schumacher, l'auteur de Minuscule et magnifique a écrit : "Je ne doute pas qu'on puisse réorienter le développement technologique vers les besoins réels de l'homme, ce qui veut également dire : à taille humaine. L'homme est petit, ce qui est petit est donc beau". Schumacher ne parlait pas des nanotechnologies mais pourraient-elles contribuer à simplifier la vie humaine ? Dans les temps préhistoriques, les hommes utilisaient deux sortes de matériaux : les produits des processus naturels (comme les pierres, l'eau, l'air et la boue) et les produits des machineries moléculaires naturelles (comme les os, le bois, la peau et la laine). De nos jours, nous utilisons ces mêmes matériaux ainsi que des techniques grossières et complexes pour fabriquer les produits de notre civilisation industrielle mondiale. Les systèmes technologiques ont dépassé la taille humaine, en grande partie à cause de notre technologie grossière et de la stupidité de nos machines : pour faire des systèmes complexes, nous devions les concevoir très grands. Pour les rendre intelligents, nous étions obligés de les peupler d'humains. Les systèmes résultants se sont propagés sur tous les continents et maintiennent les gens dans une toile géante. Ils ont permis d'échapper à une existence laborieuse qui tirait à peine sa subsistance des travaux de la ferme, mais également d'allonger la vie et d'apporter la richesse. Mais à un coût que certains considèrent comme trop élevé. Les nanotechnologies ouvriront de nouveaux horizons. Des systèmes auto-répliquants fourniront de la nourriture, des soins médicaux, des logements et d'autres produits nécessaires. Ils accompliront ceci sans bureaucratie ni grosses usines. De petites communautés vivant en autarcie pourront en bénéficier. Une technologie libère si elle permet aux gens de retourner à une manière de vivre primitive. La technologie moderne y échoue ; ce n'est pas le cas de la technologie moléculaire. Par exemple, imaginez un retour au style de vie de l'Age de Pierre : le premier âge l'ignorait, le nouveau l'utilisera. Les nouveaux villageois de l'âge de pierre ne comprendraient pas la technologie moléculaire par manque d'instruction mais cela n'a pas beaucoup d'importance. Depuis les temps anciens, les villageois ont utilisé les machineries moléculaires des levures, des graines et des chèvres sans compréhension des phénomènes à l'échelle moléculaire. Si des choses aussi complexes et indisciplinées que les chèvres satisfont un style de vie primitif alors d'autres formes de machineries moléculaires le pourront également. Les choses vivantes montrent que la machinerie qui se trouve à l'intérieur d'un système auto-répliquant peut être ignorée au contraire de la mécanique d'une automobile. Ainsi, un groupe peut élever de nouvelles "plantes" et de nouveaux "animaux" pour subvenir à ses besoins et améliorer le quotidien tout en vivant une vie de l'âge de pierre. Ils peuvent même se limiter aux plantes et aux animaux ordinaires, ceux qui ont été mis au point par des millénaires de croisements sélectifs. Malgré des possibilités aussi nombreuses, quelques personnes préféreront peut-être vivre comme nous le faisons aujourd'hui : avec la pollution sonore de la circulation, ses odeurs et ses dangers ; avec des dents creuses douloureusement soignées, des articulations douloureuses et une peau qui se flétrit ; avec des joies gâchées par la peur, le travail harassant et l'approche de la mort. Mais à moins qu'elles n'aient subi un lavage de cerveau pour leur ôter l'idée que de meilleurs choix existent, combien se résigneront volontairement à ce genre de vie ? Peut-être quelques-unes. Peut-on imaginer une vie normale dans une colonie spatiale grande, complexe et située dans l'espace ? La Terre aussi est grande, complexe et située dans l'espace. Les mondes de l'espace pourront être aussi indépendants que la Terre l'est et aussi vastes que des continents, baignés de lumière et d'air dans un biocylindre géant, à défaut de biosphère. Les mondes de l'espace ne seront pas forcément des produits de conception directe des humains. Une grande part de la beauté dans la Nature vient d'une sorte d'équilibre entre l'ordre et le désordre. Les nervures d'une feuille, les branches d'un arbre, les ramifications d'un bassin fluvial -tous ces exemples présentent une liberté de formes à l'intérieur de motifs qui ressemblent à ce que les mathématiciens appellent des "fractales"246. Les paysages des mondes spatiaux n'auront pas besoin d'être construits sur le modèle des cours de golf et des terrains de banlieue. Certains seront conçus avec l'aide d'ordinateurs possédant une grande connaissance des phénomènes naturels. Ils seront programmés pour appliquer ces connaissances à des conceptions humaines pour les rendre plus naturelles que ce que n'importe quel esprit est capable de faire. Les montagnes et les vallées des paysages sauvages auront leurs répliques dans l'espace où elles auront été sculptées par de l'eau électronique durant des ères virtuelles. Les mondes de l'espace seront de véritables mondes. Suffisamment d'espace pour rêver Voilà l'ampleur des promesses du futur. Malgré des limites de la croissance, nous pourrons capter une énergie solaire mille milliards de fois plus importante que toute l'énergie que nous utilisons à l'heure actuelle. Les ressources du système solaire nous permettront de créer une surface habitable un million de fois plus grande que celle de la Terre. Avec les assembleurs, l'ingénierie automatique et les ressources de l'espace, nous pourrons rapidement posséder des richesses d'une quantité et d'une qualité allant au-delà des rêves du passé. Les limites ultimes de l'espérance de vie resteront mais la technologie de réparation cellulaire permettra à quiconque de vivre en parfaite santé indéfiniment. Ces avancées apporteront en même temps de puissants engins de destruction mais elles rendront également possible la fabrication de boucliers actifs et de systèmes de contrôle des armes pouvant maintenir la paix. Ainsi, nous avons devant nous un avenir avec assez d'espace pour contenir de nombreux mondes et de nombreux choix de vie ; nous aurons également assez de temps pour les explorer. Une technologie bien domestiquée peut repousser nos limites, réduisant ainsi ses contraintes sur l'humanité. Dans un futur ouvert de richesses, d'espace et de diversité, les groupes de personnes seront libres de former presque n'importe quel type de société : elles seront libres d'échouer ou d'être un exemple lumineux pour le monde. A moins que vos rêves ne soient de dominer tous vos semblables, il est probable que d'autres personnes voudront les partager. Vous pourriez alors choisir de façonner ensemble un nouveau monde. Si vous prenez un mauvais départ -parce que vous rencontrez trop de problèmes ou que trop peu sont résolus- vous pourrez recommencer. Notre problème aujourd'hui n'est pas de concevoir ou construire des mondes utopiques mais de rechercher une occasion d'essayer. Préparatifs Nous pouvons échouer. Les assembleurs répliquants apporteront des problèmes d'une complexité inouïe et ils menacent d'arriver avec une soudaineté sans précédent. Nous ne pouvons pas nous permettre d'attendre une erreur fatale pour décider de ce que nous devons faire. Nous devons utiliser ces nouvelles technologies pour construire des boucliers actifs avant que les menaces ne se fassent plus précises. Heureusement pour notre survie, les percées à venir deviendront de plus en plus évidentes. Elles finiront par attirer l'attention du public, ce qui garantira au moins des mesures de prévoyance. Mais plus tôt nous commencerons à faire des projections et plus grandes seront nos chances de réussir. Le monde deviendra bientôt réceptif à des schèmes qui inclineront vers des politiques réellement ouvertes aux percées des assembleurs et de l'IA. De tels schèmes se répandront alors et, bons ou mauvais, s'enracineront. Nos chances seront plus élevées si un ensemble de bonnes idées a été façonné et commence à se répandre quand le temps sera venu -l'opinion publique et les décisions politiques seront alors plus enclines à prendre parti quand la crise approchera. Cette situation rend les discussions approfondies et l'éducation publique importantes dès maintenant. De nouvelles institutions seront nécessaires pour guider la technologie et les institutions n'évoluent pas en une nuit. Ceci rend le travail sur l'hypertexte et les forums de faits important dès maintenant. S'ils sont prêts à être utilisés, alors ils seront mieux acceptés à l'approche des crises. Malgré l'attrait général pour un avenir ouvert, certains s'y opposeront. Ceux qui sont assoiffés de pouvoir, les idéalistes intolérants ainsi qu'une poignée de gens qui ne supportent pas leurs semblables, trouveront répugnante la perspective de la liberté et de la diversité. Pourront-ils influencer les décisions publiques ? Les gouvernements subventionneront, retarderont, classifieront, maîtriseront, ruineront ou guideront inévitablement les percées à venir. En coopérant, les démocraties peuvent faire une erreur fatale mais ce sera probablement le résultat d'une confusion générale sur les liens de causalité entre les politiques et leurs conséquences. Il y aura une véritable opposition à un avenir ouvert, fondée sur des valeurs et des buts différents -souvent tus- mais il y aura des dissensions plus importantes encore sur des propositions particulières, fondées sur des avis divergents sur les faits. Bien que de nombreux désaccords auront pour origine des différences de jugement, nombre d'entre eux prendront inévitablement leurs racines dans la simple ignorance. Même les faits solides et bien établis seront peu connus en tout premier lieu. Pire, la perspective de technologies aussi fondamentales que les assembleurs, l'IA et les machines à réparer les cellules bouleversera inévitablement d'un seul coup de nombreuses idées bien établies. Elle provoquera des conflits dans l'esprits des gens (je le sais, j'en ai expérimenté certaines). Dans quelques esprits, ces conflits déclencheront le réflexe de "rejet de la nouveauté" qui sert de système immunitaire mental de base à l'humanité. Ce réflexe rendra l'ignorance tenace. Pire encore, la propagation de demi-vérités fera aussi des dégâts. Pour fonctionner correctement, certains schèmes doivent être reliés à d'autres. Si l'idée de nanotechnologies était dissociée de l'idée des dangers qu'elles présentent, alors elles seraient encore plus dangereuses qu'elles ne le sont actuellement. Mais dans un monde où la technologie est analysée avec suspicion, cette menace semble faible. Cependant, d'autres fragments d'idées se répandront et donneront lieu à des incompréhensions et des conflits. L'idée de forum de faits lorsqu'elle est exposée sans distinction entre les faits, les valeurs et les choix politiques peut sembler technocratique. Les boucliers actifs, quand ils sont proposés sans faire mention de l'hypertexte ou des forums de faits peuvent sembler impossibles à croire. L'inéluctabilité des nanotechnologies et les dangers qui leur sont associés ont de quoi désespérer si l'on ne connaît pas les boucliers actifs. Le danger des nanotechnologies, quand son inéluctabilité n'est pas comprise, incitera à des efforts locaux parfaitement inutiles pour stopper ses avancées globales. Si le développement des boucliers actifs n'est pas motivé par la nécessité de contrôler la technologie moléculaire, alors il semblera trop difficile à réaliser pour beaucoup de gens. S'ils sont appelés des "projets de défense", sans distinction entre l'attaque et la défense, alors les boucliers seront interprétés par quelques personnes comme des menaces à la paix. De la même manière, l'idée de vie prolongée peut sembler perverse quand elle n'est pas accompagnée des perspectives concernant l'abondance et les nouvelles frontières. L'abondance, lorsqu'elle est envisagée sans développement spatial ou réplicateurs contrôlés peut paraître destructrice pour l'environnement. L'idée de biostase semble absurde pour tous ceux qui ne connaissent rien à la réparation des cellules et qui confondent l'expiration d'une personne avec sa dissolution. Toutes ces idées vont avoir tendance à se disperser avec le temps, à moins qu'elles ne soient maintenues ensemble dans un livre ou grâce à des liens hypertextes. Nous devons développer et diffuser une compréhension du futur dans son ensemble, comme un système de dangers et d'espoirs entremêlés. Ceci en appelle aux efforts concertés de nombreux esprits. La motivation pour étudier et répandre les informations nécessaires seront assez fortes : les questions sont fascinantes et d'une grande importance. Beaucoup de gens souhaiteront partager leurs vues sur ce qui nous attend avec leurs amis, leurs proches et leurs collègues. Si nous marchons dans la bonne direction -en apprenant, enseignant, argumentant, changeant de directions et marchant encore, nous pourrons peut-être orienter la course technologique vers un avenir assez ouvert pour contenir nos rêves. Des ères géologiques d'évolution et des millénaires d'histoire ont préparé ce défi et le proposent tranquillement à notre génération. Les années qui viennent seront le tournant le plus important dans l'histoire de la vie sur Terre. Conduire la vie et la civilisation à travers cette transition est la noble tâche de notre temps. Si nous y parvenons -et si vous survivez- alors vous serez peut-être honoré par une liste sans fin de questions provenant de vos adorables arrière-petits-enfants : "Comment c'était quand tu étais enfant, avant la Percée ?", "Qu'est-ce que ça faisait de vieillir ?", "Qu'as-tu pensé quand tu as su que la Percée allait venir ?" et "Qu'as-tu fait alors ?". Par vos réponses, vous leur ferez une fois de plus le récit de la conquête du futur. Postface, 1990 Que corrigerais-je dans Les engins créateurs maintenant, après plusieurs années de discussions, de critiques et de progrès technologiques ? Les premières dizaines de pages feraient part des avancées récentes dans le domaine de la technologie mais les conclusions resteraient les mêmes : nous approchons de la percée des assembleurs, d'une ère de fabrication moléculaire qui nous procurera un contrôle atomique de la matière pour un coût modique. Il n'y aurait pas de changements dans la thèse centrale. Pour résumer quelques indicateurs de progrès technologiques : Les engins créateurs spécule sur la date de fabrication de la première protéine en partant de rien : William F. DeGrado et ses collègues chez DuPont de Nemours l'ont accompli en 1988. En 1987, un prix Nobel fut attribué à Donald J. Cram (UCLA), Jean-Marie Lehn (université Louis Pasteur) et Charles Pedersen (DuPont de Nemours) pour avoir fabriqué des molécules synthétiques ayant certaines caractéristiques des protéines. Chez IBM, le groupe de John Foster a observé et déplacé des atomes individuellement en utilisant la technique du microscope à effet tunnel. Ce dispositif (ou le microscope à force atomique) donnera peut-être dans quelques années une machine permettant de positionner les atomes pour fabriquer un proto-assembleur grossier. Les outils informatiques pour concevoir et modéliser les molécules se sont améliorés rapidement. En conclusion, les avancées vers les nanotechnologies grâce à l'ingénierie des systèmes moléculaires a été encore plus rapide que ce qui est suggéré dans Les engins créateurs. L'idée de nanotechnologie s'est répandue très largement, à la fois à travers Les engins créateurs lui-même (avec les éditions britanniques et japonaises en 90) et à travers d'autres publications. Un résumé récent est apparu dans le livre de l'année de l'encyclopédie Britannica La science et le futur. J'ai été invité à parler dans la plupart des grandes universités et dans de nombreux laboratoires de recherche en entreprise parmi les meilleurs aux USA. A Standford, quand j'ai donné le premier cours universitaire sur les nanotechnologies, la salle et les allées étaient pleines si bien que le dernier étudiant est entré par une fenêtre. L'intérêt pour les nanotechnologies a été grand et va en augmentant. Quelles ont été les réactions de la communauté technique -de ceux qui sont les mieux placés pour trouver des idées erronées- ? De là où je suis (c'est-à-dire en face d'un auditoire qui pose des questions techniques) les thèses centrales du livre paraissent bien établies ; elles ont résisté aux critiques. Ceci ne veut pas dire que tout le monde les accepte ; simplement, tous les arguments qui devaient les rejeter se sont révélés défaillants (désolé pour les critiques cachés qui ont des raisons valables de mettre en doute les idées du livre : s'il vous plaît, sortez du rang et parlez fort !). Un grand nombre de publications techniques (sur les nanoordinateurs mécaniques, les roulements et les engrenages moléculaires, etc.) sont disponibles et un ouvrage technique est en cours. Après une série de séminaires locaux, l'institut de la prédictionq a parrainé la première conférence majeure sur les nanotechnologies en octobre 1989 (article correspondant dans Science News du 4 novembre) ; un rapport est en préparation. Lors de la conférence, il est devenu évident que les japonais traitent depuis plusieurs années les systèmes d'ingénierie moléculaire comme la base de la technologie du XXIème siècle. Si le reste du monde veut voir se développer une coopération autour des nanotechnologies, il ferait mieux de se réveiller et de se mettre au travail. Certains scénarios et certaines propositions dans la troisième partie Des engins créateurs mériteraient une reformulation mais un problème au moins est présenté de manière incorrecte. On trouve à la page 175 l'idée qu'il est nécessaire de se préserver des accidents dans lesquels des assembleurs répliquants s'échapperaient. Aujourd'hui, j'insisterais plutôt sur le fait qu'il n'est pas nécessaire de construire un réplicateur qui aurait une quelconque ressemblance avec ceux qui survivent dans la nature. Pour prendre une image, considérons les voitures : pour fonctionner, elles ont besoin de carburant, d'huile, de liquide de frein, etc. Aucun accident simple ne peut permettre à une voiture d'aller se promener toute seule dans la nature et de se recharger en pompant la sève des arbres : ceci demanderait un travail de génie et beaucoup de temps. Il en sera de même avec les réplicateurs simples que nous aurons conçus pour fonctionner dans des cuves de fluide d'assemblage. Les produits destinés à l'utilisation extérieure ne se répliqueront pas. Les réplicateurs qui auront été construits en respectant des règles simples ne seront pas dangereux. Le problème -et il est énorme- ne vient pas des accidents mais des abus. Certains ont imaginé à tort que mon but est de promouvoir les nanotechnologies ; il est plutôt de promouvoir la compréhension des nanotechnologies et leurs conséquences, ce qui est entièrement différent. Néanmoins, je suis maintenant persuadé que plus tôt nous démarrerons sérieusement nos efforts de développement et plus long pourra être le débat public. Pourquoi ? Parce que les débats sérieux commenceront en même temps que ces efforts sérieux et plus tôt nous commencerons, moins notre base technologique sera vaste. Un départ anticipé signifie donc des progrès plus lents et donc plus de temps pour analyser les conséquences. Si vous souhaitez rester informé des développements futurs dans ces domaines et si vous souhaitez faire des efforts pour les comprendre et influencer les décisions, contactez s'il vous plaît : The Foresight Institute P.O. box 61058 Palo Alto, Calif. 94306 (415) 324-2490 Postface, 1996 Les engins créateurs essaye d'évaluer le monde vers lequel la technologie nous conduit et depuis la première publication, la technologie a fait beaucoup de chemin. Le premier chapitre montre comment l'ingénierie protéique, en fabriquant des machines moléculaires à la manière des cellules, peut conduire à des systèmes plus avancés. Mais à cette époque, la résolution des problèmes de base ne permettait pas d'évaluer clairement le temps qu'il faudrait pour y parvenir. Deux ans après la publication, William DeGrado chez DuPont de Nemours rapporta le premier succès véritable dans le domaine de la conception de protéines de novo. Il y a maintenant un journal intitulé Ingénierie protéique et les résultats se font toujours plus nombreux. Qui plus est, d'autres voies permettant d'atteindre le même but ont émergé ; elles utilisent d'autres molécules et d'autres méthodes. Le prix Nobel de chimie de l'année 1987 fut attribué à Cram, Pedersen et Lehn pour leurs travaux sur la construction de grosses structures moléculaires par auto-assemblage. Le prix Feynman 1995 des nanotechnologies fut décerné à Nadrian Seeman, de l'université de New York pour la conception et la synthèse de structures d'ADN assemblées en armature cubique. Les chimistes ont commencé à parler de "nanochimie". Ces dernières années, l'auto-assemblage moléculaire est devenu une discipline à part entière. Dans les notes, Les engins créateurs mentionne la possibilité que des systèmes mécaniques -des microscopes permettant de faire bouger des aiguilles très fines sur des surfaces avec une précision atomique- puissent être utilisés pour positionner des outils moléculaires. Depuis, Donald Eigler, qui travaille chez IBM, a magnifiquement illustré cette possibilité en écrivant les lettres IBM avec 35 atomes de xénon précisément placés sur une surface métallique. La manipulation individuelle des atomes est elle aussi devenue un champ d'étude. Mais l'indicateur le plus probant est peut-être d'ordre linguistique. Quand Les engins créateurs fut publié, le mot "nanotechnologie" était presque inconnu. C'est devenu depuis un terme très à la mode en sciences, en ingénierie, en futurologie et en science-fiction. Nous sommes engagés dans la voie qui mène aux nanotechnologies, que ce soit dans les laboratoires ou dans notre langage. Il y a également des chances d'apprendre à mieux maîtriser nos technologies dès maintenant. Le chapitre "Le réseau de la connaissance" décrit comment un média de publication hypertexte peut accélérer l'évolution du savoir et peut-être de la sagesse. Le Web est une étape majeure dans cette direction et les développeurs de logiciels travaillent à l'ajout des fonctions nécessaires pour aller au-delà de la simple publication. C'est par exemple le support des discussions, des critiques, des délibérations et de l'élaboration des consensus. Glossaire Ce glossaire rassemble les termes utilisés dans ce livre pour décrire une technologie évoluée. Il a été créé par le "groupe d'étude sur les nanotechnologies" du MIT, avec l'aide particulière de David Darrow, de l'université d'Indiana. Acide aminé : Molécules organiques servant de blocs élémentaires pour la construction des protéines. ADN (acide désoxyribonucléique) : Les molécules d'ADN sont de longues chaînes moléculaires constituées de quatre sortes de nucléotides. C'est l'ordre de ces nucléotides qui encode l'information nécessaire à la construction des protéines. Celles-ci forment la majeure partie des machines moléculaires de la cellule. L'ADN est le matériel génétique de la cellule (voir aussi ARN). Antioxydant : Produit chimique qui empêche l'oxydation responsable du rancissement des graisses et des altérations de l'ADN. ARN (Acide ribonucléique) : Molécule ressemblant à l'ADN. Dans les cellules, l'information contenue dans l'ADN est transcrite en ARN. Cet ARN est ensuite "lu" pour diriger la construction protéique. Certains virus utilisent de l'ARN pour stocker leur information génétique. Assembleur : Machine moléculaire qui peut être programmée pour construire pratiquement n'importe quelle structure moléculaire à partir de produits chimiques simples. C'est l'analogue moléculaire d'une machine à commande numérique. Assembleur limité : Assembleur construit de manière à ce que ses capacités de fabrication limitées restreignent son utilisation (par exemple, pour empêcher que son utilisation puisse présenter des dangers ou pour qu'il ne puisse construire qu'une seule chose). Atome : Plus petite particule d'un élément chimique (environ 3 dix-milliardième de mètre de diamètre). Les atomes sont les briques élémentaires des molécules et des objets ; ils sont constitués d'un nuage d'électron qui entourent un noyau dense mesurant un cent millième du diamètre de l'atome lui-même. Les nanomachines fonctionneront avec les atomes, pas les noyaux. Bactérie : Organisme unicellulaire d'environ un micron de diamètre (en moyenne). Les bactéries sont parmi les cellules les plus petites, les plus simples et les plus ancestrales. Bilan nul : Terme utilisé pour décrire une situation dans laquelle une ou plusieurs entités ne peuvent effectuer un gain que si d'autres entités subissent une perte équivalente -par exemple, une partie de poker (voir Bilan positif). Bilan positif : Terme utilisé pour décrire une situation dans laquelle une ou plusieurs entités peuvent effectuer un gain sans que d'autres entités subissent une perte équivalente -par exemple, une économie croissante (voir Bilan nul). Bio-chauvinisme : Préjugé selon lequel les systèmes biologiques possèdent une supériorité intrinsèque qui leur assurera toujours une certaine supériorité dans les domaines de la reproduction et de l'intelligence. Biostase : Etat d'un organisme dans lequel les structures cellulaires et tissulaires sont préservées, permettant ainsi une restauration ultérieure par des machines de réparation cellulaire. Bouclier actif : Système défensif dont l'aspect offensif est bridé afin d'éviter ou de diminuer son utilisation dans un but d'attaque. Capillaire : Vaisseau sanguin microscopique qui délivre le sang oxygéné aux tissus. Cellule : Unité vivante isolée par une membrane et mesurant plusieurs microns de diamètre. Toutes les plantes et les animaux sont constitués d'une ou de plusieurs cellules (des billions dans le cas des humains). En général, chaque cellule d'un organisme pluricellulaire contient un noyau renfermant la totalité de l'information génétique de l'organisme. Circuit intégré : Circuit électronique constitué de nombreux composants interconnectés sur un support semi-conducteur. Les circuits intégrés font le plus souvent entre 1 et 10 millimètres de côté ; ce sont les composants majeurs des ordinateurs modernes. Conception anticipée : Utilisation de principes techniques et scientifiques pour concevoir des systèmes qui ne peuvent être construits qu'avec des outils du futur. Ce procédé permet une exploitation plus rapide des nouveaux outils. Croissance exponentielle : Augmentation caractérisée par un doublement périodique d'une quantité. Cryobiologie : Science de la biologie à basse température. Les recherches en cryobiologie ont permis la congélation et le stockage du sperme et du sang pour une utilisation ultérieure. Désassembleur : Système de nanomachines capable de retirer les atomes par petits paquets tout en stockant leur position. Dissolution : Détérioration d'un organisme de sorte que son état ne permette plus de déterminer sa structure originale. Diversité de conception : Forme de redondance dans laquelle les composants de plusieurs conceptions différentes servent le même but. Ceci peut permettre à des systèmes de fonctionner correctement malgré des défauts de conception. Entropie : Mesure du désordre dans un système physique. Enzyme : Protéine qui agit comme un catalyseur dans une réaction chimique. Enzyme de restriction : Enzyme qui coupe l'ADN à des endroits spécifiques. Ces enzymes permettent aux biologistes d'insérer et de supprimer du matériel génétique. Eurisko : Programme informatique développé par le professeur Douglas Lenat qui est capable de manipuler des règles heuristiques pour accomplir des tâches variées, y compris l'invention de nouvelles règles heuristiques. Evolution : Processus au cours duquel des entités auto-répliquantes subissent des variations. Les entités produites qui ont le plus de succès se répandent et servent de base aux variations ultérieures. Forum de faits : Procédure visant à extraire les faits à travers un débat structuré, entre experts. Heuristiques : Règles empiriques utilisées pour s'orienter dans une direction où la solution se trouve probablement. Hypertexte : Système informatique permettant de relier du texte et d'autres informations entre elles par un système de liens. Ce système facilite l'accès à l'information et permet de publier et de trouver rapidement des critiques. Ingénierie : Utilisation des connaissances scientifique et d'une stratégie par essais et erreurs pour concevoir des systèmes (cf. Science). Ingénierie automatisée : Utilisation des ordinateurs pour effectuer des tâches d'ingénierie. De manière ultime : réalisations détaillées effectuées automatiquement à partir de spécifications globales et grâce à une aide humaine minimale. L'ingénierie automatique est une forme spécialisée d'intelligence artificielle. Intelligence artificielle (IA) : Domaine de recherche ayant pour objectif de comprendre et construire des machines intelligentes ; ce terme peut également s'appliquer à une machines intelligente elle-même. Ion : Atome dont le nombre d'électron est supérieur ou inférieur à celui nécessaire pour annuler la charge électrique du noyau. Un ion est un atome possédant une charge électrique. Kevlar (tm) : Fibre synthétique fabriquée par la firme Du Pont de Nemours. Plus résistant que la plupart des aciers, le Kevlar compte parmi les matériaux les plus résistants disponibles sur le marché. Il est utilisé dans la construction aérospatiale, la fabrication de gilets pare-balles et en général, dans toutes les applications nécessitant un rapport résistance/poids élevé. Laboratoire scellé d'assembleurs : Espace de travail clos contenant des assembleurs confinés de telle sorte que des informations puissent entrer et sortir mais que des assembleurs ou leurs produits ne le puissent pas. Liaison croisée : Liaison se formant entre des chaînes moléculaires distinctes. Machine de réparation cellulaire : Système comprenant des nano-ordinateurs, des capteurs et des outils moléculaires. Il est programmé pour réparer les cellules et les tissus. Microprocesseur : Cf. circuit intégré. Molécule : La plus petite partie d'une substance chimique, constituée le plus souvent d'un petit nombre d'atomes maintenus ensemble d'une manière spécifique par des liaisons chimiques. Molécule organique : Molécule contenant du carbone. Les molécules complexes des systèmes vivants sont toutes des molécules organiques selon cette définition. Mutation : Modification transmissible d'une information génétique (comme celle portée par l'ADN). Les mutations peuvent être bonnes, mauvaises ou sans effet sur un organisme. La compétition pour la survie écarte les mauvaises et laisse les bonnes et celles qui n'ont pas d'effets. Nano- : Préfixe signifiant dix puissance moins neuf (10-9), soit un milliardième. Nano-ordinateurs : Ordinateur assemblé avec des composants (mécaniques, électroniques ou autres) ayant une taille nanométrique. Nanotechnologies : Technologie fondée sur la manipulation individuelle des atomes et des molécules pour construire avec précision des structures complexes. Neurone : Cellule nerveuse comme celles que l'on trouve dans le cerveau. Noyau : En biologie, structure des cellules évoluées qui contient les chromosomes et la machinerie de transcription de l'ADN en ARN. En physique, le c¦ur très petit et très dense d'un atome. Nucléotide : Petite molécule composée de trois parties : une base azotée (une purine ou une pyrimidine), un sucre (ribose ou désoxyribose) et un phosphate. Les nucléotides sont les briques élémentaires des acides nucléiques (ADN et ARN). Polymère : Molécule composée d'unités répétées reliées entre elles pour former une chaîne. Principe d'incertitude d'Heisenberg : Principe de mécanique quantique impliquant que le moment et la position d'une particule ne peuvent pas être précisément déterminés simultanément. Le principe d'incertitude d'Heisenberg aide à déterminer la taille du nuage électronique et donc la taille des atomes. Radical libre : Molécule souvent très instable et très réactive contenant un électron non-apparié. Les radicaux libres peuvent endommager la machinerie moléculaire des systèmes biologiques en provoquant des liaisons croisées et des mutations. Redondance : Utilisation de composants surnuméraires pour remplir une fonction. Ceci permet à un système de continuer à fonctionner malgré des composants hors d'usage. Réplicateur : D'un point de vue évolutionniste, un réplicateur est une entité (comme un gène, un schème ou le contenu d'un disque dur d'ordinateur) qui peut faire une copie de lui-même en incluant les modifications qu'il a pu subir. Dans un sens plus large, un réplicateur est un système qui peut effectuer une copie de lui-même, sans nécessairement recopier les modifications subies. Les gènes d'un lapin sont des réplicateurs au premier sens évoqué (une mutation dans un gène peut être transmise) ; le lapin lui-même n'est qu'un réplicateur au deuxième sens (une entaille pratiquée dans ses oreilles ne peut pas être transmise à la génération suivante). Réseau cristallin : Motif moléculaire tridimensionnel régulier des atomes d'un cristal. Ribonucléase : Enzyme qui découpe les molécules d'ARN en morceaux. Ribosome : Machine moléculaire présente dans toutes les cellules et qui assemble les protéines selon les instructions lues sur des molécules d'ARN. Les ribosomes sont des structures complexes constituées de protéines et d'ARN. Schème : Idée qui, comme un gène, peut se répliquer et évoluer. Les théories politiques, le prosélytisme religieux et l'idée de schèmes elle-même sont des exemples de schèmes (ou de systèmes de schèmes). Science : Processus de développement d'une connaissance systématique du monde par la formulation et la vérification d'hypothèses (cf. Ingénierie). Simulation neurale : Imitation des fonctions d'un système nerveux -comme le cerveau- en simulant le fonctionnement de chaque cellule. Synapse : Structure qui transmet un signal nerveux d'un neurone à une cellule adjacente (neurone ou autre cellule). Technologie grossière : Technologie fondée sur la manipulation des atomes par tas entiers plutôt qu'individuellement. La plupart des technologies actuelles appartiennent à cette catégorie. Technologie moléculaire : Cf. nanotechnologies. Tribunal scientifique : Nom définissant un forum de faits encadré par un gouvernement (utilisé en premier par les médias). Virus : Petit réplicateur consistant en un morceau d'ADN ou d'ARN encapsulé dans une structure protéique. Lorsque ce matériel génétique est injecté dans une cellule hôte, il peut rediriger la machinerie moléculaire de celle-ci pour lui faire produire des virus. Voilier de lumière : Vaisseau spatial propulsé par la pression de la lumière sur un fin film métallique. Notes et références a [NDT] : Massachusetts Institute of Technology : célèbre université américaine à Boston a Les passages en gras et affectés d'un numéro sont annotés à la fin de l'ouvrage a Biochimie et biotechnologie appliquées b Laboratoire de recherche de la Marine des Etats-Unis c Fondation nationale pour la science (Etats-Unis) d [NDT] : De nos jours, le terme "bio-puce" désigne plutôt les puces spécialisées dans l'analyse de l'ADN. Ici, nous parlerions plutôt de microprocesseur moléculaire a [NDT] : Un palier est une pièce servant à supporter et à guider un arbre tournant a "There's plenty of room at the bottom" b [NDT] : Psychologue américain (béhavioriste) ayant insisté sur l'importance des renforcements (c'est à dire des récompenses et des punitions) lors de l'apprentissage c [NDT] : "Knowledge engineer" d "silicon computer" e Machine Intelligence Corporation f Thinking Machine Corporation g Teknoledge h Cognitive Systems Incorporated i Stategic computing j [NDT] : les américains k [NDT] : Les engins créateurs a été publié en 1986 l [NDT] : Molécule riche en énergie utilisée par les cellules m [NDT] : Jeux de mot avec "save money" et "save people" : "épargner de l'argent" et "sauver des gens" n [NDT] : Les engins créateurs a été publié en 1986 o "Star Chamber" p [NDT] : Parvenir à un accord q The Foresight Institute Chapitre 1 : Les engins constructeurs 1 P. 17 Les engins constructeurs : Les idées développées dans ce chapitre s'appuient sur les arguments présentés dans mon article "Molecular engineering : an approach to the development of general capabilities for molecular manipulation" (Proceedings of the national academy of sciences (USA), vol .78, p. 5275-78, 1981). Cet article montre la faisabilité de la conception protéique et de systèmes généralistes d'assemblage moléculaire. 2 P. 17 L'ingénierie protéique [...] représente : Cf. "Protein engineering" de Kevin Ulmer (Science, vol. 219, p. 666-71, 11 février 1983). Le docteur Ulmer est maintenant directeur du "Center for advanced research in biotechnology". 3 P.19 Un dictionnaire : The American heritage dictionary of the english language, édité par William Morris (Boston : Houghton Mifflin, 1978) 4 P.20 machines modernes : Cf. "Gene machines : the second wave", de Jonathan B. Tucker (High technology, p. 50-59, mars 1984). 5 P.22 d'autres protéines ont un rôle purement mécanique : Cf. chapitre 27 de Biochemistry, d'Albert L. Lehninger (New York : Worth publishers, 1975). Ce manuel est une excellente source d'informations sur les machineries moléculaires du vivant. Pour une discussion sur le moteur flagellaire des bactéries, cf. "Ion transport and the rotation of bacterial flagella", de P. Lauger (Nature, vol. 268, p. 360-62, 28 juillet 1977). 6 P.22 structures douées d'auto-assemblage : Pour une description plus précise de l'auto-assemblage moléculaire, y compris celui du phage T4 et du ribosome, cf. chapitre 36 de Biochemistry, de Lehninger (voir note n°5). 7 P.23 Concevoir des protéines : La nature démontre qu'une grande variété de machines protéiques est possible. Pour des exemples de structures non-protéiques relativement complexes, cf. "Supramolecular chemistry : receptors, catalysts and carriers" de Jean-Marie Lehn (Science, vol. 227, p 849-56, 22 février 1985), qui discute aussi de la conception de composants, de circuits et de systèmes de traitement de l'information à l'échelle moléculaire. 8 P.23 protéines imaginables : Les techniques modernes permettent de synthétiser n'importe quelle séquence d'ADN qui peut être utilisée ensuite pour diriger la synthèse par les ribosomes de n'importe quelle suite d'acides aminés. Ajouter des groupements prosthétiques est toutefois une autre histoire... 9 P.24 Ces tâches peuvent sembler similaires : Pour une comparaison entre la prédiction de la structure des protéines naturelles et la conception de protéines dont la structure est prédictible, cf. "Molecular engineering" (voir note n°1). 10 P.24 dans Nature : Cf. "Molecular technology : designing proteins and peptides", de Carl Pabo (Nature, vol. 301, p. 200, 20 janvier 1983). 11 P.24 de courtes chaînes de quelques dizaines d'acides aminés : Cf. "Design, synthesis and characterization of a 34-residute polypetide that interacts with nucleic acids", de B. Gutte et al. (Nature, vol. 281, p. 650-55, 25 octobre 1979). 12 P.24 Ils ont réussi à construire en partant de zéro une protéine : Pour une référence sur ce problème et une discussion générale sur l'ingénierie protéique, cf. note n°2. 13 P.24 changé leurs comportements d'une manière prédictible : Cf. "A large increase in enzyme-substrate affinity by protein engineering" d'Anthony J. Wilkinson et al. (Nature, vol. 307, p. 187-188, 12 janvier 1984). Des techniques d'ingénierie protéique ont également été employées pour rendre une protéine plus stable, sans perte d'activité : cf. "Disulphide bond engineering into T4 lysozyme : stabilization of the protein toward thermal inactivation" de L. Jeanne Perry et Ronald Wetzel (Genetech Inc.) (Science, vol. 226, p. 555-57, 2 novembre1984). 14 P.24 Selon le biologiste Garrett Hardin : Dans Nature and man's fate, p. 283 (New York : New American library, 1959). 15 P.24 dans le journal Science : Cf. "Biological frontiers", de Frederick J. Blattner (Science, vol. 222, p. 719-20, 18 novembre 1983). 16 P.24 dans Applied biochemistry and biotechnology : Cf. "Enzyme engineering", de William H. Rastetter (Applied biochemistry and biotechnology, vol. 8, p. 423-36, 1983). Cet article de synthèse décrit plusieurs tentatives réussies visant à changer la spécificité d'une enzyme pour un substrat. 17 P.24 deux conférences internationales sur les appareils électroniques moléculaires : Pour les annales de la première, cf. Molecular electronic devices, édité par Forrest L. Carter (New York, Marcel Dekker, 1982). Celles de la seconde sont parues dans Molecular electronic devices II, également éditées par Forrest L. Carter (New York, Marcel Dekker, 1986). Pour un article résumé, cf. "Molecular level fabrication techniques and molecular electronic devices", de Forrest L. Carter (Journal of vaccum science and technology, B1(4), p. 953-68, octobre-décembre 1983). 18 P.25 insistait sur le besoin de développer les recherches : Cf. The institute (une publication de l'IEEE), janvier 1984, p. 1. 19 P.25 VLSI Research : Cf. Microelectronic manufacturing ant testing, septembre 1984, p. 49. 20 P.26 d'une seule liaison chimique : La force d'une liaison simple entre deux carbones est d'environ six nanonewtons, ce qui est suffisant pour supporter une masse correspondant à celle de 30 000 billions d'atomes de carbone. Cf. Strong solids, de A. Kelly, p. 12 (Oxford : Clarendon press, 1973). 21 P.26 fibre de diamant : Le diamant est également dix fois plus rigide que l'aluminium. Cf. Strong solids (voir note n°21), appendice A, tableau 2. 22 P.26 Les chimistes parviennent toutefois à influer sur les molécules : Cf. "Sculpting horizons in organic chemistry", de Barry M. Trost (Science, vol. 227, p. 908-16, 22 février 1985) qui mentionne également les conducteurs électriques organiques et les promesses des interrupteurs moléculaires pour l'électronique du futur. 23 P.28 fera tout ce que les protéines sont capables de faire et bien plus encore : Les chimistes développent déjà des catalyseurs qui surpassent les performances des enzymes. Cf. "Catalysts that break nature's monopoly", de Thomas H. Maugh II (Science, vol. 221, p. 551-54, 22 juillet 1983). Pour plus d'informations sur les outils moléculaires non-protéiques, cf. "Artificial enzymes", de Ronald Breslow (Science, vol. 218, p. 532-37, 5 novembre 1982). 24 P.28 assembleurs : Cf. note n°1. Un appareil dont l'invention remonte à 1982 et appelé MET (microscope à effet tunnel) peut placer une fine pointe métallique sur une surface avec une précision inférieure au diamètre d'un atome. Mis à part le fait qu'il démontre la faisabilité d'un tel positionnement, il peut être utilisé pour remplacer les assembleurs afin de manipuler les outils moléculaires. Cf. "Scanning tunneling microscopy", de G. Binning et H. Rohrer (Physica, 127 B, p. 37-45, 1985). 25 P.28 presque tous les arrangements possibles : Les assembleurs permettront de construire des assemblages qui seraient par ailleurs très difficiles à réaliser avec des techniques classiques, à cause des problèmes d'énergie d'activation et de position des réactifs. Nous serons capables de diriger précisément des molécules chimiques hautement réactives. Nous pourrons ainsi orienter des réactions de synthèse, qui, sans cela, se dérouleraient à une vitesse excessivement lente ou avec une proportion de réactions parasites très élevée. De plus, les assembleurs pourront appliquer des forces mécaniques pour briser des liaisons et fournir ainsi l'énergie d'activation de réactions chimiques. Les assembleurs nous permettront également de manipuler les champs électriques d'une façon nouvelle, bien plus directe, par l'intermédiaire de conducteurs électriques de taille moléculaire reliés à des sources de courant. Les techniques photochimiques ne seront peut être pas aussi utiles (parce qu'à l'échelle moléculaire, la longueur d'onde d'un photon visible est grande) mais elles pourront probablement être utilisées dans quelques cas pour transférer une excitation électronique d'une molécule à une autre d'une façon précise. Les assembleurs (ils pourront être dirigés pour étendre encore leurs capacités en fabriquant de nouveaux outils) ne pourront pas synthétiser tout ce qui peut exister. Une structure délicate, comme une arche de pierre (un arc boutant), s'auto-détruit si toutes ses parties ne sont pas en place. S'il n'y a pas d'endroit autour pour construire un échafaudage et le retirer, alors la structure peut s'avérer impossible à fabriquer. Cependant, peu de structures ayant un intérêt pratique semblent présenter de telles caractéristiques (en fait, la réversibilité des lois qui concernent les mouvements moléculaires implique que toute structure destructible soit en principe constructible ; mais si le mécanisme de destruction implique une dégradation explosive, alors les tentatives de construction par le mécanisme inverse auront une chance de succès infime, étant donné les incertitudes pesant sur les trajectoires des parties et la faible entropie de la cible). 26 P.29 la machinerie responsable de copier l'ADN : Cf. "Comparative rates of spontaneous mutation", de John W. Drake (Nature, vol. 221, p. 1132, 22 mars 1969). Pour une discussion générale à propos de cette machinerie, cf. chapitre 32 de Biochemistry, de Lehninger (voir note n°5). 27 P.29 réparant et remplaçant les éléments endommagés par les radiations : La bactérie Micrococcus radiodurans possède des mécanismes de réparation moléculaire très robustes qui lui permettraient de survivre à l'administration en une dose unique de la radioactivité terrestre naturelle qu'elle recevrait en un million d'années. Cf. "Inhibition of repair DNA synthesis in M. radiodurans after irradiation with gamma-rays", de Shigeru Kitayama et Akira Matsuyama (Agriculture and biological chemistry, vol. 43, p. 229-305, 1979). Ceci correspond environ à mille fois la dose létale pour un être humain. Le téflon est rendu fragile et cassant par une telle radioactivité. 28 P.30 la vie n'a jamais abandonné : Les organismes construisent des structures cellulaires et des appareils moléculaires simples en partant de lipides et de sucres (et ils construisent des coquilles avec de la vase et du silicium). Mais l'absence de systèmes d'assemblage programmables pour ces matériaux n'a pas permis à la vie de les exploiter pour former les pièces principales de machines moléculaires complexes. L'ARN, comme les protéines, a une structure directement déterminée par l'ADN et il est parfois utilisé pour des rôles normalement dévolus aux protéines. Cf. "First true RNA catalyst found" (Science, vol. 223, p. 266, 20 janvier 1984). 29 P.31 R. B. Merrifield, par exemple, a utilisé des techniques chimiques : Cf. p. 119 de Biochemistry, de Lehninger (voir note n°5). 30 P.32 Charles Babbage, dans les années 1850 : Cf. chapitre 2 de Bit by bit : an illustrated history of computers, de Stan Augarten (New York : Ticknor & Fields, 1984). 31 P.33 un milliard d'octets de données, un nano-ordinateur tiendrait encore dans une boîte d'un micron de côté : Si deux groupements différents sont accrochés sur un polymère comme le polyéthylène pour représenter les zéros et les uns du code binaire, nous obtenons une bande de stockage moléculaire. Si l'on utilisait l'hydrogène et le fluor pour ces groupements et que l'on réservait une place suffisante pour les dispositifs de lecture, d'écriture et de manipulation de la bande, on pourrait stocker un gigaoctets dans un demi-micron cube. Le temps d'accès est inférieur à une microseconde, parce que la bande est très courte. Un schéma de mémoire mécanique à accès aléatoire ne permettrait de stocker que dix mégaoctets dans le même volume mais ceci peut sûrement être amélioré. Pour une discussion plus détaillée, cf. "Molecular machinery and molecular electronic devices", de K. Eric Drexler, dans Molecular electronic devices II, édité par Forrest L. Carter (New York : Marcel Dekker, 1986). 32 P.33 les déplacements mécaniques : Ceux-ci peuvent être envoyés en poussant et tirant des tiges (moléculaires) de carbyne ; une structure dans laquelle les atomes de carbone sont placés en ligne droite avec des liaisons doubles et simples alternées. Cf. "Molecular machinery and molecular electronic devices", cf. note n°31. 33 P.33 la prédiction faite par le prix Nobel Richard Feynman : Cf. son article "Quantum mechanical computers" (Optics news, vol. 11, p. 11-20, février 1985). Feynman conclut que "les lois de la physique ne s'opposent pas à ce que la taille des ordinateurs se réduise jusqu'à ce que les bits de données aient la taille des atomes et que le comportement quantique des particules devienne dominant". 34 P.33 un désassembleur : Il y aura également des limites aux désassembleurs. Par exemple, on peut concevoir une structure sensitive qui se briserait (ou exploserait) dès qu'elle serait touchée, empêchant ainsi le désassemblage contrôlé. Chapitre 2 : Les principes du changement 35 P.35 Le processus de conception : Cf. The sciences of the artificial (2ème édition) de Herbert A. Simon (Cambridge, Mass. : MIT Press, 1981). Ce livre aborde également des sujets comme l'ingénierie, la résolution des problèmes, l'économie et l'intelligence artificielle. 36 P.37 Ces deux chaînes : Parce que les nucléotides sont appariés, une copie d'un brin s'apparente en fait à un négatif photo. Seule une copie de copie est similaire à l'original. 37 P.37 Le biochimiste Sol Spiegelman : Une discussion de son travail dans ce domaine figure dans "The origin of genetic information", de Manfreid Eigen et al. (Scientific American, vol. 244, p. 88-117, avril 1981) 38 P.37 Richard Dawkins, zoologiste à Oxford : Il discute des réplicateurs dans The selfish gene (New York : Oxford university press, 1976). Ce livre, très abordable, est une excellente introduction aux concepts modernes d'évolution. Il s'applique à décrire les réplicateurs de la lignée germinale en tant qu'unité sous-tendant la variation et la sélection dans l'évolution. 39 P.39 Comme Richard Dawkins le souligne : dans The selfish gene, cf. note n°38. 40 P.40 du livre honni de Darwin : The origin of species, de Charles R. Darwin (London : Charles Murray, 1859). 41 P.41 les idées essentielles de l'évolution étaient déjà présentes avant que Darwin : Cf. p. 59 de The constitution of liberty, de Friedrich A. Hayek (Chicago : University of Chicago press, 1960) pour une discussion des premiers travaux sur l'évolution linguistique, institutionnelle et même biologique qui furent apparemment "à la base de l'appareil conceptuel que Darwin utilisa". Voir également p. 23 de Law, legislation and liberty, vol. 1 Rules and order (Chicago : University of Chicago press, 1973). Ces livres abordent aussi les problèmes de liberté et de lois et la distinction cruciale qu'il y a à faire entre une loi et un commandement. Ceci sera important pour les discussions des chapitres 11 et 12. 42 P.43 Comme Richard Dawkins le fait remarquer : dans The selfish gene, cf. note n°38. 43 P.44 dans Le prochain catalogue de la terre entière : Edité par Steward Brand (Sausalito, California : Point ; distribué par Random house, New York, 1980). 44 P.44 Peters et Waterman : Cf. In search of excellence : lessons from American's best-run corporations, de Thomas J. Peters et Robert H. Waterman, jr. (New York : Warner books, 1982). 45 P.46 comme Alfred N. Whitehead l'a indiqué : Dans Science and the modern world (New York : Macmillan company, 1925). 46 P.47 seules l'étude, l'imagination et la pensée : Convertir tout cela en images et en vidéos aidera cependant beaucoup. 47 P.48 Richard Dawkins appelle les petits bouts d'idées qui se répliquent des "schèmes" : "Schème" est un schème qui a été lancé dans le dernier chapitre de The selfish gene, cf. note n°38. 48 P.49 Mais l'égoïsme peut encourager la coopération : Dans The evolution of cooperation (New York : Basic books, 1984), le politologue Robert Axelrod utilise des jeux informatiques à plusieurs adversaires et des exemples historiques pour explorer les conditions requises pour qu'une coopération émerge entre des entités égoïstes. Etre gentil, digne de confiance et magnanime est important pour qu'une coopération durable s'établisse. Le chapitre 7 de ce très bon livre est intitulé "Comment promouvoir la coopération". 49 P.49 Dans Le phénotype étendu : De Richard Dawkins (San Francisco : W. H. Freeman, 1982). 50 P.50 Ce groupe de schèmes a infecté la tribu des Xhosa : Cf. "The self-destruction of the Xosas", d'Elias Canetti, Crowds and power (New York : Continuum, 1973), p. 193. Chapitre 3 : Prédictions et projections 51 P.52 L'attitude critique : Cf. Conjectures and refutations : the growth of scientific knowledge, de Sir Karl Popper (New York : Basic books, 1962) 52 P.53 Richard Feynman donna une conférence : "There's plenty of room at the bottom", imprimé dans Miniaturization, édité par H. D. Gilbert (New York : Reinhold, 1961). 53 P.55 Bertrand Russel observa : Cité par Karl Popper dans Objective knowledge : an evolutionary approach (Oxford : Calendron press, 1972). 54 P.55 de paraître vraies ou d'être vraies : Les idées qui ont évolué pour paraître vraies (au moins pour les esprits qui ne seraient pas critiques) peuvent en fait se révéler totalement fausses. Human inference, de Richard Nisbett et Lee Ross dans Century psychology series (Englewood cliffs, New Jersey : Prentice-hall, 1980) est un excellent travail qui compare des jugements humains naïfs à des jugements établis à l'aide de mesures scientifiques et de techniques statistiques. Il montre que nous sommes victimes d'illusions cognitives et de "points aveugles" tout comme notre système visuel est victime d'illusions d'optique et de tâche aveugle. D'autres expériences montrent que des gens sans formation parviennent à des conclusions erronées lorsqu'on leur demande d'imaginer (par exemple) la trajectoire que va suivre une balle lorsqu'elle roule dans un cercle et qu'elle en sort. Les philosophes du Moyen-Age (qui ne prenaient pas la peine de confronter leurs idées à la réalité) ont fait évoluer des "systèmes scientifiques" entiers fondés sur des incompréhensions. Cf. "intuitive physic", de Michel McClosky (Scientific américan, vol. 248, p. 122-30, avril 1983). 55 P.57 les survivantes sont souvent si proches les unes des autres : Pour être plus précis, cela s'applique surtout aux survivantes qui sont elles-mêmes des théories générales et uniformes. LA-théorie-qui-va-tout-chambouler-mercredi-prochain n'a pas été réfutée (et elle avait des conséquences pratiques) mais la référence à mercredi prochain lui enlève toute généralité). 56 P.57 comme Karl Popper le souligne : Cf. Logic of scientific discovery, p. 124 et 419 (New York : Harper & Row, 1965). Voir également Objective knowledge, p.15. 57 P.57 Comme le dit Ralph E. Gomory : Cf. "Technology development" (Science, vol. 220 p. 576-80, 6 mai 1983). 58 P.60 leurs interactions et de leurs mouvements : Ceci n'était clair qu'aux vitesses réduites. Léonard de Vinci avait sûrement un sens inné de la dynamique mais une description adéquate de la cinématique des pièces animées d'un mouvement rapide ou d'accélérations brutales n'est pas apparue avant Newton. 59 P.62 même en l'absence des outils : La familiarisation avec les progrès rapides dans les techniques de fabrication des puces a conduit quelques entreprises à concevoir des microprocesseurs dont la fabrication nécessite des techniques qui ne sont pas encore disponibles. 60 P.62 La conception assistée par ordinateur de systèmes moléculaires : Effectuer cette tâche correctement nécessitera la simulation de systèmes moléculaires. On peut trouver une description d'un tel système dans la thèse de Robert Brucoleri "Macromolecular mechanics and protein folding" (Harvard university, mai 1984). Pour les résultats d'une simulation, cf. "Dynamics and conformational energetics of a peptide hormone : vasopressin", de A. T. Hagler et al. (Science, vol. 227, p. 1309-15, 15 mars 1985). Ces deux références décrivent des simulations "classiques" qui indiquent comment les molécules répondent à des forces. De telles simulations seront adaptées pour décrire la plupart des pièces d'une machine moléculaire. D'autres travaux nécessiteront des simulations plus fondamentales (et plus coûteuses en calcul) utilisant la mécanique quantique qui permet de décrire la distribution des électrons dans les molécules Ces calculs seront nécessaires pour prévoir la formation et la destruction de liaisons par les outils des assembleurs. Pour une discussion portant sur les simulations moléculaires de mécanique quantique et la formation des liaisons, cf. "Theoretical chemistry comes alive : full partner with experiment", de William H. Goddard III (Science, vol. 227, p. 912-23, 22 février 1985). Voir également Lecture notes in chemistry, 19, computational aspects of large chemical systems, d'Enrico Clementi (New York : Springer-Verlag, 1980). Enfin pour une discussion sur la conception des outils actuels, cf. "designing molecules by computer", de Jonathan B. Tucker (High technology, p. 52-59, janvier 1984). Les ordinateurs massivement parallèles aideront beaucoup à la réalisation des calculs en chimie computationelle et en conception de molécules par ordinateur. 61 P.62 conception anticipée : Les premiers efforts de conception anticipée se concentreront sûrement sur un système d'assembleur fonctionnel. Il n'a pas besoin d'être idéal ; il doit juste avoir des capacités très générales. Une fois que les facultés de cet assembleur sont bien définies -même avant que la conception soit achevée-, il devient possible (1) de commencer à développer une bibliothèque de nanomachines qui peuvent être fabriquées avec cet assembleur standard (ou avec des assembleurs que cet assembleur peut construire) et (2) de préparer un catalogue de procédures pour l'assemblage de ces objets. Ainsi, quand le premier assembleur (même grossier) est construit, il peut être utilisé (peut-être après avoir servi à construire de nouveaux outils ou de nouveaux assembleurs) pour construire tout ce qui se trouve dans la bibliothèque. Les premiers assembleurs augmenteront considérablement nos facultés de construction. Même avec une conception anticipée à petite échelle, l'avènement des assembleurs résultera presque instantanément en un accroissement notable des qualités physiques des objets. Puisque les assembleurs seront construits par des assembleurs, des systèmes auto-répliquants seront la conséquence directe de la conception anticipée et de la percée des assembleurs. Ainsi, la percée des assembleurs permettra non seulement une brusque augmentation de la qualité des objets mais aussi la production en masse et quasiment immédiate de ces objets (cf. chapitre 4). Pour le meilleur ou pour le pire, cela rendra possible un changement abrupt peu commun en technologie, en économie et dans le monde des affaires en général. Chapitre 4 : Les engins d'abondance 62 P.65 Si tous les outils, une fois bien placés ou même de leur propre chef : Cf. Scientific quotations : the harvest of a quiet eye, sélectionné par A. L. Macklay, édité par M. Ebison (New York : Crane, Russak, 1977). 63 P.65 un scientifique de la NASA : L'ancien directeur de la NASA, Robert Frosh a dit à peu près la même chose à "l'IEEE centennial technical convocation" (cf. The institute, p. 6, décembre 1984). 64 P.66 Les réplicateurs biologiques, comme les virus, les bactéries : Dans une perspective évolutionniste, les gènes des animaux sont des réplicateurs mais l'animal lui-même n'en est pas un, parce que seules les modifications des gènes (pas les changements subis par le corps de l'animal) sont répliquées dans les générations ultérieures. Cette distinction entre les réplicateurs génétiques et les systèmes qu'ils fabriquent est essentielle pour comprendre l'évolution. Ceci étant, l'utilisation du terme "réplicateur" pour en référer au système dans son intégralité est plus pratique, notamment pour des discussions sur les systèmes répliquants en tant qu'appareil de production. 65 P.66 Fujitsu : Cf. "Production : a dynamic challenge", de M. E. Merchant (IEEE spectrum, p. 36-39, mai 1983). Ce numéro d'IEEE spectrum contient une discussion approfondie sur l'automatisation informatique. 66 P.68 mais plutôt à des usines réduites : L'organisation de type cellulaire (sur le mode de la cellule) présente néanmoins des avantages. Par exemple, malgré divers mécanismes de transport actif, les cellules transportent la majorité des composants moléculaires par diffusion passive plutôt que par des transporteurs. Ceci permet de relier chaque machine à toutes les autres (dans le même compartiment cellulaire, délimité par une membrane), d'une manière très fiable. Les transporteurs au contraire, sont fragiles et peuvent se casser ; ils nécessitent des réparations et des remplacements. Mais il est possible qu'un système de transport bien conçu et possédant de nombreux avantages n'ait pas encore évolué. Des systèmes vivants n'utilisant que des transporteurs auraient plus de difficultés à évoluer parce qu'une nouvelle machine moléculaire devrait d'emblée avoir la bonne position et la bonne orientation pour pouvoir fonctionner avec le transporteur. Une machine qui ne répondrait pas à une de ces caractéristiques serait inutile et la pression sélective l'éliminerait avant que des variantes fonctionnelles de cette machine n'apparaissent. Au contraire, pour qu'une machine moléculaire fonctionne dans un système de diffusion passive, elle doit seulement être présente. Et si elle fait quelque chose d'utile, la sélection la favorisera immédiatement. 67 P.68 Une enzyme rapide : Cf. p. 208 de Biochemistry, d'Albert L. Lehninger (voir note n°5). De plus, chaque molécule de catalase peut briser 40 millions de molécules de peroxyde d'hydrogène par seconde, cf. Enzyme structure and mechanism, d'Alan Fersht, p. 132 (San Francisco : W. H. Freeman et Co., 1977). Dans une réaction enzymatique classique, les molécules doivent se déplacer au hasard pour arriver dans la bonne position au regard des "outils" de l'enzyme, attendre que les vibrations thermiques aléatoires amorcent la réaction, puis repartir de la même manière. Ces étapes occupent presque tout le temps que dure la réaction enzymatique : la formation ou la destruction d'une liaison est beaucoup plus rapide. Les électrons sont 1000 fois plus mobiles et légers que le noyau (qui définit la position de l'atome). C'est pourquoi ce sont les mouvements lents du noyau qui donnent le rythme de la réaction. La vitesse moyenne des atomes dans des conditions d'agitation thermique standard est d'environ 100 mètres par seconde et la distance sur laquelle doivent se mouvoir les atomes pour former ou détruire des liaisons est typiquement de 0,1 nanomètre. Ainsi, le temps nécessaire pour créer ou briser une liaison est de 10-12 seconde. Cf Chapitre 12 de Molecular thermodynamics, de John H. Knox (New York : Wiley-interscience, 1971). 68 P.68 environ cinquante millions de fois : Cette relation d'échelle peut être vérifiée en observant (1) que les perturbations mécaniques se propagent à la vitesse du son (elles arrivent en moitié moins de temps si elles doivent parcourir la moitié de la distance) et (2) qu'à contrainte constante dans le matériau du bras, réduire la longueur (et donc la masse par unité de section) de moitié multiplie par deux l'accélération de l'extrémité. En divisant par deux la distance que l'extrémité doit parcourir, celle-ci va bouger d'avant en arrière en la moitié du temps (puisque le temps requis pour un mouvement donné est la racine carrée d'une quantité proportionnelle à la distance parcourue divisée par l'accélération). 69 P.69 la bande elle-même : Selon la subtilité (ou la stupidité) du schéma de codage utilisé, la bande peut avoir une masse supérieure à celle du système tout entier. Mais puisque la duplication de la bande est une fonction simple et spécialisée, elle n'a pas besoin d'être effectuée par l'assembleur lui-même. 70 P.70 seulement une infime fraction au mauvais endroit : Causées par de très rares fluctuations dans le bruit thermique et des radiations lors du processus d'assemblage. Les assembleurs de haute fiabilité comprendront un système de contrôle de qualité pour identifier les variations indésirables dans la structure. Ce système pourrait être composé d'un capteur monté sur un bras qui toucherait la surface de la pièce de travail pour révéler les trous et les bosses accidentels. Les omissions (le plus souvent représentées par des trous) peuvent être corrigées en ajoutant les atomes manquants. Des groupes d'atomes mal placés (matérialisés par des bosses) peuvent être retirés en adaptant les outils moléculaires adéquats sur le bras-capteur. On pourrait aussi construire un objet en assemblant de petites parties faciles à construire et à tester. Les erreurs pourraient ainsi être éliminées avant qu'elles n'aient une chance d'être incorporées dans un système plus important (en taille et en fonction). Ces procédés de contrôle de qualité ralentiront un peu le processus d'assemblage. 71 P.74 fonctionnant, comme les muscles : Cf. notes du chapitre 6. Chapitre 5 : Machines pensantes 72 P.75 Le monde est à la veille : Citation tirée de Buisness week, 8 mars 1982. 73 P.76 Comme Daniel Dennett : Cf. "Why the law of effect will not go away", dans l'ouvrage de Daniel C. Dennett, Brainstorming : philosophical essays on mind and psychology (Cambridge, Mass. : MIT press, 1981). Ce livre explore un grand nombre de questions touchant à l'intelligence artificielle et à l'évolution. 74 P.77 Marvin Minsky : Cf. The society of mind (New York : Simon & Schuster, 1986). J'ai eu l'occasion de découvrir la plus grande partie de ce travail sous sa forme manuscrite. Il présente des idées très intéressantes à propos de la pensée, du langage, de la mémoire, de la psychologie du développement et de la conscience -et aussi à propos des relations qui existent entre tous ces sujets et l'intelligence artificielle. 75 P.78 tout système ou appareil : American heritage dictionary, édité par William Morris (Boston : Houghton Mifflin company, 1978). 76 P.78 Charles Babbage avait construit : Cf. Bit by bit, note n°30. 77 P.79 le Manuel de l'intelligence artificielle : Edité par Avron Barr et Edward A. Feigenbaum (Los Altos, Calif. : W. Kaufmann, 1982). 78 P.80 Douglas Hofstader le conseille vivement : Cf. "The Turing test : a coffeehouse conversation" dans The mind's I, composé et arrangé par Douglas R. Hofstader et Daniel C. Dennett (New York, Basic books, 1981). 79 P.80 Nous pouvons sûrement fabriquer des machines : Comme le programmeur Mark Miller le fait remarquer avec humour : "Pourquoi les gens pourraient-ils créer de l'intelligence dans leur chambre à coucher et pas dans un laboratoire ?" 80 P.81 Je crois qu'avant la fin du siècle : Cf. "Computing machinery and intelligence", d'Alan Turing (Mind, vol. 59, n°236, 1950), cité dans The mind's I (voir note n°78) 81 P.82 un système puisse présenter les deux : Les capacités intellectuelles techniques et sociales peuvent provenir d'une base commune ou de sous-systèmes liés et les frontières peuvent être très floues. Cependant, des systèmes d'IA spécifiques peuvent facilement être conçus pour recevoir clairement une appellation ou l'autre. Les efforts pour rendre les systèmes d'IA aussi performants que possible vont inévitablement conduire à leur faire comprendre le langage parlé et les désirs des humains. 82 P.82 IA sociale : Les systèmes d'IA sociale avancés présentent des dangers évidents. Un système capable de passer le test de Turing devrait pouvoir fixer et planifier des objectifs comme un humain le ferait -c'est-à-dire qu'il pourrait élaborer des projets et des complots, peut-être dans le but de persuader les gens de lui fournir encore plus d'informations et de pouvoirs. Des gens intelligents ont fait déjà beaucoup de mal en utilisant simplement des mots et un système qui réussirait le test de Turing serait nécessairement construit de manière à comprendre et convaincre les gens (et il n'aurait pas forcément besoin d'être enfermé dans des standards éthiques rigides, bien qu'il le puisse). Le chapitre 11 traite des problèmes de survie en présence de systèmes d'IA évolués et des moyens permettant de construire des systèmes d'IA dignes de confiance. 83 P.82 Les machines ne peuvent-elles pas : Cf. note n°80 sur l'article d'Alan Turing "Computing machinery and intelligence". 84 P.83 Développé par le professeur Douglas Lenat : Et décrit par lui dans une série d'articles sur "The nature of heuristics" (Artificial intelligence, vol. 19, p. 189-249, 1982 ; vol 21, p. 31-59 et 61-98, 1983 ; vol. 23, p. 269-93, 1984). 85 P.84 Voyageur TCS : Cf. note n°84, vol. 21, p. 73-83. 86 P.84 EURISKO a des défauts : Lenat considère que la plus importante limitation d'EURISKO est son incapacité à faire évoluer de nouvelles représentations pour de nouvelles informations. 87 P.85 En octobre 1981 / A l'automne 1984 : Cf. "The Star wars defense won't compute" de Jonathan Jacky (The Atlantic, vol. 255, p. 18-30, juin 1985). 88 P.86 dans l'IEEE spectrum : Cf. "Designing the next generation", de Paul Wallich (IEEE spectrum, p. 73-77, novembre 1983). 89 P.87 de nouveaux concepts en psychologie : Hubert Dreyfus, dans son célèbre livre : What computers can't do : the limits of artificial intelligence (New York : Harper & Row, 1979), présente un semblant de démonstration philosophique pour expliquer que les ordinateurs numériques ne pourront jamais être programmés pour couvrir toute la gamme des facultés humaines. Même si ses arguments étaient recevables, cela ne changerait en rien les principales conclusions que j'ai exposées en ce qui concerne l'avenir de l'IA : l'automatisation de l'ingénierie n'est pas concernée par ses arguments parce qu'elle ne nécessite pas l'implémentation dans une machine de ce que l'on considère comme une véritable intelligence. De plus, la duplication du cerveau au moyen d'une simulation neurale évite (et démolit) ses arguments philosophiques en manipulant les processus mentaux évoqués à un niveau où ses arguments ne s'appliquent pas. 90 P.87 des machines moléculaires ayant la taille de virus : Cf. chapitre 7. 91 P.87 construire des dispositifs analogues : Ces appareils seront peut être électromécaniques et pilotés par des microprocesseurs. Ils seront plus complexes que des transistors. Une simulation neurale telle que je la décris resterait possible même si chaque synapse simulée devait être contrôlée par un dispositif aussi complexe qu'un microprocesseur. 92 P.88 des interrupteurs électroniques expérimentaux : Qui commutent en un peu plus de 12 picosecondes sont décrits dans "The HEMT : a superfast transistor", de Hadis Morkoc et Paul M. Salomon (IEEE spectrum, p. 28-35, février 1984). 93 P.89 professeur Robert Jastrow : Dans son livre The enchanted loom : the mind in the universe (New York : Simon & Schuster, 1981). 94 P.89 tiendra dans moins d'un centimètre cube : Le cerveau consiste principalement en des fils électriques qui transmettent les informations (les dendrites et les axones) et en des interrupteurs (les synapses). Mais c'est toutefois une trop grande simplification, parce que les structures qui transmettent les informations peuvent voir leur résistance modulée sur une courte période (cf. "A theoretical analysis of electrical properties of spines", de C. Koch et T. Poggio, MIT AI lab memo n°713, avril 1983). De plus, les synapses se comportent moins comme des interrupteurs que comme des circuits modifiables d'interrupteurs. Elles peuvent être modifiées en un court laps de temps et même être totalement reconstruites sur des échelles de temps plus longues (cf. "Cell biology of synaptic plasticity", de Karl W. Cotman et Manuel Nieto-Sampedro, Science, vol. 225, p. 1287-94, 21 septembre 1984). Le cerveau peut apparemment être modélisé par un système de composants nanoélectroniques modulés et modifiés par une nanomachinerie dirigée par des nano-ordinateurs mécaniques. Supposons qu'un nano-ordinateur soit affecté au contrôle de chacune des 1015 "synapses" du cerveau modélisé et que chacun de ces ordinateurs régule aussi les sections correspondant aux axones et aux dendrites. Puisque le volume de chaque nano-ordinateur (s'il doit développer la même puissance qu'un microprocesseur des années 85) est d'environ 0.0003 µm3 (cf. "Molecular machinery and molecular electronic devices, note n°31), le volume total occupé par ces dispositifs est de 0,3 cm3. En ajoutant à cela encore 0,3 cm3 divisé également entre une mémoire de type RAM à accès rapide et une mémoire de masse sur bande moléculaire, chaque microprocesseur pourrait disposer de 3,7 Ko de RAM et 275 Ko de mémoire à accès séquentiel (ceci ne constitue pas une limite à la complexité des programmes puisque plusieurs processeurs peuvent partager une mémoire commune). Cette quantité d'information semble être bien supérieure à ce qui est nécessaire pour obtenir un modèle fidèle du fonctionnement d'une synapse. Des machines moléculaires (capables de moduler des composants nanoélectroniques) et des systèmes d'assembleurs (capables de les reconstruire) occuperaient comparativement peu de place. Les échanges d'informations entre les ordinateurs à l'aide de tiges en carbyne pourraient convenir pour simuler les processus chimiques lents du cerveau. De tous les composants nanoélectroniques, ce sont les connections qui occuperont le plus grand volume. Les dendrites ont en moyenne un diamètre supérieur à un micron et ils servent principalement à conduire l'information. Le diamètre des fils électriques les plus fins peut être inférieur au centième de micron et est limité par l'épaisseur nécessaire pour empêcher l'effet tunnel électronique (environ 3 nanomètres). Leur conductivité peut facilement être supérieure à celle des dendrites. Puisque le volume du cerveau est à peu près égal à celui d'un cube de dix centimètres de côté, des connections cent fois plus fines (10 000 fois en ce qui concerne leur section) occuperaient tout au plus 0,01 cm3 (elles seraient également plus courtes). Les interrupteurs électromécaniques contrôlés par une machinerie moléculaire peuvent apparemment être réduits d'un facteur similaire par rapport aux synapses. Ainsi, des circuits nanoélectroniques qui simuleraient le comportement électrochimique du cerveau pourraient apparemment tenir dans un volume légèrement supérieur à 0,01 cm3. Nous avions calculé auparavant qu'un volume de 0,6 cm3 accordé aux nano-ordinateurs était très généreux pour simuler les fonctions les plus lentes du cerveau. 1 cm3 semble donc être un volume largement suffisant. 95 P.89 dissipant un million de fois plus de chaleur : Ceci reste toutefois une évaluation pessimiste. Par exemple, si l'on considère que les axones et les dendrites sont comme des fils électriques qui transmettent des signaux, une augmentation de vitesse de fonctionnement d'un facteur un million nécessite des courants un million de fois plus importants pour atteindre un seuil de tension donné. La chaleur due à la résistance varie avec le carré de l'intensité, divisé par la conductivité. Mais le cuivre a une conductivité 40 millions de fois meilleure que celle des neurones (cf. "A theoretical analysis of electrical properties of spines", note n°94), ce qui réduit la chaleur dégagée bien en dessous du niveau envisagé (même dans un dispositif, qui, comme celui décrit dans le texte, est plus compact qu'un cerveau). Pour prendre un autre exemple, on peut considérer l'énergie dissipée au cours du fonctionnement d'une synapse : des dispositifs qui dissiperaient moins de chaleur par décharge dégageraient moins de chaleur que ce qui est présenté dans le texte. Il semble n'y avoir aucune raison de penser que les neurones sont proches des limites théoriques d'efficacité dans l'utilisation de l'énergie pour traiter les informations ; pour une discussion à propos de telles limites, cf. "Thermodynamics of computation, a review", de C. H. Bennett (International journal of theoretical physics, vol. 21, p. 219-53, 1982). Cet article indique que les neurones dissipent une énergie équivalente à 1 GeV par décharge. Les calculs indiquent que des relais mécaniques activés électrostatiquement peuvent commuter en moins d'une nanoseconde s'ils sont alimentés avec une tension de 0,1 volt (comme les neurones) tout en consommant une centaine d'eV par opération (il n'y a pas de raisons de croire que les relais mécaniques feront les meilleurs interrupteurs possibles mais leurs performances sont faciles à calculer). Les capacités (au sens de la capacité d'un condensateur) des connexions peuvent également être très inférieures à celles que l'on trouve dans le cerveau. 96 P.89 Un tuyau d'eau sous haute pression est verrouillé sur la partie supérieure : C'est une image vraiment ridicule puisque les assembleurs peuvent faire des connecteurs qui fonctionnent mieux que des verrous et des systèmes de refroidissement plus efficaces que des liquides caloporteurs. Mais tenter de discuter de systèmes entièrement construits avec des assembleurs évolués ne ferait au mieux que charrier des détails d'importance secondaire et au pire introduire des éléments qui sonneraient comme une prédiction erronée de ce qui se fera plutôt que de ce qui peut être fait. Ainsi, je vais souvent décrire des systèmes fabriqués avec des assembleurs dans des contextes que les nanotechnologies auront rendus largement dépassés. 97 P.89 Comme le fait remarquer John McCarthy : Cf. Machines who think, de Pamela McCorduck, p. 344 (San Francisco : W. H. Freeman & Co, 1979). Ce livre très abordable est une divertissante présentation de l'intelligence artificielle du point de vue des chercheurs impliqués et de l'histoire de la discipline. 98 P.91 Comme le dit Marvin Minsky : Dans U.S. News & World report, p. 65, 2 novembre 1981. Chapitre 6 : Le monde au-delà de la Terre 99 P.95 les ingénieurs de l'espace sont placés devant des choix : Pour les déplacements d'orbite à orbite, l'utilisation de fusées consommant du carburant produit dans l'espace est très intéressante. 100 P.95 voilier de lumière : Pour une discussion plus approfondie, cf. "Sailing on sunlight may give space travel a second wind" (Smithsonian, p. 52-61, février 1982), "High performance solar sails and related reflecting devices", article de l'AIAA, 79-1418, dans Space manufacturind III, édité par Jerry Grey et Christine Krop (New York : American institute of aeronautics and astronautics, 1979), et le MIT Space system laboratory report 5-79, de K. Eric Drexler. La World space foundation (P.O. Box Y, South Pasadena, Calif. 91030) est une association à but non lucratif qui construit un voilier solaire expérimental et recherche des astéroïdes intéressants. 101 P.96 Les astéroïdes, au contraire, sont des montagnes volantes de ressources : Pour une discussion à propos des ressources que constituent les astéroïdes, cf. "Asteroïd surface materials : mineralogical characterizations from reflectance spectra", de Michael J. Gaffey et Thomas B. McCord (Space science reviews, n°21, p. 555, 1978) et "Finding 'paydirt' on the Moon and asteroïds", de Robert L. Staehle (Astronautics and aeronautics, p. 44-49, novembre 1983). 102 P.97 aussi durable qu'un barrage hydroélectrique : L'érosion due aux micrométéorites est un problème mineur et les dégâts occasionnés par les grosses météorites sont extrêmement rares. 103 P.97 Gerard O'Neill : Cf. son livre The high frontier : human colonies in space (New York : William Morrow, 1976). Le Space studies intitute (285, Rosedale road , P.O. Box 82, Princeton N.J. 08540) est une association à but non lucratif visant à promouvoir le développement et la colonisation spatiales, principalement à travers des projets de recherche. La L5 society (1060, East Elm, Tucson, Ariz. 85719) est une association à but non lucratif visant à promouvoir le développement et l'installation spatiales à travers l'information du public et l'action politique. 104 P.98 Cette énergie pourra servir à alimenter des assembleurs : Quelle puissance électrique un panneau solaire d'une masse donnée peut-il fournir ? Puisque l'énergie électrique est directement convertible en énergie chimique, nous pouvons évaluer le temps que met un panneau solaire pour produire la quantité d'énergie nécessaire pour fabriquer quelque chose de masse équivalente à la sienne. Les cellules solaires en silicium amorphe convertissent l'énergie lumineuse en électricité avec un rendement d'environ 10% pour une couche active d'un micron d'épaisseur, ce qui représente environ 60 kilowatts de puissance par kilo de matériau. Les cellules solaires construites avec des assembleurs seront apparemment capables de faire bien mieux et elles ne nécessitent pas l'utilisation de substrats pesants et de connections électriques basse tension. Soixante kilowatts de puissance fournissent suffisamment d'énergie en quelques minutes pour "réorganiser" toutes les liaisons chimiques présentes dans un kilogramme de matière. Ainsi, un vaisseau spatial qui consacrerait une petite partie de sa masse à des cellules solaires pourrait entièrement remodeler sa propre structure en près d'une heure. Plus important encore, ce calcul indique que des réplicateurs alimentés en énergie solaire seront capables d'effectuer plusieurs doublements de population par heure. 105 P.99 La couche intermédiaire de la combinaison : Pour avoir la résistance nécessaire, seul un pour cent du matériau doit être constitué de fibres de diamant (des tiges télescopiques creuses, par exemple) réparties le long des lignes de contrainte. Il existe un motif tissé tridimensionnel régulier (avec des fibres orientées dans sept directions différentes pour résister à n'importe quelle type de contrainte, y compris aux cisaillements) dans lequel les fibres cylindriques occupent 45% du volume total. A elles seules, quelques fibres peuvent supporter une tension importante dans une direction donnée. Des fibres creuses et télescopiques (qui peuvent s'allonger d'un facteur deux) rendent le réseau moins dense. La taille variable des fibres constitue le principal facteur qui permet de réduire le volume occupé de 45% à 1%. Le matériau obtenu est aussi résistant qu'un acier classique. Pour que la combinaison puisse changer efficacement de forme en conservant le même volume et la même pression intérieures, l'énergie mécanique absorbée en un endroit soumis à un étirement doit pouvoir être restituée et utilisée pour effectuer un travail mécanique de compression dans une autre partie -par exemple, de l'autre côté d'une articulation du coude lors de sa flexion. On peut parvenir à ce résultat en plaçant des moteurs électrostatiques, réversibles en générateurs et reliés à un système de distribution de puissance électrique. Les lois d'échelles favorisent les moteurs électrostatiques face aux moteurs électromagnétiques pour de petites tailles. Une conception possible (avec des applications autres qu'une hypothétique combinaison spatiale) de ce système consiste en un dispositif de 50 nanomètres de diamètre qui fonctionne sur le principe d'un générateur de Van de Graff de style "pelletron", utilisant l'effet tunnel électronique à travers de petits espaces pour charger des "godets" et un rotor à la place d'une chaîne de transport (l'appareil ressemble un peu à une roue à aube). La tension en courant continu serait de 10 volts et l'efficacité de conversion de l'énergie (dans un sens comme dans l'autre) serait vraisemblablement excellente, limitée seulement par les pertes dues aux frottements. La densité de conversion d'énergie (pour des extrémités de pales du rotor parcourant un mètre par seconde et des godets chargés d'un seul électron) est d'environ trois billions de watt par mètre cube. Cela semble plus que suffisant. En ce qui concerne les pertes par frottement en général, des paliers rotatifs d'une force de plus de 6 nanonewtons peuvent être réalisés avec des liaisons carbone -cf. Strong solids, de A. Kelly (Oxford : Clarendon press, 1973)- et des paliers utilisant deux atomes de carbone reliés par une triple liaison devraient permettre une rotation presque totalement dépourvue de frottements. Des roulements munis de bossages suivant à la manière des engrenages des voies de roulement atomiquement parfaites ont au moins deux modes de dissipation d'énergie importants : le premier implique les phonons (ondes sonores) émis à cause des irrégularités de la rotation causées par les bosses du roulement et le deuxième la dissipation des phonons existant aux points de contact. Les estimations portant sur ces deux formes de friction (pour des roulements d'au moins quelques nanomètres de diamètre tournant à des vitesses peu élevées) indiquent qu'elles dissiperont très peu de puissance selon les standards actuels. Les moteurs électrostatiques et les roulements peuvent être combinés pour fabriquer des tiges télescopiques d'une taille inférieure au micron. Ces tiges peuvent alors être utilisées comme des fibres pour construire un matériau ayant les propriétés de celui décrit dans le texte. 106 P.100 leur intensité divisée par dix : Les forces qui causent une accélération globale constituent une exception : par exemple, pour qu'une personne debout dans une fusée en accélération maintienne son équilibre, la plante de ses pieds doit lui procurer les appuis nécessaires et le vêtement doit donc les transmettre sans augmentation ou diminution. Gérer ce genre de contraintes de manière appropriée sera un problème de conception délicat que devront résoudre les concepteurs de systèmes de contrôle et les programmeurs de nano-ordinateurs. 107 P.100 la combinaison vous procurera une enveloppe confortable : Les désassembleurs, les assembleurs, l'énergie et le refroidissement sont suffisants pour recycler tous les matériaux dont une personne a besoin et pour maintenir un environnement confortable. L'énergie et le refroidissement sont cruciaux. En ce qui concerne l'énergie, un être humain consomme en moyenne 100 watts ; ce qui correspond à l'énergie solaire que reçoit la surface d'une feuille de papier placée à la même distance du soleil que la Terre. Si la combinaison est recouverte de cellules solaires à haut rendement, l'énergie récupérée devrait être suffisante. Aux endroits plus éloignés du soleil ou lorsque la consommation d'énergie est accrue, un panneau solaire pourrait être utilisé pour récolter plus d'énergie. En ce qui concerne le refroidissement, toute la puissance absorbée doit finalement être rayonnée dans l'espace sous forme de radiations thermiques. A la température du corps, une surface d'un mètre carré dissipe 500 watts. Avec des cellules solaires efficaces et une conception intelligente (sans oublier la possibilité de disposer des ailettes de refroidissement et de réfrigérer), le refroidissement ne devrait pas poser de problèmes dans une large gamme d'environnements. La combinaison peut bien évidemment contenir des tuyaux dans lesquels circule un fluide pour maintenir la peau de l'astronome à la température qu'il souhaite. 108 P.100 plus de plans d'appareils que l'humanité n'en a déjà dessiné : Une tête d'épingle représente un volume d'environ un millimètre cube (cela dépend de l'épingle, bien sûr !). C'est un volume assez grand pour contenir des billions de livres (les grandes bibliothèques en contiennent seulement des millions). Même en prenant un espace de stockage de plusieurs milliers de mots pour chaque image, il y a assez de place pour stocker suffisamment de plans d'appareils de toutes sortes. 109 P.100 en une matinée : Le système d'IA technique décrit dans le chapitre 5 étant un million de fois plus rapide qu'un ingénieur humain, il peut effectuer plusieurs siècles de travail de conception en une matinée. 110 P.100 des assembleurs répliquants capables de travailler dans l'espace : Les assembleurs placés dans le vide peuvent fournir n'importe quel environnement approprié à un site réactionnel donné en fournissant le jeu d'outils moléculaires adapté. Avec une conception appropriée et des mécanismes de réparation et de remplacement, l'exposition aux radiations naturelles présentes dans l'espace ne sera pas un problème. 111 P.103 l'installer ailleurs que sur la Terre : Mais qu'en est-il de la pollution de l'espace ? Les débris qui gravitent autour de la Terre représentent un danger notable et doivent être contrôlés. Mais de nombreux problèmes écologiques terrestres ne peuvent pas se produire dans l'espace : l'espace ne possède pas d'air à polluer, de sol à contaminer ou de biosphère à endommager. L'espace baigne déjà dans des radiations naturelles. Lorsque la vie s'aventurera dans l'espace, elle sera protégée de l'environnement spatial brut. De plus, l'espace est grand -le volume du système solaire est plusieurs billions de fois plus important que celui de l'air et des océans. Si la technologie sur Terre a souvent été comme un éléphant dans un magasin de porcelaine, elle sera dans l'espace comme un éléphant dans un paysage désertique. 112 P.104 Comme Konstantin Tsiolkovsky l'a écrit : Cité dans The high frontier : human colonies in space, cf. note n°103. 113 P.104 diriger un faisceau de lumière bien au-delà de notre système solaire : Cette idée a été présentée pour la première fois par Robert L. Forward en 1962. 114 P.104 Freeman Dyson : Il a proposé cette idée lors d'une réunion informelle le 15 mai 1980 "Discussion meeting on gossamer spacecraft", au Jet propulsion laboratory à Passadena, Californie. 115 P.104 Robert Forward : Cf. son article "Roundtrip interstellar travel using laser-pushed lightsails" (Journal of spacecraft and rockets, vol. 21, p. 187-95, janvier-février 1984). Forward aborde le problème des voiliers solaires à freinage par réflexion du rayon lumineux. Ils doivent être très légers et posséder cependant des qualités optiques suffisantes (à diffraction limitée) pour réfléchir la lumière. Une structure métallique très fine contrôlée activement par des effecteurs et des nano-ordinateurs semble être une solution adaptée. Mais les nanotechnologies offriront une solution différente pour accélérer les voiliers et stopper leur chargement. Les assembleurs répliquants rendront facile la fabrication de puissants lasers, de grosses lentilles et de grands voiliers de lumière. Les voiliers peuvent être constitués d'un cristal diélectrique, comme l'oxyde d'aluminium, qui possède une très grande résistance et une faible absorbance. De tels voiliers peuvent résister à des rayons lasers intenses les propulsant avec une accélération de plusieurs g. Ils atteindraient ainsi une vitesse proche de celle de la lumière en moins d'une année. Ceci permettra aux voiliers d'atteindre leur destination en un temps pratiquement minimal (Pour une discussion à propos des accélérations de plusieurs g communiqués aux objets diélectriques, cf. "Applications of laser radiation pressure", de A. Ashkin (Science, vol. 210, p. 1081-88, 5 décembre 1980)). Pendant le vol, des systèmes d'assembleurs dirigés par des ordinateurs (alimentés en énergie par une conversion en électricité d'une fraction de la lumière laser reçue) peuvent transformer le voilier en un long canon électromagnétique servant d'accélérateur pour des capsules creuses de plusieurs microns de diamètre. La capsule est recouverte d'un matériau très résistant qui entoure la charge utile et la protège ; le ratio charge utile sur masse est très élevé pour un tel dispositif. Les calculs indiquent qu'un accélérateur de 1000 km de long (il y a assez de place dans l'espace !) est suffisant pour propulser des capsules de cette taille à 90% de la vitesse de la lumière. Une masse d'un gramme par mètre donne un poids total d'une tonne pour l'accélérateur, ce qui reste raisonnable. Lorsque l'accélérateur pénètre dans le système solaire cible, il propulse une capsule vers l'arrière à une vitesse qui la laisse presque immobile (la vitesse du voilier et celle du projectile s'annulent). (Pour une discussion sur l'accélération électrostatique de petites particules, cf. "Impact fusion and field emission projectile", de E. R. Harrison (Nature, vol. 291, p. 472-73, 11 juin 1981). La vitesse résiduelle du projectile peut être calculée pour qu'il soit capturé par une planète comme Vénus ou Mars (choisie avant le départ grâce à des observations au moyen de grands télescopes spatiaux). Une petite capsule comme celle décrite ci-dessus dissipera suffisamment vite la chaleur dégagée par sa rentrée atmosphérique pour rester froide. La charge utile, un système composé d'un nano-ordinateur et d'un assembleur, peut alors utiliser l'énergie dégagée par l'étoile du système solaire, ainsi que le carbone, l'hydrogène, l'azote et l'oxygène qui se trouvent sur les planètes atteintes pour se répliquer et construire des objets plus gros. L'un des premiers objets construits serait un récepteur permettant de recevoir des instructions de la planète de départ, comme des plans d'engins complexes. Ces plans pourraient servir à construire des fusées permettant de quitter la planète d'arrivée (qui aura été utilisée essentiellement comme un coussin pour freiner l'arrivée) pour rallier une zone de construction plus pratique. Le système d'assembleurs répliquants résultant pourrait fabriquer pratiquement n'importe quoi, y compris des systèmes intelligents capables d'explorer l'environnement. Pour résoudre le problème de freinage d'un voilier de lumière massif transportant des passagers, le système pourrait construire un ensemble de lasers aussi puissants que ceux ayant servi à l'accélérer. Leur construction pourrait être achevée quelques semaines après l'arrivée de la "graine" d'un micron cube dans le système solaire cible. Cette stratégie permettrait de répandre la civilisation humaine dans la galaxie à une vitesse proche de celle de la lumière. 116 P.104 L'espace près de la Terre est assez grand : Deux jours de voyage sous une accélération d'un g peut transporter une personne vers n'importe quel point d'un disque dont la surface est 20 millions de fois plus grande que celle de la Terre -et ce calcul tient compte d'un espace vide de 80 millions de kilomètres de diamètre au milieu du disque. Même ainsi, le bord intérieur du disque se trouve seulement à un vingtième de la distance au soleil. 117 P.104 assez d'énergie en dix minutes : En supposant une conversion de l'énergie solaire en énergie cinétique avec un rendement de 10%, ce qui peut être atteint de plusieurs manières différentes. Chapitre 7 : Les engins de guérison 118 P.108 Dr Seymour Cohen : Cf. son article "Comparative biochemistry and drug design for infectious disease" (Science, vol 205, p. 964-71, 7 septembre 1979). 119 P.108 Des chercheurs de chez Upjohn Company : Cf. "A conformationally constrained vasopressin analog with antidiuretic antagonistic activity", de Gerard Skala et al. (Science, vol. 226, p. 443-45, 6 octobre 1984). 120 P.110 Une définition du globalisme : The American heritage dictionary of the english language, édité par William Morris (Boston : Houghton Mifflin company, 1978) 121 P.112 aidés par des systèmes d'IA technique sophistiqués : Ceux-ci seront utilisés à la fois pour concevoir des instruments moléculaires et pour les diriger. Avec des outils pouvant se rendre à l'endroit désiré pour saisir des molécules et les analyser, l'étude des structures cellulaires sera facile à automatiser. 122 P.112 les molécules qui ont été séparées peuvent être réassemblées : Les machines réparatrices peuvent utiliser des appareils ayant le rôle des robots que l'on trouve dans les chaînes d'assemblage industrielles. Mais le réassemblage des structures cellulaires ne requerra pas de machines aussi précises (c'est-à-dire, aussi précises pour leur taille). De nombreuses structures dans les cellules s'auto-assemblent si leurs composants se trouvent à proximité les uns des autres, libres de leurs mouvements. Ils n'ont pas besoin d'être manipulés d'une manière complexe et précise pour effectuer cela ; les cellules contiennent en effet déjà tous les outils nécessaires pour assembler les structures cellulaires et aucun n'est aussi complexe qu'un robot industriel. 123 P.112 phage T4 : Cf. p. 1022-23 de Biochemistry, d'Albert L. Lehninger (New York : Worth publishers, 1975) 124 P.114 lipofuscine remplit plus de dix pour cent : La proportion de lipofuscine varie en fonction du type cellulaire mais certaines cellules nerveuses (chez les animaux âgés) en contiennent un volume moyen de 17%. Les grains de lipofuscine font couramment un à trois microns de diamètre. Cf. "Lipofuscin pigment accumulation as a function of age and distribution in rodent brain", de William Reichel et al. (Journal of gerontology, vol 23, p. 71-81, 1968). Voir également "Lipoprotein pigments : their relationship to aging in the human nervous system", de D. M. A. Mann et P. O. Yates (Brain, vol. 97, p. 481-88, 1974) 125 P.115 un pour un million de million de million : Le raisonnement qui est sous-entendu n'est pas tout à fait exact mais montre clairement la tendance : par exemple, le deuxième nombre devrait être 2,33 erreurs non-corrigées pour un million de million et le troisième 4,44 pour un million de million de million (En utilisant des algorithmes de correction légèrement plus complexes qui rallongent beaucoup les calculs). 126 P.115 comparer les molécules d'ADN de plusieurs cellules pour en faire une version ne contenant pas d'erreur : Les cellules immunitaires qui produisent des anticorps différents ont des gènes différents, déterminés lors du développement. La réparation de ces gènes nécessitera des règles spéciales (mais la démonstration de faisabilité du développement d'un système immunitaire indique que les bonnes combinaisons d'informations peuvent être générées). 127 P.115 identifieront les molécules de la même manière : Il est à noter qu'une molécule assez endommagée pour avoir un effet anormal sur la machinerie moléculaire de la cellule aura du même coup un effet différent sur les capteurs moléculaires. 128 P.115 un système de réparation complexe : Pour une monographie qui traite de ce sujet très en détail, avec des calculs de volumes, de vitesses, de puissances et de puissance de calcul, cf. "Cell repair systems", de K. Eric Drexler (disponible auprès du Foresight institute, Palo Alto, Calif.). 129 P.116 sera en communication : Par exemple, au moyen de fibres creuses d'un ou deux nanomètres de diamètre, chacune transportant une fibre de carbyne comme celle utilisée dans les nano-ordinateurs mécaniques. Des répétiteurs de signaux peuvent être utilisés si nécessaire. 130 P.121 cartographier des structures cellulaires endommagées : Il n'est pas nécessaire de résoudre des problèmes de reconnaissance de formes très complexes, sauf dans les cas où les structures cellulaires sont très perturbées. Chaque structure cellulaire contient en effet des molécules types dans des concentrations et des endroits qui varient à l'intérieur de certaines limites et un simple algorithme peut identifier des protéines même très endommagées. L'identification des molécules présentes dans une structure permet de déterminer son type, l'analyse de leur répartition s'apparente à une fouille en détail. 131 P.121 en une seule année : Les expériences moléculaires peuvent être effectuées à un rythme un million de fois plus élevé que les expériences macroscopiques, puisqu'un bras d'assembleur peut se déplacer un million de fois plus vite qu'un bras humain (cf. chapitre 4). Ainsi, les machines moléculaires et les systèmes d'IA rapides sont bien accordés en ce qui concerne leur vitesse de fonctionnement. 132 P.122 ont accru la durée de vie de souris de 25 à 45 % : En utilisant du 2-MEA, de la BHT et de l'éthoxyquine. Les résultats dépendent de la lignée de souris, du régime et des produits chimiques employés. Cf. "Free radical theory of aging", de D. Harman (Triangle, vol. 12, n°4, p. 153-58, 1973). 133 P.122 Eastman Kodak : Selon le Press-Telegram, Long Beach, Calif., 26 avril 1985. 134 P.122 elles reposent sur des connaissances nouvelles : La réparation cellulaire s'appuiera également sur une nouvelle science, mais d'une manière différente. Comme indiqué dans le chapitre 3, il est correct de dire que nous découvrirons des choses sur un sujet donné, mais pas ce que nous découvrirons. Allonger la vie en utilisant des machines réparatrices de cellules nécessitera des connaissances sur les structures cellulaires avant que nous puissions les réparer, mais ce que nous découvrirons n'aura pas d'influence sur la faisabilité de ces réparations. En revanche, allonger la vie par des moyens classiques dépendra des capacités que possèdent les machines moléculaires existantes à réparer le corps lorsqu'elles sont correctement traitées. Nous en apprendrons davantage sur ces mécanismes, mais ce que nous découvrirons pourrait s'avérer décourageant. Chapitre 8 : Longue vie dans un monde ouvert 135 P.126 la longévité a un coût : Cf. "Evolution of aging", un article de synthèse de T. B. L. Kirkwood (Nature, vol. 270, p. 301-4, 1977). 136 P.127 Comme Sir Peter Medawar le souligne : Dans The uniqueness of individual (London : Methuen, 1957). Voir également la discussion dans The selfish gene, p. 42-45 (note n°38). 137 P.127 Des expériences menées par le docteur Leonard Hayflick : Cf. la référence ci-dessus, qui donne une autre explication (bien que globalement semblable) des résultats d'Hayflick. 138 P.127 Un mécanisme de cette sorte : Pour une référence à cette théorie (élaborée par D. Dykhuizen en 1974) ainsi qu'une critique de celle-ci, voir les lettres de Robin Holliday et "Cancer and cell senescence" de John Cairns et Jonathan Logan (Nature, vol. 306, p. 742, 29 décembre 1983). 139 P.127 De telles horloges peuvent causer du tort aux animaux âgés en stoppant les divisions : Ces animaux peuvent cependant avoir une forte probabilité de développer des cancers à cause des répercussions importantes que peuvent avoir les horloges déréglées. 140 P.128 des machines nettoyantes pour éliminer ces poisons : La nourriture d'un système est souvent un poison pour un autre : les voitures "mangent" un produit pétrolier toxique. Parmi les organismes vivants, quelques bactéries survivent en ingérant du méthanol ("l'alcool de bois") et du monoxyde de carbone (cf. "Single-carbon chemistry of acetogenic and methanogenic bacteria"de J. G. Zeikus et al. Science, vol. 227, p. 1167-71, 8 mars 1985), et d'autres en digérant du trichlorophénol ou un herbicide (le 2,4,5-T). Certaines peuvent même défluorer le pentafluorophenol (cf. "Microbial degradation of halogenated compounds", de D. Ghousal et al., Science, vol. 228, p. 135-42, 12 avril 1985). 141 P.128 suffisamment bon marché pour que l'utilisation d'énergie fossile soit abandonnée : Grâce à la fabrication de carburants synthétisés en utilisant de l'énergie solaire. 142 P.128 capables de capter le dioxyde de carbone de l'air : En terme de quantité, le dioxyde de carbone est probablement notre plus gros problème de pollution. Pourtant un simple calcul montre que la lumière du soleil qui atteint notre planète chaque jour contient assez d'énergie pour séparer tout le dioxyde de carbone de l'atmosphère en carbone et oxygène (sans tenir compte des rendements). Même en limitant nos efforts pour des considérations pratiques et esthétiques, ce monumental nettoyage serait accompli en moins d'une décennie. 143 P.129 Alan Wilson et ses coéquipiers : Cf. "Gene samples from an extinct animal cloned", de J. A. Miller (Science news, vol. 125, p. 356, 9 juin 1984) 144 P.132 O, mon ami : L'iliade, d'Homère (environ VIIIème siècle avant Jésus Christ), cité par Eric Offer dans The true believer (New York : Harper and Brothers, 1951) (Sarpedon est bel et bien tué dans la bataille). 145 P.133 Gilgamesh, roi d'Uruk : Cf. The epic of Gilgamesh, traduit par N. K. Sandars (Middlesex : Penguin books, 1972). Chapitre 9 : Une porte sur le futur 146 P.136 A Jacques Dubourg : Dans Mr. Franklin, a selection from his personnal letters, de L. W. Labaree et W. J. Bell, jr. (New Haven : Yale university press, 1956), p. 27-29). 147 P.137 un nouveau c¦ur, de jeunes reins ou une peau plus lisse : Avec des organes et des tissus développés à partir du receveur lui-même, il n'y aura pas de problèmes de rejet. 148 P.138 ne sont pas trop subtiles : Des expériences montrent que l'apprentissage produit rapidement des changements visibles dans la forme des épines dendritiques (de petites excroissances qui reçoivent les synapses à la surface des axones). Cf. "A theoretical analysis of electrical properties of spines", de C. Koch et T. Poggio, MIT AI lab memo n°713, avril 1983). Dans "Cell biology of synaptic plasticity" (Science, vol. 225, p. 1287-94, 21 septembre 1984), Carl W. Cotman et Manuel Nieto-Sampedro écrivent que "Le système nerveux d'un organisme est spécialisé dans l'élaboration de réponses adaptées à l'environnement. [...] Pour parvenir à ce résultat, il se doit d'être plastique, c'est-à-dire modifiable. La plasticité neuronale repose en grande partie sur les capacités qu'ont les synapses à modifier leur fonction, à être remplacées, à proliférer ou à disparaître quand c'est nécessaire". De plus, "parce que le néocortex est supposé être un emplacement impliqué dans l'apprentissage et la mémoire, la plupart des études portant sur l'effet synaptique des stimuli naturels ont porté sur cette zone". Les augmentations de densité synaptique dans le néocortex "sont provoquées par l'apprentissage chez les rongeurs comme chez les humains. Des augmentations d'ampleur plus réduites sont également observées lors d'apprentissages de tâches spécifiques". Ces changements dans la structure cellulaire peuvent intervenir "en quelques heures". Pour une discussion sur la mémoire à court et à long terme et sur la transformation du premier type vers le second, cf. "The biochemistry of memory : a new and specific hypothesis", de Gary Linch et Michel Baudry (Science, vol. 224, p. 1057-63, 8 juin 1984) A l'heure actuelle, toute théorie sérieuse à propos de la mémoire à long terme implique des changements dans la structure et le contenu protéique des neurones. Il y a une idée populaire persistante selon laquelle la mémoire serait stockée (exclusivement ?) d'une manière ou d'une autre "dans les molécules d'ARN". Cette rumeur est entretenue par une analogie avec l'ADN qui contient la "mémoire" de l'hérédité. Cette idée trouve son origine dans des expériences anciennes qui suggéraient que des comportements appris pouvaient être transmis à des vers plats naïfs en leur injectant des extraits d'ARN de vers entraînés. Malheureusement pour cette théorie, les mêmes résultats peuvent être obtenus en utilisant de l'ARN de levures n'ayant subi aucun apprentissage. Cf. Biology today, de David Kirk, p. 616 (New York : Random house, 1975). Une autre idée populaire est souvent entendue à propos de la mémoire : elle serait stockée sous forme de réseaux électriques fonctionnant en boucles fermées. Cette rumeur semble inspirée par l'informatique, avec les mémoires dynamiques à accès aléatoire des ordinateurs. Mais cette analogie est inappropriée pour plusieurs raisons : (1) la mémoire des ordinateurs, à la différence de celle du cerveau, est conçue pour pouvoir être effacée et réutilisée à volonté (2) le support de la "mémoire à long terme" d'un ordinateur (son disque dur, par exemple) est moins volatil que celui de sa mémoire vive (3) les puces en silicium sont conçues pour être durables, leur structure physique ne doit pas bouger avec le temps, contrairement au cerveau qui est conçu pour modifier continuellement sa structure. A la lumière des théories modernes sur le stockage à long terme des informations dans des structures stables du cerveau, il n'est pas surprenant de constater que "l'arrêt total de l'activité électrique du cerveau ne perturbe généralement pas les souvenirs, bien qu'elle puisse affecter les plus récents" (A. J. Dunn). La théorie des circuits électriques réverbérants impliqués dans la mémoire a été proposée par R. Lorente de Nô (Journal of neurophysiology, vol. 1, p. 207) en 1938. Des preuves récentes mettent en doute l'existence de ce type de mémoire éphémère en ce qui concerne le stockage à long terme. 149 P.138 modifications morphologiques d'importance : Pour des raisons techniques, cette étude à été menée sur des mollusques mais la neurophysiologie s'est révélée être étonnamment conservatrice d'une espèce à l'autre. Cf. "Modulation of transmitter release", de Eric R. Kandel et James H. Schwartz (Science, vol. 218, p. 433-43, 29 octobre 1982) qui rapporte le travail de C. Baily et M. Chen. 150 P.139 avant l'arrêt des fonctions vitales : Le temps qui sépare l'expiration de la dissolution définit la fenêtre temporelle durant laquelle la biostase peut réussir, mais ce délai est mal connu. Des observations médicales prouvent que le cerveau d'un patient peut être détruit (provoquant la dissolution irréversible de l'esprit et de la mémoire) alors même qu'il respire encore. A l'inverse, des patients ont été ranimés après des périodes importantes de soi-disant "mort clinique". Avec des machines de réparation cellulaire, la nécessité de base est la préservation des structures neuronales. Tant que les neurones demeurent en vie, ils sont supposés être en bon état et la viabilité est ainsi un bon indice de l'état de conservation. Il y une idée assez répandue selon laquelle le cerveau "ne peut pas survivre" à une privation en oxygène de quelques minutes. Même si ceci était vrai en ce qui concerne une reviviscence spontanée de l'activité cérébrale, il n'en serait pas de même pour la "survie" des structures cellulaires caractéristiques. Et en effet, les structures cellulaires d'un cerveau de chien mort ne présentent que peu de changements après 6 heures passées à température ambiante et sont encore visibles après plusieurs jours, cf. "Studies of the epithalamus", de Duane E. Haines et Thomas W. Jenkins (Journal of comparative neurology, vol. 132, p. 405-417, Mars 1968). Mais en fait, la possibilité de reprise spontanée de l'activité cérébrale peut persister bien au-delà de quelques minutes (et même de la définition médicale de "mort cérébrale"). Une série d'expériences à base de traitements chimiques et d'opérations chirurgicales le montrent. Des singes adultes ont totalement repris conscience après un arrêt de 16 minutes de la circulation sanguine dans le cerveau (une situation appelée "ischémie" et qui bloque bien évidemment l'apport d'oxygène au cerveau), cf. "Thiopental therapy after 16 minutes of global brain ischemia in monkeys", de A. L. Bleyaert et al. (Critical care medicine, vol. 4, p. 130-131, mars-avril 1976). Des cerveaux de chats et de singes ont recouvré une activité électrique après une heure passée à température ambiante sans circulation sanguine, cf. "Reversibility of ischemic brain damage", de K.-A. Hossmann et Paul Kleihues (Archives of neurology, vol. 29, p. 375-84, décembre 1973). Le docteur Hossmann conclut que toutes les cellules nerveuses peuvent survivre à une heure d'arrêt circulatoire (lorsque le c¦ur s'arrête, par exemple). Le problème n'est pas que les neurones meurent quand la circulation s'arrête, mais que des complications secondaires apparaissent (comme la légère dilatation du cerveau dans la boîte crânienne qui augmente la pression) et empêchent la circulation de reprendre correctement. Des cerveaux de chiens maintenus proches de leur point de congélation ont retrouvé leur activité électrique après 4 heures sans circulation (et ont même recouvré une activité métabolique après quinze jours) , cf. "Prolonged whole-brain refrigeration with electrical and metabolic recovery", de Robert J. White et al. (Nature, vol. 209, p. 1320-22, 26 mars 1966). Les cellules nerveuses qui possèdent toujours une reviviscence spontanée de leur activité lors de la mise en biostase devraient être faciles à réparer. Puisque le succès de la biostase repose principalement sur la conservation des structures cellulaires, le délai avant le début des opérations est probablement d'au moins quelques heures après l'expiration, et peut être même plus. Les hôpitaux sont capables de procéder à de telles opérations en un temps bien plus court. 151 P.139 une telle fixation préserve les cellules : Pour des photographies en microscopie électronique montrant des détails moléculaires dans des cellules fixées par du glutaraldéhyde, cf. "The ground substance of the living cell", de Keith R. Porter et Jonathan B. Tucker (Scientific American, vol. 244, p. 56-68, mars 1981). La fixation seule ne semble pas être suffisante ; la stabilisation à long terme des structures biologiques nécessite probablement la congélation ou la vitrification, associées ou non à la fixation. La conservation dans l'azote liquide (à - 196 degrés Celcius) peut préserver les structures tissulaires pendant plusieurs milliers d'années. 152 P.140 solidification sans congélation : Cf. "Vitrification as an approach to cryopreservation", de G. M. Fahy et al. (Cryobiology, vol. 21, p. 407-26, 1984). 153 P.140 Des embryons de souris : Cf. "Ice-free cryopreservation of mouse embryos at -196°C by vitrification", de W. F. Rall et G. M. Fahy (Nature, vol. 313, p. 573-75, 14 février 1985). 154 P.140 Robert Ettinger : Cf. The prospect of immortality (New York : Doubleday, 1964 ; une première version avait été publiée de manière privée en 1962). 155 P.140 de nombreuses cellules humaines se réveillent spontanément : Il est bien connu que les spermatozoïdes humains et les embryons peuvent survivre à la congélation et au stockage. Dans les deux cas, ces réussites ont été rapportées par les médias de masse. Nombre de résultats moins spectaculaires ont été obtenus sur d'autres types cellulaires (du sang congelé et décongelé est utilisé pour les transfusions sanguines). Il est aussi intéressant de noter que, après un traitement au glycérol et une congélation de 200 jours à -20°C, des cerveaux de chats ont recouvré une activité électrique spontanée, cf. "Viability of long term frozen cat brain in vitro", de I. Suda, K. Kito et C. Adachi (Nature, vol. 212, p. 268-70, 15 octobre 1966). 156 P.140 recherchent activement des techniques pour congeler et décongeler des organes vivants : Un groupe du laboratoire de cryogénie de la Croix rouge américaine (9312, Old Georgetown road, Bethesda, Md. 20814) fait des expériences sur la préservation des organes entiers pour constituer des banques d'organes à transplanter, cf. "Vitrification as an approach to cryopreservation" (note n°152). 157 P.140 réparation cellulaire est un thème récurrent : C'est ce dont je me suis aperçu quand la faisabilité de la réparation cellulaire m'est apparue clairement et que j'ai commencé à consulter la littérature cryogéniste. Le livre original de Robert Ettinger, par exemple (voir note n°154), décrit la fabrication éventuelle de "machines de chirurgie énormes", capables de réparer les tissus "cellule après cellule, ou même molécule par molécule pour les endroits critiques". En 1969, Jerome B. White a publié un article : "Viral induced repair of damaged neurons with presentation of long term information content" dans lequel il imagine que des virus artificiels peuvent être dirigés pour réparer les cellules ; voir l'extrait cité dans Man into superman, de Robert C. W. Ettinger (New York : St Martin's press, 1972, p. 298). Dans "The anabolocyte : a biological approach to repair cryoinjury" (Life extension magazine, p. 80-83, juillet-août 1977), Michael Darwin suppose qu'il est possible d'utiliser l'ingénierie génétique pour fabriquer des globules blancs spéciaux capables d'isoler et de réparer les cellules abîmées. Dans "Comment vont-ils nous ressusciter, dans 200 ans ?" (The Immortalist, vol. 12, p. 5-10, Mars 1981), Thomas Donaldson imagine que des systèmes de machines moléculaires (avec des appareils petits comme des virus et des agrégats de machines grands comme des immeubles) seront capables d'effectuer toutes sortes de réparations nécessaires sur les tissus congelés. L'idée de réparation cellulaire est donc dans l'air du temps depuis de nombreuses années. Les concepts d'assembleurs et de nano-ordinateurs donnent maintenant une vision claire de la manière dont ces machines réparatrices peuvent être construites et contrôlées et de la possibilité de les faire tenir dans des cellules. 158 P.141 les animaux ne revenaient pas à la vie : Des hamsters ont toutefois été refroidis jusqu'à ce que la moitié de l'eau de leurs tissus (et de leur cerveau) soit congelée et ont recouvré toutes leurs facultés après décongélation, cf. "Biological effects of freezing and supercooling", de Audrey U. Smith (Baltimore : Williams & Wilkins, 1961). 159 P.141 Comme Robert Prehoda : Cf. Designing the future : the role of technological forecasting (Philadelphia : Chilton book comp., 1967). 160 P.141 empêchent la banalisation d'une technique de biostase : D'autres facteurs ont également été décourageants : principalement le coût et l'ignorance. Un patient doit payer 35 000 dollars (ou plus, suivant la procédure de conservation choisie) pour s'assurer une biostase perpétuelle dans de l'azote liquide. Ces frais sont souvent couverts en souscrivant une assurance-vie. Le coût de la biostase et l'incertitude concernant la manière dont les dégâts provoqués par la congélation seront réparés ont limité l'utilisation de la biostase à un petit nombre de patients parmi des millions. La faible demande, à son tour, n'a pas permis de procéder à des économies d'échelles et donc à une réduction du coût. Mais cela est peut être en train de changer : les associations de cryonistes rapportent une augmentation dans le nombre de contrats de biostase, vraisemblablement due à la progression des connaissances en biologie moléculaire et une meilleure compréhension des futures capacités de réparation cellulaire. Trois groupes américains proposent actuellement des services de biostase. Les voici par ordre apparent de taille et de qualité de service : The Alcor life extension foundation, 4030 Noth palm, n°304, Fullerton, Calif., 92635, (714)738-5569. (Alcor possède également une filiale en Floride). Trans time Inc., 1507, 63rd street, Emeryville, Calif. 94707, (415)655-9734. The cryonics institute, 24041, Stratford, Oak park, Mich., 48237, (313)967-3115. Pour des raisons pratiques, ces sociétés ne procèdent à des biostases que lorsque les arrangements financiers et légaux ont été conclus à l'avance. 161 P.141 ceci préserve les structures neurales : La croissance des cristaux de glace peut déplacer les structures cellulaires de quelques microns, mais ne les détruit pas et n'introduit pas d'incertitudes quant à leur position antérieure. Une fois gelées, elles ne bougent plus. La réparation commence avant que le réchauffement ne leur permette de bouger. 162 P.142 en dégageant d'abord les gros vaisseaux : Les procédures de biostase actuelles vident la majeure partie du sang du patient ; les nanomachines répareront tous les globules rouges restants lorsqu'elles nettoieront le système vasculaire. 163 P.142 Ceci ouvre des voies d'accès à tous les organes : Sauf la cornée, par exemple, mais d'autres moyens peuvent être utilisés pour atteindre l'intérieur de tels tissus, s'ils ne sont pas tout simplement remplacés. 164 P.142 qui rentrent dans les cellules pour retirer le cryoprotectant : Les molécules de cryoprotectants sont liées entre elles par des liaisons si fragiles que l'agitation thermique à température ambiante les sépare. Même à basse température, les machines à retirer le cryoprotectant n'auront pas de mal à décrocher ces molécules des structures biologiques. 165 P.142 un échafaudage moléculaire provisoire : Celui-ci peut être construit avec des tiges d'un nanomètre de diamètre conçues pour s'accrocher ensemble. Les molécules peuvent être accrochées à l'échafaudage grâce à des attaches ressemblant à des doubles pinces-crocodiles. 166 P.142 elles sont marquées : Les étiquettes de marquage peuvent être faites de bandes polymères. Une bande de quelques nanomètres de long contient suffisamment d'informations pour indiquer un emplacement quelconque à l'intérieur d'un micron cube avec une précision d'un nanomètre. 167 P.143 indiquent à un ordinateur central placé à l'intérieur de la cellule : Un câble de la taille d'un doigt (avec des branches plus fines pour parcourir les capillaires), composé de fibres d'un nanomètre de diamètre conduisant des signaux, peut transmettre en moins d'une semaine une description complète de la structure moléculaire de toutes les cellules d'un patient à un ordinateur extérieur. Bien que cela ne semble pas nécessaire, l'utilisation d'ordinateurs à l'extérieur du corps permettrait de supprimer la majorité des contraintes de volume, de vitesse et de dissipation thermique affectant les calculs à exécuter pour planifier les procédures de réparation. 168 P.143 détermine les structures cellulaires en s'appuyant sur ces configurations moléculaires : Les cellules ont des structures stéréotypées. Chacune est construite avec des molécules standards assemblées de manière précise selon des programmes génétiques définis. Ceci simplifiera grandement les problèmes d'identification. 169 P.146 Richard Feynman avaient en partie prévu : Il évoqua la possibilité de construire des dispositifs dont les fils électriques auraient un diamètre de dix ou cent atomes, cf. "There's plenty of room at the bottom", dans Miniaturization, édité par H. D. Gilbert (New York : Reinhold, 1961), p. 282-96. 170 P.147 un article écrit par l'ingénieur aérospatial Robert T. Jones : Cf. "The idea of progress" (Astronautics and aeronautics, p. 60, mai 1981). 171 P.147 le docteur Lewis Thomas écrit : Cf. "Basic medical research : a long-term investment" (Technology review, p. 46-47, mai-juin 1981) 172 P.148 Joseph Lister publia : Cf. Volume V, "Fine chemicals", dans A history of technology, édité par C. J. Singer et al. (Oxford : Clarendon press, 1958). 173 P.148 Sir Humphry Davy écrivit : Cf. A history of technology (note n°172). Chapitre 10 : Les limites à la croissance 174 P.154 la vitesse limite n'est pas aussi simple à franchir : Le principe de relativité du mouvement signifie que les objets en "mouvement" peuvent être considérés comme étant au repos -ce qui signifie qu'un pilote de vaisseau spatial qui essaierait de se rapprocher de la vitesse de la lumière ne saurait même pas dans quelle direction accélérer. De plus, de simples diagrammes de Minkowski montrent que la géométrie de l'espace temps fait qu'un voyage à une vitesse plus élevée que celle de la lumière est équivalent à un voyage dans le passé -et comment dirigez-vous une fusée dans cette direction ? 175 P.154 Arthur C. Clarke écrit : Cf. Profiles of the future : an inquiry into the limits of the possible, 1ère édition (New York : Harper & Row, 1962). 176 P.155 ses propriétés limitent tout ce que l'on peut faire : Pour avoir une idée de quelques théories modernes qui tentent d'unifier toute la physique en terme de structure du vide, cf. "The hidden dimensions of spacetime", de Daniel Z. Freedman et Peter van Nieuwenhuizen (Scientific American, vol. 252, p. 74-81, mars 1985). 177 P.156 des quantités bien plus subtiles : Par exemple, des mesures quantiques peuvent affecter les résultats d'autres mesures quantiques effectuées simultanément à une grande distance -mais les effets ne sont que statistiques et il a été prouvé mathématiquement que cette interaction ne permet pas la transmission d'informations. Lire à ce sujet la discussion très abordable du théorème de Bell et du paradoxe EPR (Einstein, Podolsky et Rosen) dans Quantum reality, de Nick Herbert (Garden City, New York : Anchor press/Doubleday, 1985). Malgré certaines rumeurs (il y en a dans les dernières pages de Quantum reality), rien ne semble suggérer que la conscience et l'esprit reposent sur la mécanique quantique d'une manière ou d'une autre. Pour une excellente discussion sur la manière dont la conscience fonctionne (et sur le peu de conscience que nous avons réellement), cf. The society of mind, de Marvin Minsky (New York : Simon & Schuster, 1986). 178 P.157 Votre victime vous aurait peut-être répondu quelque chose d'assez vague : Mais maintenant, la physique peut répondre à ces questions de manière tout à fait rigoureuse. Les calculs de mécanique quantique indiquent que l'air est un gaz parce que les molécules d'oxygène, comme les molécules d'azote, ont tendance à former des paires solidement liées qui ne réagissent pas avec d'autres composés. L'air est transparent parce que la lumière visible ne contient pas assez d'énergie pour exciter les électrons des molécules de gaz et les amener dans des états quantiques plus élevés. Une table en bois est solide parce qu'elle contient des atomes de carbone qui peuvent former des chaînes solides (les calculs de mécanique quantique le confirment), comme dans la cellulose et la lignine. Elle est de couleur brune parce que ses électrons sont dans différents états, dont certains excitables par la lumière visible. Les photons de haute énergie comme le bleu sont absorbés préférentiellement et la table réfléchit donc plutôt des teintes jaunes ou rouges. 179 P.158 Stephen W. Hawkins l'indique : Cf. "The age of space-time", (American scientific, vol. 72, p. 355-59, juillet-août 1984). 180 P.158 peu d'autres particules stables connues : Les électrons, les protons et les neutrons ont des antiparticules stables possédant les mêmes propriétés physiques exceptées une charge électrique inversée et la particularité de s'annihiler avec une particule équivalente de matière en libérant de l'énergie (ou des particules plus légères). Elles ont donc des applications évidentes dans le stockage de l'énergie. De plus, les objets faits d'antimatière peuvent avoir une utilité pour fabriquer des électrodes négatives dans des systèmes électrostatiques de champ fort : celui-ci n'aura pas tendance à éjecter les positrons (contrairement aux électrons) et la limite ultime pour la force du champ sera alors la rupture mécanique de la surface de l'électrode. De telles électrodes devraient bien sûr être fabriquées et déplacées sans entrer en contact avec la matière ordinaire. Diverses théories physiques prédisent l'existence d'autres particules stables (et même de cordes massives ressemblant à des particules) qui interagiraient si faiblement avec la matière qu'elles seraient presque indétectables (comme les neutrinos) ou très massives (comme les hypothétiques monopoles magnétiques). De telles particules pourraient cependant s'avérer très utiles, si elles étaient découvertes. 181 P.159 Tenter de changer un noyau : L'effet moléculaire et l'effet de champ utilisés dans la spectroscopie par résonance magnétique nucléaire changent l'orientation des noyaux, mais pas leur structure. 182 P.160 les propriétés de noyaux bien séparés : Il a été suggéré que les noyaux excités pourraient servir de milieu de pompage pour les laser à rayons gamma. 183 P.160 présenterait quelques difficultés : Avant que les noyaux ne soient suffisamment proches les uns des autres pour interagir, leurs structures atomiques se mélangent pour former un solide de "matière dégénérée", uniquement stable à des pressions énormes. Finalement, quand les noyaux en viennent à interagir, les échanges de neutrons et d'autres particules ont tôt fait de tout rendre uniforme, détruisant par la même occasion les constructions que quelqu'un pourrait vouloir fabriquer et utiliser. 184 P.160 l'isolation thermique : C'est un but en apparence simple à atteindre, mais les structures optimales (du moins si une certaine résistance à la pression est nécessaire) peuvent être assez complexes. Les cristaux réguliers transmettent bien la chaleur : il faut donc introduire des irrégularités, ce qui augmente la complexité. 185 P.161 les autres compétiteurs seront souvent presque aussi bons : Et d'une certaine manière, nous pourrions concevoir le meilleur système possible sans jamais être sûr que de meilleurs systèmes n'existent pas. 186 P.161 Richard Barnet écrit : Cf. The Lean years : politics in the age of scarcity (New York : Simon & Schuster, 1980). 187 P.162 Jeremy Rifkin (avec Ted Howard) a écrit : Cf. Entropy : a new world view (New York : Viking press, 1980). 188 P.164 L'ultime impératif moral : Malgré cette constatation, Rifkin s'est depuis lancé dans une nouvelle croisade, cette fois contre les idées d'évolution et de modification de son génome par l'être humain, même en utilisant les techniques que les bactéries et les virus emploient depuis des milliards d'années. A nouveau, il nous met en garde contre des conséquences cosmiques. Mais il semble apparemment encore croire au monde fermé et mourant qu'il décrit dans Entropy : "Nous vivons par la grâce du sacrifice. La moindre amélioration de notre condition est due à une diminution en un autre endroit". Après avoir prouvé dans Entropy qu'il ne comprend pas comment le cosmos fonctionne, il cherche maintenant à nous indiquer ce que le cosmos veut : "L'intérêt du cosmos n'est pas différent du nôtre [...] Comment satisferions-nous au mieux les intérêts du cosmos ? En remboursant à la hauteur de ce que nous avons reçu". Mais il semble voir toutes les réalisations humaines comme étant fondamentalement destructrices, indiquant que : "Le seul don que nous pouvons faire concerne les choses auxquelles nous n'aurons pas touché" et déclarant que "La vie nécessite la mort". Pour plus de misanthropie et d'idées fausses, cf. Algeny, de Jeremy Rifkin (New York : Viking, 1983). Pour une déclaration résolue que l'ingénierie génétique est impossible, faite par le "prophète et le maître" de Rifkin, Nicholas Georgescu-Roegen, cf. The entropy law and the economic process (Cambridge, Mass. : Harvard university press, 1971). 189 P.166 croissance exponentielle finit par dépasser : La transition démographique -la baisse du taux de natalité qui accompagne la croissance économique- n'est pas comparable à ceci. La croissance exponentielle d'une minorité, même petite, conduira rapidement à en faire une majorité, et à finalement lui faire consommer toutes les ressources disponibles. 190 P.168 une explosion vers l'extérieur à une vitesse proche de celle de la lumière : Les arguments en faveur d'un tel phénomène reposent sur des considérations évolutionnistes. Imaginez qu'une autre civilisation cosmopolite, avec des groupes en compétition, commence son expansion à travers l'espace. Quels groupes trouvera-t-on aux frontières ? Précisément ceux qui se répandent le plus vite. La compétition pour l'accès aux limites extérieures est une pression évolutive qui favorise la vitesse de transport et d'installation la plus élevée. Cette vitesse n'est pas très éloignée de la vitesse de la lumière (cf. note n°115). En un million d'années, de telles civilisations ne se répandraient pas uniquement à travers une galaxie, mais à travers les espaces intergalactiques également. Qu'un millier ou un million de civilisations disparaissent avant d'atteindre l'espace ou survivent sans se répandre est hors de propos : la leçon fondamentale de l'évolution est que lorsque des réplicateurs sont impliqués, un unique succès peut compter plus qu'un nombre illimité d'échecs. 191 P.168 n'a pas besoin de contenir tous les produits chimiques possibles : Même le nombre de molécules différentes d'ADN faisant 50 nucléotides de long (415) est plus grand que le nombre de molécules dans un verre d'eau. 192 P.169 Les limites à la croissance : De Donella H. Meadows et al. (New York : Universe books, 1972). 193 P.169 Le moment décisif pour l'humanité : De Mihajlo D. Mesarovic et Eduard Pestel (New York : Dutton, 1974). Chapitre 11 : Les engins de destruction 194 P.175 déjà du mal à contrôler les virus et les criquets : Nous avons des difficultés alors même qu'ils sont constitués de machineries moléculaires conventionnelles. Les bactéries sont également difficiles à contrôler, et pourtant elles sont très fragiles. Une bactérie ressemble à une petite boîte rigide et sans bouche -pour se nourrir, une bactérie doit être immergée dans un film d'eau qui contient des nutriments dissous qu'elle peut absorber. A l'inverse, les "superbactéries" fabriquées à partir d'assembleurs peuvent fonctionner avec ou sans eau et nourrir leurs machines moléculaires avec des matériaux bruts récoltés par des "bouches" capables d'attaquer les structures solides. 195 P.176 les systèmes d'IA pourraient servir de concepteurs d'armes, de stratèges ou de combattants : Cf. "The fifth generation : taking stock", de M. Mitchell Waldrop (Science, vol. 226, p. 1061-63, 30 novembre 1984) et "Military robots", de Joseph K. Corrado (Design news, p. 45-66, 10 octobre 1983). 196 P.180 voire nul si nécessaire : Pour être précis, un objet peut être fabriqué avec un risque négligeable qu'il ait un atome à la mauvaise place. Pendant l'assemblage, les erreurs peuvent être rendues arbitrairement improbables par une procédure de test répétitifs et de corrections (cf note n°70). Supposons par exemple que les erreurs soient très courantes et que la procédure de test laisse passer une erreur sur mille. Une série de 20 tests consécutifs permettra de rendre si faible la probabilité qu'une erreur ne soit pas détectée et corrigée que les risques de placer un seul atome au mauvais endroit seront faibles, même dans une construction de la taille de la Terre. Mais les dégâts causés par les radiations (leur fréquence est proportionnelle à la taille de l'objet et à son âge) déplaceront des atomes à l'origine bien placés, ce qui rend inutile une telle précision. 197 P.180 un rayon cosmique peut déplacer de manière inattendue un atome dans une structure : Le blindage peut en grande partie éliminer ce problème, mais les neutrinos, qui sont capables de traverser entièrement la Terre -ou Jupiter, ou le Soleil- causeront toujours des dégâts (toutefois à un rythme très lent). Cf. "The search for proton decay", de J. M. LoSecco et al. (Scientific American, vol. 252, p. 59, juin 1985). 198 P.181 Stratus Computer Inc, par exemple : Cf. "Fault-tolerant system in commercial applications", de Omri Serlin (Computer, vol. 17, p. 19-30, août 1984). 199 P.181 diversité de la conception : Cf. "Fault-tolerance by design diversity : concepts and experiments", de Algirdas Avizienis et John P. J. Kelly (Computer, vol. 17, p. 19-30, août 1984). 200 P.181 la redondance pour contrôler les réplicateurs. Comme les machines à réparer les cellules qui comparent plusieurs brins d'ADN : La bactérie Micrococcus radiodurans possède apparemment un ADN quatre fois redondant, ce qui lui permet de survivre à des doses de radiation extrêmes. Cf. "Multiplicity of genome equivalents in the radiation-resistant bacterium Micrococcus radiodurans", de Mogens T. Hansen (Journal of bacteriology, p. 71-75, avril 1978). 201 P.181 un autre système de correction d'erreurs : La correction d'erreurs fondée sur la comparaison de plusieurs copies est plus facile à expliquer, mais les CD audio (par exemple) utilisent d'autres méthodes qui permettent une correction d'erreur en utilisant beaucoup moins d'informations redondantes. Pour une explication d'un code de correction d'erreur répandu, cf. "The reliability of computer memory", de Robert McEliece (Scientific American, vol. 248, p. 88-92, janvier 1985). 202 P.183 l'intelligence sera constituée de parties mentales : Cf. The society of mind, de Marvin Minsky (New York : Simon & Schuster, 1986). 203 P.183 La métaphore de la communauté scientifique : De William A. Kornfeld et Carl Hewitt (MIT AI lab memo n°641, janvier 1981). 204 P.183 les systèmes d'IA peuvent être rendus fiables : La sécurité ne nécessite pas que tous les systèmes d'IA soient rendus fiables, à partir du moment où certains sont fiables et nous aident à contrôler les autres. 205 P.184 Il pourrait s'appeler Agora : C'est un concept que Mark Miller et moi-même développons. Il y a une relation avec les idées développées dans "Open systems", de Carl Hewitt et Peter de Jong (MIT AI lab memo n°692, décembre1982). 206 P.184 de manière plus fiable que n'importe quel groupe d'ingénieurs : Tout simplement parce que des systèmes d'IA (comme ceux décrits dans le chapitre 5) seront capables de trouver les erreurs et les corriger un million de fois plus vite. 207 P.186 autres que les programmes d'IA spécialement conçus : Cf. "The role of heuristics in learning by discovery", de Douglas B. Lenat, dans Machine learning, édité par Michalsky et al. (Palo Alto, Calif. : Tiago publishing company, 1983). Pour une discussion à propos de programmes conçus pour évoluer et qui y sont parvenus, voir p. 243-85. Pour une discussion à propos de programmes qui auraient dû évoluer mais ne l'ont pas fait à cause de défauts de conception, voir p. 288-92. 208 P.186 ne pas doter les réplicateurs de telles facultés : Si nous ne le faisons pas, la "mélasse grise" pourrait bien nous remplacer sans pour autant être capable d'évoluer vers quelque chose d'intéressant. 209 P.187 pour éventuellement corriger ses calculs : Les calculs permettront au système de représenter des structures moléculaires qu'il n'aura pas caractérisées directement. Mais les calculs peuvent conduire à des résultats ambigus pour les cas litigieux -les résultats peuvent même dépendre d'un effet tunnel aléatoire ou du bruit thermique. Dans ce cas, la mesure de quelques positions atomiques (opérées directement sur la structure de la pièce en construction) devrait suffire pour distinguer la bonne solution parmi toutes les possibilités et permettre ainsi de corriger les calculs. Cette méthode peut aussi permettre d'affermir les calculs portant sur la géométrie des grosses structures. 210 P.188 Une couche de capteurs : Ces couches de capteurs seront pénétrées par des fils électriques, ce qui pourrait présenter un problème de sécurité : que se passerait-il si quelque chose pouvait leurrer un capteur et parvenir à s'échapper en grignotant un fil électrique ? En pratique, tout ce qui peut transmettre un signal ou de l'énergie (y compris des fibres optiques, des systèmes de transmission mécanique, etc.) peut être utilisé à la place de fils électriques. Ces canaux peuvent être rendus fiables en les fabriquant avec des matériaux aux propriétés extrêmes : si un fil très fin est fabriqué avec le matériau le plus conducteur, ou si un système de transmission mécanique est fabriqué avec le matériau le plus résistant (et qu'il est utilisé près de son point de rupture), alors toute tentative pour remplacer une partie de ce système par autre chose (comme un réplicateur en cours d'évasion) provoquera une augmentation de la résistance électrique ou une rupture du système de transmission mécanique. Ainsi, les systèmes de transmission eux-mêmes se comportent comme des capteurs. La sécurité pourrait être encore renforcée en utilisant la redondance et la diversité de conception : différentes couches de capteurs pourraient être traversées par différents systèmes de transmission, chacun transmettant des signaux et de l'énergie au suivant. 211 P.189 Détruire les données se rapportant à la conception de ces protéines : Mais comment peut-on faire oublier aux chercheurs leur travail ? Ce n'est pas vraiment nécessaire puisque leur connaissance serait dispersée. Pour développer des systèmes complexes modernes, plusieurs équipes travaillent sur des parties différentes ; ils n'ont pas besoin de savoir comment est la partie dont s'occupe une autre équipe (et encore moins la manière dont elle est faite), mais comment elle interagit avec ce sur quoi ils travaillent. C'est de cette manière que la Lune fut atteinte alors que personne, ni aucune équipe, ne savait le faire entièrement ; il pourrait en être de même avec les assembleurs. Puisque les plans du premier assembleur seraient des documents historiques, il vaudrait mieux les stocker à l'abri plutôt que de les détruire. Ils pourraient devenir publics après quelque temps. Mais la dissimulation des informations de conception ferait au mieux gagner quelques années, parce que les méthodes utilisées pour concevoir le premier assembleur seraient plus difficiles à garder secrètes. De plus, les laboratoires scellés d'assembleurs peuvent être utilisés pour développer et tester des machines qui peuvent fabriquer des assembleurs et qui n'en nécessitent pas pour leur propre fabrication. 212 P.189 des murs puissent être rendus résistants à de petits réplicateurs, aucun ne peut parer une malveillance organisée : Les laboratoires scellés d'assembleurs peuvent malgré tout fonctionner. Ils ne protègent pas leur contenu de l'extérieur ; ils sont conçus pour le détruire en cas de tentative d'intrusion. En fait, ils protègent l'extérieur de leur contenu -et leur espace de travail réduit ne permet pas la fabrication de grands systèmes, malveillants ou non. 213 P.191 l'assaillant n'a pas d'avantage évident : Dans l'exemple cité, des entités organisées étaient opposées à d'autres entités similaires. Ces entités pouvaient bien sûr être détruites par des bombes thermonucléaires, mais avec la dissuasion que représente une possible revanche, aucun attaquant n'a vu d'intérêt à lancer une attaque nucléaire. Chapitre 12 : Stratégies et survie 214 P.195 l'occupation de puissances hostiles : En principe, ceci pourrait être une forme minimale d'occupation qui contrôlerait seulement les laboratoires de recherche. Mais une telle mesure ressemblerait déjà globalement à une conquête. 215 P.199 aussi ouvertes que possibles : Il est probablement possible de trouver des formes d'inspection qui permettent à un groupe d'être sûr de ce qu'un système en développement va pouvoir faire (et ne pas faire), sans qu'il apprenne comment ce système est fait. Le développement fragmenté des composants d'un système peut en principe permettre la coopération entre plusieurs groupes sans qu'un seul soit capable de construire et d'utiliser indépendamment un tel système. 216 P.199 nous pensons bien sûr à la main humaine qui la pointe : Pour une discussion à propos des vaisseaux spatiaux autonomes, cf. "Expanding role for autonomy in military space", de David D. Evans et Maj. Ralph R. Gajewski (Aerospace America, p. 74-77, février 1985). Voir également "Can space weapons serve peace ?", de K. Eric Drexler (L5 news, vol. 9, p. 1-2, juillet 1983). 217 P.200 il protégerait chaque camp sans menacer l'autre : Dire qu'un bouclier efficace à 50% pour chaque camp est inutile revient à dire qu'une réduction bilatérale de 50% des arsenaux nucléaires -une véritable percée dans le contrôle des armements- est inutile. L'aspect pratique d'un tel bouclier est une autre question. Avant que de véritables boucliers actifs soient développés, la question n'est pas de rendre les attaques nucléaires inoffensives, mais de les rendre moins probables. 218 P.200 en réduisant au minimum les transferts de technologies : Et en effet, le président Reagan a parlé de transmettre la technologie de défense spatiale des USA à l'Union soviétique, cf. le New York times, p. A15, 30 mars 1983. Voir également "Sharing 'Star wars' technology with Soviets a distant possibility, says head of Pentagon study group", de John Horgan (The institute, p. 10, mars 1984). Richard Ullman, professeur en affaires internationales à l'université de Princeton, a proposé un programme de défense commun avec d'importants transferts technologiques, cf. "U.N.-doing missiles" (New York times, p. A23, 28 avril 1983). En principe, un programme commun peut se dérouler sans qu'il y ait beaucoup de transferts technologiques. Il existe de grandes différences entre (1) savoir ce qu'un appareil ne peut pas faire (2) savoir ce qu'il peut faire (3) savoir comment il est fait (4) savoir comment on le construit. Ceci définit quatre niveaux de connaissance, chacun (plus ou moins) indépendant des niveaux situés au-dessus. Par exemple, si je vous prêtais un boîtier en plastique, un examen rapide devrait vous convaincre qu'il ne peut pas voler ou tirer des cartouches. Une démonstration pourrait alors vous convaincre qu'il s'agit d'un téléphone portable. En inspectant l'objet avec attention, vous pourriez observer ses circuits électriques et avoir une excellente idée de ce que cet objet est vraiment et de ses limites, mais vous ne seriez toujours pas capable de le fabriquer. La propriété la plus importante d'un bouclier actif réside dans ce qu'il ne peut pas faire : c'est-à-dire servir d'arme. Pour parvenir à développer conjointement un projet de bouclier actif reposant sur des composants de haute technologie, des nations auraient surtout besoin d'échanger des informations de niveau 1 et 2. Il y aurait également quelques échanges limités au niveau 3, mais aucune information de type 4 n'aurait besoin d'être partagée. 219 P.200 les questions communes à tous les boucliers actifs : Comme celles concernant leur contrôle, leur utilisation, leur fiabilité et leur rôle politique fondamental ainsi que leur acceptation. Chapitre 13 : Trouver les faits 220 P.204 un sondage de la U.S. National Science Foundation : Cité par le directeur de la NSF, John B. Slaughter (Time, p. 55, 15 juin 1981). 221 P.205 Conseils et divergences : Sous-titré "Scientists in the political arena", de Joel Primack et Frank von Hippel (New York : Basic books, 1974). 222 P.205 Hazel Anderson indique : Cf. Creating alternative futures : the end of economics (New York : Berkley publishing, 1978). 223 P.205 Harrison Brown indique de la même manière : Cf. The human future revisited : the world predicament and possible solutions (New York : Norton, 1978). 224 P.206 Des débats font rage à propos de la sûreté nucléaire : Pour une discussion sur l'accident de la centrale nucléaire de Three Mile island et une discussion sur (1) la remarquable entente d'un groupe d'experts sur les problèmes de la centrale, (2) la manière dont les médias se sont emparés du sujet et l'ont déformé, (3) l'incapacité du gouvernement fédéral à faire face à la réalité, cf. "Saving American democracy", de John G. Kemeny, président du Dartmouth college et directeur de la commission présidentielle sur Three Mile island (Technology review, p. 65-75, juin-juillet 1980). Il conclut que "le système actuel ne fonctionne pas". 225 P.206 Les disputes à propos de faits techniques : Pire encore, deux personnes peuvent s'entendre sur les faits et sur les valeurs de base (par exemple, que la richesse est bonne et que la pollution est mauvaise) et être pourtant en désaccord à propos de la construction d'une usine -l'une pourrait être plus concernée par la richesse, l'autre par la pollution. Dans les débats où les émotions rentrent en ligne de compte, les différentes parties peuvent en venir à accuser les autres d'avoir des valeurs perverties, comme de favoriser la pauvreté ou de négliger totalement l'environnement. Les nanotechnologies vont adoucir ces conflits en changeant les règles du jeu. Parce que nous pourrons avoir une bien plus grande richesse et une pollution très réduite, les anciens adversaires pourraient se retrouver plus souvent dans le même camp. 226 P.208 chercheurs en IA : Cf. "The scientific community metaphor", de William A. Kornfeld et Carl Hewitt (MIT AI lab memo n°641, janvier 1981). Voir également la discussion sur le "due-process reasonning" dans "The challenge of open systems", de Karl Hewitt (Byte, vol. 10, p. 223-41, avril 1985). 227 P.210 des procédures similaires à celles utilisées dans les tribunaux : Elles pourraient peut-être utiliser un mode de communication écrit, plutôt que des rassemblements face à face : juger de la véracité d'un témoignage en s'appuyant sur la manière dont il est donné est utile dans les tribunaux mais joue un rôle moins important en science. 228 P.211 Arthur Kantrowitz qui est à l'origine du concept : Il l'inventa au milieu des années 60. Cf. "Controlling technology democratically" (American scientist, vol. 63, p. 505-9, septembre-octobre 1975). 229 P.212 utilisé comme une institution gouvernementale : C'est d'ailleurs le sens originel de "cour de justice scientifique" et de nombreuses critiques du processus approprié viennent d'ailleurs de cet aspect de la proposition. L'approche du forum de faits est vraiment différente ; le docteur Kantrowitz l'appelle actuellement "procédure d'opposition scientifique". 230 P.212 Soutenu par un comité d'experts : Qui a proposé un programme spatial à l'Air Force en 1960. Ce programme mettait l'accent sur le fait qu'il était au moins aussi important d'apprendre à assembler des systèmes en orbite (comme des stations spatiales ou des fusées lunaires) que d'apprendre à construire des fusées géantes. Au cours du débat qui suivit, concernant la meilleure manière d'aller sur la Lune, Kantrowitz indiqua que l'assemblage en orbite terrestre serait peut être dix fois moins coûteux que la stratégie utilisant une fusée géante, celle qui fut finalement retenue. Mais des facteurs politiques intervinrent et le problème ne fut jamais étalé sur la place publique, cf. "Arthur Kantrowitz proposes a science court", une interview d'Eric Drexler (L5 news, vol. 2, p. 16, mai 1977). Pour une description d'un autre abus concernant une question technique durant le programme Apollo, cf. The heavens and the Earth : a political history of the space age, de William McDougall, p. 315-16 (New York : Basic books, 1985). 231 P.212 une proposition de procédure : Ceci est décrit dans "The science court experiment : an interim report" par la "Task force of the presidential advisory group on anticipated advances in science and technology" (Science, vol. 193, p. 653-56, 20 août 1976). 232 P.214 un colloque sur les cours de justice scientifiques : Cf. Proceedings of the colloquium on the science court, Leesburg, Virginia, 20-21 septembre 1976 (National technical information center, document n°PB261305). Pour un résumé et une discussion des critiques entendues au colloque, cf. "The science court experiment : criticisms and responses", de Arthur Kantrowitz (Bulletin of atomic scientists, vol. 33, p. 44-49, avril 1977). 233 P.214 peuvent se transformer en modifiant leurs règles : La formation du "Health effects institute" à Cambridge, Massachusetts, créé en 1980 pour rassembler les adversaires dans le domaine de la pollution atmosphérique a été une étape dans cette direction, cf. " Health effects institute links adversaries", de Eliot Marshall (Science, vol. 227, p. 729-30, 15 février 1985). 234 P.215 elle est donc jalousement gardée : Savoir si des procédures apparentées au processus approprié, mais appliquées à des informations confidentielles permet de mieux les juger reste une question ouverte. 235 P.215 une procédure expérimentale : Cf. "Science court would takle knotty technological issues", de Leon Lindsay (Christian science monitor, p. 7, 23 mars 1983). 236 P.216 Robert Fisher et William Ury : Cf. Getting to yes (Boston : Houghton Mifflin company, 1981). 237 P.216 Chaque camp : La procédure décrite ici traite des problèmes où deux camps sont opposés, mais ceci peut sembler un peu limité, puisque de nombreux problèmes présentent plusieurs aspects. Dans le débat qui porte sur l'énergie, par exemple, le gaz, le charbon, le nucléaire et l'énergie solaire ont chacun leurs partisans. Cependant de nombreux problèmes à approches multiples présentent des questions à deux côtés : la probabilité pour qu'un réacteur s'emballe est-elle faible ou forte ? La combustion du charbon a-t-elle un effet faible ou important sur les pluies acides ? Une cellule solaire coûtera-t-elle cher ou non ? Les réserves en gaz sont-elles petites ou importantes ? Les problèmes à plusieurs approches peuvent la plupart du temps être découpés en problèmes plus petits et plus simples à résoudre. Les scientifiques et les ingénieurs prudents donneront rarement des nombres tels quels. Ils expliqueront pourquoi ces chiffres-là leur semblent être les plus probables. Mais puisque l'existence d'un forum suppose qu'il y a une opposition, des avocats seront impliqués et ils n'auront de cesse que de soutenir leur position -les avocats du nucléaire chercheront à prouver que les réacteurs sont très peu chers et très sûrs ; leurs opposants aimeront au contraire prouver qu'ils sont chers et dangereux. Parce que les nombres qui mesurent le coût et le risque peuvent seulement être plus grands ou plus petits, ces questions simplifiées tendront à rester partagées entre seulement deux camps. Chapitre 14 : Le réseau de la connaissance 238 P.218 Tohru Moto-Oka : Professeur à l'université de Tokyo et directeur du projet japonais d'ordinateur de cinquième génération. 239 P.221 la structure d'un système : Leur approche de l'hypertexte, maintenant en phase de démonstration, est appelé le système Xanadu. J'ai analysé la structure des données sur lesquelles leur système est fondé et il est évident que de puissants systèmes hypertextes sont réalisables. Pour la description d'un système moins ambitieux (mais cependant assez puissant), cf. "A network based approach to text-handling for the online scientific community", une thèse de Randall H. Trigg (Université du Maryland, Department of computer science, TR-1346, novembre 1983). 240 P.222 de ceux de Theodore Nelson : Cf. Computer lib/Dream machines (auto-publié, distribué par the Distributors, South Bend, Ind., 1974), et Literary machines (Swarthmore, Pa. : Ted Nelson, 1981). Computer lib est très agréable à lire, il présente les ordinateurs et leurs possibilités, y compris l'hypertexte, d'une manière bien particulière. Une nouvelle édition est en préparation. Literary machines est consacré à l'hypertexte. 241 P.229 Le Time magazine indique : A la page 76, 13 juin 1983. 242 P.229 en augmentant la quantité d'informations disponibles : Un système hypertexte pourrait servir à stocker les informations les plus utilisées dans la maison ou dans une bibliothèque locale. Les CD-ROMs peuvent stocker environ 500 livres et coûtent un franc à fabriquer. Cf. "Audio analysis II : read-only optical disks", de Christopher Fry (Computer music journal, vol. 9, été 1985). Chapitre 15 : Assez de mondes et du temps 243 P.231 une grande abondance matérielle et une longue vie à ceux qui le désirent : Mais les limites à la croissance ne permettront pas qu'une abondance globale et universelle puisse durer indéfiniment. Se pose alors la question de la distribution des ressources de l'espace. Trois approches sont à considérer : La première peut se résumer à "premier arrivé, premier servi", comme dans le cas des gisements ou des propriétés des pionniers. Cette approche prend ses racines dans le principe de Locke, qui attribue la propriété à un mélange de travail et de ressources auparavant sans propriétaire. Mais ceci permettrait à quelqu'un qui posséderait un réplicateur efficace de le répandre à travers l'univers pour retravailler -et donc posséder- tous les objets sans propriétaire de l'univers, aussi vite qu'il pourrait les atteindre. Cette stratégie du "gagnant-qui-rafle-la-mise" aurait peu de valeur morale et ses conséquences pourraient être très désagréables. A l'extrême opposé, la propriété de l'espace pourrait être distribuée équitablement entre tous les habitants. Elle serait redistribuée régulièrement afin de maintenir l'égalité. Cette approche aurait également des conséquences néfastes. En l'absence de limitations contraignantes et universelles concernant les naissances, quelques groupes continueraient à croître exponentiellement ; les principes évolutifs le garantissent. En un temps étonnamment court, une redistribution perpétuelle des biens amènerait le niveau de vie de tous les humains sous le seuil de pauvreté. Ceci conduirait à des famines et à une pauvreté pire que celles que connaissent certains pays du Tiers Monde. Même si 99% de la population humaine limite volontairement son taux de natalité, le reste peut rapidement se multiplier jusqu'à consommer toutes les ressources. Une troisième approche (qui comprend de nombreuses variantes) utilise une solution intermédiaire : distribuer les ressources de l'espace (une propriété véritable, permanente et "héritable") équitablement entre tous les êtres humains, mais ne le faire qu'une seule fois et laisser les personnes répartir leurs vastes biens parmi leur progéniture (ou d'autres personnes). Ceci permettrait à divers groupes de vivre des futurs différents et récompenserait les économes plutôt que les dispendieux. Cette solution peut servir à l'établissement d'un avenir d'une diversité illimitée pour un temps indéfini, si les boucliers actifs sont utilisés pour protéger les hommes des agressions et des vols. Personne n'a proposé d'alternative pour l'instant. D'un point de vue socialiste, cette solution donne à chacun une richesse équitable. D'un point de vue libéral, elle ne viole pas les droits de la propriété et nous oriente vers un avenir de liberté. Selon Thomas Schelling, la division équitable des ressources est le point central d'un accord (cf. The strategy of conflict, de Thomas Schelling, Cambridge, Mass. : Harvard university press, 1960). Ce qu'une "division équitable" signifie est une vaste question qu'il vaut mieux laisser aux juristes. Pour que cette approche puisse fonctionner, un accord ne devra pas seulement être trouvé en ce qui concerne la division des biens mais aussi la date à laquelle elle est faite. L'espace a été déclaré par traité "héritage commun de toute l'humanité" et nous devrons choisir un jour pour hériter. L'analyse de Schelling indique qu'il est très important, pour qu'un accord soit trouvé, que des propositions plausibles et précises soient faites aussi vite que possible. Une date s'impose-t-elle d'elle-même ? Un anniversaire avec des chiffres ronds conviendrait très bien, s'il n'était pas uniquement attaché aux USA ou à l'URSS et s'il n'était pas trop proche, ni trop près d'une date de changement de millénaire. La meilleure date serait peut être le 12 avril 2011, le 30ème anniversaire du premier vol de la navette spatiale et le 50ème du premier vol spatial, celui de Youri Gagarine. 244 P.232 d'assurer une paix stable et durable : Les boucliers actifs peuvent l'accomplir de manière fiable s'ils utilisent la redondance et de grandes marges de sécurité. 245 P.234 mais la nature ne semble pas très conciliante : Pour une discussion sur l'impossibilité apparente des machines à voyager dans le temps dans le cadre de la théorie de la relativité générale, cf. "Singularities and casualty violation", de Frank J. Tipler, dans Annals of physics, vol. 108, p. 1-36, 1977. Tipler a l'esprit très ouvert : en 1974, il défendait le point de vue opposé. 246 P.236 de motifs qui ressemblent à ce que les mathématiciens appellent des "fractales" : Les fractales présentent des similarités de formes à des échelles différentes -comme un rameau peut ressembler à une branche, qui à son tour ressemble à un arbre ou comme les rigoles, les ruisseaux et les rivières ont des formes qui renvoient les unes aux autres. Cf. The fractal geometry of nature, de Benoit B. Mandelbrot (San Francisco : W. H. Freeman 1982). A propos de l'auteur K. Eric Drexler est un chercheur engagé dans l'émergence des nouvelles technologies. Depuis 1977, son travail s'est de plus en plus focalisé sur les nanotechnologies, un développement que beaucoup perçoivent maintenant comme une technologie de fabrication de base du XXIème siècle. Diplômé du Massachusetts Institute of Technology, il donna les premiers cours portant sur les nanotechnologies à l'université de Standford. Il est actuellement président du Foresight Institute, une organisation à but non lucratif qui a pour mission de "préparer aux nouvelles technologies". Il donne de nombreuses conférences sur les nanotechnologies et leurs conséquences. 8 Préface Préface 9 12 Remerciements 14 Table des matières Les engins constructeurs 13 34 Les engins créateurs Les engins constructeurs 33 42 Les engins créateurs Les principes du changement 43 62 Les engins créateurs Prédictions et projections 63 74 Les engins créateurs Les engins d'abondance 75 92 Les engins créateurs Machines pensantes 93 136 Les engins créateurs Le monde au-delà de la Terre 107 Les engins de guérison 125 Longue vie dans un monde ouvert 137 172 Les engins créateurs Une porte sur le futur 155 Une porte sur le futur 153 Les limites de la croissance 173 232 Les engins créateurs Les engins de destruction 193 Stratégies et survie 205 Analyser les faits 219 Le réseau du savoir 231 240 Les engins créateurs Beaucoup de mondes et de temps 241 250 Postface, 1990 Postface, 1990 249 244 Postface, 1990 Postface, 1990 245 244 Postface, 1996 Postface, 1996 247 252 Glossaire Glossaire 251 292 Notes et références Notes et références 293