Existons nous ?
De récents résultats
obtenus dans l’étude des phénomènes
complexes
montrent que l’univers dans son entier pourrait
n’être qu’un
processus calculatoire. Dès lors, la conscience elle même
pourrait n’être qu’une propriété
émergente
susceptible d’être simulée. Est-ce
déjà le
cas ?
Une idée ancienne
Le réductionnisme
Cartésien face à son destin
L’importance des phénomènes complexes a
été révélé petit à petit
lorsque de nombreuses disciplines scientifiques se sont trouvées
confrontées aux limites du réductionnisme, aux
frontières de la méthode cartésienne. En effet,
l’étude de nombreux systèmes composé de
plusieurs
éléments en interaction montre que le comportement du
système ne peut être prévu par l’étude
séparée de chacun de ses éléments: leurs
combinaisons font surgir des comportements inattendus, et le tout est
plus, comme le disait Aristote, que la somme de ses parties.
Il est facile d’illustrer ce concept par l’exemple d’un tas de sable: si l’on se concentre sur la position, les interactions et le bilan des forces s’exerçant sur chacun de ses grains, l’évolution d’un tas de sable est impossible à prévoir. Par contre, en se limitant à quelques variables globales (hauteur et rayon du cône de sable), cette évolution devient tout à fait déterminée. Le point clé est qu’ici la décomposition du système à étudier en facteurs plus petit augmente inutilement la complexité de l’ensemble à analyser. L’approche réductionniste trouve ici sa limite, qui est celle d’une complexité croissante induite par la décomposition dun système en ses divers éléments, et elle est particulièrement mise en évidence par l’étude des organismes vivants. En effet, le lent démontage des organismes, de la cellule aux organites, puis aux molécules et maintenant au génome, a permis d’énormes progrès mais montre actuellement ses limites: comment mettre en relation les énormes volumes de données collectées par l’analyse des génomes? Les biologistes sont conduit à élaborer de nouveaux modèles prenant la forme de réseaux permettant de mieux décrire l’interaction des différents éléments qui est à la source des singularités du vivant.
Où les mathémagiciens
s’en mêlent
C’est l’un des plus grand mathématiciens du
20ème
siècle, J. von Neumann, qui mis au point ces automates,
inventés par S. Ulam dans le but de modéliser les
caractéristique d’auto-reproduction des êtres
vivants. Par
la suite, les premiers spécialistes de l’informatique ont
mis au
point des simulations basées sur le comportement de ces
automates, reproduisant les systèmes à étudier. Un
de ces programmes est le “jeu de la vie” de J.H. Conway ,
mis au point en 1969 et simulant l’évolution d’une
population de
cellules vivantes.
A quoi ressemblent ces “automates cellulaires”? Les
plus simples
se représentent le plus souvent sous forme d’une grille,
chaque
ligne représentant une avancée d’une unité
temporelle. Le “comportement” (couleur par exemple)
d’une case de la
grille dépend de celui des grilles adjacentes au moyen
d’une (ou
de plusieurs) règle particulière. Pour des automates
très simples, il n’existe que 256 règles possibles
décrivant l’évolution de chaque case lorsque
l’on avance
d’une ligne dans le temps. Lorsque qu’une de ces
règle est
appliquées, il se crée alors un ensemble de motifs qui
adoptent un comportement pour le moins surprenant.
Dès 1936, les mathématiciens K. Gödel, A. Church et le père de l’informatique, Alan Turing, ont posé les bases de la théories de la calculabilité et se sont intéressés au calcul mécanique. Dans ce cadre, Turing a montré que des automates cellulaires peuvent constituer ce que l’on appelle des “calculateurs universels”, et sont en fait théoriquement susceptibles de réaliser l’ensemble des calculs possibles. Il en découle que si les phénomènes, même les plus complexes, sont calculables, alors ils peuvent l’être par des automates cellulaires adéquats.
Mais qu’appelle t’on complexité d’un système ? Trois chercheurs (Kolmogorov, Solomonoff et Chaitin, que nous retrouverons) ont mis au point une mesure de la complexité d’un système, dite complexité de Kolmogorov. L’intéressant est que cette mesure nécessite l’utilisation des conceptions de Turing: la complexité d’un système se défini par la longueur du plus petit programme susceptible de l’engendrer. Cette approche s’est révélée particulièrement précieuse pour la description mathématique de phénomènes physiques tels que l’entropie où encore celle de la complexité croissante des systèmes apparaissants au cours de l’histoire de l’univers.
Cette possible intrusion des mathématiques dans la biologie
n’a
pas été accueillie avec enthousiasme par la
majorité des biologistes, souvent fâchés depuis
l’enfance avec cette discipline. De plus, la simulation a
mauvaise
presse, particulièrement en France, chez les biologistes, aussi
bien dans l’enseignement, où elle est quasiment
abhorrée,
que dans la recherche où elle ne suscite le plus souvent
qu’un
intérêt poli. Cependant, des résultats
intéressants ont déjà été obtenus
par l’étude d’automates cellulaires: en 1995, le
comportement
des cellules de l’utérus a pu être
modélisé de façon à étudier le mécanisme du
déclenchement de l’accouchement. Le développement
des
structures en feuillets caractéristiques du début de
l’embryogenèse a aussi pu être reproduit de cette
façon ainsi que, plus prosaïquement,
celui du follicule pileux, très étudié en
cosmétologie. Le comportement des vrai cellules semble bien
pouvoir être décrit par celle des cellules virtuelles
d’un
univers mathématique. Malgré tout, ces étranges
grilles pour informaticiens semblaient ne posséder qu’une
utilité exotique et se cantonner à un rôle
accessoire pour scientifiques fana d’ordinateurs en manque
d’excentricités.
Cependant, le potentiel insoupçonné des automates
cellulaires n’allait pas tarder à se révéler
sous
la plume de physiciens passé maîtres dans la
modélisation des systèmes complexes qui résistent
à l’analyse classique. Ils allaient oser étendre la
pertinence du concept à la base des automates, à savoir
la possibilité qu’un calcul simple
répété
engendre des comportements complexes, à l’univers entier.
Ceux par qui le scandale arrive
Nos trois larrons entrent en scène vers le milieu des
années 1990. Il s’agit de S. Wolfram, E. Fredkin et S.
Lloyd. Ce
sont des chercheurs d’un genre un peu particulier dont
l’activité a été abondamment
commentée,
souvent en termes peu amènes, par les cercles
académiques. Issus de l’industrie informatique, ces
individus
cumulent des défauts rédhibitoires aux yeux de
l’establishment:
Ces étonnants penseurs, que nombre de chercheurs aurait préféré voir se cantonner sur des plages de rêve, vêtus de lin blanc et sirotant des cocktails, se sont proposés de réfléchir à la genèse des processus complexes que la physique et son arsenal mathématique classique ont du mal à expliciter. S’appuyant sur plusieurs années de travaux disparates, ils ont ordonnés les résultats précédents et y ont apporté leurs contributions respectives, exprimées pour l’essentiel dans le volumineux ouvrage de l’un d’eux, S Wolfram (fondateur de la société “mathematica”) ainsi que sur leurs sites web personnels. Ces excentriques de la recherche, disposant à la fois des moyens intellectuels et financiers nécessaires à une recherche novatrice, possèdent qui plus est des personnalités bien marquées: Fredkin, millionnaire qui enseigna l’informatique au MIT et fut l’ami du physicien R. Feynman, vit à présent sur sa propre île tropicale; S. Wolfram est le richissime fondateur de Wolfram research et ses fascinantes capacités intellectuelles (il obtint son doctorat de physique à 20 ans) n’ont d’égale que son immodestie revendiquée; Lloyd est un universitaire spécialiste de l’étude et de la définition de la complexité au prestigieux M.I.T. de Boston.
Leur conviction s’exprime simplement: l’ensemble des
processus à
l'œuvre dans l’univers doit pouvoir être
décrit comme un
calcul, et ce calcul est susceptible d’être lui même
simulé par une “machine de Turing”, autrement dit
par un
programme informatique. Il en découle que même les processus les plus complexes
peuvent être décrits par un processus calculatoire
relativement dont la répétition dans le temps engendre de
la complexité, voire de l’indétermination, à
partir d’une base parfaitement déterministe.
Comme le précise Fredkin, cette conception est
“ une
théorie atomique portée à son
extrémité logique, où toutes les quantités
de la nature sont finies et discrètes. Ceci signifie que,
théoriquement, n'importe quelle variable peut être
représentée exactement par un nombre entier. “.
Cette conception, propre à réjouir les mânes de
Pythagore, n’est pas nouvelle (elle est partagée
également par le mathématicien G. Chaitin) et avait
déjà été formulée par le physicien
J.A. Wheeler, mais elle implique l’abandon de deux concept
fondamentaux
qui n’ont jusqu’à présent que rarement
été
remis en cause:
Il est assez révélateur de voir que ces conceptions s’accordent avec les développements réalisés par d’autres scientifiques travaillant selon des voies plus classiques. En effet, plusieurs physiciens pensent qu’a une échelle extrêmement petite, l’espace temps est quantifié et non continu, et que, à l’autre extrémité des dimensions, notre univers ne serait infini qu’en apparence et résulterai de l’illusoire répétition d’un motif de très grande dimension, mais fini (bien que ne possédant pas de bords.
Si ces hypothèses sont exactes, les mathématiques classique, et l’analyse en particulier, se révéleront impuissantes à appréhender la nature ultime de la réalité car les fonctions apparaissant en physique ne pourront plus être considérées comme étant continûment dérivables. Par contre, les automates cellulaires fournissent un moyen d’une puissance insoupçonnée pour étudier les phénomènes où l’approche classique déclare forfait. Ainsi, même des automates cellulaires très simples peuvent recréer à la demande des motifs périodiques (correspondant à des phénomènes cycliques, faciles à traiter classiquement), chaotiques (plus difficiles à générer) mais également organisés et dotés d’une complexité croissante (ce qui n’est pas mathématisable par les voies les plus classiques).
A ce stade, une remarque doit venir à l’esprit du lecteur
perspicace (y en a t’il d’autres?): si des calculs
combinant des
quantités entières suffisent à expliquer la
complexité universelle, alors quid des phénomènes
d’indétermination rencontres à la fois en physique
et en
mathématique ?
En effet, ce n’est pas la moindre des surprises que de constater
que
cette nouvelle approche de la réalité implique
l’existence d’une forme nouvelle de déterminisme qui
se
réintroduit dans la physique: les processus qui nous semblent
aléatoires, chaotiques ou indéterminables ne seraient en
fait que l’émergence de mécanismes commun
parfaitement
déterminés dont l’essence calculatoire nous
resterait
encore inintelligible. Examinons plus en détail comment
l’indéterminisme résulte peut être uniquement
de
notre anthropocentrisme, ou plus exactement, nous le verrons, de ce que
nous pourrions désigner du néologisme de
“dimensionnisme”.
Incertitude, indétermination
et difficulté de penser le réel
La physique nous appris dès le début du
20ème siècle que la matière, au niveau atomique,
présente un étrange comportement. Les particules
élémentaires (bien mal nommées, puisque ce ne sont
justement pas des particules, et que la plupart ne sont pas
élémentaires...) qui constituent notre univers
obéissent aux lois étranges de la physique quantique, qui
semblent heurter le sens commun plus apte à manipuler les
oranges que les neutrons. Cependant, comme le font remarquer S. Ortoli
et JP.Pharabod “les
objets que nous connaissons ne sont pas des assemblages de
micro-objets, mais des combinaisons d’entités
élémentaires qui ne sont pas des objets”.
Parmi
les propriétés quantiques, le principe
d’incertitude
d’Heisenberg stipule que l’on ne peut connaître
simultanément la vitesse et la position d’une particule.
Toute
précision accrue de la mesure d’une de ces quantité
se
traduit par une imprécision croissant au niveau de l’autre
quantité. Comme des expériences récentes ont
amplement confirmé cet état de fait, il peut
paraître évident que des processus calculatoires
parfaitement déterminés ne peuvent rendre compte de cette
indétermination fondamentale. C’est là une
erreur
qui tient à la fois au biais causé par nos perceptions
sensorielles et au caractère réel de
l’indétermination.
En effet, cet indéterminisme n’apparait que lorsque nous
voulons
a toute force raccrocher la description des électrons, par
exemple, à des objets comme des ondes ou des particules, ce
qu’ils ne sont pas! Le physicien M. Bunge a d’ailleurs
forgé le
néologisme de “quanton” plus à même de
correspondre
au comportement des entités que sont l’électron, le
photon, les protons et leur collègues... En effet,
l’électron, par exemple, n’est ni onde ni
corpuscule, c’ est un
objet physique dont la description exacte ne saurait être que
mathématique, sous la forme d’une fonction d’onde,
laquelle est
définie en tout point et ne fait pas apparaître cette
fameuse indétermination qui ne surgit que lorsque nous voulons
à toute force faire rentrer le comportement de
l’électron
dans des notions macroscopiques comme la trajectoire, la vitesse ou la
position. Loin d’être une limite à la
précision de
nos mesures, l’indétermination ne résulte que de
notre
incapacité à penser en termes “non
classiques”,
obsédés que nous le sommes par des idées comme le
plan, la droite, le plan, la trajectoire... qui n’ont pas leur
pendant
dans le monde atomique! Nous voulons soumettre les lois du monde
à celles auxquelles sont soumise les objets de notre dimension,
et ce “dimensionnisme” est la source de nos
difficultés. Ainsi
que le déclare S. Hawking “ L'imprévisible,
l'élément de hasard, n'intervient que lorsque nous
essayons d'interpréter l'onde en termes de positions et de
vitesses de particules. Mais peut être est-ce notre erreur:
peut-être n'y a t'il ni position ni vitesse de particules,
seulement des ondes."
Ainsi, l’indéterminisme ne résulte que de notre
anthropomorphisme intellectuel. Il en est de même pour les
phénomènes chaotiques, où le hasard se conjugue au
déterminisme. L’analyse de systèmes très
sensibles
à leurs conditions initiales (climat, prévisions
météorologiques, turbulences...) montre que dans ces
systèmes les incertitudes de mesure vont en s’amplifiant
jusqu’à influer de façon notable sur le
déroulement de l’évolution du système.
Malgré tout, un système chaotique est pleinement
déterminé mathématiquement même si il reste
physiquement indéterminable à long terme .
Un monde d’automates
Les automates cellulaires les plus simples, qui
représentent en fait un calcul qui se répète
indéfiniment (itératif), permettent donc de simuler
nombre d’aspect de phénomènes aussi complexe que
l’organisation des tissus d’un être vivant où
la dynamique
d’une population. S. Wolfram étend cette compétence
calculatoire à de nouveaux domaines et montre que les automates
simples, définis pleinement en une ligne de code informatique,
peuvent reproduire des phénomènes aussi divers que la
croissance des cristaux, la morphologie des végétaux ou
les turbulences que la mécanique des fluides peine à
traiter. Cette troublante capacité de voir le calcul engendrer
la forme amène à l’idée que les automates cellulaires peuvent fournir
une nouvelle façon de comprendre la nature, se
superposant ou remplaçant l’analyse mathématique
classique qui se révèle bien souvent défaillante.
Ainsi, l’ensemble des fondements de la physique peut être
reformulé en termes calculatoire. C’est le credo de
Fredkin, qui
rejoint ici, après 26 siècles, la pensée de
Pythagore: au “tout est nombre” du philosophe, il oppose un
étonnant “tout est calcul” qui offre un cadre
nouveau aux
sciences de la nature. C’est également la voie suivi par
Wolfram
qui propose d’étudier les processus naturel comme
étant
les résultats de calculs modélisables par des automates,
et bornant la complexité de la nature à celle des calculs
réalisables avec ces moyens mathématiques. Cette approche
est loin d’être acceptée sans réticence, et
les
difficultés les plus sérieuses proviennent de ce
qu’il
n’est pas possible, selon G. Chaitin, de prouver qu’un
programme
particulier est le plus simple des programmes possibles engendrant la
complexité constatée. En d’autre termes, le fait de
savoir si l’on a un bon modèle ou le meilleur
modèle
possible est indécidable et indémontrable.
Cela n’empêche pas Seth Llyod de proposer de pousser cette conception (baptisée “réductionnisme computationnel”) dans ses dernières limites, et de considérer l’univers entier comme un calcul ayant effectué à ce jour un maximum de 10(120) opérations élémentaires. Ce calcul pourrait n’être vu que comme une récréation spirituelle, mais l’étonnant est que le chiffre obtenu dépend uniquement des valeurs des constantes de la physique, et qu’il correspond à ceux découverts par le physicien Paul Dirac dans son “algèbre des Q nombres” où il se proposait d’étudier la signification des valeurs des constantes de la physique! Llyod en déduit que la simulation totale et parfaite de l’univers depuis son émergence est théoriquement possible. Il en découle une interrogation fondamentale, qui paraît folle à première vue, échappée d’un film à succès, mais qui ne peut être écarté: vivons nous dans l’univers réel ou dans une simulation parfaite de celui ci? Existons nous ?
L’insoutenable
calculabilité de
l’être
Déjà le physicien J.A. Wheeler avait
proposé l’aphorisme selon lequel, la physique
n’étant
qu’information, l’être venait lui aussi de cette
information (“it
from bit”). Plus récemment, Nick Bostrom, de
l’université
d’Oxford, a proposé dans un article un
argument selon lequel les probabilités sont maximales pour que
nous vivions à l’intérieur d’une simulation
informatique.
Son raisonnement (dont certaines étapes prêtent, selon
moi, le flanc à la critique sans que pour cela sa conclusion
soit remise en cause) est que si la simulation d’une conscience
est
possible (ce qui serait, nous l’avons vu, le cas) alors nos
descendants
lointains réaliseront cette simulation, pour peu que la
durée de vie de notre civilisation le permette. Dès lors,
le nombre de consciences pouvant être simulées dans une
machine future (noter bien que comme il s’agit d’une
simulation, il ne
s’agit pas d’une machine pensante - les oppositions de R.
Penrose
à l’élaboration des machines pensantes ne tiennent
pas
ici) pourra être très grand, très supérieur
à celui des 6 milliards de consciences habitant actuellement
notre planète, et ceci de plusieurs ordres de grandeur. Il en
découle que vu le nombre de consciences simulables, le seul fait
d’être nous même une conscience nous place
d’emblée
dans la situation la plus probable, à savoir celle de faire partie des centaines de
milliards de consciences simulées plutôt que du
“petit”
nombre de consciences “réelles”...
Hâtons nous de dire que, dans ce cas, nous n’avons
aucun
moyen de savoir si nous sommes ou si nous ne sommes pas vraiment: être ou ne pas être, telle
n’est plus la question! Tout juste pourrait on subodorer
les
options philosophiques des programmeurs de la simulation en fonction
des événements que nous vivons, mais la recherche de ces
indices subtil ne serait guère probante...
Toutefois, si l’univers est bien le résultat d’un calcul, que celui ci soit réel ou simulé, nous tenons peut être là l’explication de la “déraisonnable efficacité des mathématiques”, car comment expliquer sinon comment une pure abstraction issue de l’activité de l’esprit humain réussisse si bien à décrire et à prévoir les phénomènes où l’homme n’intervient pas ? Les mathématiques régiraient le monde parce que ce dernier est, dans son essence, une mathématique...
Une incertaine réalité
Gageons que nous regarderons à présent nos ordinateurs
d’une autre façon... Mais que se rassurent les inquiets:
le
mathématicien Godel a démontré que dans toute
axiomatique surgit nécessairement au moins une proposition
indécidable, qui ne peut être réduite mais
seulement “déplacée” vers d’autres
propositions. Tout
système logique repose donc sur un parti pris, un acte
fondateur, un acte de volonté consciente. Ainsi que le
déclarait, prophétique, Werner Heisenberg
en 1942 : “Lorsque à tel
lieu
de la vie de l’esprit une connaissance fondamentalement nouvelle
se
présente à la conscience des hommes, il faut toujours
réexaminer et à nouveau résoudre la question de
savoir ce que la réalité est véritablement.”
Dr
R. Raynal,
scientifique, professeur,
Dr
de l'université de Toulouse
(article de la revue effervescience, paru dans le N°
30 de Mars 2004)