Mis à jour le 23 octobre 2009 : ajout de ce lien vers une proposition de limite physique à la vitesse des ordinateurs par des physiciens.
Je vais explorer ici les limites physiques aux performances des
ordinateurs en donnant des bornes supérieures (très larges) de l’espace et
du temps disponible dans l’univers.
Commençons par l’espace. Je propose comme limite le rapport du volume de l’univers sur celui de l’électron. Le diamètre de l’univers est évalué à 15 milliards d’années-lumières, soit un peu moins que 15.1025 m. Celui de l’électron à 10-18 m. Le volume d’une sphère étant 4/3.π.r3, le rapport est donc (15.1025+18)3<4.10132. Si on considère que 103<210, on peut donc conclure que la limite en espace est inférieure à 4.(103)44<2442. Une borne plus raisonnable serait de prendre le rapport du volume de
la terre sur celui d’un atome. Le diamètre de la terre est de
12 756 km, celui d’un atome est environ 10-10 m, soit un rapport d’environ 2.1063<2211.
Voyons maintenant la limite en temps. Prenons le rapport entre l’âge
de l’univers et la plus petite durée mesurable actuellement. L’âge de l’univers est estimé à 13,7 milliard d’années, soit environ 5.1017 s. La précision de la mesure de la seconde est aujourd’hui de 10-14 s. Le rapport est donc de 5.1031, soit en puissances de 2, <2106. Une borne plus réaliste est de considérer un siècle de calcul à 100 GHz, ce qui donnerait un rapport inférieur à 4.1020<270.
Tableau récapitulatif :
| Grandeur | Borne théorique | Borne raisonnable |
| Espace | 2442 | 2211 |
| Temps | 2106 | 270 |
| Espace-temps | 2548 | 2281 |
Qu’en conclure ? Que les capacités de traitement d’un ordinateur tel qu’on les connait aujourd’hui sont limitées à moins de 2548
opérations (produit des limites en temps et en espace) en comptant très
très large ou 2281 en ne comptant que très largement. Seule une
révolution dans la manière de traiter l’information pourrait permettre
d’aller au delà. On pense en particulier à l’ordinateur quantique mais
les perspectives de réalisation pratique d’une telle machine sont aujourd’hui douteuses. Ainsi, certains problèmes
resteront hors de portée. On peut considérer qu’une clé de
chiffrement symétrique de 512 bits est sûre contre les attaques de type
force brutale car elle crée un espace de recherche de taille 2512, bien au delà de la borne raisonnable et proche de la borne théorique maximale.
Une question d’actualité est de savoir s’il est intéressant de créer un système d’exploitation 128 bits comme semblerait le faire Microsoft.
La taille en question représente habituellement la largeur du bus
d’adresse, ce qui donne une limite au nombre de mots mémoire
adressables par le système. Un système n bits est ainsi capable de manipuler des mémoires de 2n mots. Le passage du 32 bits au 64 bits était pertinent puisqu’il a permis de dépasser la taille de 232 mots, soit 4 Gmots, taille de mémoire assez couramment disponible aujourd’hui. 64 bits permettent d’adresser des mémoires de 264 mots. C’est bien moins que la borne même raisonnable sur l’espace disponible mais représente tout de même 16 exa-mots où un exa mot vaut 1024 Péta mots ou 10242 Téra-mots.
On est donc à un facteur un million des tailles des disques durs
actuels. En doublant la taille des mémoires tous les 3 ans comme c’est
le cas en ce moment, il faudra plus de 60 ans pour atteindre cette
limite ! Je ne pense donc pas qu’il y ait urgence à passer à une
largeur d’adresses de 128 bits. Par contre, il peut être intéressant d’utiliser des mots mémoire de 128 bits, comme c’est d’ailleurs déjà le cas dans certaines architectures.