Dans un article précédent, je parlais des ordres de grandeur des limites physiques de l’espace et du temps et de leurs conséquences sur le nombre d’opérations qu’on peut espérer calculer avec un ordinateur, aussi gros et rapide soit-il. En complément, PrixmaxStudio a réalisé une très belle application interactive permettant de visualiser les grandeurs de l’univers où on voit que la plus petite grandeur physiquement significative serait 10-35 m et la taille de l’univers serait 9.1026 m, ce qui augmente assez sensiblement la limite théorique de l’espace disponible mais ne change pas fondamentalement l’analyse.
Tag - SID
Jeudi 27 janvier 2011
Ordres de grandeurs des limites physiques de l'espace-temps - compléments
Par bop le Jeudi 27 janvier 2011, 17:31
Vendredi 23 octobre 2009
Ordres de grandeurs des limites physiques de l'espace-temps
Par bop le Vendredi 23 octobre 2009, 14:39
Mis à jour le 23 octobre 2009 : ajout de ce lien vers une proposition de limite physique à la vitesse des ordinateurs par des physiciens.
Je vais explorer ici les limites physiques aux performances des ordinateurs en donnant des bornes supérieures (très larges) de l’espace et du temps disponible dans l’univers.
Commençons par l’espace. Je propose comme limite le rapport du volume de l’univers sur celui de l’électron. Le diamètre de l’univers est évalué à 15 milliards d’années-lumières, soit un peu moins que 15.1025 m. Celui de l’électron à 10-18 m. Le volume d’une sphère étant 4/3.π.r3, le rapport est donc (15.1025+18)3<4.10132. Si on considère que 103<210, on peut donc conclure que la limite en espace est inférieure à 4.(103)44<2442. Une borne plus raisonnable serait de prendre le rapport du volume de la terre sur celui d’un atome. Le diamètre de la terre est de 12 756 km, celui d’un atome est environ 10-10 m, soit un rapport d’environ 2.1063<2211.
Voyons maintenant la limite en temps. Prenons le rapport entre l’âge de l’univers et la plus petite durée mesurable actuellement. L’âge de l’univers est estimé à 13,7 milliard d’années, soit environ 5.1017 s. La précision de la mesure de la seconde est aujourd’hui de 10-14 s. Le rapport est donc de 5.1031, soit en puissances de 2, <2106. Une borne plus réaliste est de considérer un siècle de calcul à 100 GHz, ce qui donnerait un rapport inférieur à 4.1020<270.
Tableau récapitulatif :
| Grandeur | Borne théorique | Borne raisonnable |
|---|---|---|
| Espace | 2442 | 2211 |
| Temps | 2106 | 270 |
| Espace-temps | 2548 | 2281 |
Qu’en conclure ? Que les capacités de traitement d’un ordinateur tel qu’on les connait aujourd’hui sont limitées à moins de 2548 opérations (produit des limites en temps et en espace) en comptant très très large ou 2281 en ne comptant que très largement. Seule une révolution dans la manière de traiter l’information pourrait permettre d’aller au delà. On pense en particulier à l’ordinateur quantique mais les perspectives de réalisation pratique d’une telle machine sont aujourd’hui douteuses. Ainsi, certains problèmes resteront hors de portée. On peut considérer qu’une clé de chiffrement symétrique de 512 bits est sûre contre les attaques de type force brutale car elle crée un espace de recherche de taille 2512, bien au delà de la borne raisonnable et proche de la borne théorique maximale.
Une question d’actualité est de savoir s’il est intéressant de créer un système d’exploitation 128 bits comme semblerait le faire Microsoft. La taille en question représente habituellement la largeur du bus d’adresse, ce qui donne une limite au nombre de mots mémoire adressables par le système. Un système n bits est ainsi capable de manipuler des mémoires de 2n mots. Le passage du 32 bits au 64 bits était pertinent puisqu’il a permis de dépasser la taille de 232 mots, soit 4 Gmots, taille de mémoire assez couramment disponible aujourd’hui. 64 bits permettent d’adresser des mémoires de 264 mots. C’est bien moins que la borne même raisonnable sur l’espace disponible mais représente tout de même 16 exa-mots où un exa mot vaut 1024 Péta mots ou 10242 Téra-mots. On est donc à un facteur un million des tailles des disques durs actuels. En doublant la taille des mémoires tous les 3 ans comme c’est le cas en ce moment, il faudra plus de 60 ans pour atteindre cette limite ! Je ne pense donc pas qu’il y ait urgence à passer à une largeur d’adresses de 128 bits. Par contre, il peut être intéressant d’utiliser des mots mémoire de 128 bits, comme c’est d’ailleurs déjà le cas dans certaines architectures.
Vendredi 18 septembre 2009
Actualisez votre vision du monde avec les nouveaux outils de recherche sur le web
Par bop le Vendredi 18 septembre 2009, 14:24
Une bonne partie des informations sur le web sont enfouies dans des bases de données et ne sont donc pas indexées par les moteurs de recherche. De nouveaux outils sont apparus récemment qui permettent d’interroger de nombreuses bases de données publiques. Ce sont Wolfram|Alpha, Gapminder et une nouvelle possibilité de Google, public data search.
Jeudi 3 septembre 2009
Cloud computing, un tour d'horizon
Par bop le Jeudi 3 septembre 2009, 10:37
Computing Now propose une série d’articles faisant le tour de la question de ce sujet central de l’actualité de l’informatique. On y parle d’économie, d’environnement de développement, de sécurité, de bases de données et de logiciel libre. Le tout est regroupé sous le titre Cloud Computing: opportunities and challenges.