Tout le monde attend sa théorie
de la technologie

Tout le monde attend sa théorie

Dans The Hitchhiker's Guide to the Galaxy, l'hypercalculateur Deep Thought (1) s'est vu poser une "grande question". Après sept millions et demi d'années de calculs complexes, il a donné la réponse concernant la vie, l'univers et tout le reste. "42" était écrit dessus.

Dans August Nature, le physicien Mostafa Ahmadi a publié un article avec ses coéquipiers sur son étude, qui a montré que la ligne d'émission des atomes d'antihydrogène est la même que celle de l'hydrogène à une distance de 21 cm. Ainsi, ensemble, les ondes émises par l'hydrogène et l'antihydrogène a une longueur de 42 cm !

Le point d'exclamation joue ici un rôle assez amusant. Cependant, la "séquence associative" ci-dessus n'est pas trop éloignée de certaines des réflexions en cours dans le domaine de la physique moderne. Les chercheurs se demandent depuis longtemps si les modèles et les ajustements que nous percevons dans l'univers ne sont pas seulement un processus de notre esprit, et non le reflet d'un phénomène objectif. D'un certain point de vue, n'importe quel nombre d'univers aurait pu surgir sans raison. Nous nous sommes retrouvés dans l'un d'entre eux, un spécifique, dans lequel un certain nombre de conditions subtiles étaient réunies pour l'apparition d'une personne en elle. Nous l'appelons o. monde anthropique (2), c'est-à-dire celle où tout est orienté vers l'émergence de la vie telle que nous la connaissons.

Recherché depuis des décennies Théorie de tout il peut aussi y avoir le nombre "42", qui découlera des résultats d'observations, d'expériences, de calculs, de conclusions - et en fait vous ne saurez pas quoi en faire.

Tout comme tu ne sais pas quoi faire avec Modèle standard. C'est un excellent outil descriptif pour la physique moderne. Le problème, cependant, est que je ne l'abandonne pas encore, encore moins l'énergie. Et la question de l'équilibre hypothétique de la matière et de l'antimatière dans l'Univers inquiète déjà presque tout le monde. De nombreux physiciens admettent calmement que le véritable but des expériences au célèbre collisionneur de hadrons LHC et dans d'autres centres de ce type n'est pas tant de confirmer ce modèle, mais de... le saper ! Alors, je pense, la science avancerait, dépassant l'impasse actuelle.

En définitive, la théorie du tout est une théorie physique hypothétique qui décrit de manière cohérente tous les phénomènes physiques et permet de prédire le résultat de toute expérience physique.

Le terme est actuellement couramment utilisé pour décrire des concepts provisoires, cependant, jusqu'à présent, aucune de ces idées n'a été vérifiée expérimentalement. Le principal problème s'est avéré être des différences insurmontables dans les formulations des deux théories. En outre, il existe de nombreux problèmes qu'aucune de ces théories ne résout, donc même si vous les additionnez, elles ne vous donnent pas une théorie du tout.

Unification fastidieuse

Premier appareillage moderne en physique, Le modèle gravitationnel de Newton, avait quelques inconvénients. Près de deux siècles plus tard, les Écossais ont décidé que l'électricité et le magnétisme devaient être considérés comme des champs de force interpénétrants. Cela peut être considéré comme une onde dont la crête crée un champ électrique, qui à son tour crée un champ magnétique par son oscillation, qui crée à nouveau un champ électrique.

L'entrelacement de l'électricité et du magnétisme a été immortalisé par le physicien écossais à l'aide de quatre équations célèbres. Ainsi, les deux forces ont été combinées en une seule, c'est-à-dire électromagnétisme. Il ne faut pas oublier non plus qu'à cette occasion Maxwell fit une autre découverte, grâce à laquelle la lumière fut finalement définie comme onde électromagnétique. Cependant, il y avait un problème important ici, auquel on n'avait pas prêté attention à l'époque. La vitesse de la lumière, c'est-à-dire la propagation de cette onde électromagnétique ne dépend pas de la vitesse à laquelle se déplace la source de son rayonnement, ce qui signifie que cette vitesse reste la même pour différents observateurs. Ainsi, il résulte des équations de Maxwell que pour un objet se déplaçant à une vitesse proche de la vitesse d'une onde lumineuse, le temps doit ralentir.

La physique traditionnelle d'Isaac Newton n'était pas très à l'aise avec ces révélations. Le créateur de la dynamique n'a pas supposé que le temps devait avoir un sens - il devait être inchangé et égal pour tous. Maxwell a fait le premier petit pas pour défier cette croyance, mais ce qu'il fallait, c'était une figure qui défie radicalement, démontrant que la gravité et la lumière existent sur des principes légèrement différents de ce que l'on pensait auparavant. caractère comme Albert Einstein.

En ces temps optimistes, The Theory of Everything semblait être une extension et une généralisation des équations de Maxwell. On a supposé qu'il y aurait une formule élégante qui correspondrait à l'ensemble de la physique de l'univers avec l'ajout d'autres interactions connues.

L'idée d'Einstein sur la connexion du temps et de l'espace, de l'énergie et de la matière était révolutionnaire. Après l'annonce de la relativité restreinte puis générale, le génie a décidé qu'il était temps de trouver la théorie du tout, qu'il pensait être à sa portée. Einstein était sûr d'être proche de son but et il suffisait de trouver un moyen de combiner sa théorie de la relativité avec l'électromagnétisme de Maxwell pour en déduire une formule qui explique tous les processus intéressant les physiciens.

Malheureusement, presque immédiatement après les plus grands succès d'Einstein, un nouveau domaine de la physique est apparu : la mécanique quantique. Ou peut-être « heureusement », car sans la prise en compte des phénomènes du microcosme des particules élémentaires qu'elle décrit, la théorie hypothétique d'Einstein ne serait pas la Théorie du Tout. Mais des choses qui semblaient assez simples au début ont commencé à se compliquer.

Finalement, avec les deux théories à l'esprit, les physiciens, pas seulement Einstein, ont entrepris de s'unifier. L'un des premiers après les travaux d'Einstein fut Théorie de Kaluzi-Klein  proposé en 1919 Théodora Caluzen et modifié en 1926. Oscar Klein. Elle a combiné la théorie de la relativité avec l'électromagnétisme de Maxwell, élargissant l'espace-temps à quatre dimensions avec un hypothétique supplément cinquième dimension. C'était la première théorie largement connue basée sur le nouveau concept d'hyperespace.

Comme l'a montré la prochaine génération de physiciens, l'atome est mû par des forces jusque-là inconnues autres que la gravité ou l'électromagnétisme. Le premier était interaction forte, responsable de la rétention des protons et des neutrons à l'intérieur du noyau atomique. Deuxième - faible interaction, provoquant la désintégration de l'atome et sa radioactivité associée.

L'idée d'unification est réapparue. Cependant, cette fois, pour espérer une théorie définitive, il a fallu combiner non pas deux, mais quatre forces qui contrôlent tout ce qui nous entoure. Bien que l'humanité ait appris à utiliser le potentiel de l'atome, elle s'est éloignée de la nature de toutes choses. Les physiciens ont commencé à construire des installations de recherche pour faire entrer en collision des particules atomiques. Des expériences avec des accélérateurs ont rapidement montré que ce que nous appelions des particules élémentaires pouvaient être décomposées en plus petits morceaux. Ainsi, le "ZOO" entier a été publié particules subatomiques, et les scientifiques ont commencé à se demander quelle est la pierre angulaire de la matière.

Des années plus tard, un autre génie est apparu Richard Feynmann. Il a élaboré une nouvelle théorie - électrodynamique quantique (CQFD). Cela concernait l'interaction d'un photon avec des particules subatomiques, en particulier avec un électron.

puis Abdus Salam et Steven Weinberg n'a pas réussi à expliquer l'effet faible. Les scientifiques ont prédit l'existence de pas moins de trois particules responsables de ce type de force : W (+), W (-) et Z (0). Ils ont remarqué qu'à une énergie suffisamment élevée, ces particules se comportent de la même manière.

Les scientifiques ont suivi l'impact et ont traité les électrons et les neutrinos de la même manière - comme les deux faces d'une même médaille. Sur cette base, il est prédit que dans les premiers instants du Big Bang, c'est-à-dire temps d'énorme intensité énergétique, interaction faible et électromagnétisme étaient réunis (3). C'était la première fusion révolutionnaire depuis James Maxwell. Salam et Weinberg identifiés interaction électrofaible.

3. Illustration de l'origine commune de toutes les interactions

Ces découvertes ont donné aux physiciens l'énergie nécessaire pour travailler avec la force forte. Puisque les photons portent l'interaction électromagnétique et que les particules W(+), W(-) et Z(0) sont faibles, par analogie il doit y avoir des particules responsables de l'interaction forte. Ces particules, synthétisant des protons et des neutrons à partir de quarks, ont été surnommées me louer. Le nom vient du fait que les gluons agissent comme de la colle pour les particules subatomiques.

De nos jours, presque de manière interchangeable avec le concept de la théorie du tout, on l'appelle la grande théorie unifiée, également connue sous le nom de GUT (). Cependant, il s'agit plutôt d'un ensemble de théories qui tentent de combiner la chromodynamique quantique (interactions fortes) et la théorie des interactions électrofaibles.

Ils décrivent les interactions fortes, faibles et électromagnétiques comme la manifestation d'une seule interaction. Cependant, aucune des grandes théories unifiées existantes n'a reçu de confirmation expérimentale. Ils indiquent de nouvelles symétries entre les particules élémentaires, ce qui nous permet de les interpréter comme différentes manifestations d'une même particule. La plupart des théories postulent l'existence de nouvelles particules (non encore découvertes), par exemple, et de nouveaux processus se produisant avec leur participation. Une caractéristique commune de la grande théorie unifiée est la prédiction de la désintégration du proton. Cependant, ce processus n'a pas encore été observé. Il s'ensuit que la durée de vie d'un proton doit être d'au moins 1032 fainéant.

Le problème le plus sérieux reste l'unification de la relativité générale décrivant la gravité au niveau macro, z, décrivant les interactions fondamentales au niveau subatomique. Jusqu'à présent, il n'a pas été possible de construire une théorie cohérente pleinement fonctionnelle. gravité quantiquequi permettrait de prédire de nouveaux phénomènes qui pourraient être testés expérimentalement.

Malgré l'indéniable révolution qu'a apportée l'unification du faible, du fort et de l'électromagnétisme, le Modèle Standard, qui comprend l'unification décrite ci-dessus, se débat toujours avec une sorte de déclin gênant après Newton et Einstein. Et la gravité n'est pas son seul problème...

Symphonie jamais jouée

Le modèle standard résume nos connaissances actuelles en physique des particules. Il a été testé dans de nombreuses expériences et s'est avéré efficace pour prédire l'existence de particules jusque-là inconnues. Cependant, il ne fournit pas une description unique de toutes les forces fondamentales, car il est encore difficile de créer une théorie de la gravité similaire à la théorie des autres forces. Et même complété par le P. Particule de Higgs Il ne fait pas grand-chose pour expliquer les grands mystères modernes de l'énergie noire, de la gravité, de l'asymétrie de la matière et de l'antimatière, et même des oscillations des neutrinos.

Jusqu'à récemment, on espérait que le modèle standard pourrait être développé de manière créative dans le sens supersymétrie (SUSY), qui prédit que chaque particule élémentaire que nous connaissons a un partenaire symétrique - le soi-disant particule s (4). Cela double le nombre total d'éléments constitutifs de la matière, mais la théorie s'intègre parfaitement dans les équations mathématiques et, surtout, offre une chance de percer le mystère de la matière noire cosmique. Il ne restait plus qu'à attendre les résultats des expériences au Large Hadron Collider, qui confirmeront l'existence de particules supersymétriques. Malheureusement, les scientifiques n'ont pas encore été découverts et, par conséquent, SUSY est toujours sous un gros point d'interrogation.

4. Particules élémentaires et symétriques

Jusqu'à présent, il est largement admis que le principal, ou en fait le seul candidat sérieux pour la Théorie du Tout est la théorie, ou plutôt la théorie des cordes. L'hypothèse de base ici est l'existence d'un objet fondamental, qui est une "chaîne" unidimensionnelle - ouverte (ayant des extrémités libres) ou fermée (si les extrémités sont connectées). Une telle corde peut osciller, et ces oscillations de natures diverses génèrent, au sens quantique du terme, des particules élémentaires que nous connaissons du Modèle Standard (photons, électrons, quarks, gravitons, etc.). Par exemple, les vibrations les plus simples d'une corde à vide se comportent comme des photons ou des gluons. Les vibrations les plus simples des cordes fermées ont des propriétés telles que les gravitons, qui seraient des quanta du champ gravitationnel, constituant les principaux objets dans théorie quantique de la gravité.

La réduction des plus petites particules que nous connaissons aux vibrations des cordes est la grande unification postulée et le chemin direct vers la Théorie du Tout. D'où l'énorme popularité de la théorie des cordes. Cependant, les concepts, conformément aux exigences de la science, doivent être testés, de préférence expérimentalement. Et ici, le charme de la symphonie à cordes s'arrête immédiatement, car personne n'a proposé de méthode visible de vérification empirique. En d'autres termes, la composition à cordes n'a jamais été jouée sur de vrais instruments.

Cela ne décourage pas les théoriciens qui ont décidé de continuer à enregistrer les notes de cette musique à cordes jamais recréée, à la recherche de nouveaux tons et sons dans des formules mathématiques. Créé incl. théorie des cordes supersymétriques раз Théorie M - comme une généralisation de la théorie des cordes, nécessitant l'existence d'une onzième dimension supplémentaire, ajoutée à la dizaine prédite précédemment. L'objet principal de la théorie M est un diaphragme bidimensionnel, qui est réduit à la corde principale en réduisant cette dimension supplémentaire. Les théoriciens soulignent également que les deux idées ne doivent pas être classées comme des théories indépendantes - elles sont fondamentalement une manifestation d'un concept, le plus général.

Boucles de gravité quantique

L'une des tentatives récentes de concilier des théories apparemment incompatibles de la mécanique quantique avec la relativité générale. gravitation quantique en boucle (PGK), également connue sous le nom de gravitation en boucle ou géométrie quantique. PGC essaie de créer une théorie quantique de la gravité, dans laquelle l'espace lui-même est quantifié. Le terme "quantique" signifie que ce concept est une version quantique de la théorie classique - dans ce cas, la théorie générale de la relativité, qui assimile la gravité à la géométrie de l'espace-temps (5).

Dans la théorie de la relativité générale, les métriques et les connexions peuvent être considérées comme certaines fonctions, définies en tout point de l'espace-temps, capables de prendre n'importe quelle valeur en tout point. D'autre part, dans la gravitation en boucle, la métrique et la connexion ne sont pas des "fonctions" ordinaires, mais suivent certaines règles de la mécanique quantique - par exemple, elles ne peuvent prendre aucune valeur (elles peuvent changer radicalement) et vous ne pouvez pas déterminer simultanément la métrique et la connexion avec une quelconque précision.

Cependant, la théorie PGK fait face à des défis importants. Il est difficile d'y faire entrer, outre la géométrie elle-même, la matière dont nous sommes composés et qui nous entoure. Il n'est pas non plus très clair comment obtenir les équations classiques d'Einstein dans la version quantique avec la limite appropriée.

Au bord de la résolution

La théorie de tout est une manière spéciale, originale et émotionnelle hypothèse holographique, traduisant les problèmes cognitifs sur un plan légèrement différent. La physique des trous noirs semble indiquer que notre univers n'est pas ce que nos sens en font. La réalité qui nous entoure peut être un hologramme - une projection d'un plan bidimensionnel (6).

6. L'univers en hologramme

Craig Hogan, prof. Les physiciens du Centre de recherche du Laboratoire Fermi suggèrent que de nombreux résultats d'expériences, telles que celles menées au LHC, indiquent que le niveau de résolution de base de l'hologramme vient d'être atteint. Donc, si l'univers est un hologramme, peut-être venons-nous d'atteindre les limites de la résolution de la réalité. Certains physiciens ont proposé l'hypothèse intrigante que l'espace-temps dans lequel nous vivons n'est finalement pas continu, mais, comme une image obtenue à partir de la photographie numérique, à son niveau le plus élémentaire est composé de certains "grains" ou "pixels".

Hogan a construit un interféromètre appelé Holomètre Hoganqui vise à atteindre la nature quantique de l'espace lui-même et la présence de ce que les scientifiques appellent le "bruit holographique". L'holomètre est constitué de deux interféromètres placés côte à côte. Ils tirent des faisceaux laser d'un kilowatt sur un dispositif qui les divise en deux faisceaux perpendiculaires de 40 mètres de long, qui sont réfléchis et renvoyés au point de séparation, créant des fluctuations de luminosité des faisceaux lumineux. S'ils provoquent un certain mouvement dans le dispositif de division, ce sera la preuve de la vibration de l'espace lui-même.

Certains pensent que c'est la théorie de l'univers holographique qui peut enfin concilier la théorie de la relativité avec la mécanique quantique. L'hypothèse reste proche du principe holographique L'univers comme simulationdont il est le plus célèbre défenseur Niklas Bostrum. Le scientifique suggère qu'avec un ordinateur suffisamment puissant, vous pouvez créer une simulation fiable d'une civilisation entière ou même de l'univers entier.

Des experts de l'Université de Southampton, travaillant avec des collègues au Canada et en Italie, affirment qu'il existe des preuves concrètes que l'univers pourrait être une sorte d'illusion. Il y a des anomalies spatiales rayonnement de fond micro-onde, aussi connu sous le nom rayonnement de fond ou CMB (). Une équipe de physiciens théoriciens de cette université, en quête de confirmation de la théorie de la nature holographique de l'univers, a analysé une énorme quantité de données, essayant de trouver des inhomogénéités dans le rayonnement de fond. Les scientifiques ont testé un certain nombre de modèles holographiques différents et ont comparé leurs prédictions avec les observations de la distribution de la matière dans le tout premier univers, obtenues à partir des mesures du satellite Planck. De cette manière, il a été possible d'éliminer plusieurs modèles, mais d'autres modèles se sont avérés largement cohérents avec les observations.

En d'autres termes, les chercheurs suggèrent que ce qu'ils ont trouvé confirme que nous vivons dans un hologramme, et la reconnaissance de ce fait conduirait à l'unification de la physique en une théorie définie de tout. Si ce modèle physique devait être accepté, ce serait la fin de la théorie du Big Bang ou de concepts tels que l'inflation de l'univers. D'autre part, cela expliquerait aussi, par exemple, le paradoxe de l'observateur en physique quantique, c'est-à-dire le point de vue selon lequel le fait même d'observer un phénomène affecte le résultat de l'observation, tout comme la façon dont quelles images holographiques connues sont observées affecte leur apparence.

Était-ce la théorie du tout que nous voulions ? Dur à dire. Nous n'en connaissons toujours aucun...

Le multivers, c'est-à-dire que tout perd son sens

Au-delà de l'univers sous forme d'hologramme et/ou de simulation d'une autre blague quelque peu vicieuse issue de nos efforts pour trouver la théorie du tout hypothèse multivers. Selon la théorie quantique de plusieurs mondes Hugues Everett III, qu'il appelle "l'interprétation multivers de la mécanique quantique", tout ce qui peut arriver doit arriver dans l'une des branches de la réalité. Pour Everett, chaque état de superposition est également réel et réalisé dans un autre univers parallèle. Le multivers quantique est comme un arbre ramifié sans fin.

Selon une interprétation de la mécanique quantique, il y a des univers dans cet espace qui proviennent de notre univers. De temps en temps de nouveaux univers se créent dans cet espace. Cela se produit chaque fois qu'il y a un choix dans l'univers - par exemple, une particule donnée peut suivre plusieurs chemins, puis autant de nouveaux univers sont créés qu'il y a de chemins possibles, et dans chacun d'eux la molécule se déplace selon des chemins différents. Un autre type de multivers est décrit dans la théorie M déjà mentionnée. Selon elle, notre univers et d'autres sont apparus à la suite de collisions de membranes dans un espace à onze dimensions. Contrairement aux univers du "multivers quantique", ils peuvent avoir des lois physiques très différentes.

Le concept de multivers ou de multivers résout de nombreux problèmes, tels que le réglage parfait, mais au sens scientifique, il semble être une impasse. Car il fait toutes les questions "pourquoi?" sans importance. De plus, l'étude d'autres univers semble généralement impensable. Et le concept même de la Théorie du Tout perd ici son sens.

Force dans le cinquième

Peut-être ne devrions-nous pas passer à de grandes théories ambitieuses ? Peut-être suffit-il de prêter attention à des découvertes qui semblent jusqu'ici imperceptibles, mais est-il possible qu'elles conduisent à de grands résultats ?

En août dernier, des physiciens théoriciens de l'Université de Californie à Irvine ont publié un article dans la revue Physical Review Letters indiquant qu'en plus des interactions gravitationnelles, électromagnétiques, faibles et fortes, il existe probablement une autre interaction...

En 2015, des scientifiques de l'Académie hongroise des sciences cherchaient le soi-disant porteur hypothétique de la cinquième force de la nature. Lorsqu'un isotope du lithium - 7Li - est entré en collision avec des protons, ils ont découvert la présence d'un nouveau boson (7), environ trente fois plus lourd qu'un électron. Cependant, ils ne pouvaient pas dire s'il était porteur d'influences. Des scientifiques de l'Université de Californie à Irvine ont étudié les données de chercheurs hongrois et analysé les expériences qui existent à ce jour dans ce domaine. En conséquence, ils ont présenté une nouvelle théorie. Il combine toutes les données existantes et indique une découverte probable. cinquième force de la nature. À leur avis, cette particule mystérieuse pourrait être la soi-disant boson X, appelé "protonophobe" - en raison du manque d'interaction avec cette particule élémentaire. Les scientifiques pensent également que la cinquième force de la nature, avec d'autres interactions, peut constituer divers aspects d'un autre principe fondamental, ou est une trace qui conduit à matière noire.

7. Modèle de formation du boson X

La partie sombre du billet

On estime que jusqu'à 27 % de toute la matière de l'univers reste invisible, et de plus, tout ce qui peut être « vu » - de votre sandwich aux quasars - ne représente que 4,9 % de matière. Le reste est de l'énergie noire.

Les astronomes font de leur mieux pour expliquer pourquoi la matière noire existe, pourquoi il y en a tant et pourquoi elle reste cachée de toute façon. Bien qu'il n'émette aucune énergie visible, il est suffisamment puissant pour maintenir les galaxies en amas, les empêchant de se propager lentement dans l'espace. Qu'est-ce que la matière noire ? Axion, WIMP, graviton ou supersubstance de la théorie de Kaluza-Klein ?

Et la question la plus importante - comment peut-on penser à la théorie du tout sans expliquer le problème de la matière noire (et, bien sûr, de l'énergie noire) ?

Dans la nouvelle théorie de la gravité proposée par le physicien théoricien Erika Verlinde de l'Université d'Amsterdam, a trouvé un moyen de se débarrasser de ce problème ennuyeux. Contrairement à l'approche traditionnelle de la gravité comme force fondamentale de la nature, Verlinde la considère comme née propriété de l'espace. Cette émergence est le processus par lequel la nature crée quelque chose de puissant en utilisant de petits éléments simples. En conséquence, la création finale présente des propriétés que les particules plus petites n'ont pas.

émergent ou gravité entropique, comme l'appelle la nouvelle théorie, est responsable des variations et des anomalies dans la rotation des galaxies désormais associées à l'activité de la matière noire. Dans le concept de Verlinde, la gravité apparaît à la suite d'un changement dans les unités fondamentales d'information. En un mot, la gravité serait une conséquence de l'entropie, et non une force fondamentale dans l'espace. L'espace-temps serait composé de trois dimensions connues et serait complété par le temps. Ce serait souple.

Bien sûr, vous pouvez également vous débarrasser du problème de l'énergie noire en recherchant une autre théorie qui dit qu'il n'y a pas de problème du tout, car l'énergie noire n'existe pas. Selon les résultats d'une nouvelle simulation informatique publiée en mars 2017 par une équipe de scientifiques hongro-américains, 68% de l'univers supposé dans l'ancien modèle, appelé Lambda-CDM en abrégé, n'existe tout simplement pas.

Le monde scientifique a adopté le concept d'énergie noire, apparu dans les années 90 après l'observation de la lumière des supernovae de type Ia, également appelées "bougies standard". Le résultat de l'observation est également théorie de l'accélération de l'expansion de l'univers, lauréat du prix Nobel de physique 2011.

Pendant ce temps, des chercheurs des universités d'Eötvös Lorand en Hongrie et de l'université d'Hawaï aux États-Unis ont récemment annoncé que l'énergie noire est une "invention" résultant de calculs simplifiés. Dans un nouveau modèle appelé par les chercheurs AvéraL'univers s'étend comme de la mousse de savon. Le taux d'expansion est similaire à celui observé, et l'accélération est correcte, et tout est conforme aux théories d'Einstein. Cependant, dans le concept hongrois-américain, il n'est pas nécessaire de prendre en compte l'énergie noire. Une description de l'étude est publiée dans les notes mensuelles de la Royal Astronomical Society.

Tout peut fonctionner sans théorie

Dans la philosophie des sciences, il existe une position opposée au réalisme, appelée instrumentalisme. Selon lui, tous les objets qui ne peuvent être observés avec les sens ne sont que des « fictions utiles ». Ils n'existent pas vraiment - ou du moins on ne sait pas s'ils existent. Cependant, ils sont utiles en ce sens que grâce à eux, nous pouvons prédire et expliquer des phénomènes dans le cadre de théories physiques, formulées, bien sûr, dans le langage des mathématiques.

Les scientifiques reconnaissent que l'univers ne peut pas être unifié dans une théorie, encore moins dans une équation mathématique. Toutes les symétries et prédictions ne peuvent être que des inventions des mathématiques et sont généralement le résultat de nos besoins psychologiques, comme le désir d'obtenir des réponses définitives et définitives. Seule Cependant, l'univers n'a peut-être pas du tout besoin d'être unifié pour exister et fonctionner de manière suffisamment fluide.

La caravane Nobel continue

Aussi doucement que l'univers, le mécanisme d'attribution du prix Nobel de la réussite physique fonctionne, ce qui nous rapproche peu ou pas de la théorie du tout. De plus, divers dispositifs et inventions techniques basés sur les découvertes scientifiques de Nobel prennent bien racine dans notre monde. Il suffit de rappeler la recherche sur la LED bleue récompensée il y a quelques années, qui n'a pas besoin d'une explication des principes fondamentaux de l'univers, pour nous servir à presque chaque étape.

Il est probable que cette année encore une réalisation scientifique sera décernée, qui ne répondra pas à toutes les questions et ne donnera pas une compréhension complète de tout, mais peut être très utile - sinon pratiquement, du moins dans le monde de la technologie appliquée - au moins pas à pas pour élargir notre connaissance de la réalité. Comme dans le cas, par exemple, avec des détection d'ondes gravitationnelles.

L'un des candidats fréquemment cités pour le prix Nobel de cette année est Prof Rainer "Paradise" Weiss (huit). Il est co-inventeur de la technologie interféromètre laser, utilisé dans LIGO () - un détecteur d'ondes gravitationnelles, avec trois enregistrements d'ondes gravitationnelles confirmés. LIGO est une coentreprise entre des scientifiques du Massachusetts Institute of Technology, du California Institute of Technology et de nombreux autres collèges. Le projet est parrainé par la National Science Foundation. L'idée de créer un détecteur est née en 1992, et ses auteurs étaient Kip Thorne i Ronald Drever du California Institute of Technology et plus particulièrement Rainer Weiss du Massachusetts Institute of Technology. Drever est malheureusement décédé en mars de cette année, mais les deux autres pourraient figurer sur la liste en octobre.

En décembre 2015, des ondes gravitationnelles ont été détectées par les deux détecteurs de l'observatoire LIGO à Livingston, Louisiane et Hanford, Washington. La première détection historique a eu lieu en septembre 2015 et a été signalée en février 2016. Il s'agit de la première collision de trou noir détectée par onde gravitationnelle marquée du symbole GW150914. Découverte le deuxième jour de Noël 2015 GW151226, et des informations à ce sujet sont apparues en juin 2016. Nous avons appris la troisième découverte un an plus tard.

Les astronomes comparent les événements récents avec des ondes gravitationnelles à la levée d'un voile jusque-là impénétrable et à l'opportunité d'enfin regarder comment l'univers fonctionne réellement. En d'autres termes, les ondes électromagnétiques sont des oscillations dans un milieu spatial, et les ondes gravitationnelles sont des oscillations du milieu lui-même.

Il a été un candidat à toute épreuve pour le prix Nobel pendant de nombreuses années. Anton Zeilinger (9), physicien autrichien spécialisé en interférométrie quantique, professeur de physique expérimentale à l'Université de Vienne. Grâce à la coopération européenne avec des centres de recherche chinois, l'Autrichien est connecté aux expériences orbitales récemment connues. téléportation quantique. Il est possible qu'il fasse partie des lauréats avec des scientifiques chinois travaillant sur des projets de téléportation et de télécommunications quantiques.

Zeilinger mène des recherches sur les principaux phénomènes du micromonde (en particulier les états intriqués). Dans les années 80, il a mené une série d'expériences sur les interférences neutroniques. En 1989, avec Daniel Greenberg i Michel Hornemque l'intrication de trois particules ou plus donne des corrélations quantiques qui sont absolument incompatibles avec toute image basée sur les concepts de la physique classique relativiste. L'expérience la plus célèbre de Zeilinger a été la première téléportation quantique entre deux photons, qui ont été créés lors de deux événements de rayonnement distincts (1997).

On parle aussi depuis plusieurs années de la nécessité pour le Comité Nobel d'évaluer l'avalanche de découvertes. planètes extrasolaires. La spéculation mentionne d'abord Jeffrey W. Marcy, un astronome américain qui, en collaboration avec Paul Butler i Debra Fischer a participé à la découverte de soixante-dix des XNUMX premières planètes extrasolaires connues.

Cependant, si les scientifiques suédois s'en tiennent à des avancées qui ont plus d'implications pratiques et de potentiel technologique, ils peuvent donner du crédit aux chercheurs qui expérimentent les effets associés à photonique à nanofilsy compris la création du premier laser à nanofils. Ils peuvent aussi être dans l'orbite de leurs intérêts. Yosinori Tokura, Ramamurthi Ramesh i James Scott - pour la recherche sur support de stockage ferroélectrique (Scott) et de nouveaux matériaux ferroélectriques (deux autres).

Parmi les applications mentionnées ces dernières années figuraient également des scientifiques développant des technologies métamatériaux avec un indice de réfraction négatif, c'est-à-dire des titres tels que : Victor Veselago (Victor Vecielago) Jean Pendry, David Smith, Xiang Zhang, Sheldon Schultz ou Ulf Leonhardt. Peut-être que le Comité Nobel se souviendra des créateurs et des chercheurs des cristaux photoniques, c'est-à-dire les scientifiques aiment Eli Yablonovitch, Sean Lin ou Jean Ioannopoulos.

Tous jusqu'à présent récompensés et futurs "petits" nobles - c'est-à-dire les récompenses pour des concepts fragmentaires menant à des inventions techniques spécifiques devraient théoriquement cesser lorsque la théorie du tout est développée. En effet, il doit fournir toutes les réponses et solutions possibles à chaque question.

Théoriquement, c'est une question intéressante - la théorie du tout signifie-t-elle la fin de la science, le besoin d'expérimenter et de chercher ? Seulement en théorie...

Ajouter un commentaire