Physique_et_autres

Aller au contenu | Aller au menu | Aller à la recherche

mercredi, novembre 16 2022

Une interprétation de la mécanique quantique

J'ai failli écrire "Mon interprétation de la mécanique quantique" mais je me suis dit que cela faisait peut-être trop prétentieux et que certains l'avaient peut-être déjà émise (pas à ma connaissance en tout cas). Rassurez-vous ses 3 arguments de base sont très simples. Ils apparaissaient déjà dans mon billet "L'intrication peut-elle expliquer plus simplement les résultats de base de la mécanique quantique" mais de manière sous-jacente (et peut-être même un peu inconsciente). Pour chacun de ces arguments je citerai le nom d'un ou deux chercheurs français qui les mettent en avant mais aucun n'utilise les 3 ensemble et chacun a ou est rattaché à une interprétation (pas directement à celle-ci). Vous me direz pourquoi une énième interprétation ? En fait à ma connaissance aucune ne donne pleine satisfaction ni ne permet un certain consensus. Pour en citer quelques-unes avec leurs défauts : De Broglie/Böhm, problème avec la relativité ; Everett-De Witt, que faire de tous ces univers ; Copenhague/Bohr, scission entre le microcosme et le macrocosme ; Von Neumann, où arrête-on la chaîne quantique ; Bitbol, le fait relationnel n'explique pas grand-chose ; etc. Une interprétation est-elle utile ? En fait elle consiste à traduire les résultats de la mécanique quantique en des termes proches de notre conception macroscopique de l'univers. Nous sommes macroscopiques et donc le monde microscopique nous est étranger (même si des phénomènes microscopiques apparaissent au niveau macroscopique, la scission entre les deux n'existant pas) d'où une difficulté d'interprétation inhérente à notre position. La mécanique quantique considérée comme un outil se suffit à elle-même et ses résultats montrent que c'est une des meilleures (si ce n'est la meilleure) théories élaborées par l'esprit humain.

Bien maintenant que tout cela est dit revenons-en à mes 3 arguments et commençons par les citer avant de les expliquer :

1 Les probabilités de la mécanique quantique sont des probabilités standards (Balian, il a sa propre interprétation).

2 La mécanique quantique est non locale (Laloë, il partage les idées de Böhm ; Aslangul, il partage les idées de Bohr sauf sur la scission entre le macrocosme et le microcosme).

3 Les propriétés des objets quantiques sont contextuelles (Grangier, il a sa propre interprétation ; Rovelli, il a sa propre interprétation).

Ces arguments sont simples, a priori logiques, et étayés par nos connaissance sur la mécanique quantique et ses résultats. En fait, j'ai déjà fait des billets sur les 3 arguments mais voyons ce qu'ils apportent une fois réunis.

Dans mon billet "Probabilités complexes et mécanique quantique", je montre que partant d'une probabilité tout à fait standard mais construite comme la mécanique quantique sur une fonction de probabilités complexe on retrouve la plupart des résultats de la mécanique quantique et en particulier l'hermiticité de l'opérateur d'évolution (au nombre complexe i près) ce qui conduit à des valeurs de mesure pouvant être continues ou discrètes. Il n'y a plus de "réduction de la fonction d'onde" simplement une mise à niveau de nos connaissances qui modifie instantanément la fonction complexe de probabilité (comme dans toute théorie des probabilités). Le phénomène de décohérence explique alors très bien le pseudo postulat de la mesure, si les événements probables sont dépendants et exclusifs alors un seul événement se produit à chaque mesure et les événements très très très improbables (termes croisés de l'opérateur densité) seront considérés comme des scories de l'expérience car non reproductibles (une expérience parfaite n'existe pas). Beaucoup ont l'air très remonté sur ces faits et en rédigent des pages mais aucun argument sérieux n'en ressort.

Le deuxième argument est mis en évidence par les théorèmes de Bell, le trio GHZ et Hardy et en plus il est vérifié par les expériences (par exemple celle d'Aspect, prix Nobel 2022 pour cela). Certains essaient de démontrer que cette non localité n'existe pas et aussi en rédigent des pages mais encore aucun argument sérieux n'est avancé et c'est beaucoup plus simple de l'admettre d'autant qu'il ne remet pas en cause la relativité (tout échange d'information entre "observateurs" se fait via des moyens macroscopiques et même s'ils sont fabriqués avec des objets quantiques, des transistors, cet échange ne peut se propager plus vite que la lumière car la non localité n'est pas exploitable pour cela). Je renvoie à Laloë "Comprenons-nous vraiment la mécanique quantique ?" au moins pour ce passage, les autres étant plus discutables (Böhm en sous-main). Cet argument permet d'expliquer simplement la plupart des résultats de la mécanique quantique sans utiliser la notion souvent utile mais plus qu'incorrect de corpuscule/onde. Présente dès le départ de la constitution de la mécanique quantique via l'équation de Schrödinger, elle conduit à des dilemmes. La seule erreur du grand Feynman est d'avoir introduit dans son cours l'expérience des fentes d'Young pour des particules quantiques autres que les photons (classiquement on associe une onde aux photons, le champ électromagnétique classique). A l'époque, cette expérience n'avait jamais été réalisée autrement qu'avec des photons. Elle conduit à croire que les particules quantiques interférent avec elle-même (car pouvant être émises une à une dans l'expérience). En fait si l'on prend en compte la non-localité, l'expérience s'explique très bien (mais est difficile à mettre en équation comme souvent si l'on tient compte de toutes les interactions). Le défaut majeur de la mécanique quantique mais aussi une de ses grandes qualités (pour la mise en équation) est que l'on peut créer des histoires pour interpréter les faits. Les particules quantiques ont 2 états, passage par la fente 1 ou passage par la fente 2, et l'on déroule l'équation de Schrödinger pour établir le résultat. Mais que se passe-t-il vraiment ? Les particules quantiques interagissent entre elles dans la source, puis avec le 1er écran, puis avec l'environnement, enfin avec le deuxième écran (le fait qu'elles soient émises une à une ne change rien à cela). Qui dit interactions, dit intrications et donc la non localité intervient de façon permanente lors de l'expérience ainsi que la corrélation entre objets physiques. De plus, l'intrication explique très bien toutes les expériences (choix retardés par exemple) et est maintenant à la base de nouvelles technologies (ordinateur quantique, téléportation, codage infalsifiable, etc). La notion onde/corpuscule peut être utile pour expliquer simplement certaines expériences mais s'avèrent n'être qu'une image pratique rien de plus. D'ailleurs en sophistiquant l'expérience d'Young on en a vite la preuve. Pour cela on utilise des atomes excités et on met devant ou derrière les fentes d'Young des cavités résonnantes. L'interaction de l'atome avec les cavités résonnantes produit sa désexcitation et dans ce cas les interférences disparaissent car le niveau d'intrication des particules quantiques a été modifié. L'atome désexcité a changé d'état, il est maintenant fortement intriqué avec le photon émis.

Le troisième argument est très simple pour définir des "propriétés" des particules quantiques nous introduisons des appareils macroscopiques même quand on parle d'expérience avec des "atomes isolés". Nous savons qu'il est impossible d'annuler l'interaction de la particules avec l'appareil de mesure et une fois de plus qui dit interaction dit intrication (même s'il s'agit de mesure dite non destructive ou avec des systèmes physiques soit disant unique). Donc ce que l'on mesure c'est toujours l'interaction de la particule avec la myriade de particules constituant l'appareil de mesure (on peut en plus rajouter l'environnement, les photons et les neutrinos des fonds diffus cosmologiques sont toujours présents quoique l'on fasse). On a donc mesuré une propriété commune de la particule quantique et de l'appareil de mesure (sans oublier l'environnement), c'est comme cela que j'utilise le terme contextuel (ce n'est peut-être pas la définition de certains). Toujours dans l'expérience d'Young, la somme des courbes d'impacts lorsque l'une des fentes est bouchée (ou les atomes désexcités) est différente de la courbe obtenue fentes non bouchées (ou cavités non accordées). Les propriétés attribuées à la particule quantique sont donc bien celle de l'ensemble. Dire que ce sont des propriétés de la particule quantique, c'est allé plus loin que les résultats de l'expérience et peut conduire à des non-sens. Par exemple supposer que les particules quantiques interférent avec elles-mêmes n'est vraiment cohérent qu'avec l'interprétation de De Broglie/Böhm réfutée par la relativité.

La mise bout à bout de ses 3 arguments complémentaires donne une interprétation simple des résultats de la mécanique quantique sans qu'il soit nécessaire d'invoquer des mystères qui n'en sont pas. Le seul vrai mystère étant la non localité qui est le résultat du phénomène d'intrication et qui défit toutes nos sensations macroscopiques mais qui en définitive peut être considéré comme le résultat du caractère probabiliste de la théorie (voir la page "Calcul fentes d'Young avec cavités résonnantes" pour avoir un exemple précis de comment appliquer les arguments de ce billet à une expérience réaliste).

Quelques points supplémentaires. Il n'existe pas de frontière entre le microcosme et le macrocosme, tout est quantique, seule la myriade d'interactions réalisées dans le monde macroscopique fait que les objets macroscopiques (mais pas tous) se comportent en suivant les lois classiques. En définitive nous ne savons pas ce qu'est une particule quantique et nos gros sabots ne nous permettrons jamais d'aller plus loin. La mécanique quantique se suffit à elle-même et toute explication à l'aide d'image macroscopique est vouée à l'échec (même si elle peut être utile pour les calculs). Enfin chaque interaction est l'équivalent d'une mesure via le phénomène d'intrication et lors des interactions suivantes le niveau d'intrication est modifié sans obligatoirement supprimer les intrications antérieures.

dimanche, novembre 13 2022

La notion d'observateurs en physique

Je me suis aperçu lors de discussions sur des sujets de physique avec des publics divers que certains (en général pas les physiciens mais toutefois quelques-uns) prenaient cette notion au pied de la lettre. En mécanique classique cela ne pose en général pas de problème mais en mécanique quantique cela conduit à des interprétations erronées.

Je commencerai par une aparté pour éviter une confusion peut-être possible même si le lien est assez tenu. En mécanique quantique on définit la notion d'observable. Les opérateurs de la mécanique quantique doivent être obligatoirement hermitiques (états propres à valeurs propres réelles) mais cela ne suffit pas car l'ensemble de leurs états propres doit pouvoir définir une base de l'espace des états pour pouvoir décomposer tout état d'un système quantique dans les états propres de l'opérateur (il doit être capable de décrire l'ensemble de l'espace vectoriel des états). On peut rajouter, mais il n'y a pas d'obligation, qu'une observable doit être mesurable, c'est à dire que l'on peut construire un appareil de mesure mettant en évidence ses états propres et dont les résultats de mesure sont obligatoirement ses valeurs propres.

Revenons-en à la notion d'observateurs. Historiquement, Von Neumann a mis en forme mathématiquement la mécanique quantique. Pour cela, il a considéré qu'un instrument de mesure était aussi un être quantique (contrairement à Bohr qui considérait qu'il était purement classique et faisait une scission entre le quantique et le classique). Von Neumann appliquant son principe a alors construit une chaîne quantique que l'on ne savait pas où arrêter. Quand est-ce que la scission entre le quantique et le classique s'effectue ? Dans le cerveau de l'opérateur ? Alors sans opérateur humain une mesure ne peut pas avoir lieu. Pour résoudre ce dilemme Everett a introduit son interprétation des ramifications de (des) l'univers. A chaque mesure, chaque résultat possible apparait dans un univers parallèle contenant chacun un clone de l'observateur (humain ?) d'où une multiplication des univers. Problème, chaque interaction peut être considérée comme une mesure donc cette ramification défie l'infini.

Aujourd'hui, après plus de 100 ans d'expériences et d'utilisation de la mécanique quantique, on comprend mieux comment il faut interpréter la mécanique quantique bien que certains physiciens restent attacher à l'interprétation de Von Neumann ou d'Everett. Une mesure est tout simplement l'interaction de la q-particule avec une myriade de q-particules formant l'appareil de mesure et l'environnement. En utilisant, le phénomène d'intrication qui conduit de manière non ambigüe à la décohérence on résout très simplement le problème de la mesure (une interaction seule est déjà une mesure). Donc l'observateur peut être une machine qui n'a rien d'humain. D'ailleurs avec l'intelligence artificielle peut-être que l'élaboration de théories à partir des mesures n'aura plus besoin de cerveaux humains (je n'y crois pas du tout). Ce cas extrême remet les choses à leur place (pour l'instant les machines stockent des données, les comparent et réalisent des calculs programmés). On peut noter d'ailleurs que tout est effectivement quantique et qu'il n'y a pas de limite entre le microscopique et le macroscopique mais uniquement l'effet combiné d'une myriade d'interactions qui rendent le comportement de la majorité (pas tous) des objets macroscopiques conforme à la théorie classique.

vendredi, novembre 11 2022

Le principe holographique

Encore une nouvelle mode en physique, les cordistes en sont les principaux fans (mais pas qu'eux), comme d'habitude dès qu'une théorie repose uniquement sur des mathématiques ils arrivent en courant. D'abord physiquement c'est quoi un vrai hologramme ? En fait on encode sur une surface (je ne décris pas les moyens techniques mais uniquement les principes) 2 dimensions d'espace donc pour l'instant on a un genre de photo mais comme on est astucieux (il n'est pas bête ce Mr Gabor) on s'arrange pour encoder la troisième dimension dans la phase des ondes utilisées et d'inscrire cette phase dans l'épaisseur de la "surface" et grâce à cette astuce l'épaisseur de la "surface" peut être relativement faible. On donne donc l'impression d'avoir encodé 3 dimensions dans 2 mais on a bien utilisé les 3 dimensions de la dite "surface" (voir nota).

Bien maintenant que nous savons réellement ce qu'est un hologramme voyons pourquoi on entend parler du principe holographique. Les trous noirs, encore et toujours eux, ont une entropie si l'on assimile le fait que classiquement leur masse ne peut que croitre à la croissance d'une entropie. En fait en mécanique statistique classique (ils semblent que certains ne l'ont pas compris), le trou noir n'a pas d'entropie (nombre de complétion égal à 1) car toute la matière est concentrée dans la singularité (ce n'est pas le cas d'un gaz), Mais si l'on veut parler en terme d'information on peut considérer qu'elle est perdue mais dans un sens très particulier car en fait elle n'est pas perdue mais tout simplement inaccessible. C'est là toute l'ambiguïté de l'information.

Comment alors calcule-t-on l'entropie du trou noir ? La première manière c'est de considérer la surface de l'horizon qui croit avec la masse, de la découper en surface de Planck (notion encore ambiguë car l'on sait définir la longueur de Planck à partir des constantes fondamentales mais pas la surface de Planck, est-ce un carré, un triangle, un disque ou autre chose ? un coefficient inconnu fera l'affaire). Puis de dire j'attribue l'état 0 ou 1 à chacune de ces surfaces de Planck. Et je postule que cela m'a permis de coder le contenu du trou noir. En utilisant l'entropie informationnelle j'obtiens une valeur colossale pour l'entropie des trous noirs connus. Chaque ajout de matière ajoute de la masse donc de la surface à l'horizon et enrichit le codage. En fait l'idée des 0 et 1 peut se justifier par le fait que toute particule arrivant à la surface de l'horizon atteint dans son référentiel propre la vitesse de la lumière donc n'a plus que 2 états de spin car sa masse devient nulle comme celle du photon (spin 1/2 = 2 états, spin 1 = 2 états car masse nulle). Bon c'est tout de même un peu tirer par les cheveux. La deuxième c'est de partir de la température d'Hawking et d'assimiler un genre d'équation d'état du trou noir à une équation d'état thermodynamique et "Oh miracle" l'on trouve une entropie thermodynamique égale à l'entropie informationnelle en prenant égal à 4 le fameux coefficient inconnu (quelle est la surface ?). Le calcul d'Hawking est dans tous les cas une approximation dont le domaine de validité reste toujours à définir mais cela semble justifier l'encodage de l'information contenue dans le trou noir sur la surface de l'horizon. Des horizons on peut en définir une ribambelle en physique comme par exemple en cosmologie notre horizon observationnel défini par la vitesse de la lumière et l'époque du big bang. Du coup certains (nombreux) se sont emparés du résultat sur les trous noirs pour dire que nous vivons dans un monde holographique où toutes les informations sont codées sur les surfaces des horizons. Les cordistes s'empressant de justifier ce résultat avec leur théorie qui a priori permet de tout justifier, par exemple au début la constante cosmologique était nulle, puis elle est devenue négative et maintenant elle est positive pour coller aux observations, triple bravos les cordistes. C'est vrai qu'en mathématique avec les bons postulats je trouve à peu près ce que je veux.

Est-ce que tout cela est sérieux ? Concernant les trous noirs nos observations montrent qu'il existe dans l'univers des objets plus compacts que les étoiles à neutrons. Il faut tenir compte que notre connaissance des particules élémentaires n'est pas abouti (par exemple masse des neutrinos), que nous sommes loin d'avoir exploré toutes les possibilité de la force forte, qu'une étoile est un objet quantique donc calculer l'effondrement d'une étoile uniquement en terme de relativité générale est plus qu'une approximation grossière. Si l'on tient compte d'une certaine inhomogénéité dans une étoile en effondrement on peut avoir une singularité nue donc pas d'horizon. De plus les singularités relativistes sont en contradiction flagrante avec la mécanique quantique. Les métriques des trous noirs admettent elles-mêmes des singularités nues (sauf celle de Schwarzschild). En plus elles ne sont que des approximations, la masse étant déjà considérée, au départ de leur construction, comme concentrée au centre. De plus si l'horizon existe, à l'intérieur, la coordonnée de temps devient une coordonnée d'espace et une des coordonnées d'espace devient un temps. Donc quel que soit ce que certains en disent cela fait beaucoup d'approximations et le résultat qui n'est qu'une conjecture (à crier haut et fort) semble très discutable. Enfin rappelons-nous que l'holographie fait appel en fait à 3 dimensions donc faut-il considérer qu'il faut tenir compte en plus de la surface de l'horizon d'une épaisseur égale à la longueur de Planck, ce n'est jamais dit, au moins à ma connaissance. En conclusion, faire des mathématiques c'est bien, même indispensable, mais croire que tous les résultats mathématiques sont de la physique c'est de la non science. Cela ne veut pas dire qu'un résultat mathématique ne peut pas conduire à une "vérité" physique mais tant qu'il n'est pas corrélé à une observation c'est une conjecture à prendre avec des pincettes (il faut le crier haut et fort), et ce d'autant plus si l'on ne voit pas dans l'immédiat ou à court terme comment le valider par l'observation (directe ou indirecte).

Nota : j'ai intentionnellement un peu simplifié les choses, l'important étant l'utilisation en fait de 3 dimensions. Si par exemple on fait un hologramme de pomme, en coupant en deux le support, on obtiendra toujours une pomme avec l'une ou l'autre des deux moitiés mais la définition sera nettement moins bonne car le principe fondamental réside dans l'utilisation d'enregistrement d'interférences.

lundi, novembre 7 2022

Multiverse, science ou fiction ?

"The Institute of Art and Ideas" publie sur YouTube des conversations entre d'éminents chercheurs sur des sujets très divers. Ils avaient réuni M. Kaku, R. Penrose et S. Hossenfelder pour discuter de la théorie du Multiverse, c'est à dire l'existence ou pas d'univers parallèles. Certaines extrapolations scientifiques peuvent conduire à leurs existences, surtout celles issues de la théorie de l'inflation cosmique (phase initiale avant le Big Bang).

M. Kaku est un théoricien des cordes (donc principalement mathématicien), R. Penrose est un mathématicien éclectique qui a travaillé surtout sur les implications de la relativité générale (trous noirs en particulier), S. Hossenfelder est une physicienne théoricienne qui s'intéresse actuellement aux fondations de la physique mais traite aussi de sujets divers (sociaux, mathématiques, techniques, etc). R. Kaku a surtout voulu montrer que la théorie fondamentale était la théorie des cordes, se contentant sur le Mulitiverse de dire que la mécanique quantique prédisait un univers pluriel puisque tout objet quantique pouvait se trouver dans plusieurs états à la fois. Je n'ai pas bien compris s'il faisait allusion à des univers parallèles ou à l'interprétation de Everett de la mécanique quantique (à chaque observation l'univers se scinde en plusieurs univers contenant chacun une des possibilités de la mesure). Ses arguments pour valider la théorie des cordes étaient complétement "bateau". En fait nos observations actuelles ne peuvent pas la valider et il faut attendre d'avoir les bons outils qui permettront les bonnes observations. Pour valider la théorie de Démocrite des atomes il a bien fallu attendre 2000 ans. Comme argumentaire on fait mieux. Susskind lui est encore plus fort de café car il explique que la théorie des cordes prédit le graviton (particule sans masse de spin 2) et donc cela la valide. Bizarre Newton avait prédit la gravité bien avant et en plus il oublie que le bestiaire des particules prévues par les cordes est sans limite. Sans la supersymétrie les cordes ne peuvent pas expliquer l'existences des fermions, seulement des bosons, donc notre monde. Problème, avec la supersymétrie toutes les particules ont un partenaire supersymétrique, ce n'est pas ce que l'on constate jusqu'aux énergies atteintes par le LHC. On peut toujours supposer qu'il y a une brisure de symétrie mais cela marche avec une théorie supersymétrique non cordiste. Si l'on rajoute la théorie des cordes cela ne marche plus car les partenaires supersymétriques doivent tous exister à basse énergie et ce n'est pas le cas. R. Penrose ne croit visiblement pas au Multiverse mais sans vrai argument. Il a l'air obnubilé par la dichotomie entre l'équation de Schrödinger et la théorie de la mesure en mécanique quantique. Aujourd'hui elle n'existe plus dans les bonnes interprétations de la mécanique quantique, il suffit de considérer la myriade d'interactions entre l'appareil de mesure et la q-particule, l'environnement et enfin la contextualité des propriétés attribuées à la q-particule. R. Penrose a aussi conçu une théorie d'univers cyclique mais cela n'a rien avoir avec le Multiverse, contrairement à ce que laisse entendre l'interviewer. S. Hossenfelder a une attitude plus scientifique. Pour l'instant on ne voit pas comment on pourra mettre en évidence l'existence ou non du Multiverse (même dans le futur) donc cela est une pure fiction mathématique. Croire que les mathématiques sont de la physique est de la non science, il faut corréler les résultats obtenus à l'observation. C'est un vrai problème avec les théoriciens qui sont souvent actuellement des mathématiciens purs.

Je suis en partie de l'avis de S. Hossenfelder mais je voudrais apporter quelques nuances car sa position est pour moi trop tranchée. D'ailleurs je suis assez souvent en désaccord avec ses propos sur d'autres sujets.

Notre physique actuelle nous permet de remonter sans beaucoup de problèmes à environ 13,4 milliards d'années, c'est à dire à la naissance du fond diffus cosmologique (voir nota). Avec quelques extrapolations encore 300 000 ans en arrière. Mais avant ce n'est que de la vraie spéculation. Est-ce de la non science ? Non, ceux sont des spéculations utiles pour faire avancer la science à partir du moment où l'on respecte une certaine déontologie et que l'on explique clairement que ceux sont des spéculations (et ne pas écrire des livres ou faire des vidéos "grand public" sans l'expliquer, encore moins des films auréolés du nom de scientifiques par ailleurs respectables quand ils font de la vraie physique). Par contre il est relativement évident qu'à cette époque l'univers était a priori quantique. Qui dit quantique dit fluctuations. Dans le fond diffus cosmologique on distingue d'infimes fluctuations (1/10 000). Il est alors assez logique de les relier aux fluctuations quantiques. Pour cela, il faut une phase d'inflation cataclysmique très courte. Cela a plusieurs vertus, homogénéité de l'espace et platitude (les 2 arguments historiques qui sont à la base de la théorie de l'inflation), plus une sélection drastique des théories de l'inflation. La meilleure actuellement étant la plus simple, champ scalaire quadratique (tient cela ressemble au champ de Higgs qui donne leurs masses aux particules sauf aux neutrinos) mais elle ne résout pas tout. Si l'inflation est issue de la phase quantique de l'univers rien ne s'oppose à croire à la naissance de plusieurs univers qui peuvent d'ailleurs être très différents et par la même occasion à croire au principe anthropique. Mais nous sommes là dans le pur domaine de la spéculation et il faut le crier haut et fort puisque en principe, mais ce n'est pas certain, nous ne pourrons jamais avoir de contact avec ces autres univers (sauf a priori de manière cataclysmique et nous ne ferons plus alors aucune observation).

Nota : En appliquant les équations d'Einstein à l'univers (constante cosmologique intégrée comme l'a montré le théorème de Cartan) et en supposant qu'il est homogène et isotrope à grande échelle on colle correctement aux observations (en rajoutant une bonne dose de matière noire). L'homogénéité et l'isotropie sont en accord avec le fond diffus cosmologique et ses infimes fluctuations conduisent à la formation des amas de galaxies (toile cosmique) suite à l'expansion de l'univers bien expliquée par le décalage vers le rouge (red shift). En utilisant nos observations sur certaines supernovas dont on pense connaître très bien le processus de formation on mesure l'accélération de cette expansion due à la constante cosmologique (qui agit comme une sorte très particulière d'énergie que l'on appelle énergie noire mais qui pour l'instant est une simple constante des équations sans rapport avec l'énergie du vide ou d'un champ quelconque, le satellite EUCLID doit trancher cette question s'il est effectivement envoyé dans l'espace un jour et seulement 6 ans après). La métrique utilisée dans la théorie définie un temps universel (métrique en comouvement avec la matière) et la mesure des distances est construite pas à pas à partir de diverses observations ce qui n'est pas sans poser de problèmes. Donc si l'on admet tout cela (il n'y a pas de meilleure théorie alternative), le scénario décrit doit être le bon. On remarquera tout de même que dans la phase quantique et même d'inflation, la notion d'espace/temps n'est pas tout à fait celle de la physique connue.

mercredi, octobre 5 2022

Probabilités complexes et mécanique quantique

Je me suis souvent demandé dans quel cadre une théorie mathématique qui utilise une fonction de probabilités complexes pouvait redonner au moins en partie les résultats de la mécanique quantique. J'ai posé cette question à des mathématiciens (pratiquement aucune réponse) et la seule piste que j'ai obtenue est qu'il fallait peut-être regarder vers un cadre anticommutatif comme la géométrie non commutative de Connes (malheureusement un peu trop mathématique pure pour moi, très difficile à suivre). Un certain nombre d'articles introduisent des cadres probabilistes avec des fonctions complexes mais je n'ai pas vraiment trouvé ce que je cherche (voir nota 1).

Mon idée personnelle est de rester dans un cadre relativement classique à savoir j'ai la probabilité p(u) que l'événement u survienne avec p(u) compris entre 0 et 1, u est une variable décrivant l'événement et peut être continue ou discrète (si continue c'est p(u)du qui intervient). Les événements u sont dépendants (1 seule possibilité à la fois) et donc la somme (ou l'intégrale) des probabilités est égale à 1. La seule différence avec la théorie standard est que l'on suppose que p(u) est calculé via une fonction à valeurs complexes, f(u). A priori p(u) peut dépendre de la partie imaginaire et réelle de la fonction mais comme on recherche un cadre le plus simple possible et que p(u) est à valeur réelle on suppose que p(u) ne dépend que du module de la fonction. Le lien le plus simple et le plus immédiat est :

p(u) = f*(u)f(u)

D'autres solutions seraient a priori possibles mais il n'est pas sûr que l'on puisse alors édifier un cadre cohérent (mathématiciens à vos stylos). L'avantage immédiat de cette solution est que la fonction de probabilités de 2 événements indépendants (ou plus) est le produit des fonctions de chaque événement. En effet :

p(u,v) = p(u)p(v) = f*(u)f(u)f*(v)f(v) = (f(u)f(v))*(f(u)f(v))

Maintenant supposons que la probabilité de l'événement u soit fonction du temps t, p(u) étant fonction de f(u) c'est cette fonction qui évolue dans le temps et l'on peut écrire :

df(u)/dt = Of(u)

O est un opérateur qui traduit les contraintes faisant varier f(u) dans le temps. Comme la somme (ou l'intégrale) des p(u) est égale à 1 une petite manipulation algébrique montre que O est un opérateur hermitique multiplié par i (i nombre complexe dont le carré est égal à -1). L'équation peut alors se réécrire :

iadf(u)/dt = Hf(u) ou a est un nombre réel et H un opérateur hermitique.

Les valeurs propres d'un opérateur hermitique sont réelles. Pour 2 valeurs propres différentes les états propres sont orthogonaux et il est toujours possible d'orthogonaliser les états propres dégénérés donc en définitive de créer une base orthonormée à partir des états propres de l'opérateur (dans le cas continu des subtilités mathématiques sont à prendre en compte). On peut donc écrire dans le cas discret :

f(u) = Somme(cjfj(u)) ou cj est un nombre complexe dépendant du temps et fj une fonction propre de l'opérateur hermitique, la somme portant sur l'ensemble des fonctions propres dûment orthogonalisées (voir nota 2).

En prenant en compte le fait que la somme sur p(u) (ou l'intégrale) est égale à 1, une petite manipulation algébrique montre que :

Somme(cj*cj) calculée sur j est égale à 1.

On peut donc considérer que cj*cj est la probabilité de trouver l'état propre j lorsque un des événements u se produit.

Si l'on en revient à la physique, le théorème de Noether montre que H représente l'opérateur énergie et l'on retrouve l'équation de Schrödinger car l'analyse d'une interaction microscopique basique montre que a est la constante de Planck. De plus le théorème de Noether donne les versions différentielles des opérateurs impulsions et moments cinétiques. En associant les événements u à des mesures, le postulat de la mesure est en partie retrouvé. Enfin l'hypothèse d'invariance via la transformation d'Einstein fait apparaitre la notion de spin qui justifie les valeurs demi-entières du moment cinétique.

Nous avons donc retrouvé une partie importante de la mécanique quantique en partant de la définition de la probabilité d'un événement à travers l'existence d'une fonction complexe de probabilités et en utilisant une relation somme toute assez banale des nombres complexes (produit scalaire). Bien sûr ces raisonnements n'ont pas la prétention d'être entièrement correct du point de vue mathématique mais les résultats me paraissent assez probants. Peut-être qu'un vrai mathématicien finira par y porter attention (voir nota 3).

Un dernier point, vous pouvez vous demander quel est le sens de cette démarche. En fait, si l'on part du fait que la mécanique quantique est une théorie statistique des systèmes physiques (voir nota 4) et que les mathématiques sont seulement notre langage pour décrire la nature (et non pas que la nature est mathématique) alors la plupart des questionnements sur la mécanique quantique qui remplissent des pages et des pages sans aboutir deviennent caduques car ils sont tout simplement inhérents à la nature statistique de la théorie. Sinon, pour répondre à ces questionnements, il faut soit modifier la théorie (la mécanique quantique n'est plus une théorie fondamentale), certains le font à la marge mais seule une super théorie permettrait de les résoudre correctement, soit considérer que l'interprétation de De Broglie/Böhm est valable (beaucoup de problèmes avec la relativité).

Nota 1 : Vous trouverez un certain nombre d'articles traitant de probabilités dites exotiques en suivant ce lien : http://physics.bu.edu/~youssef/quantum/quantum_refs.html.

Nota 2 : La seule hermiticité de l'opérateur n'est pas suffisante pour écrire ce développement, c'est pourquoi on introduit en mécanique quantique le concept d'observable (hermiticité + base complète).

Nota 3 : Les conditions utilisées lors des calculs sont suffisantes mais a priori non nécessaires. Il serait donc intéressant de voir si elles peuvent être rendues nécessaires, de voir quel type d'espace entre vraiment en jeu (un espace Hilbertien n'est pas suffisant) et enfin comment on peut généraliser mathématiquement cette "théorie".

Nota 4 : Dans la majorité des livres et articles (en fait pour moi dans tous ?), les principes de la mécanique quantique sont explicités en premier puis par la suite la "fonction d'onde" est assimilée à une fonction de probabilités et ce uniquement comme "pseudo corollaire" de ces principes. Elle devient du coup la source de tous les questionnements.

jeudi, septembre 22 2022

Localité versus non localité en mécanique quantique

Lorsque 2 particules sont intriquées en faisant une mesure sur l'une, je peux connaître à l'avance le résultat de la même mesure faite sur l'autre.

Par exemple si 2 photons sont dans un état singulet (spin 0 pour le couple) alors si je trouve plus 1 pour la polarisation du premier, je suis sûr de trouver moins 1 pour la polarisation du second à condition qu'il ne soit soumis à aucune perturbation entre les 2 mesures. Cette expérience a été menée à bien par Aspect dans des conditions telles que le résultat est a priori irréfutable (toute expérience en mécanique quantique est soumise à des aléas, parfois importants, et on peut toujours imaginer des mécanismes qui permettent d'en tirer des conclusions discordantes).

Depuis ce phénomène d'intrication a été vérifié de manière encore plus précise et l'on a commencé à l'utiliser de façon pratique (ordinateur quantique, codage quantique, etc). Toutefois sa stabilité très faible oblige à utiliser des dispositifs très couteux et volumineux (refroidissement vers le 0 absolu par exemple).

Quoi qu'il en soit l'intrication implique une non localité dans le temps et dans l'espace (voir nota 1). Par contre tout échange d'information entre expérimentateurs respecte les principes de la relativité. Rien d'étonnant car il se fait classiquement même si les outils utilisés renferment des composants quantiques (téléphones, ordinateurs, ligne de télécommunication, etc).

Ceci apparait paradoxal à certains car les équations de la mécanique quantique sont des équations différentielles comme par exemple les équations de Maxwell qui ont permis à Einstein de construire la relativité restreinte qui est une théorie locale dans le temps et dans l'espace. Aussi faut-il se demander à quoi correspondent ces équations tirées de la mécanique quantique ?

Prenons l'équation la plus simple celle de Schrödinger. Elle décrit l'évolution de ce que l'on appelle à tort la "fonction d'onde". Cette fonction n'est ni plus ni moins qu'une fonction de probabilités même si c'est son carré complexe qui donne la valeur de la probabilité (voir nota 2) donc comme pour toute fonction de probabilités elle est réduite instantanément dès que l'expérimentateur à une information supplémentaire sur l'objet quantique décrit. Cette équation décrit une évolution locale sans information supplémentaire (voir nota 3) et ceci oblige l'expérimentateur à se référer au postulat de la mesure lors d'une expérience. Toutefois ce dernier postulat traduit en fait la méconnaissance par l'expérimentateur des diverses interactions et donc intrications qui se produisent entre l'objet quantique à mesurer, l'environnement et l'appareil de mesure.

En conclusion, la mécanique quantique est bien non locale, l'intrication se produisant via les interactions, ceux sont donc les interactions qui sont non locales (voir nota 4). Quand on résout une équation différentielle quantique l'on introduit des interactions locales car elles sont déduites de ce que l'on connait classiquement et cela marche bien mais ceci doit être considéré comme une approximation (ce n'est en général pas la seule). Il faut bien comprendre que les équations différentielles de la mécanique quantique ne sont qu'une projection dans l'espace-temps d'opérateurs plus généraux. Elles traduisent un moyen simple de résoudre un problème mais c'est en utilisant les algèbres d'opérateurs que l'on en tire la substantifique moelle. Un cas probant est le moment cinétique dont les valeurs demi-entières apparaissent en résolvant les équations entre opérateurs. De plus, les projections peuvent se faire dans divers espaces, et suivant les cas la résolution d'un problème peut-être plus simple suivant l'espace choisi mais le plus général reste la résolution entre opérateurs.

Nota 1 : Bell a montré mathématiquement qu'une théorie locale à variables cachées ne pouvaient expliquer ce phénomène dans tous les cas. Suivant les angles des polariseurs les résultats obtenus expérimentalement sont en accord avec ceux calculés via la mécanique quantique et en discordance avec ceux calculés via une théorie locale à variables cachées.

Nota 2 : Si l'on veut définir des probabilités complexes, est-ce que l'on aboutit à la mécanique quantique ou peut-on définir une théorie plus générale ? Pour l'instant personne n'a pu me répondre ! Une piste serait des probabilités non commutatives et peut-être la géométrie non commutative de Connes. Je suis preneur de la réponse.

Nota 3 : Quand il n'y a pas d'interaction donc pas d'information supplémentaire la "fonction d'onde" s'étale dans l'espace avec le temps donc la probabilité a tendance à se diluer.

Nota 4 : Dans l'équation différentielle de Dirac (relativiste), appliquée à l'atome simple (1 électron), il apparait un potentiel dit de Darwin qui peut être considéré comme non local car il fait intervenir la longueur d'onde Compton de l'électron. De plus cette équation n'est applicable qu'en première approximation à un électron seul car elle fait apparaître son antiparticule. Pour résoudre ce problème Dirac a introduit la notion de mer d'électrons dont l'énergie est prise égale à 0 (niveau de référence pour l'énergie). L'antiélectron apparait alors comme un trou dans cette mer. Seule une théorie des champs résout de manière explicite et claire cette problématique.

lundi, août 15 2022

Penrose prix Nobel de physique un peu bizarre non ?

On a attribué à Penrose le prix Nobel de physique pour ses contributions à la théorie des "trous noirs" (voir nota). Je ne suis pas sur que Nobel aurait été d'accord avec cette attribution. Penrose est un grand Monsieur qui compte dans le domaine de la science, mais surtout des mathématiques, c'est un pur mathématicien. A ma connaissance Penrose a montré 3 choses sur les "trous noirs" :

1 Son théorème sur l'existence des singularités en relativité générale. Très belle démonstration mathématique avec des apports brillants comme les fameux diagrammes de Penrose. Problème : les singularités sont monnaie courante dans les théories physiques (mais ce sont effectivement des singularités moins belles sur le plan mathématique), la mécanique quantique réduit considérablement la portée de ce théorème, quid de l'observation ?

2 Sa conjecture sur l'inexistence de singularités nues dite de censure cosmique. Problème : le calcul dans le cas inhomogène montre qu'il peut exister des singularités nues, elles existent déjà avec la métrique de Kerr (et celle de Ressner-Nordström), quid de l'observation ?

3 Extraction d'énergie dans le cas de la métrique de Kerr via l'ergosphère. Problème : cette métrique provient d'un calcul extrêmement simplifié, la masse étant déjà supposée concentrée au centre du "trou noir", quid de l'observation ?

Luminet a calculé (il y a pas mal d'années) de façon explicite l'image d'un objet très compact (champ gravitique très intense) et l'image publiée dernièrement d'un "trou noir" montre la justesse de son approche et de ses calculs qui collent parfaitement à cette image produite de l'observation. Je pense que cela correspond plus à l'esprit du prix Nobel, donc pourquoi Penrose et pas Luminet ? Les lobbyistes existent aussi dans le domaine des sciences.

Nota : pour l'instant l'observation a surtout montré qu'il existait des objets astronomiques très compacts ayant certaines caractéristiques attribuées aux "trous noirs" mais rien de plus. Rien n'indique aujourd'hui dans notre connaissance des particules élémentaires que l'effondrement d'une étoile ne peut pas être arrêté au delà de la pression de dégénérescence neutronique + l’inhomogénéité de l'étoile est mal prise en compte dans les calculs + une étoile est avant tout quantique (réactions de fusion) donc l'application de la relativité générale pour son champ gravitique extérieur ne pose pas de problème, à l'intérieur ce n'est pas pareil surtout dans la phase d'effondrement + la relativité générale montre clairement que comme observateur extérieur nous ne pourrons voir qu'au mieux une étoile en train de se figer.

mercredi, août 10 2022

La décohérence quantique expliquée par le jeu de dés (et donc la théorie de la mesure)

Prenons un seul dé pour simplifier et un plateau à dés circulaire. S'ils ont été fabriqués correctement, lors de chaque lancé le dé va s'arrêter sur une de ses 6 faces avec une probabilité de 1/6 (seule l'expérimentation peut le confirmer). Toutefois, il arrive que le dé s'arrête contre le bord du plateau sans qu'une face soit en appui sur le fond du plateau, mais cela est très rare. Le dé est dit alors "cassé" et le résultat du lancé n'est pas pris en compte, donc un nouveau lancé est effectué.

Quand le dé se trouve dans la main du lanceur, personne ne sait quel sera le résultat final. La mécanique quantique nous dit alors que l'état du dé doit s'écrire (voir nota 1) :

a | 1 > + a | 2 > + a | 3 > + a | 4 > + a | 5 > + a | 6 > avec a égal à racine carré de 1/6

la probabilité de trouver lors d'une mesure un des 6 états possibles du dé est a x a* = 1/6 (un nombre réel est aussi un nombre complexe, voir nota 2). On a bien ici une source, la main du joueur qui lance le dé, et un appareil de mesure, le plateau circulaire. C'est l'interaction du dé et du plateau qui détermine l'état final du dé ainsi que la façon de lancer du joueur. On est donc parti d'un état superposé du dé pour arriver au final à un des 6 états de base. Il n'y a plus d'incertitude sur l'état du dé. La mesure a donc réduit la pseudo "fonction d'onde" (en fait la fonction de probabilités) pour donner un seul état et si l'on reproduit la même opération plusieurs fois on retrouvera que la probabilité d'obtenir un des 6 états est 1/6 = a x a*. Quand le dé est "cassé" c'est que l'état final du dé correspond à un des termes non diagonal de l'opérateur densité mais celui-ci a une valeur infiniment petite par rapport aux termes diagonaux et on néglige ce cas inhabituel. On a donc reproduit ici le phénomène de décohérence qui explique clairement la théorie de la mesure en mécanique quantique.

Evidemment, il y a quelques différences avec le cas d'une mesure faite sur une q-particule. Dans le cas du dé c'est principalement les frottements avec le plateau qui créent la décohérence alors que pour une q-particule, même si les frottements jouent aussi leur rôle, c'est l'interaction avec l'environnement qui est primordiale. Ensuite, pour une q-particule l'état final est conservé si l'on renouvelle la même mesure pratiquement instantanément après la première. Ce n'est pas possible avec le dé. Par contre dans les 2 cas, il y a bien irréversibilité de la mesure même si la mécanique classique fantasme le contraire pour le dé. Comme disait Boltzmann a ses détracteurs qui voulait retourner d'un seul coup toutes les vitesses des particule d'un gaz "Eh bien, essayez". Enfin on peut noter que l'état du dé n'est pas dépendant du type de plateau utilisé (au moins dans une certaine mesure), ce n'est pas le cas d'une q-particule, le phénomène quantique d'intrication fait qu'il est impossible de définir l'état d'une particule sans son contexte (source + appareil de mesure + environnement). Une propriété d'une q-particule est obligatoirement contextuelle.

Nota 1 : en fait on pourrait aussi dire que l'on a un état mixte et non pas un état pur mais dans ce cas il faudrait introduire d'emblée des états croisés de type b | 1 > + b | 2 > avec b très petit et supposer a très proche de 1/6 (dans ce cas seul l'opérateur densité a un sens) et l'on ne pourrait pas parler de décohérence. La mécanique quantique est très ambigu sur ce point. Par exemple si l'on mesure un spin 1/2 provenant d'une source donnée suivant l'axe Z et que l'on trouve 2 valeurs avec des probabilités de 50% seule une mesure suivant l'axe X de la source nous dira si l'on a affaire à un état pur ou un état mixte. Ces 2 mesures ne pouvant se faire simultanément (opérateurs non commutatifs) et étant uniquement significatives en probabilités (un niveau suffisant de répétitions des mesures avec peu de points discordants), de fait le résultat n'est interprétable qu'à travers un schéma théorique préétabli, ici celui de la mécanique quantique.

Nota 2 : la théorie des probabilités a été développée mathématiquement pour un monde macroscopique. Elle fait donc intervenir des probabilités qui sont des nombres réels positifs mais donc aussi le carré de nombres réels (p est égal au carré de racine carré de p). Il n'est pas apparu aux yeux des mathématiciens que l'on pouvait utiliser des nombres complexes dont le carré complexe donnait la valeur d'une probabilité. La mécanique quantique a changé cela. Dans le cas d'utilisation de nombres complexes pour décrire une probabilité des propriétés nouvelles apparaissent, c'est le cas en mécanique quantique. Toutefois, des éléments de base restent inchangés. A chaque tirage, une seule valeur apparait.

samedi, août 6 2022

Intrication versus superposition

Un état superposé dépend de la base utilisée pour le décrire puisqu'on le représente comme un vecteur d'un espace d'Hilbert. Par exemple l'état :

a | - 1/2z> + a | + 1/2z> ou a = racine carré de 1/2

est un état superposé suivant l'axe Z d'une q-particule de spin 1/2. Lorsque l'on effectue une mesure suivant l'axe Z on trouve soit l'état | - 1/2z> soit l'état | + 1/2z> avec une probabilité de 50%. Pourtant si l'on choisit une mesure suivant l'axe X, on trouve toujours le même état car en fait cet état est équivalent à l'état :

| + 1/2x>

La superposition est donc bien un artefact dû au choix de la base utilisée (donc ici de l'appareil de mesure). Ceci reste vrai quelque soit la complexité du système mais si l'état incorpore une intrication celle-ci reste présente quelque soit la base utilisée.

Un état intriqué est un vecteur d'un espace de produit d'espace d'Hilbert (au moins 2). C'est un état dit non séparable dont la propriété d'intrication ne dépend pas de la base choisie. Par exemple l'état intriqués de 2 q-particules de spin 1/2 :

a | + 1/2z, - 1/2z> + a | - 1/2z, + 1/2z> ou a = racine carré de 1/2

est un état de spin global égal à 0 qu'il est impossible de factoriser (voir nota). Et la mesure du spin d'une des 2 q-particules implique la connaissance automatique du spin de l'autre même si elles sont à de grandes distances l'une de l'autre (si aucune perturbation suffisamment importante n'est intervenue entre-temps).

Cette caractéristique est fondamentale. C'est pourquoi l'on peut considérer que l'intrication est le phénomène le plus important de la mécanique quantique, la superposition étant un artefact dû au choix de la base (les bases privilégiées sont en fait dépendantes du contexte). L'intrication est un phénomène non local dans le temps et dans l'espace bien que dans toutes les expériences effectuées on a pu montrer qu'il ne remettait pas en cause la relativité (échanges de résultats entre opérateurs). Dès 1936, suite à l'article EPR, Schrödinger l'avait bien compris mais il est vrai que la théorie des champs avec l'avènement de la théorie des intégrales de Feynman et leur exploitation graphique qui s'en est suivie peu après ont fait oublier ce phénomène fondamental. Depuis quelque temps l'utilisation concrète de l'intrication dans des applications pratiques l'a remise au goût du jour mais ses conséquences sur l'interprétation de la mécanique quantique n'ont pas été toutes mises suffisamment en avant.

Nota : un état est dit factorisable si l'on peut l'écrire comme produit d'état. Dans l'exemple il est impossible d'écrire le vecteur d'état considéré sous la forme : | 1> | 2> , le premier étant un vecteur d'état de la première q-particule, le second un vecteur d'état de la deuxième q-particule.

samedi, juillet 30 2022

Effondrement d'étoiles et métriques

Si l'on considère les métriques de Schwarzschild (masse) ou de Ressner-Nordström (masse + charge électrique) ou de Kerr (masse + moment cinétique) ou de Kerr-Newman (masse + charge électrique + moment cinétique), ces métriques sont mal adaptées pour analyser à partir des équations d'Einstein l'effondrement d'une étoile car elles sont valables uniquement en dehors de l'étoile. Avec ces métriques, l'on peut analyser comment se comportent les géodésiques en considérant que toute la masse de l'étoile est ponctuelle d'où évidemment l'apparition d'une singularité et aussi en général d'un horizon des événements (sphère de Schwarzschild). Evidemment, la configuration géométrique obtenue diffère suivant la métrique utilisée et le nombre de paramètres pris en compte, la plus simple étant la métrique de Schwarzschild sur laquelle le concept de trou noir a été bâti car pour certaines valeurs du moment cinétique ou de la charge électrique l'horizon des événements disparait. Ces cas sont souvent passés sous silence ou simplement réfutés car les valeurs des paramètres sont supposées non naturelles (naturel cela veut dire quoi ? la constante de Planck est-elle naturelle ?).

On peut de plus remarquer que le temps utilisé dans ces métriques correspond à celui d'un observateur à l'infini (on pose automatiquement que la constante cosmologique est nulle, cette approximation est a priori justifiée pour un traitement localisé). Par des changements de variables on peut revenir à un temps propre mais cela ne change pas les conditions de départ.

Pour étudier l'effondrement d'une étoile la métrique la mieux adaptée doit être une métrique à temps propre. C'est à dire dans le cas où l'on suppose une symétrique sphérique comme pour les métriques 1 et 2 citées plus haut (sans moment cinétique) :

ds² = dt² - f dr² - g (du² + sin²u dv²) avec f et g fonctions de t et de r

Avec ce type de métrique (due à Lemaitre/Tolman/Bondi) et suivant ce que l'on va supposer comme conditions initiales plus comme équations d'état de la matière, on n'obtiendra pas toujours une singularité ni un horizon des événements. Dans leur article de 1939 Oppenheimer et Snyder se place dans le cas d'une étoile homogène ayant partout une pression nulle, ce cas évidemment ne correspond à aucune réalité. La même année Oppenheimer et Volkoff analysent comment la pression (quantique) de dégénérescence appliquée aux neutrons peut arrêter l'effondrement de l'étoile et concluent que pour une masse limite cette pression n'est pas suffisante et l'étoile ne peut que continuer à s'effondrer. Depuis des cas un peu plus réalistes ont été traités. Lorsque les paramètres utilisés restent proche du cas Oppenheimer et Snyder, les résultats sont équivalents mais dès que l'on s'en éloigne pour traiter des cas plus réalistes les conclusions sont beaucoup moins claires et il existe des cas bien définis par les calculs où la singularité est nue, il n'y a pas d'horizon des événements et donc elle est visible par un observateur (mais il vaut mieux qu'il en soit éloigné). On notera que quand Oppenheimer et Volkoff ont rédigé leur article on ne savait pas grand chose sur les forces nucléaire ni sur les particules élémentaires (Eh, Oppenheimer, tu sais que le neutron est constitué de 3 quarks maintenues entre eux par des gluons et que c'est les gluons et pas les quarks qui donnent sa masse au neutron, et oui c'est ça la chromodynamique quantique, et en plus la masse des quarks est donnée par leur interaction avec le champ de Higgs).

Les observations et les mesurent (via Ligo, Virgo, etc) montrent qu'il existent des objets stellaires qui présentent certaines caractéristiques de ce que l'on appelle des "trous noirs" mais rien de plus. Ce que sont vraiment ces objets pour l'instant nous ne le savons pas et en tant qu'observateur éloigné l'étoile se fige pour nous avant d'entrer sous sa sphère de Schwarzschild. Le concept de singularité nue sera d'ailleurs aussi difficile à identifier car les gaz et poussières présents autour de la singularité devrait nous la cacher.

Toutes ces métriques utilisées sont purement classiques. Toutefois le quantique est intervenu quand on a voulu définir certains états de la matière. En fait une étoile est un objet purement quantique. Les réactions qui la font briller sont des réactions nucléaires (principalement la transformation de l'hydrogène en hélium). Il est donc logique de se poser la question si une théorie classique à sa place ici (cela ne pose pas de problème quand on analyse le champ gravitique extérieur de l'étoile). Peut-on utiliser les équations d'Einstein pour traiter l'effondrement d'une étoile ? Pour la pression de dégénérescence, la quantique intervient mais malheureusement pas suffisamment (il faut appliquer nos connaissances actuelles et pas s'arrêter en 1939 !). Le rayonnement d'Hawking est un rayonnement purement quantique. L'entropie du pseudo "trou noir" s'explique par un raisonnement quantique, etc, etc. Cela veut-il dire qu'il ne faut pas étudier les pseudo "trous noirs" avant la mise au point d'une théorie quantique de la gravité ? Pour l'instant les 2 principales théories quantiques de la gravité (cordes et boucles) en cours d'élaboration n'ont pas apporté de résultats très probants (en tout cas vérifiables). Nous ne savons même pas si la gravité est vraiment quantifiable (processus émergeant peut-être ?). En tout cas pour l'instant, toutes les théories décrivant ce qui se passe dans la sphère de Schwarzschild ne sont que des spéculations. Elles servent à vendre des livres, à faire des films qui ne sont que de la science-fiction et des vidéos sur internet. Tout cela rapporte gros à certains. C'est dommage que de grands scientifiques se prêtent à ce jeu.

jeudi, juillet 21 2022

Contextualité et mécanique quantique

Bohr considérait dans son interprétation dite de Copenhague qu'il y avait une différence importante entre un objet macroscopique (donc soumis à la mécanique classique) et un objet microscopique (donc soumis à la mécanique quantique) d'où le fameux postulats de la mesure et sa conséquence la réduction de la "fonction d'onde" d'où l'on déduisait les probabilités d'une mesure et l'état de l'objet microscopique après celle-ci. Von Neumann dans sa construction mathématique de la mécanique quantique ne faisait pas de différence avec les deux donc appliquait la mécanique quantique à l'objet macroscopique comme s'il s'agissait d'un objet microscopique d'où en utilisant le principe d'unitarité il construisait une chaîne quantique continue lors de l'opération de mesure que l'on ne savait pas où arrêter pour rendre compte des résultats. Ceci conduisait soit à l'interprétation d'Everett avec ses mondes multiples qui renfermaient les clones des observateurs soit au postulat de la non quanticité des observateurs (de leur cerveau ?). Bizarre comme idées non ?

Depuis, même si ces interprétations ont encore cours dans l'esprit de certains physiciens (d'autres trouvent plus simple de ne pas se poser de questions), quelques avancées notables ont été faites mais il est vrai qu'utiliser le principe de Bohr est suffisant dans la plupart des cas pratiques.

Suite à l'article EPR, Schrödinger dès 1936 a mis en évidence que le point fondamental de la mécanique quantique était le principe d'intrication auquel a fini par adhérer Feynman bien plus tard (lors de la mise sur les rails du calcul quantique). Puis, il a été mis en évidence mais il y a seulement peu de temps que l'environnement joue un rôle déterminant et permet de rendre compte de la théorie de la mesure sans utiliser un postulat, via la théorie de la décohérence (tous les physiciens ne sont pas d'accord mais aucun ne propose réellement de solution non exotique). De plus, la décohérence montre de façon claire comment le passage du microscopique au macroscopique peut s'effectuer (des objets macroscopiques présentent des caractères quantiques: superfluidité, supraconductivité, etc).

C'est là qu'intervient la contextualité. En fait aucun objet quantique n'est séparable de son contexte à savoir l'ensemble de ses interactions passées via l'intrication qui est un phénomène non local dans le temps et dans l'espace (voir nota). Evidemment des intrications peuvent en réduire d'autres en fonction du niveau et du type d'interaction. Donc une mesure qui fait intervenir un objet macroscopique constituait d'un nombre mirifique d'objets quantiques décrit non pas une propriété de l'objet quantique mesuré mais une propriété de l'ensemble = appareil de mesure incluant la source + environnement + objet mesuré. Il est donc impossible d'attribuer des propriétés propres à l'objet quantique mesuré. On notera que la description de l'appareil de mesure se fait toujours via des propriétés classiques qui en fait ne sont que des moyennes (exemple : champ d'un aimant).

La mécanique quantique transcende ce phénomène. Elle décrit l'objet quantique via des propriétés qui sont en fait contextuelles. C'est un outil mathématique magnifique et qui donne des résultats sensationnels mais il faut être très méfiant lorsque l'on veut décrire un objet quantique microscopique de façon unitaire (nous ne savons pas et serons certainement jamais ce qu'est une q-particule). Par exemple dans le cas de l'expérience des fentes d'Young quand je dis que j'ai seulement 2 états pour la q-particule, j'ai grandement simplifié la chose. J'ai oublié les interactions dans la source, avec l'environnement et les 2 écrans. En fait la mécanique quantique m'a permis de créer une histoire qui donne le bon résultat.

Prendre conscience de la contextualité des propriétés que la mécanique quantique attribue aux q-particules permet d'oublier les concepts d'onde/particule, de réduction de la "fonction d'onde" (qui n'est qu'une fonction de probabilités rattachée à un certain contexte), etc, etc, et en particulier de considérer que la décohérence est la bonne solution à la théorie de la mesure.

Nota: l'intrication est non locale mais on a pu montrer que dans tous les cas concrets elle respectait les principes relativistes (échanges d'informations entre opérateurs).

vendredi, juillet 1 2022

Théories physiques, probabilités, incertitudes et irréversibilité

Un des constats fondamental que l'on peut faire sur la nature est l'irréversibilité de toute transformation. Quand un système évolue aucun chemin naturel ne lui permet de retourner à son état initial. C'est bien ce qu'avaient compris les physiciens du 19eme siecle qui avaient posés ce constat comme postulat (Clausius, Kelvin, Planck, Oswald, Carnot, etc). Depuis la notion d'entropie est passée par là et a été mise à toutes les sauces d'où maintenant des définitions de l'entropie qui ne se recoupent pas toujours et qui ont perdu une des vertus principales du premier postulat à savoir la flèche du temps. Evidemment la relativité nous explique que le temps dépend de l'opérateur qui le mesure et est fonction principalement de sa vitesse et de son environnement gravitique mais cela ne contredit aucunement le fait que le temps s'écoule dans une seule direction comme le veut le principe d'irréversibilité. En tordant les équations relativistes et en postulant des états de la matière inconnues certains arrivent à tuer leur arrière-grand père sans toujours se rendre compte de l'ineptie de telles théories. Cela fait-il avancer la physique ? Je n'en suis pas persuadé par contre cela montre les limites de nos théories mais ce n'est malheureusement pas le but recherché par certains.

La notion primaire d'entropie, celle de la thermodynamique classique, ne souffre d'aucune ambiguïté, l'entropie est une fonction d'état du système et elle se déduit du postulat d'irréversibilité. Toutefois, il est assez remarquable que pour calculer son évolution il faille imaginer des transformations réversibles alors qu'elles n'existent pas dans la nature. Comme pour l'énergie seules ses variations sont calculables (on notera que ce n'est plus le cas de l'énergie dès que l'on fait intervenir la gravité). Cela pose alors la question d'un état référence qui ne peut être définie que de manière arbitraire (donc postuler mais fonction des circonstances ?).

L'entropie statistique a quelque chose de paradoxal c'est que son évolution doit être calculée via la notion de "gros grains" pour pouvoir démontrer que c'est une fonction croissante lors d'une évolution irréversible (l'espace des phases concentré au départ se dilue en une ramification filamenteuse). En effet si l'on part de sa définition de base qui s'appuie sur des équations réversibles l'entropie statistique reste constante. La notion de "gros grains" n'a pas vraiment de sens physique car elle est bâtie sur une notion de moyenne et donc dépend de la façon dont l'observateur va prendre cette moyenne. Elle est utile uniquement dans le cadre de l'évolution (elle en définit le sens) mais n'apporte rien par rapport à la définition statistique de l'entropie. Il est plus simple de dire qu'un système va évoluer vers un état d'équilibre défini par son état le plus probable (celui dont l'espace des phases a le plus grand volume en fonction de l'évolution des contraintes exercées sur le système) mais cela amène à des contradictions flagrantes avec les équations mécaniques (classiques ou quantiques) de base. Tant que l'on raisonne sur des gaz ou des fluides cela ne pose pas de grands problèmes (par exemple : un gaz peut se rassembler dans un tout petit espace du récipient mais cela va durer un temps infiniment court et dans la majorité du temps il occupera tout le volume accessible) par contre pour d'autres systèmes cela pose des problèmes (par exemple : pour un trou noir classique l'espace des phases est très petit pourtant son entropie est énorme suivant les calculs de Bekenstein-Hawking). La démonstration donnée pour l'évolution de l'entropie par Boltzmann est moins générale que le calcul par "gros grains" mais elle a l'avantage d'introduire directement au niveau des équations classiques une fonction purement probabiliste qui décrit le processus de collision entre les particules et qui montre clairement comment l'aléatoire (qui est dû dans ce cas à une incertitude) conduit à la croissance de l'entropie. Toute cela est bien jolie mais la notion de flèche du temps s'est perdue en chemin car l'entropie statistique ne croit qu'en moyenne et donc peut décroitre lors de fluctuations. Ces fluctuations sont normalement petites mais rien dans la théorie n'empêche une fluctuation géante de l'ensemble de l'univers pour laquelle l'entropie serait constamment décroissante, bien sûr la probabilité d'une telle fluctuation est infiniment petite mais non nulle. De plus bien que la définition de l'entropie statistique semble bien définie son calcul n'est pas indépendant des données disponibles et peut varier d'un opérateur à l'autre comme le montre par exemple les différences importantes entre un calcul quantique et un calcul dit classique. Cela veut-il dire qu'un calcul classique est faux comme le cas du trou noir semble l'expliciter ? Ceci n'est pas très clair car l'entropie a été introduite pour décrire une évolution et sa valeur calculée pour un état donné n'a peut-être pas de signification car il n'existe pas d'état de référence bien défini. D'ailleurs si l'on suppose cela alors toutes les "spéculations" sur l'entropie de l'univers n'ont pas beaucoup de sens.

La mécanique quantique via la notion de réduction de la "fonction d'onde" et son postulat de la mesure semble traduire dans un premier temps l'irréversibilité des processus naturels. Toutefois une analyse plus fine tend à montrer que ces notion ou postulat ne sont pas obligatoires sachant que la "fonction d'onde" n'est rien d'autre qu'une fonction de probabilités, peut-être un peu spécifique (et encore !), qui comme toute fonction de probabilités est réduite dès qu'une nouvelle donnée est disponible et que la théorie de la mesure néglige de façon outrancière une part prépondérante des interactions présentes lors du processus. Par contre le phénomène d'intrication et son versus la décohérence tend à rendre tous les processus irréversibles. En théorie rien ne se perd mais en pratique il est impossible de recréer le processus inverse (comme dans un trou noir). Comme disait Boltzmann à ses détracteurs qui voulaient inverser toutes les vitesses des particules "eh bien essayez", l'incertitude était en fait sa grande amie.

La nouvelle entropie, très à la mode, est celle liée à l'information. Elle tend d'ailleurs à prendre la place des autres. Wheeler a dit parait-il un jour : "Au début je croyais que le monde était fait de particules, puis après j'ai compris qu'il était fait de champs et maintenant je sais qu'il est fait uniquement d'information". L'entropie informationnelle présente les mêmes avantages et défauts que l'entropie statistique. C'est en fait purement la même chose, un mot en a remplacé un autre. Toutefois définir ce qu'est une information est quelque chose d'assez vaporeux pour ne pas dire plus alors que si l'on parle d'une complétion physique on peut se baser sur les théories connues. Par exemple : dans un cas j'ai 50% de chance de gagner 100€ et 50% de chance de gagner 0€, dans l'autre cas j'ai 50% de chance de gagner 100€ et 50% de chance de gagner 50€. Dans les 2 cas l'entropie informationnelle est la même, pourtant dans le 2eme cas je sais que je gagnerai au moins 50€, j'ai donc une information supplémentaire. Tout simplement, l'entropie informationnelle a été créée par un ingénieur, Shannon, pour mesurer les qualités d'un système de transmission et définir ses limites, un point c'est tout !

Toutes ces considérations avaient pour but de montrer que l'irréversibilité était le concept de base de la nature. L'entropie est bien un concept secondaire. Evidemment très utile pour décrire l'évolution des systèmes, mais insuffisant en soi. Le problème de nos théories physiques de base est la non incorporation du concept d'irréversibilité. Toutefois la mécanique quantique via l'intrication versus la décohérence amène un progrès fondamental à condition de la rebâtir à partie de cette notion "intrication versus décohérence". Actuellement la mécanique quantique est une fabrique à histoires lors de ses applications les plus simplistes et même dans ses développements plus sophistiqués elle néglige de nombreux phénomènes. Une reconstruction s'impose via l'intrication et permettra certainement de prendre en compte l'irréversibilité de la nature de façon cohérente. Ce travail reste à faire !

lundi, juin 20 2022

Mécanique quantique et probabilités

Dans les fondamentaux de la mécanique quantique, les probabilités sont présentes et en sont même un des piliers. Je suis souvent étonné que certains physiciens (ou mathématiciens) soient surpris de certains résultats qui découlent logiquement d'une théorie des probabilités.

Même si Bell a montré que les probabilités quantiques pouvaient donner dans certaines circonstances des résultats différents des résultats classiques attendues il y des règles de base inchangées. Si je lance un dé j'obtiens un résultat unique pourtant le tirage est en principe aléatoire et c'est seulement au bout de plusieurs lancés que je vais m'en apercevoir et je pourrai alors définir de manière approchée les probabilités d'un tirage. De plus à chaque lancé la "fonction d'onde" du dé va s'effondrer comme le veut le postulat de la réduction de la fonction d'onde. En probabilité chaque nouvelle information sur un objet modifie sa fonction de probabilités (la réduit ?). Par exemple si le dé est vicié au bout d'un certain nombre de lancés je vais pouvoir modifier ma fonction de probabilités (instantanément ?) alors qu'au départ j'avais considéré que chaque chiffre avait une probabilité de 100/6%.

Dans sa démonstration, Bell a montré qu'une théorie des variables cachées n'étaient pas compatibles avec les résultats statistiques de la mécanique quantique malheureusement ses postulats de base renfermaient celui de localité et la mécanique quantique via le phénomène d'intrication n'est pas vraiment locale au sens strict (mathématique ?) du terme. Cela veut-il dire que la théorie des variables cachées non locales est la bonne explication pour la mécanique quantique ? Peut-être mais si elles sont cachées et indétectables (aucune donnée ne les confirme depuis plus de 100ans), je dirais "on s'en fout" (au moins pour l'instant) car la mécanique quantique se suffit à elle-même.

Penrose (prix Nobel de physique mais mathématicien ?) lui est persuadé que ces variables cachées existent tout simplement car il considère que la "fonction d'onde" qui via les équations de Schrödinger évolue de manière continue ne peut être réduite instantanément. Bizarre comme raisonnement pour un si grand Monsieur ! Il oublie que "la fonction d'onde" est une fonction de probabilités, que l'utilisation de la mécanique quantique est une fabrique à histoires et ne tient jamais compte de toutes les interactions présentes dans le problème (où est l'environnement ?), que l'équation de Schrödinger est en fait une équation entre opérateurs projetée sur la base géométrique, que notre interprétation est macroscopique comme nos appareils de mesure, et rien n'est vraiment instantanée (c'est uniquement un problème d'échelle).

Que conclure de tout cela ? La mécanique quantique est un outil fantastique pour analyser les phénomènes microscopiques qui peuvent parfois apparaitre au niveau macroscopique (superfluidité, supraconductivité, etc). Donne-t-elle une connaissance de la réalité du microcosme ? Peut-être en partie mais à notre échelle cela n'a pas grand intérêt. Il est vrai qu'il est impossible de définir une frontière claire entre le quantique et le classique bien que certaines expériences (voir Haroche et Raimond) montrent clairement comment ce passage s'effectue via le phénomène de décohérence. Nous ne saurons certainement jamais ce qu'est véritablement une q-particule mais cela ne nous empêche pas de construire des composants utilisant les principes quantiques et qui peuplent littéralement tous nos appareils (téléphones, ordinateurs, réfrigérateurs, cuisinières, etc, etc). Une dernière remarque il n'existe pas de limite définie entre le microscopique et le macroscopique donc pourquoi pas des objets astronomiques purement quantiques (trous noirs par exemple ?), il faut bien supposer que l'univers primordial était avant tout quantique.

samedi, juin 18 2022

Trou noir versus trou blanc et univers

Si l'on reprend la métrique de Schwarzschild définissant un trou noir classique on peut par symétrie définir un trou blanc. C'est à dire un objet dont les géodésiques fuient le centre (r = 0) et peuvent parvenir à l'infini par contre celles venant de l'infini sont arrêtées au niveau de la sphère de Schwarzschild. Aucune donnée ou observation ne valide l'existence de tels objets pour l'instant.

Pourtant connaissant la densité de l'univers (rayonnement + matière, matière noire inclue) on peut calculer la dimension de la sphère de Schwarzschild correspondant à cette densité. Bizarrement si l'on calcule la sphère observable (voir nota), c'est à dire la sphère définie par le plus grand rayon qui peut nous séparer d'un objet étant en relation causale avec nous (on tient compte de l'âge supposé de l'univers, du fait qu'il est en expansion accélérée et de la vitesse de la lumière) on trouve que la sphère de Schwarzschild est plus grande que la sphère observable d'où l'hypothèse envisageable que nous vivons dans un trou blanc (d'autres caractéristiques seraient à prendre en compte).

Pourquoi pas ? Cela ouvre la porte à certaines théories comme l'existence du multivers. Notre univers pourrait être un univers bulle existant dans un super univers où plein de trous blancs émergeraient. Ou à la théorie de Smolin, les univers privilégiés seraient ceux qui sont capables de donner naissance à beaucoup de trous noirs et donc quelque part une théorie évolutionniste de l'univers. En fait dans ce cas, l'imagination nous ouvre en grand ses portes.

Tout cela est bien beau mais manque outrageusement de données. Pour l'instant ces théories (et les trous blancs) sont à ranger dans le domaine de la science-fiction mais personne ne sait ce que nous réserve l'approfondissement de nos connaissances bien que ces théories semblent difficiles à prouver même dans le futur.

Nota : la sphère observable grandit avec le temps (et la sphère de Schwarzschild aussi) mais à cause de l'expansion accélérée de l'univers elle contient de moins en moins d'objets.

vendredi, juin 17 2022

Les apports de la théorie des cordes (et ses inconvénients)

En théorie des cordes la supersymétrie est indispensable pour faire apparaître les fermions, en particulier ceux que nos expérience nous ont permis de détecter. Problème, la supersymétrie (voir nota) implique l'existence pour toute particule de sa symétrique avec un spin décalé de 1/2 ce que les physiciens appellent les s-particules. Ceci doit se produire à basse énergie pour que la théorie soit cohérente et aucune observation ne montre cela, même pas les expériences réalisées par le lhc du cern (niveau énergétique égal à plusieurs TEV). Evidemment, mathématiquement on peut toujours considérer qu'une symétrie est brisée, malheureusement l'existence de fermions à basse énergie est en contradiction avec cette brisure de symétrie (pourquoi est-elle brisée pour certains et pas pour d'autres ? aucune justification cohérente n'existe, ceux ne sont que des pures spéculations). Un point qui est souvent pris par les cordistes comme un résultat fondamental est que le nombre de dimensions de l'espace/temps est fixé par la théorie. Problème, il a été de 26 puis de 10 et maintenant avec la théorie M il est de 11. De plus avec la théorie des branes, il existe des entités d'espace dont la dimension est comprise entre 0 et 10 (il faut toujours rajouter une dimension, le temps). Au départ la théorie devait être une théorie d'unification de la physique, malheureusement il en est apparu 5 possibles auxquelles il a fallu rajouter la supergravité. On a donc créer la théorie M qui les englobe toutes mais dont on ne sait pas grand chose (il est vrai que l'on peut passer de l'une à l'autre via des symétries très particulières). Un dernier point, la théorie des cordes prévoie en fait un nombre infini de particules (donc rien d'étonnant d'avoir retrouvé le graviton), où sont-elles ? Vu le nombre de physiciens (en fait des mathématiciens) qui ont ou travaillent sur cette théorie, on trouvera toujours une bonne raison mathématique (en général il suffit de poser les bons postulats) pour dire que l'on tient là le "Graal" de la physique et ce au détriment du développement des autres théories. La théorie des cordes bloque l'avancée de la physique théorique depuis plus 30 ans.

Donc que peut-on dire de son apport ?

Sur le plan de la physique pas grand-chose mais je vais y revenir. Sur le plan des mathématiques, les résultats sont plutôt positifs (espace à n dimensions, théorie des groupes, etc, etc) mais cela s'est fait au détriment de la physique. En fait on peut considérer que les mathématiques ont pillé les budgets de la physique théorique. D'ailleurs, les grands noms de la théorie des cordes sont principalement des mathématiciens et pas des physiciens.

Alors qu'en est-il en définitive pour la physique ? La théorie des cordes a montré quelque chose que l'on savait déjà, les infinis apparaissent quand les interactions sont considérées comme ponctuelles (ce n'est pas le cas en théorie des cordes puisque les cordes ont une extension spatiale). En théorie des champs (sauf pour la gravité) on élimine ces infinis via la renormalisation et l'introduction de fréquences de coupures. Problème, cela fait un peu bidouille par rapport à nos "belles" théories et ne marche pas pour la gravité. Peut-être y a-t-il un chemin à suivre pour améliorer nos théories mais sans retomber évidemment sur la théorie des cordes (les prémisses de cette théorie sont apparus en théorie de la force forte). Pour la gravité, en fait aucune donnée n'exige qu'elle soit quantifiée. Evidemment sans cela son mariage avec nos autres théories est et restera peut-être bancal. Mais il faut garder à l'esprit que pour les autres interactions on peut toujours annuler les charges, ce n'est pas le cas pour la gravité. Elle est donc en fait très différente des autres forces même si c'est aussi une théorie de jauge (c'est peut-être une théorie émergeante, c'est à dire qui provient d'un phénomène physique plus fondamental).

Nota : la supersymétrie est en fait une théorie autonome même si elle est indispensable en théorie des cordes. Donc pour elle (mais pas pour les cordes) les arguments de brisure de symétrie sont valables. Les cordistes jouent souvent sur cette ambigüité.

jeudi, juin 16 2022

La fonction d'onde un artefact parfois utile mais au nom particulièrement inapproprié

Quand Schrödinger a mis au point l'équation portant son nom, la fonction qui en était solution dans les cas simples ressemblait effectivement à une fonction d'onde classique. Mais dès qu'il a fallu l'appliquer à un ensemble de q-particules, il est vite apparu que ce n'était pas la bonne interprétation et Born l'a redéfini comme une fonction représentant une probabilité (via en fait son carré complexe).

Par la suite le développement de la mécanique quantique a montré que les objets quantiques pouvait être définis par un vecteur d'état d'un espace de Hilbert. Suivant la représentation utilisée (projection du vecteur d'état sur une base), on pouvait faire apparaitre des fonctions de l'espace géométrique mais aussi des fonctions de l'espace des impulsions ou autres. L'équation de Schrödinger est en fait une équation entre opérateurs projetée sur la base de l'espace géométrique. L'avantage de cette équation projetée ainsi est qu'elle donne une équation différentielle que l'on sait résoudre au moins via des approximations. La fonction qui apparait n'a en fait aucun lien avec une fonction d'onde c'est tout simplement une fonction de probabilités.

Il est très bizarre que cet artefact de calcul est gardé ce nom particulièrement inapproprié d'où découle des bizarreries qui ne devraient plus exister telles que : "la q-particule interfère avec elle même" ou "est à la fois onde et particule" (dans le sens classique de ces termes).

L'expérience dite des fentes d'Young n'a rien arrangé à l'affaire. Introduite par Feynman dans son fameux cours alors qu'à l'époque l'expérience n'avait jamais été réalisée avec des objets quantiques autres que des photons, l'analogie avec la théorie classique a renforcé cette croyance en une pseudo-fonction d'onde.

Depuis, je suis étonné que rien n'est changé. La fonction dont il est question est un artefact créé lors de la projection d'un vecteur d'état sur une base spécifique (l'espace géométrique). Elle décrit via son carré complexe des probabilités et c'est tout, c'est une fonction de probabilités rattachée à la représentation mathématique de l'état du système. Elle peut donc comme toute fonction de probabilités être réduite instantanément dès qu'une observation donne une information sur l'objet quantique observé, rien d'extraordinaire dans ce cas.

dimanche, juin 12 2022

Décohérence et théorie de la mesure

Si l'on interroge un panel de physiciens sur le fait que la décohérence explique la théorie de la mesure en mécanique quantique une majorité semble répondre par la négative (ce n'est pas une majorité écrasante mais significative). Dans cette majorité, il semble y avoir beaucoup de suiveurs mais pour les autres si j'ai bien compris leur argument principal c'est que la décohérence ne rend pas compte d'une mesure individuelle. Quel argument bizarre ! La mécanique quantique est bâtie sur une théorie des probabilités. Même si l'on admet que cette théorie des probabilités n'est pas la théorie classique des probabilités (ce n'est pas mon opinion), il n'en reste pas moins qu'une théorie bâtie de telle sorte ne peut rendre compte que de phénomène d'ensemble donc un résultat individuel n'est pas significatif. Si je lance un dé il va m'indiquer en fin de compte un seul chiffre. Si j'ai choisi ce chiffre ex post ma probabilité de gagner est de 100% pourtant ex ante elle était de 100/6% (tient la fonction d'onde a été réduite). Le jet du dé est un phénomène statistique mais qui donne un seul résultat à chaque lancé, C'est en pratique le même phénomène que la décohérence. En effet si je mesure suivant l'axe Z le spin d'une q-particule dont l'état est :

a | - 1/2z> + a | + 1/2z> ou a = racine carré de 1/2 (voir nota)

je vais trouver soit | - 1/2z> ou | + 1/2z> car l'interaction de la particule avec l'environnement et le système de mesure va transformer l'état pur superposé en un unique état pur (un des 2 états propres) avec une probabilité de 50%, l'appareil de mesure ayant été construit pour ça, un seul résultat en accord avec la mécanique quantique. Et lors d'une mesure d'ensemble un état mixte décohéré avec un probabilité de 50% pour chaque état propre (j'obtiens une matrice densité au lieu d'un état superposé d'états propres, transformation due aux interactions).Une mesure ne me dit rien sur l'état initial de la q-particule, il faudra que je mesure plusieurs q-particules dans le même état de départ. Toutefois ces multiples mesures ne me diront pas non plus si mes q-particules sont dans un état pur ou un état mixte. Seul moyen de le savoir est de faire une mesure suivant l'axe pour lequel l'état de départ des q-particules est un état propre (ici l'axe X). Dans ce cas toutes les q-particules me donneront un résultat toujours identique (probabilité de pratiquement 100%). Mais pour cela je dois construire l'appareil adéquat et trouver des expérimenteras chevronnés. Il faut garder à l'esprit que des appareils de mesures parfaits n'existent pas et que les résultats sont toujours sujets à interprétation. Donc pour moi la décohérence est la bonne théorie pour expliquer les résultats de la mesure en mécanique quantique. L'argument de ses détracteurs me parait infondé et même fallacieux (l'appareil de mesure a été construit de manière à donner le bon résultat sachant que la mécanique quantique est avant tout une théorie statistique) et ce même si le promoteur principal de la décohérence semble avoir retourné sa veste à ce sujet.

Nota : Les interactions rajoutent des déphasages aux coefficients de la "fonction d'onde" de départ. Ces déphasages variant de façon aléatoire et importante cela va rendre la matrice densité approximativement diagonale (moyenne des déphasages pratiquement égale à 0) et donc transformer l'état pur superposé en un état mixte avec des probabilités de 50% pour chaque état propre (lors de la mesure de l'état initial suivant l'axe des X ces déphasages restent négligeables car on est dans le cas d'une base privilégiée, l'état de départ étant fonction propre de l'appareil de mesure). Pour être plus clair mathématiquement, l'exponentielle complexe est la somme d'un cosinus et d'un sinus, lui multiplié par i, donc si les déphasages aléatoires sont petits le cosinus reste égal à 1 et le sinus s'annule en moyenne, par contre lorsque les déphasages sont grands, les deux s'annulent en moyenne.

mercredi, mai 25 2022

Quand les physiciens imaginent que ....

L'imagination est certainement une des vertus principale pour des chercheurs quel que soit leur domaine de recherche. Toutefois elle doit être confrontée aux mesures et observations de façon à s'ancrer dans une certaine "réalité" (au moins celle des faits). J'ai été surpris qu'un prix Nobel de physique fut attribué à Penrose pour ses contributions à la théorie des trous noirs. En fait Penrose a montré mathématiquement que la théorie de la relativité générale admettait des singularités qui pouvaient se former suite à un "effondrement" de matière. Problème, dans cette démonstration mathématique il n'est pris en compte que le fait que les géodésiques ont dans certaines circonstances un point de convergence à condition que certaines propriétés de la matière soient respectées. Mais cette démonstration faite uniquement dans le cadre classique n'englobe pas toutes les inconnues sur les propriétés de la matière à des densités très très élevées. Des singularités, la physique en est pleine que ce soit en physique classique, en théorie quantique des champs ou en physique des particules élémentaires mais il faut reconnaître qu'elles ne sont pas si belles mathématiquement. En ce qui concerne les 2 autres colauréats, même s'il est fait encore mention de trous noirs, ils ont développé des possibilités de mesure qui sont applicables hors du champ des trous noirs "grand public" et qui permettent une meilleure compréhension de ce qui se passe en particulier au centre de notre galaxie.

Il est intéressant de voir comment cette notion de "trou noir" est apparue en physique. Contrairement à ce qui est dit, dans son travail de 1916, Schwarzschild montre qu'une étoile ne peut pas se contracter sous une dimension trop petite car passer cette dimension minimum la pression en son centre devient infinie alors qu'elle doit rester finie. Le terme de trou noir a été inventé par Wheeler et s'est peu à peu imposé parmi les physiciens à la place d'étoile "figée" (ou astre occlus selon l'académie des sciences) qui lui décrit beaucoup mieux le fait qu'à l'approche du rayon de Schwarzschild le décalage vers le rouge tend vers l'infini rendant tout transfert d'information impossible avec un observateur distant. C'est vrai que "trou noir" c'est plus vendeur qu'astre figé (occlus quelle horreur !).

Dans leur bible sur la théorie de la gravitation (plus de 1300 pages), Misner, Thorne et Wheeler écrivent que rien ne peut s'opposer à l'effondrement complet d'une étoile suffisamment massive en trou noir. Problème, ce livre date de 1973, la chromodynamique (théorie de la force nucléaire forte) était à peine dans l'enfance et la théorie des particules élémentaires avait pas mal de trous dans la raquette (des trous noirs ?). Depuis les progrès dans ces 2 disciplines ont été considérables mais loin d'être complets. En particulier il est à peu près certain que notre modèle standard des particules élémentaires ne pourra pas rester en l'état. Non seulement parce que le nombre de paramètres qu'il fait intervenir est important (19) mais surtout parce que le boson de Higgs est incapable de donner leur masse aux neutrinos. La phrase du triplet MTW était donc plus que naïve et reposait surtout sur de la méconnaissance mais malheureusement elle a été intégrée par beaucoup de physiciens comme une vérité absolue non remise en cause même aujourd'hui.

Des trous noirs "grand public", ont été tirés les notions de trous de ver, quelle imagination ! Thorne en est un des grands fans. Il faut lire son livre de vulgarisation sur les trous noirs et les trous de ver. Ce n'est plus de l'imagination mais du grand guignol (en plus il donne à ses étudiants, les pauvres, des examens sur ce sujet). Toujours est-il qu'il existe une littérature abondante sur ces trous de ver et Susskind s'en sert pour résoudre les problèmes liés à la perte d'information en mécanique quantique (transport de particules intriquées entre 2 lieux différents de l'espace reliés par un trou de ver ?). L'imagination de certains physiciens semblent de ne pas avoir de limite. Einstein a été l'inventeur des expériences de pensée en physique. Ces expériences ne sont a priori pas réalisables techniquement mais permettent de se faire une idée physique des phénomènes mais elles ont leur limite et point trop s'en faut. Il est vrai que toutes ces notions sont de bons scénarios pour les films de science-fiction et les livres de vulgarisation qui rapportent gros à leur auteur.

Il faut garder à l'esprit que la physique est très loin d'être complète. La gravité doit-elle être quantifiée et comment ? Une théorie du "tout" est-elle possible ? Qu'est-ce qui doit remplacer le modèle standard des particules élémentaires ? Quel est le bon modèle cosmologique ? Beaucoup d'idées sont en cours d'étude mais aucune n'a vraiment pris contact avec la réalité des mesures et des observations. Peut-être pour certaines en sont-elles trop éloignées ?

Certains retorqueront que les mesures des ondes de gravité démontrent l'existence des trous noirs. De plus des photos de trous noirs ont été publiées. Malheureusement, cela ne démontrent pas l'existence de trous noirs "grand public", seulement qu'il existe des objets beaucoup plus compacts (voir nota) que les étoiles à neutrons. Les photos qui sont des photos de synthèse ne montrent pas d'objet très froid en leur centre. Evidemment il y a de la poussière et des gaz chauds sur la ligne de visée mais bon. On notera d'ailleurs que la courbe de température reste relativement plate sur les photos, un rapport d'un peu plus de 3 entre les points chauds et les points froids (en fait moins chauds), explication ? La température de Hawking pour un trou noir conventionnel est bien inférieure à celle du fond micro-onde diffus (environ 2.7°K) alors que les températures mesurées sont très élevées partout.

Nota : Il pourrait paraitre à certains que le terme compact soit mal utilisé ici car on entend souvent que pour des trous noirs géants (millions ou milliards de masse solaire) leur densité est plus faible que celle de l'air. Classiquement la densité du trou noir à l'intérieur de la sphère de Schwarzschild est nulle et infinie au centre. La densité dont il est question est un artefact calculé en divisant la masse du trou noir par le volume de la sphère de Schwarzschild. C'est plus facile que de dire que les effets de marée (le bon terme) sont très faibles pour un trou noir géant au niveau du rayon de Schwarzschild d'où la parabole de l'astronaute qui ne s'aperçoit de rien en entrant dans la sphère de Schwarzschild (sauf qu'il a atteint la vitesse de la lumière, que le temps et l'espace se sont inversés et que la sphère de Schwarzschild est une sphère dynamique, ben ça alors !). En fait si l'on suppose qu'il existe un mécanisme (quantique) qui bloque l'effondrement par exemple au niveau des quarks, il faut bien comprendre qu'une étoile n'est pas homogène (la pression est beaucoup plus grande en son centre) et que l'effondrement est un phénomène dynamique. Donc c'est le volume central, le cœur, qui va se transformer en "étoile à quarks" et bloquer l'effondrement. Le reste de l'étoile sera dans un état intermédiaire qui reste à définir d'où l'utilisation du terme plus compact (au moins pour le cœur). Il est d'ailleurs notable que les calculs classiques montrent que dans certaines circonstances (en particulier lorsque l'étoile n'est pas homogène) la singularité centrale est nue et la conjecture de Penrose de censure cosmique est fausse (donc le trou noir classique est inexistant). En étant un peu aventureux, on pourrait décréter qu'un trou noir est en fait un objet purement quantique et donc ne faire aucune spéculation classique sur son contenu. Des objets quantiques à notre échelle existent (par exemple : les physiciens aiment bien faire léviter des objets en utilisant les propriétés supraconductrice de la matière, expérience courante dans les colloques de vulgarisation grand public) donc pourquoi pas à des échelles astronomiques ?

mercredi, mai 11 2022

Effondrement d'étoile et trou noir, une ou deux questions

L'application des équations d'Einstein a une étoile donne des résultats en première approximation peu différent de la théorie de Newton. L'étoile est en équilibre lorsque la pression s'oppose suffisamment à la "force de gravité". La différence principale entre les 2 théories réside dans le fait qu'en relativité l'énergie est équivalente à la masse donc la pression joue un rôle dans les 2 sens, opposition à la gravité mais aussi rajout de masse. Lorsqu'une étoile a épuisé tout son "carburant" (principalement la transformation d'hydrogène en hélium via des réactions nucléaires qui produisent une pression de radiation grâce aux photons émis), elle ne peut que s'effondrer. Toutefois, le principe de Pauli qui interdit à 2 fermions d'être dans le même état va lui aussi créer une pression, la pression de dégénérescence. Si après avoir éjecté ses couches externes l'étoile à une masse pas trop grande (exemple : le soleil), elle se transforme en naine blanche via la pression de dégénérescence électronique. Avec une masse un peu plus grande, elle se transforme en étoile à neutrons via la pression de dégénérescence neutronique. Suivant le consensus actuel, une étoile de plus grande masse doit se transformer en trou noir. L'effondrement de ces "grosses" étoiles produit alors le phénomène de super nova qui est beaucoup plus lumineux qu'une galaxie mais ce phénomène a évidemment une durée limitée dans le temps (exemple : la nébuleuse du crabe, l'effondrement de l'étoile ayant donné naissance à une étoile à neutrons).

La théorie semble belle mais est-elle exact ? D'abord dans les calculs il faut faire intervenir une équation d'état que pour l'instant nous ne connaissons pas pour les densités en jeu. De plus la matière dans l'étoile n'a pas un état indépendant de sa distance à l'origine. Par exemple une étoiles à neutrons n'est pas qu'une boule de neutrons collés les uns aux autres. Ensuite, la chromodynamique a peut-être son mot à dire, que se passe-t-il lorsque les quarks subissent une pression supérieure à la pression de dégénérescence neutronique (la théorie des étoiles à neutrons date de 1939, on a fait des progrès depuis) ? La chromodynamique sur réseau a permis de calculer la masse des protons et des neutrons avec une très grande précision. Cette masse est due principalement aux interactions entre quarks via des gluons (à noter que dans les autres interactions en général la masse de l'objet est plus petite que celles de ses constituants, ici c'est le contraire). Pour l'instant rien ne dit qu'il ne peut pas exister un phénomène qui bloquerait l'effondrement de l'étoile au niveau des quarks (étoiles à quarks, étoile étrange, plus plein de possibilités à explorer ou à découvrir). Nos connaissances actuelles sur les particules élémentaires et leurs interactions sont très loin d'être définitives.

Enfin si l'on suppose que l'effondrement continue, il est un point remarquable que je n'ai jamais vu prendre en considération. L'étoile ne s'effondre pas toute d'un seul coup, c'est un phénomène dynamique. Donc un micro trou noir doit commencer à se former puis petit à petit un trou noir de plus en plus grand. Problème un micro trou noir s'évapore très rapidement en émettant une énergie considérable. Evidemment, il faut tenir compte de la dynamique, temps d'effondrement versus temps d'évaporation. Ce n'est pas si simple car chaque particule a son temps propre et que dans un trou noir le temps devient espace et l'espace le temps (en utilisant la métrique de Schwarzschild)..

En conclusion avant de vendre les trous noirs "grand public", les physiciens devraient continuer à se poser quelques questions. A ma connaissance elles ne sont pas encore toutes résolues, d'ailleurs certains calculs semblent démontrer qu'il peut exister des singularités nues donc la conjecture de Penrose dite de censure cosmique serait fausse. L'observations et les mesures montrent qu'il existe des objets ayant des caractéristiques de trous noirs mais qui sont-ils vraiment ?

jeudi, avril 21 2022

L'espace-temps doit-il être obligatoirement discontinu ?

Quand on veut quantifier la gravité on pense tout de suite à un espace-temps discontinu (cas de la théorie quantique à boucles ou des cordes). Pourtant une des caractéristiques principales de la gravité c'est que rien ne lui échappe. En théorie électrofaible ou en chromodynamique, on peut toujours annuler les "charges", ce n'est pas le cas pour la gravité (équivalence masse/énergie). Par exemple le photon n'a pas de masse mais il est bien dévié par la gravité car il a une énergie. La gravité s'appliquant sur tout le monde physique il est impossible pour nous d'extraire nos appareils de mesure de son emprise. Une règle subit la gravité à la fois du monde extérieur mais aussi sa propre emprise (la théorie est non linéaire).

Mais en dehors de cette particularité exceptionnelle par rapport aux autres champs connus rien ne nous empêche de supposer que le champ de gravité est un champ comme les autres donc plongé dans l'espace-temps euclidien de la relativité restreinte (donc continu). Evidemment ceci n'est pas en accord avec la relativité générale mais cela reste une possibilité. Dans ce cas on doit quantifier le champ de gravité comme les autres champs, l'espace-temps reste continu mais pas la gravité. La non linéarité de la gravité crée des singularités non re normalisables avec nos outils courants mais de nouveaux outils mathématiques peuvent peut-être nous aider à surmonter ce problème. Connaissons-nous aujourd'hui un champ non linéaire que l'on sait quantifier ? La réponse est oui, le champ de Higgs qui donnent leur masse aux particules élémentaires (sauf a priori aux neutrinos). Si le boson de Higgs est massif c'est bien qu'il interagit avec lui même. Peut-être une piste à creuser ? Mais le champ de Higgs est un champ scalaire (spin = 0) alors que le champ de gravité est un champ tensoriel (spin = 2).

Une autre possibilité est que la gravité soit un phénomène émergent. Dans ce cas, plus de problème de quantification mais pour l'instant cette théorie reste dans les limbes. La gravité émergerait de quoi ? Beaucoup de possibilité mais rien de satisfaisant aujourd'hui.

- page 2 de 4 -