Physique_et_autres

Aller au contenu | Aller au menu | Aller à la recherche

mardi, janvier 30 2024

Formation de trous noirs supers massifs

Bon, je ne vais pas revenir sur le problème de la théorie des trous noirs que je préfère appeler des trous gris, et j'ai fait plusieurs billets à ce sujet. On notera toutefois que Kerr a démontré dernièrement que dans le cadre de sa métrique le fameux théorème de Hawking/Penrose était aussi faux que la conjecture de Penrose. Pour simplifier ce billet je vais employer le terme "trou noir".

Les observations de JWST (le satellite) concernant l'univers jeune semblaient aberrantes et certains voulaient remettre en question une bonne partie de la cosmologie/astrophysique et les équations d'Einstein. En fait il existe une solution très plausible qui bien sûr reste à confirmer par le calcul et les observations.

Les filaments de la toile cosmique seraient parcourus par des rivières cosmiques de matière. Leur densité serait telle qu'elle permettrait d'approvisionner en matière un trou noir pour qu'il devienne un trou noir super massif (milliards de masses solaires) et ce dans un temps très court. Cette théorie permet aussi d'expliquer la formation et la forme de galaxies nées très peu de temps après le découplage lumière/matière (quelques millions d'années après).

De nouvelles observations via JWST permettront d'infirmer ou de confirmer cette théorie qui évite évidemment de chambouler la physique connue.

mardi, décembre 5 2023

Effet Casimir et gravité émergente

J'ai fait plusieurs billets sur la gravité émergente concluant que la gravité devait provenir d'une ou de plusieurs caractéristiques de la mécanique quantique. L'une de ses caractéristiques majeures est le phénomène d'intrication et j'ai essayé d'expliquer comment à partir de ce phénomène caractéristique on pouvait définir une gravité émergente. L'autre caractéristique majeure de la mécanique quantique est le fait que le vide fluctue via "le principe d'incertitude d'Heisenberg". Ces fluctuations donnent lieu à des impacts directs sur les propriétés de la matière et sont parfaitement mesurables (effet Lamb, moment magnétique anomal de l'électron, etc). Peut-on donc faire émerger la gravité des fluctuations du vide ?

Tout d'abord, est-ce que ces fluctuations permettent de dire que le vide "pèse", c'est à dire que l'énergie moyenne du vide n'est pas nulle ? Des expériences en cours veulent justement faire cette mesure, espérons qu'elles n'utilisent pas une balance de Roberval. Des physiciens théoriciens ont essayé de prouver que la constante cosmologique des équations d'Einstein provenait de l'énergie du vide mais les valeurs trouvées sont sans commune mesure avec la valeur de la constante cosmologique. Un calcul relativement simple montre pourtant que l'énergie du vide est nulle. En effet l'impact des termes fermioniques annule tout simplement l'impact des termes bosoniques dans le cas de particules de masse nulle. Comme les fluctuations du vide produisent des particules uniquement virtuelles on peut considérer que ces particules ne sont pas soumises au champ de Higgs donc restent sans masse. Reste le cas de la masse des neutrinos sauf si l'on ferme le modèle standard en introduisant 3 neutrinos dextrogyres ce qui a l'avantage d'avoir de très bons candidats pour la matière noire mais aussi explique pourquoi on ne constate pas de présence significative d'antimatière dans l'univers. On entend souvent que des expériences ont prouvé que les neutrinos dextrogyres n'existent pas. C'est faux ! Ces expériences ont simplement fermé quelques portes mais il reste encore pas mal de place surtout si les neutrinos dextrogyres ne ressentent pas la force faible contrairement aux lévogyres. L'exemple de l'expérience STEREO est flagrant. L'anomalie constatée dans le flux de neutrinos lévogyres provenant du réacteur nucléaire était simplement due à un biais dans les données. Une fois le biais corrigé cette expérience permet de fermer une porte mais certainement pas toutes les portes. Donc en conclusion l'énergie globale du vide (sommée sur tous les champs) est théoriquement nulle. Attendons les résultats des expériences de "pesage" et espérons qu'il n'y aura pas de biais dans les données car on voit maintenant souvent des articles publiés montrant avec force un résultat soit disant probant qui en définitive s'avère complétement faux (surtout en astronomie/cosmologie).

L'effet Casimir a été expérimenté et les résultats confortent l'existence de cet effet. Pour cela on utilise 2 plaques conductrices parallèles dans un vide très poussé. Lorsque les plaques sont suffisamment proches on constate qu'elles s'attirent. Pour des plaques planes la force engendrée est en un sur la distance de séparation puissance 4, si une des plaques est sphérique en un sur puissance 3. On peut faire un calcul détaillé et retrouver ces résultats mais l'explication physique est simple (voir nota 1). Entre les plaques, les fluctuations du vide sont limitées en fréquence (multiples de un sur la distance), en dehors des plaques il n'y a plus de limite d'où une différence fondamentale qui entraine cette force. Nous sommes dans le cas de plaques conductrices donc on fait référence ici à une théorie des champs quantiques électromagnétiques mais en théorie des champs quantiques on associe à chaque champ une particule et réciproquement on peut donc appliquer cette théorie à toutes les particules et champs. Une particule quantique est un objet complétement inconnu dont on ne sait définir que des propriétés contextuelles (dépendantes de l'expérience réalisée, interprétée d'ailleurs elle même sous forme d'histoires, voir nota 2). Il est donc difficile de faire une théorie complète de ce phénomène mais on peut émettre quelques hypothèses très spéculatives. La conservation du flux entraine une force en un sur le carré de la distance. En effet, la différence d'énergie pour un champ donné entre l'espace séparant les particules et l'espace extérieur est due au fait que les modes possibles de ce champ sont limités entre les particules et ce proportionnellement à l'inverse de la distance ce qui donne une fonction potentiel attirante en 1/d (voir nota 3). Même si les particules virtuelles sont sans masse, elles influent sur des particules massives donc la masse des particules doit être prise en compte et a priori de façon linéaire (voir nota 4). On retrouve donc de façon très spéculative la force de Newton pour des objets de "taille macroscopique" sachant que la valeur de la constante de gravité n'est pas si bien définie que ce que l'on suppose (voir nota 5).

Pour conclure, nos hypothèses sont très spéculatives mais une théorie émergente de la gravité permet de comprendre pourquoi les théoriciens se cassent les dents depuis plus de soixante ans sur la quantification de la gravité. Et ce n'est pas le seul argument en faveur de la gravité émergente, je renvoie à mes billets sur ce sujet pour en savoir plus (voir nota 6).

Pour finir, un peu d'histoire. Newton n'a jamais été content de sa formule donnant la force de gravité car il ne comprenait pas comment des corps pouvaient s'attirer à travers le vide. Les forces devaient se propager de proche en proche à travers un milieu servant de support, via un hypothétique éther par exemple. Un physicien de son époque (ou légèrement postérieure), Lesage, a résolu le problème en supposant que les corps macroscopiques étaient sans arrêt bombardés par des particules microscopiques, la gravité provenant alors d'un effet de masquage du flux des particules microscopiques. Feynman a repris ce concept dans un de ses écrits pour montrer que l'on pouvait concevoir un concept physique de plusieurs manières (voir nota 7). On peut considérer que le concept de gravité émergente via l'effet Casimir n'est pas si éloigné que ça de ce concept vieux de plusieurs centaines d'années..

Nota 1 : En fait, le calcul est plus compliqué si l'on tient compte de la température (agitation électronique et atomique) et que les plaques ne sont pas vraiment des conducteurs parfaits pour toutes les fréquences photoniques (passage de conducteur à diélectrique pour les très hautes fréquences ainsi que différents effets secondaires). Dans notre calcul on se place dans le cas de conducteurs parfaits et à température nulle car sinon la combinaison des différents effets est difficile à découper en effets primaires et secondaires.

Nota 2 : Griffiths a théorisé via des mathématiques rigoureuses les histoires en mécanique quantique. C'est beau mais très lourd mathématiquement et une compréhension avec les "mains" est très suffisante. Dans la description d'une expérience on ne fait jamais référence à la myriade d'interactions entre les objets quantiques, on construit simplement des histoires, exemple le photon est réfléchi par le miroir, un peu simpliste non ?

Nota 3 : Il s'agit évidemment d'un potentiel que l'on ne peut considérer que comme résiduel (type force de Van der Waals). En effet, les forces intrinsèques des champs quantiques sont beaucoup plus fortes que cette force qui n'est que la conséquence des fluctuations du vide. Son effet ne peux être significatif que quand la matière est globalement neutre (tous types de charges confondus). Par contre son effet est cumulatif, c'est pourquoi la force dérivée de ce potentiel ne devient sensiblement prépondérante que pour des corps au moins mésoscopiques. Et plus les corps sont dans le domaine macroscopique plus son effet est dominant sauf évidemment dans le cas où l'on ne peut pas considérer la matière comme neutre (plasma, corps ionisé, réaction nucléaire, etc), car dans ce cas les forces intrinsèques des champs quantiques reprennent leurs droits. Mais cela peut aussi se produire dans certains cas physiques particuliers comme par exemple les trous noirs qui semblent marquer a priori la limite de la relativité générale (pour les trous noirs supermassifs c'est plus difficile à affirmer car la valeur de leur courbure au niveau de la "sphère de Schwarzschild" est très faible mais la bonne métrique, celle de Kerr, peut laisser place à plusieurs types d'interprétations et le rayonnement d'Hawking de nature purement quantique est toujours présent. De plus, les dernières théories sur la constitution de l'univers jeune, quelques millions d'années après le découplage lumière/matière, permettent de penser que les trous noirs supermassifs se sont bien formés à partir de trous noirs stellaires issus d'étoiles massives).

Nota 4 : En fait, on doit raisonner de cette manière. L'effet étant cumulatif, la force globale attirante dérivée du potentiel en 1/d qui s'exerce sur 2 objets physiques indépendants (d étant alors la distance moyenne entre les 2 objets) est proportionnelle au nombre de particules composant chacun des 2 objets donc proportionnelle à leur masse respective.

Nota 5 : Des expériences faites pour mesurer la valeur de la constante G de la gravité donnent des résultats qui ne se recoupent pas (incertitudes prises en compte). La valeur de G a été fixée de manière très arbitraire par le bureau international des poids et mesures (valeur SI de G).

Nota 6 : Un exemple typique : comment peut-on définir le champ de gravitation d'une particule quantique en état de superposition spatiale (c'est pratiquement toujours le cas des particules quantiques) ?

Nota 7 : Ce type de théorie est reprise comme exemple par Poincaré dans son livre "La Science et l'Hypothèse".

dimanche, octobre 29 2023

L'extension minimale des théories physiques

On sait que les théories physiques actuelles expliquent beaucoup de choses de l'univers qui nous entoure et qu'elles permettent des développements technologiques que l'on n'aurait pas imaginés il y a à peine quelques dizaines d'années. Pourtant elles sont loin de tout expliquer et beaucoup de physiciens, en particulier des théoriciens (mathématiciens ?), travaillent à leur extension. Faisons d'abord un point sur les plus connues.

La théorie des cordes avec son aboutissement la théorie M : historiquement son avènement a été un peu un hasard. Les "découvreurs" cherchaient en fait une théorie de la force forte, puis ils se sont aperçus que leur théorie qui ne fonctionnait pas dans le cadre prévu pouvait s'appliquer à des objets unidimensionnels ce qui permettait de supprimer la majeure partie des problèmes de la physique liés au fait que les particules sont a priori sans dimension et les interactions ponctuelles. Mais la théorie ne fonctionnait qu'avec un espace/temps à 26 dimensions, puis il a fallu ajouter la supersymétrie pour supprimer les tachyons et faire apparaître facilement les fermions, l'espace/temps n'avait alors plus que 10 dimensions et des objets ayant de 0 à 9 dimensions étaient alors présents, et enfin pour avoir une seule théorie à la place de 5 plus une, la supergravité, il a fallu créer la fameuse théorie M que personne ne sait vraiment définir précisément, la dimension de l'espace/temps étant alors égale à 11. Au point de vue justification observationnelles et mesures rien, absolument rien, ne permet de la supporter. C'est une très belle construction mathématique que certains considèrent, en particulier les cordistes, comme une métathéorie qui englobe toute nos théories physiques. Bon, et donc ?

La théorie quantique à boucles : elle se veut principalement une théorie de gravité quantique, en fait c'est plus exactement une théorie quantique de l'espace car le temps n'existe plus. Comme d'après la relativité générale on peut assimiler l'espace/temps à la gravité, on fait le raccourci quantification de l'espace égale quantification de la gravité malheureusement le lien entre la théorie et la relativité générale classique est très loin d'être établi. De plus, les explications pour dire que le temps est en fait une illusion ne sont pas très convaincantes et la justification théorique n'est pas mieux établie. Enfin, cette théorie ne dit rien sur le reste de la physique. Au point de vue justification observationnelles et mesures rien, absolument rien, ne permet de la supporter. Bon, et donc ?

La géométrie non commutative : c'est avant tout une théorie purement mathématique, d'ailleurs très difficile à comprendre si l'on n'est pas un mathématicien pur. Elle permet de retrouver d'après ses auteurs les théories physiques déjà connues => interactions + particules élémentaires + relativité générale, mais quoi de plus ? Au point de vue justification observationnelles et mesures rien, absolument rien, ne permet de la supporter à part évidemment les résultats déjà connus via nos théories existantes, et en plus à ma connaissance il a fallu la modifier pour trouver la bonne masse du boson de Higgs. Bon, et donc ?

L'imagination fertile des théoriciens ne s'arrête évidemment pas là et je pense qu'il est pratiquement impossible de faire un tour exhaustif de toutes les théories existantes (et futures ?), mais revenons à notre sujet de départ.

Les théories actuelles sont vérifiées avec une extrême précision. En ce qui concerne le modèle standard des particules élémentaires, il y a, a priori, 2 problèmes majeurs, le nombre de paramètres auquel il fait appel et la masse des neutrinos. Pour le premier, c'est en fait un vœu pieux que de croire que nos théories doivent être construite avec un nombre de paramètres minimal. Pour le second, notre modèle fait état de 3 générations de fermions ayant chacun une masse issue du champ de Higgs sauf pour les neutrinos que l'on a détecté uniquement dans un état lévogyre. Si l'on rajoute 3 neutrinos dextrogyres au modèle, le problème est résolu de façon théorique. L'application de nos concepts de base nous dit qu'au moins l'un d'eux est très "lourds" puisque les neutrinos lévogyres sont très "légers" et a priori sans interaction en dehors de la gravité (peut-être subissent ils la force faible ?). La fameuse matière noire indispensable dans notre modèle cosmologique le mieux accepté par la communauté des physicien, lambdaCDM, est parfaitement expliquée si au moins un des neutrinos dextrogyres est suffisamment "lourd" (voir nota). De plus, c'est une aparté indispensable ici, l'énergie noire n'est que la deuxième constante des équations d'Einstein, pour l'instant rien n'indique le contraire. Le modèle lambdaCDM est donc dans ce cas parfaitement défini sachant qu'en partant de nos observations et mesures du fond diffus cosmologique, il conduit avec une bonne approximation à nos constatations sur l'état de l'univers actuel. En ce qui concerne, la force de gravité que l'on essaie désespérément de quantifier, il faut préciser que absolument rien n'indique qu'elle doit l'être. Une solution simple est de la considérer comme une force émergente (voir mes billets à ce sujet pour une explication plus fouillée), elle ne doit donc pas être quantifiée, par contre elle ne peut émerger que de caractéristiques purement quantiques donc elles basiquement parfaitement quantifiées. Les deux caractéristiques quantiques qui me paraissent les plus à même de provoquer cette émergence sont d'abord le phénomène d'intrication ou alors les fluctuations du vide. Mais si rien n'indique que la gravité doit être quantifiée, cela n'empêche pas l'espace/temps de l'être, c'est un autre problème dans ce cas . Il y a certainement d'autres possibilités mais personnellement je n'en vois pas d'autres.

Pour résumer, l'existence des neutrinos dextrogyres et la théorie d'émergence de la gravité via une ou des caractéristiques quantiques permettent de faire une extension minimale de nos théories connues en expliquant une bonne partie des problèmes sur lesquels les théoriciens se cassent les dents depuis plusieurs dizaines d'années. Evidemment, il reste à expliquer d'où provient l'émergence de la gravité et de mettre en évidence les neutrinos dextrogyres. Pour les neutrinos, ce n'est vraiment pas gagné pour l'instant, plusieurs expériences ayant restreint leur possibilité d'existence (tel que STEREO) mais il reste encore des possibilités. En fait, ce qui me parait primordial aujourd'hui pour la physique c'est de repartir des observations et des mesures au lieu de rajouter des couches mathématiques à des théories qui s'éloignent de plus en plus de nos constatations sur le terrain. Un peu moins de mathématiques et beaucoup, beaucoup plus de physique !

Nota : En fait, l'introduction des 3 neutrinos dextrogyres permet d'avoir 6 degrés de liberté supplémentaires pour affiner la théorie, 3 masses et 3 sections efficaces d'interaction avec la force faible. Elle permet de plus d'expliquer pourquoi on ne constate pas de présence significative d'antimatière dans l'univers.

mercredi, octobre 18 2023

Les neutrons rebondissants

Une équipe d'un laboratoire de l'université de Grenoble (expérience GRANIT) a étudié les états de neutrons ultra froids, c'est à dire ayant une très petite énergie cinétique (vitesse linéaire très faible dans le plan x/y), dans un champ de gravité suivant l'axe z (voir nota 1). Ces neutrons se comportent comme des balles que l'on ferait rebondir sur une surface dure. Ici, ils rebondissent sur un miroir et le système permet de mesurer quelle est la hauteur du rebond qui est fonction de l'énergie potentielle des neutrons.

Du point de vue quantique, le système s'analyse en prenant un potentiel Newtonien classique égal à mgz (m = masse du neutron, g = accélération moyenne de la pesanteur, z = hauteur du rebond) et en résolvant l'équation non relativiste de Schrödinger. Les rebonds étant petits, en fait de l'ordre du micron, g varie infiniment peu. Les mesures montrent que comme le prévoit la mécanique quantique les états de rebond sont quantifiés et que les neutrons peuvent passer de l'un à l'autre via des phénomènes d'excitation ou de désexcitation. De plus, les mesures sont en parfaites accord avec les calculs (voir nota 2).

Ces résultats montrent que dans une expérience avec des objets quantiques la gravité n'a pas besoin d'être quantifiée au moins pour des longueurs de l'ordre du micron mais surtout que le principe d'équivalence faible (voir nota 3) est mis en défaut car les énergies des états quantifiés dépendent de la masse du neutron. Pour une particule très lourde, les énergies des états quantifiés sont très proches deux à deux, il y a pratiquement continuité et le principe d'équivalence faible est approximativement respecté, mais pour une particule très légère comme ici le neutron ce n'est plus le cas. En fait il n'y a aucune raison qu'un principe classique soit automatiquement vrai en physique quantique.

Il y a plusieurs façons d'interpréter ce résultat. L'une est d'introduire une cinquième force (appelé Caméléon, on comprend pourquoi) très très faible qui expliquerait en particulier "l'énergie noire" et certains essaient d'utiliser cette expérience pour la caractériser. Cela n'a pour l'instant pas donner de résultat significatif et "l'énergie noire" reste la deuxième constante des équations d'Einstein, le nom constante cosmologique est plus en équation avec les observations et les mesures en attendant les résultats du satellite EUCLID. Une autre est de considérer la gravité comme une force émergente. Dans ce cas, le principe d'équivalence faible n'a pas lieu d'être au niveau quantique (voir nota 4), c'est un résultat approximatif purement macroscopique. Je suppose que l'on peut introduire d'autres interprétations mais cette deuxième interprétation me parait tout à fait cohérente quand on analyse les mesures faites sur la valeur de la constante de gravitation G dont certaines ne se recoupent pas (limites de précision incluses).

Nota 1 : Pour les détails de l'expérience voir l'article "Status of the GRANIT facility", lien = https://arxiv.org/pdf/1410.1376.pdf

Nota 2 : Pour les résultats de l'expérience et les calculs quantiques voir l'article "Manipulation of gravitational quantum states of a bouncing neutron with the GRANIT spectrometer", lien = https://arxiv.org/pdf/2205.11130.pdf

Nota 3 : Quand je parle du principe d'équivalence faible je fais mention au fait que dans un champ de gravité les objets "tombent" de la même manière quelque soit leur poids (donc leur masse). c'est le principe d'équivalence dit de Galilée. L'égalité de la masse "pesante" et de la masse inertielle (ou autres) provient elle tout simplement du fait qu'il existe en relativité restreinte un quadrivecteur dont la norme est constante, le quadrivecteur impulsion/énergie, m étant tout simplement la valeur de la norme (la vitesse de la lumière est prise égale à l'unité), et m caractérisant l'objet physique pris en compte. Le principe d'équivalence fort pris par Einstein comme hypothèse de base de sa théorie de la relativité générale est le fait qu'en tout point événement on peut ramener la métrique à celle de Minkowski qui va rester valable approximativement dans un volume d'espace/temps entourant le point choisi, c'est la fameuse expérience de pensée de l'ascenseur. A noter que l'annulation de la gravité en ce point oblige à franchir mathématiquement un pas de plus car il faut alors annuler les symboles de Christoffel mais ceci est toujours possible. Il est évident que la taille du volume d'espace/temps entourant le point dépend de la valeur de la gravité en ce point.

Nota 4 : La gravité dans ce cas n'a pas besoin d'être quantifiée car ce n'est pas une force fondamentale comme les 3 autres et dire au contraire que les résultats obtenus par l'expérience GRANIT montrent que la gravité doit être quantifiée n'est pas cohérent avec les distances impliquées qui sont seulement de l'ordre du micron, donc rien à voir avec la longueur de Planck, mais en fait rien n'est impossible.

dimanche, août 20 2023

La théorie M de la théorie des cordes, coup de génie ou tour de passe passe ?

Pour répondre à cette question (évidemment sans pouvoir affirmer quoique ce soit), il faut se replonger dans les développements des théories physiques avant la fameuse conférence de Witten de 1995 sur la théorie des cordes (voir nota 1). D'après certains cordistes et en particulier Hawking, la théorie des cordes est "une théorie du tout", à savoir elle doit faire la synthèse des théories connues c'est à dire : la relativité générale, la théorie électrofaible et chromodynamique, le modèle standard des particules élémentaires (voir nota 2).

En parallèle, les physiciens ont développé la théorie de la supergravité, c'est à dire que l'on a appliqué à la relativité générale un principe de jauge local supersymétrique comme on le fait pour les 2 théories des champs, l'électrofaible et la chromodynamique. En utilisant cette supergravité dans un espace à plus de 4 dimensions, comme l'avait fait auparavant Kaluza-Klein pour la relativité générale classique (c'est à dire sans utiliser la mécanique quantique), certains physiciens avaient l'espoir d'en faire aussi une "théorie du tout". Il a été alors montré que la supergravité restait cohérente si les dimensions de l'espace/temps utilisée avait moins de 12 dimensions (11 dimensions au plus) mais la synthèse voulue au départ s'est avérée vaine.

Pour la théorie des cordes en 1995, les physiciens étaient devant un mur de dilemmes (voir nota 3). Il y avait en fait 5 théories des cordes différentes toutes impérativement à 10 dimensions. Pour une synthèse c'était loupé. On avait tout de même montré que l'on pouvait passer de l'une à l'autre via des dualités (voir nota 4) mais cela n'était valable que 2 à 2, aucune dualité ne permettant de passer de l'une vers les 5 autres et réciproquement. De plus, on avait bien le graviton (particule de masse nulle et de spin 2) comme particule de la théorie mais le graviton est une particule possible de la relativité générale que l'on peut faire apparaitre uniquement en champs faibles (si l'on linéarise la gravité qui est par essence non linéaire et qui de plus est une théorie purement géométrique de l'espace/temps à 4 dimensions), le graviton correspondant à la quantification du champ d'onde ainsi mis en évidence. L'existence du graviton est donc une pure spéculation qui en aucun cas ne redonne globalement la relativité générale. On pouvait aussi voir que si l'on partait du lagrangien de la relativité générale et incluait de manière tout à fait manuelle à ce lagrangien une théorie des cordes, la relativité générale était modifiée de façon marginale (impossible d'observer et encore moins de mesurer une quelconque de ces modifications). Enfin, on avait découvert que les cordes à une dimension n'étaient pas les seuls objets "physiques" de la théorie mais qu'il existait aussi des d-branes qui étaient des objets ayant de 0 à 9 dimensions (il faut toujours tenir compte d'une dimension de temps supplémentaire) donc la possibilité d'associer de manière plus ou moins subjective la supergravité à la théorie des cordes (voir nota 5).

Une fois ce portait tracé que peut-on se dire si comme Witten on est avant tout un pur mathématicien (médaille Fields 1990) : "je le fais à la Grothendieck donc j'introduis une nouvelle théorie, la théorie M qui elle est à 11 dimensions, théorie chapeau ou métathéorie (cela fait mieux), elle englobe les 5 théorie des cordes et la supergravité, et grâce à mes dualités et mes d-branes je passe de l'une à l'autre sans problème". Bon, c'est bien mais au fait c'est quoi la théorie M "physiquement" en dehors d'une pure conjecture mathématique ? Depuis 1995 même Witten n'a toujours pas pu la définir et donc répondre à cette question pourtant décisive (voir nota 6). .

Alors, coup de génie ou tour de passe passe ? A chacun de se faire son opinion.

Nota 1 : Cette conférence représente ce que l'on appelle la 2éme révolution des cordes, la première correspond à l'introduction de la supersymétrie. La supersymétrie a 2 vertus principales (entre autres), la suppression des tachyons et l'introduction de manière relativement simple des fermions dans la théorie. L'espace/temps des cordes n'a alors plus 26 dimensions mais seulement 10 (une des dimensions est le temps) et il y a 5 théories possibles : type I, type IIA, type IIB, hétérotique E8xE8 et hétérotique SO(32). En dehors de ce premier problème, les particules élémentaires connues ne sont pas supersymétriques, il faut alors introduire une brisure de symétrie. Les cordistes pensaient que le lhc avec une énergie d'environ 10 TEV mettrait en évidence ces particules supersymétriques mais ce n'a pas été le cas. On verra avec une énergie qui devrait être d'environ 13.6 TEV dans un futur proche mais certains cordistes se réfugient au niveau Planckien donc à un niveau pratiquement inatteignable.

Nota 2 : Cette notion de "théorie du tout" fait de moins en moins partie du langage des cordistes. Pour l'instant sur le plan des observations et des mesures, rien ne valide la théorie des cordes. Par contre elle a amené des outils très intéressants pour faire des calculs en théorie des champs et même dans d'autres domaines de la physique. Elle a aussi ouvert des perspectives nouvelles mais les cordes dans ces cas ne sont plus obligatoirement nécessaires.

Nota 3 : Dans un article de 1994, Susskind, promoteur de la théorie des cordes dans les années 70/80, disait : "I beleive that this is an extremely important problem for string theorists who want really exists and defines a quantum theory of gravity".

Nota 4 : La T-dualité met en relation le type IIA avec le type IIB et les 2 types hétérotiques ensemble via une relation petite distance/grande distance. La S-dualité met en relation le type I avec le type hétérotique SO(32) et le type IIB avec lui-même via une relation forte interaction/faible interaction.

Nota 5 : On inclut en général à ces résultats le principe holographique dont Susskind s'est fait le "Pape". Ce principe vient du calcul de l'entropie d'un trou noir et de la polémique sur la perte (ou non ?) de l'information quand le trou noir absorbe de la matière. On peut le relier à la théorie des cordes via l'existence des d-branes. Il y a beaucoup à dire là-dessus et j'ai d'ailleurs plusieurs billets qui en parlent.

Nota 6 : On notera de plus qu'en théorie des cordes les théories électrofaible et la chromodynamique ne sont retrouvées que via des approximations (champs faibles) et qu'il est impossible de caractériser correctement le modèle standard des particules élémentaires.

samedi, juillet 15 2023

Synthèse de mes réflexions sur la physique

Ce billet se veut une synthèse de mes réflexions sur la physique. Il est donc évidemment moins précis que les autres billets traitant d'un sujet en particulier. Soyons clair, tous les billets sont uniquement des réflexions et ne prétendent aucunement être des théories mais certains points soulevés me semblent pouvoir être des axes à approfondir par des théoriciens ou même des mathématiciens purs. Ils ne sont d'ailleurs pas que basés sur des réflexions (et bien sur des lectures et des études personnelles) mais sur de nombreux échanges concrets avec des physiciens spécialistes de ces sujets.

La physique actuelle se base sur 2 grands paradigmes, d'un coté la théorie quantique, de nombreux physiciens ont contribué à la mise en place de son cadre fondamental (Bohr, Einstein, Born, Heisenberg, Dirac, Pauli et bien d'autres), de l'autre la théorie de la relativité générale définie par le seul Einstein (mais aidé a priori sur le plan mathématique par son ami Grossmann). Ces 2 théories dans leur domaine d'application conduisent à des observations et des mesures très précises. Elles ont été élaborées pratiquement en même temps, au début du 20éme siècle.

La théorie quantique se préoccupe principalement de "l'infiniment petit", en fait surtout des atomes, des molécules, des particules dites élémentaires et son aboutissement est la théorie des champs (principalement champ électrofaible, champ chromodynamique et champ de Higgs) plus le modèle standard des particules élémentaires. Toutefois, des effets quantiques se manifestent au niveau macroscopique comme par exemple la supraconductivité ou la superfluidité et on utilise couramment les propriétés de la mécanique quantique comme l'effet tunnel dans nos appareils de tous les jours (le transistor est à la base des microprocesseurs et de leurs environnements qui sont présents actuellement dans pratiquement tous nos appareils). Par contre, il reste des phénomènes inexpliqués en particulier la masse des neutrinos et pourquoi le modèle standard des particules élémentaires fait appel à une trentaine de paramètres différents.

La relativité générale se préoccupe de "l'infiniment grand", en fait elle corrige la loi de Newton de la gravité pour les calculs dits locaux (système solaire), permet de définir le comportement de l'ensemble de l'univers (sa géométrie et sa dynamique). C'est avant tout une théorie géométrique de l'espace/temps (3 dimensions d'espace et 1 dimension de temps) qui met en relation la forme de l'espace/temps avec son contenu énergétique (courbure de l'espace par les masses, les particules suivant alors des géodésiques) sachant que depuis la théorie de la relativité restreinte du même Einstein la masse et l'énergie sont les 2 facettes d'un même paramètre physique (E = MC²). Comme l'espace et le temps sont imbriqués dans cette théorie (en relativité restreinte aussi mais plus simplement), le temps dépend de la masse présente et les caractéristiques de la lumière aussi (effet de lentille, décalage vers le rouge, trajectoire courbée). La théorie est non linéaire ce qui rend la recherche de ses solutions très difficiles et seules quelques unes sont connues mais uniquement en faisant des hypothèses très simplificatrices et souvent des approximations. On peut de plus assimiler les coefficients de la métrique de l'espace/temps à un champ en supposant que la gravité est très faible et l'on fait alors apparaitre des ondes gravitationnelles se propageant à la vitesse de la lumière (vitesse limite qui est la vitesse de propagation de tous les autres champs).

En conclusion, on a 2 théories qui de prime abord semblent indépendantes. Cela n'est pas satisfaisant pour les physiciens et plusieurs se sont attelés à la tâche de les rendre interdépendantes. En dehors de la gravité, tous les autres champs sont quantifiés, et à part Einstein et quelques uns qui ont essayé de rester dans le domaine classique pour unifier tous les champs (mais évidemment n'ont pas abouti), les autres physiciens ont basé leurs études sur la quantification de la gravité (voir nota 1). En fait, rien n'indique que la gravité doit être quantifiée mais il est vrai que cela semble naturel car l'on peut assimiler le champ de gravité en champ faible à celui d'une particule élémentaire de spin 2, le graviton, mais l'on perd alors à la fois le caractère géométrique de la théorie et la non linéarité pure (une particule de spin 2 introduit des non linéarités mais différentes) qu'il faut rétablir a priori par d'autres moyens. Il y a beaucoup de théories qui ont été élaborées, les 2 plus connues sont la théorie des cordes et la théorie des boucles, mais pour l'instant à part de beaux théorèmes mathématiques aucune n'a montré le moindre lien avec le réel des observations et des mesures. L'une d'elles aboutira peut-être un jour à quelque chose, l'avenir nous le dira mais il semble que pour l'instant ce jour semble très très lointain (mais cela peut changer du jour au lendemain), et de plus pour moi certaines ont déjà du plomb dans l'aile (et cette image est parfois faible).

Bon, voyons maintenant l'apport de mes réflexions. Comme je l'ai montré dans un billet si l'on considère la mécanique quantique comme une pure théorie statistique mais dont les probabilités sont issues d'une fonction complexe via des conditions suffisantes on retrouve en quelques lignes tout le cadre de la mécanique quantique (classique ou relativiste). En étudiant une interaction microscopique ont met en relation les constantes de la théorie avec la constante fondamentale de Planck. La plupart des phénomènes "mystérieux" de la mécanique quantique disparaissent tels que la réduction du paquet d'onde, le résultat d'une mesure, la non localité, etc, car ils sont Inhérents à une théorie statistique. Le fait que les probabilités soient issues d'une fonction complexe explique clairement les interférences, les états assimilables à des histoires (et pourquoi cela marche) et le phénomène d'intrication via les interactions. L'intrication via l'interaction semble d'ailleurs le phénomène fondateur de la physique. Il explique la flèche du temps puisque les objets physiques ayant interagi sont automatiquement corrélés au moins en partie et cette corrélation n'est pas réversible d'où l'irréversibilité globale des phénomènes physiques. De plus, si l'on prend en compte, le fait que la gravité est avant tout un phénomène macroscopique (aucune mesure microscopique réelle n'a jamais été faite jusqu'à présent car la petitesse de la gravité par rapport aux autres forces l'empêche) et que l'homogénéité de l'univers s'explique par le fait que tous les objets physiques ont déjà été en interaction par le passé (observation du fond diffus cosmologique), on peut considérer que la gravité est une force émergeante issues de l'intrication des objets physiques (mais ce n'est pas la seule caractéristique quantique qui peut la faire émerger). Je renvoie à mes billets pour de plus amples explications.

In fine, on peut dire que vouloir quantifier la gravitation n'a aucun sens car c'est une théorie émergeante et que la théorie quantique répond pour l'instant à la plupart de nos questions. Par contre, il est évident que le modèle standard des particules élémentaires doit être complété. En ce qui concerne la gravité, parler d'énergie noire est une aberration car la constante cosmologique est tout simplement la seconde constante des équations d'Einstein, par contre la matière noire peut être soit une particule encore inconnue de notre modèle à compléter soit un phénomène provenant du fait que la gravité est émergeante via l'intrication (mais ce n'est pas la seule caractéristique quantique qui peut la faire émerger) et de nos hypothèses simplificatrices. Enfin lorsque les phénomènes quantiques jouent un rôle prépondérant nos conceptions sur la gravité atteignent leurs limites et c'est certainement le cas pour les trous noirs et le big bang (voir nota 2).

Nota 1 : Dans la mesure où l'on considère que l'espace/temps et la gravité sont la même chose (théorie d'Einstein), quantifier l'espace/temps ou la gravité revient au même. Dans beaucoup de théories, c'est l'espace/temps qui est quantifié.

Nota 2 : La non détection des micros trous noirs de Hawking dont la création est prévue lors des phases initiales du big bang peut être considérée comme un indice que lors des phases initiales du big bang les équations d'Einstein ne sont pas valides.

dimanche, avril 30 2023

Un calcul approximatif un peu étrange

On cite toujours plusieurs mesures et observations qui valident la relativité générale d'Einstein. Il y en a une principale pour laquelle la façon de faire le calcul m'a toujours parue étrange, pourtant c'est une des premières qu'Einstein a mise en avant. Je la soumets à votre sagacité.

Mais avant, pour éviter toute confusion ou incompréhension, parlons de celles où le calcul et l'observation ne posent pas à mon sens de problème (voir nota 1) : la déviation de la lumière par une masse dont en particulier les mirages gravitationnels, elle valide de façon éclatante l'équivalence masse/énergie et la courbure de l'espace par la masse/énergie ; le ralentissement du temps à proximité d'une masse (dont l'utilisation du gps est un exemple de tous les jours) ; les échos radar en prenant comme cible une planète ; les images des "trous noirs" (qui pour moi sont en fait pour l'instant des "trous gris") ; la coalescence de "trous noirs" ou d'étoiles à neutrons (mesure des ondes gravitationnelles par le système LIRGO/VIRGO) ; le modèle lambdaCDM qui rend bien compte de l'évolution de l'univers (aucune autre théorie n'est aussi pertinente même s'il y a des "trous dans la raquette"). Certainement d'autres mais elles ne me viennent pas à l'esprit. Par contre, il ne faut pas se faire d'illusions, les approximations et parfois les conjectures sont souvent présentes.

Revenons-en à ma problématique, il s'agit du calcul de l'avance du périhélie de Mercure. Comment fait-on ? On sait qu'en première approximation, les équations d'Einstein se ramènent à la théorie de Newton (la gravité est une force instantanée en 1/r²). Partant de ce principe (l'ensemble du calcul a été fait bien avant qu'Einstein ne pose ses équations) on calcule la trajectoire de Mercure (il n'y a alors aucune avance de son périhélie). Puis en utilisant une série d'approximations, on calcule quels sont les impacts entrainés par la présence des autres corps du système solaire et du fait que le soleil n'est pas parfaitement sphérique (par exemple aplatissement de ses pôles, vrai pour tout ce qui tourne mais fonction du degré de fluidité du corps) sur la dite trajectoire. Suite à ces calculs (très approximatifs) on trouve une avance du périhélie. Manque de bol, le calcul et les mesures observationnelles ne coïncident pas, il reste un résidu de 43.1 secondes d'arc. Avant les équations d'Einstein, toutes les tentatives pour expliquer ce résidu ont échoué.

Comment les équations d'Einstein résolvent ce problème ? En fait, on utilise ces équations en faisant une approximation de deuxième ordre. Et là, bingo, on trouve exactement la valeur de ce résidu. Problème, on a trouvé une avance du périhélie qui n'est que de cette valeur à savoir 43.1 secondes d'arc et pas du tout la valeur totale. Vous me direz c'est normal car on n'a pas tenu compte des autres corps du système solaire ni de la platitude aux pôles du soleil. Sauf que l'on ne sait pas faire avec les équations d'Einstein et moi ce qui me trouble c'est quel serait le résultat car on a fait un premier calcul avec une série d'approximation à un ordre mal défini et on a rajouté une toute petite partie d'un calcul (incomplet) avec une approximation du deuxième ordre ? Je suis étonné que cela ne soit jamais souligné (au moins à ma connaissance). Visiblement cela marche mais ce calcul ne me parait pas très cohérent. Il est vrai que le grand Einstein n'a pas été troublé par cette démarche sachant que le calcul qu'il a produit lui-même était encore plus approximatif que l'approximation faite aujourd'hui car la métrique de Schwarzschild ne lui était pas encore connue (mais quand on veut valider une théorie ???). Voilà j'ai posé les bases, à vous d'y réfléchir, et si certains veulent me donner un élément de réponse j'en serai ravi (voir nota 2).

Nota 1 : dans un calcul en physique lorsque l'on veut valider une observation ou une mesure par rapport à une théorie (ou réciproquement), il est pratiquement impossible de ne pas faire d'approximations. Il faut alors parfaitement définir quels sont leurs domaines de validité et ce n'est pas toujours très clair dans certains articles. De plus, lorsque l'on utilise des statistiques, les résultats vraiment aberrants non suffisamment répétitifs sont rejetés car considérés comme des scories de la mesure ou de l'observation, aucune expérience ou observation en physique n'étant parfaite.

Nota 2 : je pense que quelques précisions s'imposent. Au premier ordre, on pose la vitesse de la lumière égale à l'infini ce qui implique l'existence d'un temps absolu. Puis on rajoute des perturbations dans le même contexte. Au deuxième ordre, la vitesse de la lumière n'est plus infinie donc le temps n'est plus absolu. Que se passerait-il pour les perturbations en utilisant le deuxième ordre ? De plus, on utilise pour le deuxième ordre la métrique de Schwarzschild donc on ne tient pas compte de la rotation du soleil et on oublie que le "r" de cette métrique n'est pas une coordonnée radiale et que le "t" est celui d'un observateur situé à l'infini (voir mes autres billets) et que les équations d'Einstein sont non linéaires donc tous les corps présents courbent l'espace/temps et en particulier Mercure elle-même. Je n'ai jamais vu aucun calcul qui hiérarchise ces approximations. Ce qui est bluffant c'est la justesse et la précision du résultat obtenu en empilant une série d'approximations dont les contours sont mal définis et sans tenir compte des autres possibilités a priori impactantes sur le résultat final (sont-elles vraiment négligeables ? quels seraient leurs impacts sur le résultat final ?).

samedi, avril 22 2023

Gravité émergeante (et spéculations dans les sciences)

j'ai souvent évoqué dans mes billets que la gravité pourrait être une théorie émergente (et expliqué dans un ce qu'est une théorie émergente). Le but de ce billet est de donner les raisons qui me le font penser et à titre très spéculatif de les compléter par une possibilité qui pourrait être l'hypothèse de départ d'une théorie qui reste à construire (je vais parler longuement de spéculation donc il est possible sans que cela pose de problème de sauter toute cette partie et d'aller directement au sujet sur "la gravité émergente", paragraphe ***).

Comme je vais entrer dans le domaine de la spéculation, je dois préciser quel est mon point de vue sur la spéculation dans les théories car mes autres billets peuvent laisser penser que j'ai un sentiment très négatif à son sujet. Soyons très clair, la spéculation est nécessaire, et même indispensable, pour faire avancer les théories scientifiques. Tant qu'elle reste dans le cercle scientifique cela ne peut pas poser de problème car les scientifiques sont des gens avertis, par contre dès qu'elle sort de ce cercle pour aller vers le "grand public" elle doit être employée avec d'infinies précautions et il faut expliquer clairement la limite entre les théories reconnues (via l'observation et les expériences) et celles qui ne sont que des spéculations. Malheureusement, les livres dit de vulgarisation qui se vendent bien (et rapportent pas mal d'argent à leurs auteurs) piétinent en général ce concept et il en est de même pour les conférences "grand public" où le conférencier acquière de la notoriété, et comme par hasard a un de ses livres à vendre. Bien maintenant que tout est clair et que je vais parler de gravité, je voudrais revenir sur quelques théories où la spéculation va bon train.

Les "trou noirs", j'en ai fait presque un sacerdoce. Le problème c'est qu'on les trouve mis à toutes les sauces. Nos théories et en particulier la relativité générale atteignent leurs limites si l'on dépasse ce que l'on appelait avant les étoiles figées (en gros, le temps vu par l'opérateur distant se fige sur la "sphère de Schwarzschild") et non pas des "trous noirs", évocation parlante mais surtout plus vendeuse. Vouloir aller plus loin, c'est de la pure spéculation car nos théories ont atteint plus que leurs limites et ce ne sont pas les images du EHT ni les mesures faites par le réseau LIGO/VIRGO (ondes gravitationnelles) qui prouvent le contraire. Elles montrent simplement qu'il existent des objets plus compacts que les étoilent à neutrons qui ont effectivement certaines caractéristiques des "trous noirs" mais rien de plus, au moins pour l'instant (voir mes billets à ce sujet).

Puisque je vais parler de gravité, je dois parler des autres théories spéculatives sur la gravité. Malheureusement, je n'en connais que deux suffisamment bien. Barrau a produit un article de synthèse sur les plus connues en les appliquant à la cosmologie dont le titre est "Testing different approaches to quantum gravity with cosmology: An overview" (lien : https://arxiv.org/abs/1705.01597). Cette référence vous donnera quelques indications sur celles-ci.

La théorie des cordes n'est pas à proprement parler une théorie de la gravité mais comme elle se veut une théorie de tout, la gravité en fait partie. Le point de départ n'est pas vraiment spéculatif. On sait que dans nos théories le point le plus problématique est de considérer les interactions comme ponctuelles car nos q-particules n'ont pas de dimension (au moins au niveau de la théorie). L'objet le plus simple, non ponctuel, c'est une corde (une dimension d'espace). On construit alors via les principes relativistes une théorie séduisante qui supprime une partie des problèmes dus à la ponctualité des interactions. Mais l'espace/temps a alors 26 dimensions (25 d'espaces et 1 de temps, en théorie normale des cordes il y a toujours une seule dimension de temps) et il n'existe que des bosons (particules dont le spin est entier). A partir de là, les spéculations vont bon train, espaces de Calabi-Yau, supersymétrie brisée, théorie M, branes, théorie holographique, etc, etc (voir mes autres billets).

La théorie des boucles (loop quantum gravity ou LQG) est une théorie uniquement de quantification de la gravité (plus exactement de l'espace). Elle est construite au départ sur l'équation de Wheeler-DeWitt et la mise sous forme canonique de la gravité par Ashtekar mais son principe de base parait tout à fait vraisemblable. Si tout peut être granulaire pourquoi pas l'espace/temps (la plupart des autres théories de la gravité partent de ce principe) ? J'ai déjà expliqué dans un autre billet que nos observations et expériences sont basées sur des comparaisons d'intervalles et que l'existence de la constante de Planck nous permet de définir un intervalle minimum de temps et de longueur (via nos autres constantes). Une des solutions de l'équation de Wheeler-DeWitt est une boucle dimensionnelle d'espace, la dimension temps ayant disparu dans la théorie. Ensuite, on déroule des concepts mathématiques pour construire une théorie tant soit peu cohérente. Le problème c'est que pour l'instant cette théorie n'a aucune prise avec le réel de nos observations et de nos expériences et qu'il ne suffit pas d'utiliser des arguments "spécieux" pour expliquer que le temps n'existe pas (voir mon billet à ce sujet).

Bon j'en termine là, sur mon aparté sur la spéculation dans les sciences mais je la crois utile car depuis le "best seller" d'Hawking des années 80 (qui a d'ailleurs fait sa fortune) foisonnant de spéculations, les livres de vulgarisation scientifiques contiennent pour la plupart une masse de spéculations sans que l'auteur l'explique clairement (à noter par contre que le "pavé" de vulgarisation scientifique de Penrose n'entre pas dans cette catégorie).


*** Avant de commencer sur ma propre théorie spéculative, je dois parler de la théorie émergente de Verlinde, seule théorie à ma connaissance qui a une certaine notoriété dans le monde scientifique (à noter que Verlinde s'inspire très largement de la théorie développée par Jacobson).

Au départ, Verlinde construit une théorie émergente de la gravité qui se cantonne à la théorie Newtonienne. Pour cela, il introduit la notion de force entropique que l'on peut mettre en évidence en théorie thermodynamique de la matière. Donc suite à des calculs qui ne paraissent pas très consistants et à une série d'approximation, il arrive à "démontrer" que la force Newtonienne peut émerger via la force entropique. En dehors du fait que les calculs ne sont pas vraiment probants, l'entropie est pour moi une fonction importante mais secondaire (voir mes billets à ce sujet), la notion primaire dont découle l'entropie est l'irréversibilité. Dans un deuxième temps, pour arriver à quelque chose qui ressemble aux équations d'Einstein, il prend comme concept de départ l'intrication et en faisant plusieurs "tours de passe-passe" avec l'entropie, la théorie des cordes (c'est un théoricien des cordes) et la théorie holographique, il arrive à "justifier sa théorie" (très très partiellement).

Après avoir critiqué assez vertement la théorie de Verlinde, voyons quelles sont mes propositions. Tout d'abord, pourquoi une théorie émergente de la gravité ?

Le premier point est la faiblesse de la force de gravité par rapport aux 3 autres forces fondamentales (dans les théories à plus de 4 dimensions, on l'explique souvent par le fait que la gravité se répand dans toutes les dimensions alors que les autres forces fondamentales restent cantonner aux 4 dimensions habituelles). Les mesures de la gravité sont au mieux dans le monde submillimétrique et ne testent que les déviations possibles par rapport à la force Newtonienne en 1/r². En ce qui concerne les équations d'Einstein, les mesures ne peuvent se faire au mieux qu'au niveau du système solaire sauf en ce qui concerne les effets de la gravité sur le temps mais on reste au niveau terrestre. Ce sont donc uniquement des équations testées lorsque le nombre de particules en jeu est colossal.

Le deuxième point est que bien que les équations d'Einstein traduisent aussi une théorie de jauge comme nos 3 autres théories des forces fondamentales, il est impossible de la quantifier de la même manière. Sa non linéarité n'explique pas tout et il semble que cette impossibilité soit intrinsèque à la théorie elle-même.

Le troisième point est que la "charge" de la théorie (la masse/énergie de la matière) ne peut pas être annulée. Donc nous baignons dans la gravité et nos instruments de mesure sont automatiquement impactés par elle. Nos mètres étalons sont "courbés" par les masses qu'ils sont sensés mesurer. Il n'y a donc rien d'étonnant à ce que nous voyons notre espace local comme étant courbé (l'univers dans son ensemble est a priori pratiquement plat mais c'est un autre sujet) d'où les fameuses équations d'Einstein qui mettent en relation la géométrie de l'espace et son contenu.

Un point sur lequel je suis d'accord avec Verlinde c'est que la gravité si elle est vraiment émergente ne peut émerger que de l'intrication, concept fondamental (pour ne pas dire fondement) de la mécanique quantique. A partir de là, mais c'est très difficile de le mettre en équation de manière correcte, on doit pouvoir déduire que pour une quantité raisonnable de particules on arrive à une force automatiquement attractive en 1/r² issue de leurs intrications (géométriquement c'est relativement clair). Puis pour des quantités de particules suffisamment importantes, des effets non linéaires se produisent et le fait que tout soit attractif conduit à des équations qui déterminent la géométrie de l'espace via son contenu de matière et réciproquement. Si l'on se rappelle que l'intrication est un phénomène non local dans le temps et dans l'espace et que toutes les particules ont été en intrication les unes avec les autres (homogénéité et isotropie du fond diffus cosmologique), les équations que l'on déduit sont en fait des équations de l'espace/temps et qui en suivant les principes relativistes ne peuvent aboutir qu'aux équations d'Einstein et en particulier montrer que la gravité émergente est aussi limitée dans sa causalité par la vitesse de la lumière (il est impossible d'utiliser l'intrication pour échanger des informations entre opérateurs plus vite que la vitesse de la lumière). Evidemment, mathématiquement c'est un peu court comme théorie et c'est aussi "tour de passe-passe" que la théorie de Verlinde mais par contre mes 3 constats de départ me semblent très solides et ma "pseudo théorie" ne repose pas sur des théories très spéculatives comme l'est celle de Verlinde. Elle explique de façon très simple pourquoi il est inutile et même incohérent de vouloir quantifier la gravitation (voir nota). Peut-être qu'un physicien théoricien finira par avoir les mêmes idées et sera capable de les mettre en "musique" (pour en savoir plus voir la page : "Ebauche théorique du concept de gravité émergeante").

Nota : Cela n'empêche pas l'espace/temps d'être granulaire (rien ne le démontre en dehors des possibilités offertes par la constante de Planck) mais ce ne sera pas lié à la gravité elle-même. De plus, on peut toujours quantifier les ondes gravitationnelles mais c'est un artefact mathématique comme pour les phonons en théorie du solide.

lundi, avril 10 2023

Champ profond et raie Lyman Alpha

Comme j'ai fait un billet sur les images collectées par JWST en champ profond, je suis un peu obligé de parler de la raie Lyman Alpha qui joue un grand rôle pour l'interprétation de ces images. C'est donc un billet un peu plus technique mais sans aucun calcul.

La raie Lyman Alpha correspond dans le spectre de l'hydrogène atomique à la transition 2p -> 1s qui est produite lors de la désexcitation de l'atome (la réciproque est bien sur vraie, phénomène d'excitation). Sa longueur d'onde est de 1216 ångström, elle se situe donc dans l'ultraviolet. Cette longueur d'onde lorsqu'elle est mesurée en provenance d'un atome distant est décalée vers le rouge, "red shift", à cause de l'expansion de l'univers (pour un atome très très distant, donc en champ profond, elle est même décalée dans l'infrarouge lointain). La mesure de ce décalage permet de calculer théoriquement le moment où l'émission a eu lieu, c'est à dire à quel moment après le big bang puisque ce dernier est supposé avoir eu lieu il y approximativement 13.7 milliards d'années (j'ai déjà expliqué dans d'autres billets les difficultés d'arpenter l'univers, mesure des temps et des distances).

L'hydrogène est évidemment l'élément le plus répandu dans l'univers, donc quand on pointe une galaxie il est assez facile de repérer dans son spectre d'absorption la raie Lyman Alpha. Il se trouve que pour des galaxies très très éloignées cette raie est très marquée alors que les autres sont difficiles à détecter. C'est bien sur l'abondance de l'hydrogène atomique dans l'univers qui produit ce phénomène et ce d'autant plus que les premières galaxies, nées peu après le big bang, contiennent très peu d'éléments dits "métalliques" , c'est à dire d'éléments autres que l'hydrogène et l'hélium (c'est les galaxies qui forment les éléments "métalliques" mais pour cela il leur faut du temps, ces galaxies sont théoriquement très jeunes).

Il y a encore beaucoup à dire, d'ailleurs dans la littérature on parle de "forêts Lyman Alpha", c'est dire l'importance de cette raie pour l'astrophysique, mais cela suffit à mon propos et je me contenterai de souligner toutes les difficultés attachées aux interprétations des images en champ profond surtout en ce qui concerne la datation des objets qu'elles contiennent.

Nota : L'esprit de ce billet est de simplifier au maximum les choses et donc d'utiliser quelques approximations. Pour ceux qui veulent en savoir plus sur l'utilisation de cette fameuse raie et surtout sur les "forêts Lyman Alpha", 2 liens : https://arxiv.org/pdf/astro-ph/9806286.pdf (pour se faire mal à la tête) : https://www.astro.ucla.edu/~wright/Lyman-alpha-forest.html (beaucoup plus fun mais très limité).

lundi, avril 3 2023

Passé, Futur, Circularité

Ce billet se veut un peu plus philosophique que les autres, toutefois les réflexions qu'il contient sont basées uniquement sur les théories physiques. De plus, ces réflexions sont déjà plus ou moins présentes dans quelques uns de mes billets.

On trouve dans la littérature beaucoup de papiers qui pose la question : "c'est quoi la flèche du temps ?" Une réponse simple que j'ai déjà donnée est le fait qu'une des propriétés fondamentales de la mécanique quantique est l'intrication (d'ailleurs issue de son fondement statistique, voir mes billets à ce sujet). En effet, le phénomène d'intrication se produit lors des interactions entre q-particules. Il peut être de nature explicite, par exemple un couple de q-particules est émis avec un spin global égal à 0, ou de nature plus cachée, par exemple les interférences dans le cas de l'expérience des fentes d'Young. L'intrication implique donc une flèche du temps au niveau microscopique, 2 q-particules ayant interagi ne sont plus indépendantes l'une de l'autre au moins jusqu'à ce qu'elles subissent une nouvelle interaction qui va modifier leurs niveaux d'intrication pour en créer d'autres d'un nouveau type. Le phénomène de décohérence est le pendant de l'intrication puisqu'il traduit tout simplement la myriade d'interactions que subit un système macroscopique en temps normal ou une q-particule lors d'une mesure. Cette myriade d'interactions fait alors passer l'irréversibilité des phénomènes du monde microscopique au monde macroscopique. C'est donc la flèche du temps microscopique qui implique la flèche du temps macroscopique. La fonction entropie permet de la mesurer de façon relative au niveau macroscopique (c'est à dire entre 2 états) via la valeur de sa croissance. Son utilisation à un niveau intermédiaire pose quelques problèmes, en particulier sa non unicité (calcul du type "gros grains") et sa soumission aux fluctuations potentielles des objets physiques. Il est dommage que les physiciens la prennent souvent comme fonction fondamentale des théories physiques et surtout la mettent à "toutes les sauces".

Je ne voudrais pas laisser croire que je considère l'entropie comme une fonction mineure. C'est une fonction très utile par contre à employer avec précautions. Merci à Boltzmann de l'avoir définie de façon précise dans le cas d'un gaz et d'avoir mis en évidence sa provenance, d'ailleurs purement statistique. Lorsque ses protagonistes lui faisaient remarquer qu'en inversant les vitesses des particules, le résultat s'inversait, il leur répondait tout simplement : "Eh bien essayez !". Il est vrai qu'inverser toutes les vitesses des particules d'un gaz est mission impossible (même en restant dans le domaine classique). Toutefois, je voudrais faire la réflexion suivante. Je réunis les particules du gaz dans un petit volume puis je les libère dans un grand volume. Si je passe le film de la scène à l'envers, tout le monde croit pouvoir dire que le film est passé à l'envers. Pourtant, attendons un temps beaucoup plus long, une fois les particules réunies à nouveau que va-t-il se passer ? Elles vont encore se disperser et je vais retrouver le même état moyen dans le passé que dans le futur et je ne saurai plus dire si c'est une scène du passé ou du futur (j'ai évidemment supposé l'impossible, retourner toutes les vitesses des particules du gaz). C'est tout de même quelque chose qui interroge car c'est vrai pour le verre qui casse, au bout d'un temps assez long (peut-être une éternité), le passé et le futur sont difficilement reconnaissable au moins au niveau macroscopique. Il est fait mention dans la bible de cette tautologie : "Poussière, tu n'es que poussière et tu retourneras à la poussière". Poincaré a d'ailleurs démontré qu'en physique classique un objet dynamique revient au bout d'un temps fini aussi près que voulu de son point de départ. Un temps fini peut évidemment être très très grand et de plus cela ne tient pas compte de la nature purement statistique de nos lois microscopiques.

Un point fondamental des théories physiques est que l'on peut retourner le sens du temps sans qu'elles perdent leurs statuts. Cela a souvent amené les physiciens à des interrogations. Pourtant, il me semble qu'il n'y a rien d'extraordinaire à cela. La variable temps comme les variables positions ne sont que des artefacts de nos théories, théories qui en plus sont souvent exprimées de manière différentielle. Donc ce qui est important, c'est que nos théories soient indépendantes de ces variables. C'est bien ce que nous dit le principe d'invariance relativiste. Ce qui compte vraiment c'est les intervalles car toute mesure se fait en fait par comparaison d'intervalles et nous devons définir des intervalles de références pour pouvoir produire nos mesures. Ces intervalles peuvent être très petits mais jamais tendre vers 0, d'ailleurs l'existence de la constante de Planck nous permet de définir des intervalles minimaux. Les variables temps et espace sont donc bien des artefacts issus tout simplement de moyennes sur ces intervalles.

Ceci nous amène d'ailleurs à la circularité de nos théories. Prenons un exemple typique. Pour faire son expérience qui lui a valu le prix Nobel de physique Aspect avait besoin d'une source fiable (c'est d'ailleurs la mise au point de cette source qui lui a pris le plus de temps pour faire son expérience). C'est à dire d'une source dont les couples de photons émis avaient un spin global égal à 0 avec une possibilité d'erreur très petite (je ne connais pas cette valeur). Mais pour définir la fiabilité de sa source, il s'est appuyé premièrement sur la théorie, la mécanique quantique, qui lui expliquait pourquoi sa source devait émettre des couples de photons avec un spin global égal à 0 et deuxièmement une série de mesures qui montrait que les couples de photons émis avaient bien un spin global égal à 0. Une fois sa source fiable mise au point, il a pu réaliser concrètement son expérience qui montre le caractère "non local" du phénomène d'intrication. Il est évident que cette expérience incontestable était digne du prix Nobel (ce n'est pas le cas de tous les prix Nobel). Mais il est difficile de nier une certaine circularité (le serpent se mords la queue) car les résultats de l'expérience ne peuvent être interprétés que statistiquement comme l'est la fiabilité de la source dite "fiable". Cela permet à certains non pas de contester les résultats obtenus mais de trouver des explications autres (farfelues ?) que la "non localité" du phénomène d'intrication. Pour trouver d'autres exemples typiques, on peut se référer à l'astronomie ou à la cosmologie. Le problème principal de ces sciences, c'est que l'expérimentation étant impossible, il faut pour interpréter les observations se référer à nos théories testées uniquement localement. On doit donc la plupart du temps utiliser des fonctions statistiques pour assimiler des observations à des mesures. Par exemple, l'arpentage de l'univers est bâti sur plusieurs types de chandelles standards. Pour n'en citer que 2, les céphéides (étoiles variables dont on suppose connaître très bien la périodicité), les supernovas de type Ia (dont on pense bien connaître les processus physiques conduisant à leur formation). Pour ces dernières il faut en plus rajouter, le "red shift", issu de l'application des équations d'Einstein dans un modèle très particulier qui suppose que sur des grandes distances l'univers peut être considéré comme isotrope et homogène (mais pas que, par exemple que les galaxies ou les amas peuvent être assimilés à un gaz parfait sur ces grandes distances). Ce "red shift" permet alors de déterminer la distance de ces supernovas. Je pense que le modèle lambdaCDM, issu de ces observations et d'autres (mesure de ses principaux paramètres via nos observations du fonds diffus cosmologique) est bien la meilleure solution pour décrire l'univers mais il ne faut pas s'étonner qu'il y ait des "trous dans la raquette", les autres modèles (je ne sais pas s'il y en a tant que ça qui soit un peu cohérent) ne me semblent pas lui arriver à la "cheville".

Bon pour le moment, j'arrête là ces quelques réflexions. Elles me paraissent pertinentes, pourquoi certains physiciens ne s'en inspireraient-ils pas ?

jeudi, mars 30 2023

Théorie des champs versus particules

Newton a été le premier à établir une théorie physique basée sur des concepts mathématiques cohérents. Pour lui, il existait des systèmes physiques que l'on pouvait décrire comme des ensembles de particules et dont la dynamique était engendrée par des forces. Même la lumière était constituée de particules. L'étude des interférences lumineuses et de la diffraction de la lumière a permis de définir la lumière comme une onde en opposition avec les idées de Newton. Il y avait donc 2 concepts en opposition totale car les 2 théories paraissaient mathématiquement irréconciliables.

A l'époque 3 forces fondamentales étaient connues, la force de gravité, la force électrique, la force magnétique, toutes les 3 en 1/r². Faraday a eu alors l'idée pour mettre en évidence les forces magnétiques de répartir autour d'un aimant de la limaille de fer. Il a alors constaté que celle-ci se répartissait suivant des courbes bien définies entourant l'aimant. C'était la naissance du concept de lignes de force. Par la suite, les travaux mathématiques de Maxwell sur les concepts d'électricité et de magnétisme lui ont permis de définir ses fameuses équations et de donner naissance au concept de champ classique (voir nota 1), en fait le champ électromagnétique dont la lumière était une entité spécifique. C'est en particulier en s'appuyant sur ce concept de champ que Einstein, suite à ses travaux sur la relativité restreinte, a pu définir ses équations pour la relativité générale.

Einstein pensait que le concept de particule n'était pas un concept fondamental a contrario de celui de champ et il a passé une large partie de ses recherches suivantes à essayer d'intégrer la notion de particules dans celle de champ ainsi que de marier le champ électromagnétique avec la gravité (de manière classique). En relativité générale, les équations sont non linéaires et le concept de "charge" est "amoindrie" (voir nota 2) car les particules suivent des géodésique de l'espace/temps. Les recherches d'Einstein n'ont pas vraiment abouti mais en parallèle s'est développé la mécanique quantique à laquelle il a d'ailleurs apporté des contributions importantes même si la mécanique quantique contredisait dans ses fondements les convictions profondes d'Einstein sur ce que doit être une théorie physique.

La mécanique quantique étant probabiliste via une fonction de probabilités complexe, le mariage corpuscule/onde ne semblait pas impossible bien qu'il pose des problèmes très mystérieux à notre compréhension macroscopique du monde (voir mes billets sur la mécanique quantique et une façon de les résoudre). Toutefois, il semblait difficile de se passer du concept de particule dans la théorie même si celui-ci avait un statut différent de celui de la physique classique. Le concept de champ classique devait aussi être quantifié pour expliquer les phénomènes physiques constatés. Premièrement les échanges électromagnétiques se font par "grain" d'énergie, les photons. Deuxièmement, la mise en conformité des équations de la mécanique quantique avec la relativité fait apparaitre pour toute particule une antiparticule, cela conduit pour avoir un concept mathématiquement cohérent à des champs de spineurs, ces champs étant définis par la valeur du spin qui leur est attribuée. Et par suite au concept de création ou d'annihilation de particules entrainant le fait que le nombre de particules n'est plus une constante des théories. De plus, les fluctuations quantiques permettent la création de paires, particule/antiparticule, virtuelles. La découverte de la force forte et de la force faible pour expliquer les noyaux des atomes et leur instabilité dans certaines circonstances a permis de classifier les champs en rajoutant en plus du spin des caractéristiques supplémentaires liées à ces forces ce qui a donné naissance au modèle standard des particules élémentaires. Ces champs ont en commun la notion d'invariance de jauge qui est vraie aussi pour le champ de gravité mais ce dernier étant non linéaire il est impossible de le quantifier de la même manière (voir nota 3). Pour finaliser le modèle de base qui n'était cohérent que si les particules avaient une masse nulle, il a fallu rajouter un champ, le champ de Higgs, de spin 0, dont l'interaction avec les particules connues leur permettait d'acquérir l'équivalent d'une masse. La particule de Higss a été détecté en 2012 en accord pratiquement parfait avec les attendus du modèle. Par contre, suite à la détection du phénomène de "see saw" (voir nota 4) chez les neutrinos, il a fallu leur attribuer une masse qui a priori n'est pas issue d'une interaction avec le champ de Higgs. Cela détruit en partie la cohérence du modèle et ouvre la perspective d'un modèle au-delà du modèle standard.

La théorie des champs du modèle standard permet des calculs très précis à condition de lui appliquer le concept de renormalisation. Concept assez facile à comprendre mais souvent plus difficile à mettre en pratique. Par exemple, suite à la possibilité de création de particules virtuelles, une particule est toujours entourée de ces particules virtuelles qui vont soit écranter le champ soit le renforcer et par suite créer des infinis lors des calculs. La procédure de renormalisation consiste à éliminer ces infinis pour arriver à des calculs finis. Mais en fait ce procédé fait un peu "tâche" dans nos belles théories. Un autre moyen d'éliminer ces infinis est de supposer les particules étalées dans l'espace. Il y a très longtemps que cette idée est venue à l'esprit des physiciens mais aucune théorie cohérente n'avait pu être construite jusqu'à l'avènement de la théorie des cordes. Malheureusement cette théorie a maintenant montré ses limites (voir mes billets sur ce sujet).

En conclusion, le concept de particule a grandement évolué depuis Newton mais le rêve d'Einstein ne s'est toujours pas concrétisé. Même s'il est pratiquement impossible de définir aujourd'hui ce qu'est vraiment une particule, nos théories ne savent pas encore s'en passer.

Nota 1 : classiquement, le champ est considéré comme une entité physique remplissant tout l'espace. C'est la présence de particules "chargées" (le type de charge dépend du champ considéré) qui définit sa valeur en un point.

Nota 2 : dans une théorie non linéaire on peut facilement faire apparaître la notion de soliton, c'est à dire l'équivalent d'une particule constituée par le champ lui-même mais qui a une durée de vie en général finie. "Amoindrie" car les particules suivent des géodésiques mais l'espace/temps est "courbée" par leur présence, à savoir leur contenu en masse/énergie. En 1935 Einstein et Rosen ont publié un article qui en s'inspirant de la métrique de Schwarzschild (et de Ressner-Nordström) essayait de définir une particule comme une singularité du champ de gravité. Ils ont ainsi créé mathématiquement le premier "trou de ver" connu aujourd'hui sous le nom de pont d'Einstein-Rosen. A ma connaissance, cela n'est pas allé plus loin.

Nota 3 : rien dans nos observations n'empêche la possibilité que le champ de gravité soit en fait un champ émergeant, cela pourrait expliquer cette dichotomie. Un champ émergeant est un champ qui provient d'un concept plus profond. Pour la gravité, il pourrait s'agir de l'intrication, une des propriétés fondamentales de la mécanique quantique (voir les travaux de Verlinde, toutefois je ne suis pas en accord avec son approche et ses calculs). Citons comme exemple de forces émergeantes : la force de Van der Walls, résidu de la force électrique dans les atomes ou les molécules, qui permet un type de liaison moléculaire: la force semi-forte qui permet la formation des noyaux et qui est le résidu de la force s'exerçant entre les quarks.

Nota 4 : les neutrinos sont dans ce modèle au nombre de 3 et ils peuvent se transformer les uns dans les autres, c'est le phénomène de "see saw". Cela ne peut s'expliquer que s'ils ont une masse non nulle. Pour l'instant on ne sait pas mesurer la valeur absolue de ces masses, uniquement leurs rapports, mais on sait qu'elles sont très très petites.

jeudi, mars 23 2023

Le temps existe-t-il ?

Ce questionnement est très à la mode et de nombreuses conférences sont données sur ce thème. Dans ce billet, je voudrais simplement revenir sur les raisons qu'a données Carlo Rovelli pour soutenir que le temps n'existe pas lors de sa conférence dans le cadre du cycle de conférences "Einstein et sa postérité". Carlo Rovelli est très en pointe sur ce sujet mais il me semble qu'il a une raison évidente pour cela. Carlo Rovelli est l'inventeur avec Lee Smolin de la théorie de la gravité quantique à boucles (loop quantum gravity, LQG). La construction de cette théorie est basée sur l'équation de Wheeler/DeWitt et les travaux de Abhay Ashtekar qui a explicité une forme canonique de la théorie de la gravité. Dans la LQG, en fait il n'y a pas de place pour le temps, seul existe un espace en 3 dimensions constitué de boucles quantiques.

Mais revenons-en aux raisons données par Carlo Rovelli dans sa conférence. Il explique que la définition du temps est cyclique, c'est à dire que si je veux définir le temps que met un pendule pour revenir à sa position initiale je suis obligé de me référer à quelque chose qui est aussi cyclique. Par exemple, l'angle que parcours la corde du pendule, je vais le relier à l'angle que l'aiguille de ma montre a parcouru (on peut dire que le serpent se mort la queue). Donc en fait, je n'ai pas besoin du temps car je peux me contenter d'expliciter des relations entre objets physiques existant dans l'espace. Cet argument me parait fallacieux car je peux faire le même raisonnement pour l'espace. Si je veux mesurer la distance séparant 2 objets physiques, je vais faire intervenir une autre distances séparant 2 autres objets physiques par exemple les 2 extrémités de ma règle d'arpenteur. Sans référentiel dans lequel je sais faire de l'arpentage dans le temps et l'espace, je suis démuni et cela est aussi vrai au niveau quantique.

Il me semble plus opportun de dire que les relations entre objets physiques ne sont pas des variables temps ou espace mais des intervalles que je peux comparer les uns avec les autres et ainsi définir d'une façon relative les événements de l'espace/temps. D'ailleurs c'est bien ce que l'on fait quand on définit la norme relativiste, le fameux ds². En prenant la vitesse de la lumière égale à un, nos unités d'espace et de temps deviennent homogènes (la vitesse d'un objet est alors un pourcentage de la vitesse de la lumière). C'est ce qui parait le plus naturel, notre système d'unités étant issu de la "vieille physique". L'avantage de cette conception ne faisant intervenir que des intervalles est qu'elle n'a pas besoin du continu, elle peut être discrétisée facilement puisque nous avons la constante de Planck qui permet avec les autres constantes de définir un grain d'espace et un grain de temps (la longueur de Planck et le temps de Planck, voir nota). Est-ce suffisant ? Je suis bien incapable de le dire. On notera en particulier qu'il reste la possibilité que la gravité soit une théorie émergente (elle est très bien vérifiée macroscopiquement et localement mais c'est tout), et dans ce cas, quelle est la définition de l'espace/temps ? En tout cas vous l'aurez compris, malgré le fait que je considère Carlo Rovelli comme un des grands physiciens actuels, ses arguments ne m'ont pas convaincu.

Nota : vu la "taille" de ces grains, il est possible de définir, même au niveau microscopique, des variables continues représentant l'espace/temps qui sont des sortes de moyennes. Elles permettent alors de définir des opérateurs de type dérivées partielles ou totales. On notera qu'alors la notion d'interaction ponctuelle est en fait un artefact de ces variables. De plus, les interactions conduisent, en mécanique quantique, à la notion d'intrication qui permet de définir une flèche du temps.

samedi, mars 18 2023

Questionnement suite aux premières images en champ profond du satellite JWST

Le nouveau télescope envoyé dans l'espace, JWST (James Webb Space Telescope), a fourni début juillet des images impressionnantes du champ profond de l'espace, c'est à dire aux ultra grandes distances. Tout de suite certains scientifiques en quête de sensationnel ont conclu que ces images remettaient en question la théorie cosmologique actuelle (lambdaCDM) bien que celle-ci est un fondement solide suite à l'analyse du fond cosmologique diffus et ils ne se sont pas privés de publier des articles soit disant de référence à ce sujet.

L'argument massue est qu'il existe de nombreuses galaxies bien formées et très massives au tout "début de l'univers". Malheureusement déterminer la distance d'une galaxie n'est pas si simple dès que l'on est en champ profond. On entend parler sans arrêt du fameux "red shift" comme s'il était le "nec plus ultra" pour savoir quelle est la distance d'une galaxie. Le "red shift" est bien un phénomène parfaitement connu qui provient de l'expansion de l'espace lorsque l'on utilise le modèle d'univers de Friedman-Lemaître (issu des équations d'Einstein) base du modèle actuel. En fait on a une formule très simple qui relie le "red shift" au facteur d'expansion de l'univers mais qui n'est valable que quand le "red shift" est petit (les cosmologistes utilisent le coefficient z pour caractériser le "red shift"). Dès que celui-ci est grand, c'est à dire z > 0.1 (JWST mesure des z jusqu'à plus de 10), la formule n'est plus du tout la même car l'approximation n'est absolument pas valable. En plus, le facteur d'expansion n'est pas une simple fonction linéaire du temps cosmologique et il varie fortement lorsque l'on se rapproche du "début de l'univers".

En dehors de ce point fondamental, il faut de plus se rappeler que plus la lumière vient de loin plus elle rencontre du gaz donc comme le montre très bien la théorie elle perd un peu d'énergie, "elle vieillit", et donc cette perte d'énergie augmente sa longueur d'onde, c'est un autre motif de "red shift". Il est très très faible mais l'accumulation des chocs due à la distance fait qu'il n'est plus négligeable pour des distances aussi grandes.

Un dernier point bien connu de la relativité générale est le fait que la trajectoire de la lumière est courbée par les masses. Cet effet augmente la distance mesurée par rapport à la distance en "ligne droite" (la lumière suit les géodésiques de l'espace/temps) et donc plus la lumière provient de loin, plus cet effet conduit à une mesure de distance qui est surévaluée car globalement l'espace/temps est considéré comme pratiquement plat.

En dernier ressort, il est possible que comme le dit JP Luminet l'univers soit "chiffonné" (je ne connais pas d'indication dans ce sens). C'est à dire que sa géométrie ne soit pas simple. Alors une galaxie peut être vue plusieurs fois à différents endroits (indépendamment des mirages gravitationnels, autres sources de multiplication des images). Dans ce cas, les mesures des grandes distances seraient erronées (il s'agit évidemment des distances du champ profond et non pas des distances locales).

En conclusion, "avant de jeter le bébé avec l'eau du bain", les scientifiques doivent réévaluer certaines hypothèses qui peuvent conduire à des calculs erronés. N'oublions pas la une de journaux scientifiques il n'y a pas si longtemps : "le neutrino se déplace plus vite que la lumière" qui s'est conclu par : "c'était un problème de connexion au niveau des fibres optiques", cela fait froid dans le dos, non ? Le problème fondamental de la cosmologie est un problème très terre à terre : faire de l'arpentage. Rien d'évident, on ne peut pas se déplacer dans le cosmos avec un mètre d'arpenteur ni même utiliser un laser comme le font les géomètres. C'est une question très difficile que les scientifiques en guise de sensationnel ferait mieux d'aborder sérieusement avant de vouloir vendre au grand public leurs "négationnismes".

Je voudrais compléter cette conclusion par quelques remarques. D'abord les points évoqués ci-dessus ne sont certainement pas la solution aux problèmes rencontrés mais ils illustrent bien les difficultés de définir une distance en champ profond (voir nota). Certains veulent remplacer la théorie lambdaCDM par une théorie MOND. En dehors de la première théorie de Milgrom qui est une théorie ad hoc pour expliquer la courbe de rotation de certaines galaxies (c'est à dire la vitesse de rotation des étoiles périphériques) et n'explique rien de plus, les autres théories MOND font appel à de nouveaux champs et s'enorgueillissent souvent de supprimer la matière noire. Mais qui dit nouveaux champs, dit nouvelles particules d'après la mécanique quantique donc où est le gain ? De plus, ces théories ont beaucoup de "trous dans la raquette". Ce qui me semble bien établi en cosmologie c'est l'existence du fond diffus cosmologique et ses caractéristiques d'où le modèle lambdaCDM via les équations d'Einstein valables simplement au niveau macroscopique (ce qui laisse la place à une théorie émergente de ces équations). Ce modèle nous dit qu'il existe de la matière dite noire car interagissant très peu (et non pas, pas du tout) avec la matière connue et une constante cosmologique (comme l'a montré Cartan) dont la valeur est positive et très petite. On peut aussi en déduire en étudiant les fluctuations du fond diffus et si l'on suppose que l'univers a "débuté" par une phase quantique que l'univers a connu une phase d'inflation. Je mets le terme "débuté" entre guillemet car pour définir un début il faut un référentiel et je ne vois pas très bien comment le définir. Cette remarque vaut d'ailleurs pour la phase d'inflation. Nos problèmes d'arpentage (temps et espace) sont vraiment prégnant dans toutes les phases de l'univers (sauf en champ local). Un autre point est que malgré nos nombreuses observations nous connaissons mal la dynamique des galaxies et des amas mais à partir du modèle lambdaCDM on reconstitue très bien la toile cosmique. En conclusion de la conclusion, la cosmologie est une science très molle et difficile car l'univers est par essence unique. Aucune expérience n'est possible donc tout est sujet à interprétation via nos théories physiques les mieux établis mais il y a donc toujours une grande place pour le doute. JWST ne donne pas que des images du champ profond, il permet d'analyser plusieurs domaines du champ local où nos observations sont moins sujettes à caution. C'est vraiment un instrument extraordinaire qui va enrichir considérablement nos connaissances de l'univers.

Nota : une solution récente qui a les faveurs de JP Luminet (quid de l'univers "chiffonné" ?) est l'existence au "début de l'univers" de trous noirs d'une centaine ou millier de masses solaires (Hawking en a bien prévus mais il s'agit uniquement de "micros trous noirs" dont les traces n'ont toujours pas été détectées). Via un système d'accrétion rapide dit de "Bondi" (théorisé par le physicien Hermann Bondi), ces trous noirs atteignent rapidement une taille de plusieurs millions ou même milliards de masses solaires et permettent alors la formation rapide de galaxies de tailles et de formes significatives. Dans les articles correspondants, je n'ai pas trouvé de justification théorique, uniquement des courbes basées sur des modèles statistiques. Si vous avez plus de données ou de références, merci de me les communiquer. D'autant qu'un des astrophysiciens de l'institut d'astrophysique de Paris s'apprête à publier la mise en évidence de l'existence d'une galaxie née 250 millions d'années après le big bang (via les données issues de JWST). Des galaxies nées 250 millions d'année après le big bang avaient déjà été découvertes (via les mêmes données), puis "pan pan rataplan", elles étaient nées en fait quelques milliards d'années après le big bang (z = 5 ou 6). Bon ! espérons les arguments de cet astrophysicien plus solides. Pour la création des "gros trous noirs primordiaux", on est encore dans la phase "mystères et boules de gomme".

samedi, mars 11 2023

Invariants relativistes

Le but de ce billet n'est pas de faire un cours de mathématiques sur la relativité (il en existe beaucoup, plus ou moins bien faits) mais de mettre en évidence quelques points particuliers souvent négligés mais qui peuvent avoir leurs importances et permettent d'avoir une vue plus globale des implications de la relativité.

Je rappelle qu'un des principes premiers de la relativité (pas toujours bien explicité) est que l'on peut toujours localement, donc en un point événement, se ramener à un espace/temps de Minkowski. Le terme localement veut dire que théoriquement ce point événement est infinitésimal mais dans le cas d'un champ de gravité faible il peut définir un espace/temps relativement grand et ce d'autant plus que la force de gravité est beaucoup plus faible que les autres forces connues. L'espace/temps de Minkowski est défini par sa pseudo norme (ou pseudo produit scalaire) ds² = dt² - dx² - dy² - dz² où (t, x, y, z) définissent un quadri-vecteur X qui représente un événement de l'espace/temps (voir nota 1). Cette pseudo norme exprime en particulier le fait que rien ne peut dépasser la vitesse de la lumière.

Cette pseudo norme est la base de la construction de tous les invariants en relativité. Il y a plusieurs objets que l'on peut construire : des quadri-vecteurs, des tenseurs et enfin des spineurs. Ils ont tous la particularité lors d'un changement de référentiel de se transformer de manière à laisser leurs produits scalaires invariants (voir nota 2).

Le premier invariant que l'on peut construire de manière évidente c'est la vitesse d'univers dont la pseudo norme est égale à 1. En effet : (dt/ds)² - (dx/ds)² - (dy/ds)² - (dz/ds)² = 1. En remarquant que (ds/dt)² = 1 - v² et en introduisant une constante m propre à la particule qui va donc la caractériser, on construit le quadri-vecteur P = (Pt, Px, Py, Pz). Par analogie avec la physique classique (v petit), on associe ce quadri-vecteur à l'énergie et à l'impulsion de la particule, c'est donc son quadri-vecteur énergie/impulsion et m sa masse d'où d'ailleurs l'équivalence masse/énergie. Bon vous me direz tout ça pour ça mais on n'est pas obligé de s'arrêter là.

Amusons nous à construire un tenseur à l'aide des 2 quadri-vecteurs X et P (voir nota 3). En fait la construction simple n'a pas beaucoup d'intérêt mais tout tenseur d'ordre 2 peut de décomposer de manière évidente en un tenseur symétrique et un tenseur antisymétrique, noté M ici (voir nota 4). Un tenseur antisymétrique d'ordre 2 peut se décomposer en 2 vecteurs d'espace (composantes en x, y et z), le premier s'appelle vecteur d'espace électrique E, l'autre vecteur d'espace magnétique B (voir nota 5). Ici B est tout simplement proportionnel au moment cinétique classique. A partir de ce tenseur on fabrique 2 invariants relativistes E² - B² et E.B (on utilise le produit scalaire d'espace ici), On retrouve ce résultat en électromagnétisme, le premier invariant étant le Laplacien du champ électromagnétique. On peut continuer en introduisant le tenseur de Levi-Cevita (Lc) et créer un nouveau quadri-vecteur W = (1/2) Lc M P (voir nota 6) dont la pseudo norme est un invariant de Casimir (l'autre invariant de Casimir étant la pseudo norme de P, soit m).

Il nous reste un dernier objet à construire, les spineurs. Un quadri-vecteur est composé de 4 composantes qui ont la propriété de se transformer par un changement de base de manière à conserver la pseudo norme donc si l'on définit un objet mathématique ayant 2 composantes complexes nous auront le même nombre de variables mais il faudra que ces variables se transforment en conservant la pseudo norme. Il faut donc imposer aux termes de la matrice définissant la transformation un certain nombre de contraintes en particulier celles définies par les 6 rotations dans les 6 plans de l'espace/temps (voir nota 7). Une fois ces contraintes imposées on peut définir : un produit scalaire de spineurs (sa valeur doit être bien sur invariante), un spineur métrique en relation avec ce produit scalaire, la notion de spineur conjugué ou spineur à indice pointé, des spineurs dit "tensoriels" (voir nota 8) et enfin relier les spineurs "tensoriels" aux tenseurs et en particulier aux quadri-vecteurs. Si l'on ne s'occupe que de la composante espace d'un spineur, celle-ci à la particularité de s'inverser lors d'une rotation de 360° dans la partie espace, il faut donc faire 2 tours pour retrouver le spineur "espace". Comme ces objets sont un peu particuliers, il est loisible de dire qu'ils agissent dans un espace "interne" lié à la particule (voir nota 9) mais leurs liens avec les tenseurs vont se traduire par des actions dans l'espace/temps.

Un constat important que l'on peut faire vis à vis des transformations laissant invariant le pseudo scalaire est que le produit de 2 transformations de même type ne conduit pas toujours au même type de transformation. La conjugaison de 2 "boosts" (voir nota 10) conduit en fonction de l'orientation des vitesses à un boost plus une rotation. Pour une particule accélérée cela se traduit par la précession de tout vecteur rattaché à la particule, précession dite de Thomas, en particulier celle de son spin.

Un autre est que si l'on attribue un vecteur spin (de type espace) à une particule, on peut définir la projection de son vecteur impulsion (de type espace) sur ce vecteur spin. Cette quantité change de signe si le nouveau référentiel employé se déplace plus vite que la particule. Par contre si la masse de la particule est nulle (photon par exemple), celle-ci se déplaçant à la vitesse de la lumière, le signe est un invariant caractérisant la particule (voir nota 11).

Tout ceci est encore mieux défini si l'on se place dans le cadre de la mécanique quantique. Les différents objets deviennent des opérateurs hermitiques qu'il est relativement simple de faire apparaitre en considérant l'invariance de la fonction de probabilités complexe (voir nota 12). Cette invariance définit alors les relations de commutation entre ces opérateurs et les opérations algébriques que l'on peut effectuer entre eux permettent de définir leurs valeurs propres et leurs fonctions propres. Mais si l'on veut être mathématiquement complet et surtout plus rigoureux, on se place alors en théorie des groupes, ici le groupe de Poincaré (groupe de Lorentz élargi), et on recherche les générateurs du groupe et l'algèbre de Lie associée mais cela est plus des mathématiques que de la physique (souvent indispensables mais pas toujours nécessaires).

Enfin si l'on veut pleinement définir une particule, il faut caractériser son interaction avec les champs via des objets qui peuvent être simples, par exemple la charge électrique pour le champ électromagnétique, ou parfois plus compliqués, par exemple la charge de couleur (rouge, vert, bleu) pour le champ de la force forte.

Nota 1 : la vitesse de la lumière est prise égale à 1 donc l'unité de temps est identique à l'unité de distance et les vitesses sont exprimées en pourcentage de la vitesse de la lumière. Dans beaucoup d'ouvrages la définition du ds² est inversée, je n'ai jamais compris l'intérêt de cette inversion car les particules ont toutes une vitesse égale ou inférieure à celle de la lumière et donc le ds² doit être positif pour les cas physiques.

Nota 2 : pour un tenseur on montre que sa trace est aussi un invariant.

Nota 3 : on peut toujours construire des tenseurs de plusieurs ordres en multipliant (correctement) les coordonnées de plusieurs quadri-vecteurs mais le contraire n'est généralement pas vrai, un tenseur n'est pas obligatoirement le produit de plusieurs quadri-vecteurs.

Nota 4 : un tenseur symétrique a ses composantes opposées égales, un tenseur antisymétrique à toutes ses composantes opposées inverses l'une de l'autre (coefficient moins 1 entre elles) et nulles si les 2 indices sont identiques.

Nota 5 : cette dénomination vient de l'électromagnétisme. Les champs électrique et magnétique qui dérivent d'un quadri-potentiel sont regroupés en relativité dans un tenseur d'ordre 2 antisymétrique, le tenseur électromagnétique.

Nota 6 : le tenseur de Levi-Cevita est un tenseur d'ordre 4. Il est égal à plus 1 si ses indices sont dans l'ordre normal d'une permutation circulaire par exemple (0, 1, 2, 3) ou (2, 3, 0, 1), moins 1 dans un ordre anormal par exemple (0, 2, 1, 3) ou (2, 3, 1, 0) et nul si 2 au moins sont égaux par exemple (0, 0, 1, 2) ou (3, 3, 3, 3). Pour construire le quadri-vecteur W à partir de ces 2 tenseurs et du quadri-vecteur on applique une contraction d'indices au tenseur ainsi formé. Ici la contraction s'effectue sur 3 indices bas du tenseur de Levi-Cevita et les 3 indices haut du tenseur M P. L'opération de contraction d'un tenseur permet de réduire son ordre tout en conservant sa propriété d'être un tenseur (ou de devenir un quadri-vecteur ou un scalaire). Elle s'effectue toujours entre un indice haut (indice contravariant) et un indice bas (indice covariant). Il est toujours possible de changer la position d'un indice en utilisant le tenseur métrique associé à la pseudo norme.

Nota 7 : les 6 plans sont : (t, x), (t, y), (t, z), (x, y), (x, z) et (y, z).

Nota 8 : la construction de spineurs "tensoriels" se fait de la même manière que pour les tenseurs avec la possibilité d'effectuer les mêmes opérations sur les indices.

Nota 9 : mathématiquement l'espace/temps devient un espace fibré.

Nota 10 : un boost est une transformation qui relie le passage d'un référentiel à un autre via une simple vitesse de type espace, c'est la fameuse transformation de Lorentz remplaçante de la transformation de Galilée de la mécanique classique .

Nota 11 : pour le photon qui a un spin de valeur 1 cela implique aussi que la valeur du spin sur un axe x, y ou z ne peut prendre que les valeurs plus ou moins un et pas zéro.

Nota 12 : cette fonction devient alors dans le cas général un bispineur (composé d'un spineur et d'un spineur à indice pointé) pour tenir compte de l'invariance de la théorie par une réflexion d'espace. L'apparition dans l'équation de Dirac d'une antiparticule associée systématiquement à une particule conduit pour une question de cohérence à la théorie quantique des champs. A titre d'indication, une introduction élémentaire sur les spineurs : https://arxiv.org/pdf/1312.3824.pdf

vendredi, février 10 2023

Densité d'un trou noir, un paradoxe de plus

J'ai déjà fait pas mal de billets sur les trous noirs et mis en avant un certain nombre de paradoxes montrant que la représentation classique (en particulier celle vendue au grand public) des trous noirs était a priori non physique et surtout une extrapolation des équations d'Einstein dans un domaine où l'on pouvait douter de leur validité. C'est pourquoi je préfère parler de trous gris car nos observations montrent qu'il existe des objets célestes ayant certaines caractéristiques des trous noirs mais que notre physique actuelle ne sait pas définir suffisamment bien (voir nota 1).

Les physiciens parlent souvent de la densité d'un trou noir et font remarquer que pour des trous noirs de plusieurs millions de fois la masse du soleil leur densité est inférieure à la densité de l'air donc si un astronaute tombe dedans il ne se passera rien pour lui dans un premier temps (ensuite ce sera un peu plus délicat, spaghettifié le pauvre). Bon, déjà cela ne tient pas compte du fait que sa vitesse devient égale à la vitesse de la lumière sur l'horizon des événements et que le temps de la métrique devient une coordonnée d'espace (et réciproquement), étrange non ? A l'intérieur de l'horizon des événements notre conception de l'espace-temps est tout de même un peu chamboule (voir nota 2).

Sur la densité, j'ai déjà expliqué que c'est une densité fictive car si l'on prend au pied de la lettre la conception du trou noir classique toute la matière est concentrée en r = 0 (un point ou un anneau si le trou noir tourne) et donc la densité est infinie à cet endroit et nulle ailleurs. Un sérieux problème physique même si la mécanique quantique pourrait résoudre ce problème mais nous ne savons pas comment pour l'instant (voir nota 3). En fait dans un trou noir classique, il faut parler d'effet de marée (différence de la force de gravité entre 2 points de l'espace) et pas de densité.

Mais comme je veux parler de densité, voyons de quelle densité fictive les physiciens se saisissent. En fait c'est tout simple, ils prennent la masse du trou noir M et la divise par le volume de la "sphère de Schwarzschild" soit (4/3) x Pi x rs(*3), en gros c'est une densité "moyenne". Ce concept est "intéressant" car il nous permet de montrer que pour n'importe quelle densité il existe un "rayon de Schwarzschild". En effet, Il est facile de voir que rs est proportionnel à un sur racine carré de la densité (voir nota 4). Comme la masse et l'énergie sont les 2 facettes d'un même concept pour les équations d'Einstein et que l'on connait a priori la valeur de la densité masse/énergie pour l'univers (sa platitude mesurée donne une valeur assez précise avec une faible incertitude ainsi que sa "taille" minimum qui est en fait pratiquement infinie par rapport aux distances cosmologiques habituelles), on en déduit que l'univers pourrait être un trou noir (voir nota 5), surprenant non ? Bon, en inversant le sens de la métrique on peut considérer des trous blancs (tout peut sortir mais rien ne rentre dans la "sphère de Schwarzschild" ), cela semble un petit peu moins en contradiction avec nos observations même si cela ne les recoupe pas vraiment.

J'ai déjà mentionné le cas des trous noirs stellaires dont la formation est plus que problématique surtout si l'on considère que notre modèle des particules élémentaires et de leurs interactions n'est pas abouti. Et même avec nos connaissances actuelles il reste pas mal de calcul à faire avant de dire que la pression de dégénérescence ne peut pas arrêter l'effondrement gravitationnel car elle va entrainer une transmutation de la matière que nos accélérateurs de particules nous permettent d'étudier mais malheureusement il reste encore pas mal de boulot et les énergies atteintes limitent nos possibilités d'analyse . En ce qui concerne l'effondrement d'un nuage de gaz gigantesque de densité très faible au départ l'on sait que la formation locale d'étoiles va entrainer sa dislocation et donc empêcher l'effondrement d'ensemble. Toutefois, il reste un cas très particulier, les astronomes ont détecté, "parait-il", des trous noirs gigantesques (donc très peu dense) dans des primo galaxies nées peu après le "big bang". Pour la théorie classique il est pratiquement impossible de comprendre ce phénomène car l'effondrement d'une telle masse de gaz demande un certain temps incompatible avec la durée observée (voir nota 6), même sans parler de la formation d'étoiles.

En conclusion, pour l'instant, les trous noirs stellaires sont surtout des trous gris et les trous noirs peu denses ne sont pas mieux définis et surtout compris. Les physiciens feraient mieux de "tourner sept fois leur langue dans leur bouche" avant de parler de trous noirs à "tire larigot". Il semble que certains physiciens (très peu nombreux) en ont enfin pris conscience.

Nota 1 : Il a été démontré qu'il pouvait théoriquement exister des objets astronomiques ayant des caractéristiques externes très semblables à celles des trous noirs.

Nota 2 : En théorie des cordes (théorie hautement spéculative), une solution (très spéculative aussi) consiste en un espace entremêlé de cordes configurées d'une manière particulière.

Nota 3 : En particulier la mécanique quantique pourrait conduire à une force de rebond mais le sort de la matière rebondissante reste à définir (par exemple le rebond pourrait prendre un temps pratiquement infini).

Nota 4 : rs = c ( (3/8Pi) (1/G) (1/d) )(*1/2) où c est la vitesse de la lumière, G la constante gravitationnelle et d la densité fictive du trou noir. Toutefois, il faut prendre en compte que la solution de Schwarzschild est valide uniquement en dehors de la matière donc que cette formule n'est valide que lorsque la matière est circonscrite dans un volume fini.

Nota 5 : La valeur calculée pour aujourd'hui de rs est d'environ 10 puissance 10 années lumière, valeur d'ailleurs du même ordre de grandeur que l'âge de l'univers. On peut de plus se demander si la constante cosmologique joue un rôle, le coefficient de Schwarzschild complet étant en fait (1 - (2GM/c²r) - (Dr²/3)) où D est la constante cosmologique. La distance à partir de laquelle où D commence à jouer un rôle significatif est du même ordre de grandeur que le rs calculé pour aujourd'hui (pour les cas concrets le facteur contenant D est toujours négligeable). A noter cependant qu'à cause de l'expansion de l'univers, par le passé, la densité de matière pure (baryons et matière noire) était beaucoup plus importante donc le rôle de D était rendu négligeable car rs était beaucoup plus petit. Le satellite EUCLID, récemment envoyé dans l'espace, a pour mission en particulier de vérifier que la constante cosmologique est bien une constante, ce que nos observations confirment pour l'instant. Voir l'article suivant pour connaître de manière détaillée l'influence de la constante cosmologique sur la création des "trous noirs" : https://arxiv.org/pdf/gr-qc/9912066.pdf

A l'autre bout de l'échelle, on peut se poser la question : une particule élémentaire est-elle un "trou noir" ? C'est ce qu'ont fait Einstein et Rosen dans un article publié en 1935. Ils sont alors arrivés à une structure du type "trou de ver" connue aujourd'hui sous le nom de "pont d'Einstein-Rosen" (le nom "trou de ver" n'avait pas encore été inventé). A ma connaissance, il n'y a pas eu de suite en ce qui concerne les particules élémentaires, ni de tentative dans la même veine ayant passé à la postérité. La raison a priori évidente : "la mécanique quantique". Mais ce qui parait évident pour les particules élémentaires me semble aussi évident pour les "trous noirs" dits "classiques". Toute théorie a ses limites et l'extrapoler dans des domaines inconnus est de la pure spéculation.

Nota 6 : A priori la pression régnant dans le milieu stellaire "au début de l'univers" permet seulement la formation des fameux "micros trous noirs" de Hawking qui pour l'instant n'ont jamais donné "un signe de vie". Au centre des autres galaxies, il y a généralement un trou noir très conséquent (plusieurs millions de fois la masse du soleil) mais l'on suppose actuellement qu'il s'est formé par agrégation d'objets célestes de tailles raisonnables (au plus quelques dizaines de fois la masse du soleil). Notre compréhension de la formation des galaxies est encore très incertaine.

vendredi, janvier 27 2023

Expériences de pensée et représentations imagées des phénomènes

L'utilisation d'expériences de pensée ou d'images est un outil pour le raisonnement à la fois dans le domaine de la recherche mais surtout dans le domaine de la vulgarisation des théories. Le danger principal de cet outil c'est que pour des esprits non avertis il peut créer des biais conduisant à des fausses interprétations. Par exemple, plusieurs mathématiciens de renom travaillant sur des théories très abstraites aiment bien se représenter les objets mathématiques sous forme géométrique et cela n'a aucune conséquence pour leurs théories, c'est une simple aide conceptuelle. En physique, Einstein a construit de nombreuses expériences de pensée dont les plus célèbres essayaient de montrer qu'il existait des incohérences ou des imprécisions en mécanique quantique mais cette dernière en est toujours sortie vainqueur. Ceci montre bien qu'il faut être très méfiant vis à vis de ces expériences de pensée ou de ces images.

Une image souvent utilisée pour expliquer l'expansion de l'univers est celle du ballon que l'on gonfle. Evidemment c'est une représentation de ce qui se passe à 3 dimensions alors que la surface du ballon n'en a que 2 mais c'est une très bonne image, pourquoi ? Pour représenter l'univers que l'on suppose homogène et isotrope on peut utiliser une métrique comobile qui définit un temps universel on a donc un espace à 3 dimensions plus un temps indépendant. Maintenant sur la surface du ballon définissons un pavage (voir nota) avec des points centraux. Lorsque l'on gonfle le ballon, la distance entre les points augmentent mais le nombre de pavages qui les sépare ne change pas. De plus la vitesse d'éloignement entre les points est proportionnelle à la distance. C'est exactement ce que nous dit notre théorie de l'univers et que nos observations montrent. Toutefois l'analogie s'arrête là car la courbure observée de l'univers est pratiquement nulle donc très légèrement positive ou négative ou vraiment nulle (?).

Dans le cas de l'univers il faut rajouter ce que l'on appelle couramment l'énergie noire qui accélère l'expansion. Pour l'instant cette appellation est abusive car il s'agit tout simplement d'une deuxième constante dans les équations d'Einstein comme l'a montré le mathématicien Cartan. Des observations plus poussées nous dirons si elle varie dans le temps mais pour l'instant notre meilleur modèle la considère comme une vraie constante (et aucune mesure ne le contredit). Aucun calcul d'énergie d'un champ quelconque ou du vide ne rend compte de sa valeur.

Une représentation de la gravité qui est souvent utilisée c'est le drap tendu sur lequel on pose une masse sphérique. Ce dernier se déforme alors et si l'on jette une bille légère sur le drap celle-ci va suivre une courbe qui va définir une pseudo géodésique. En ce qui concerne l'idée de géodésique c'est une bonne image. Par contre en ce qui concerne l'espace/temps et la gravité c'est très insuffisant car une masse courbe l'espace et le temps ensemble (on ne peut pas définir un temps universel comme lorsque l'on analyse l'univers dans son ensemble). Le temps joue un rôle dans la courbure ainsi que l'espace et donc les phénomènes constatés sont dus à la combinaison des effets engendrés par la courbure de l'espace et du temps (par exemple : calcul de la déviation de la lumière par le soleil ou de l'avance du périhélie de Mercure).

On associe souvent à un objet quantique la notion d'onde/corpuscule. Dans l'expérience des fentes d'Young appliquée à des objets quantiques on s'amuse à fermer ou à ouvrir une des fentes : une fente fermée pas d'interférences, les 2 ouvertes "pan pan rataplan" interférences. Cela prouve-t-il que l'objet quantique est à la fois une onde et un corpuscule ? "Que nenni". Nos expériences montrent que l'objet quantique a une certaine probabilité d'arriver à un endroit de l'écran mais cela est dépendant du contexte car lors de son trajet l'objet quantique va interagir avec les objets quantiques de la source, puis du premier écran, puis du deuxième écran et avec son environnement, il va donc s'intriquer avec des tas d'objets quantiques et donc dans les 2 cas il ne se comporte pas de la même manière et des cohérences entre les objets quantiques vont se créer. En utilisant des cavités résonnantes derrière les fentes et des atomes excités on comprend bien le phénomène (voir mes autres billets). Mais cette image onde/corpuscule est très utile pour interpréter et analyser certains phénomènes en faisant l'impasse sur les multitudes d'interactions que l'objet quantique a en réalité. Ce qui est bluffant en mécanique quantique c'est qu'en inventant une histoire du type l'objet quantique a 2 états possibles : passage par le fente 1 ou passage par la fente 2, on explique l'expérience d'Young en une ou deux lignes de calcul élémentaire.

Une autre expérience de pensée dont on parle souvent en mécanique quantique est celle du chat de Schrödinger. Via un dispositif aléatoire basé sur des objets quantiques, un poison est libéré qui tue le chat enfermé dans une boite. Vu de l'observateur extérieur le chat peut-être vivant ou mort et la mécanique quantique nous dit que le chat est dans un état superposé de ces 2 états et que c'est lors de l'ouverture de la boite qu'un des états est choisi. Je n'ai jamais bien compris ce que cette expérience voulait prouver. Le chat est un objet macroscopique, si je veux qu'il reste vivant un certain temps avant que le dispositif ne se déclenche, il faut lui laisser de l'air et donc il va avoir comme tout objet macroscopique des myriades d'interactions avec son environnement (de plus il est pratiquement impossible d'arrêter le rayonnement cosmologique diffus des photons et des neutrinos). Dans ce cas le chat ne peut être que dans un seul état : vivant tant que le poison n'est pas libéré et mort une fois le poison libéré. Que montre cette expérience ?

Dans un livre de vulgarisation, un poisson quantique est montré éparpillé façon puzzle dans une mare. Lorsque le pécheur ferre le poisson, il se reconstitue. La mécanique quantique nous dit simplement que le poisson a une certaine probabilité de se trouver en un certain endroit, c'est tout. L'auteur ferait bien de relire ses classiques.

Une expérience de pensée qui me semble grotesque et qui est employée par Susskind, pourtant un grand théoricien et un excellent pédagogue, est celle-ci. Susskind intrique un nombre immense de particules 2 à 2. Il sépare les couples de plusieurs années lumière et forme avec chacun de ces 2 ensembles 2 trous noirs. Je ne veux même pas savoir ce qu'il en déduit, pour moi, même en pensée cette expérience est stupide. Une expérience de pensée doit avoir au moins un certain degré de réalité, là c'est de la fantasmagorie (cela me rappelle d'ailleurs le livre de vulgarisation de Thorne sur les trous de vers, une crise de delirium tremens, j'espère qu'il est guéri). Il parait aussi que Susskind dit que le fait que les cordes prévoient une particule du type graviton (donc engendrant la gravité) prouve que la théorie des cordes est juste. Je ne savais pas que l'inventeur de la théorie des cordes était Newton, il était vraiment en avance sur son époque.

Bon en conclusion, les expériences de pensée et les images c'est bien mais "l'eau ferrugineuse c'est mieux", donc à consommer avec modération et dans un cadre bien défini.

Nota : Un pavage correspond à couvrir une surface de petites surfaces identiques toutes contigües les unes aux autres (pas d'espace libre entre elles ni de recouvrement). En fonction de la surface le choix est souvent difficile (cela s'étend à des espace à n dimensions) et en fait c'est une branche ardue des mathématiques. Dans notre cas on suppose que l'on sait le faire.

samedi, janvier 21 2023

Les principes d'équivalence et de relativité

Ces principes sont parfois mal compris et peuvent conduire à des ambiguïtés, je vais donc essayer dans la mesure du possible de les rendre le plus clair possible.

Ces 2 principes sont issus à la base des réflexions géniales (expériences ?) de Galilée : 1 - lorsque 2 corps tombent sous la seule influence de la gravité (aucune autre force extérieure), ils tombent à la même vitesse (variable) et donc atteignent le même niveau en même temps. 2 - le mouvement à vitesse constante n'est "rien" (si je saute d'une fusée allant à vitesse constante et soumise à aucune force de gravité, loin de tout astre, je vais continuer à me mouvoir parallèlement à elle).

Ces 2 principes ont pris vraiment corps avec la théorie de Newton : 1 - les corps sont déviés de leur trajectoire par des forces dont la résultante est proportionnelle à leur accélération donc si aucune force n'est appliquée ils continuent leur mouvement en ligne droite. 2 - la gravité est une force proportionnelle au même coefficient de proportionnalité c'est à dire que la masse inerte (poids) est égale avec les bonnes unités à la masse inertielle. 3 - le temps est universel. Ces 3 principes permettent de définir des référentiels inertiels qui sont tous équivalents par rapport à un espace supposé fixe et éternel. Pour passer d'un référentiels à l'autre on utilise la transformation de Galilée. Les théories physiques doivent être invariantes vis à vis de ses référentiels.

Le problème c'est que la théorie de l'électromagnétisme de Maxwell n'est pas invariante par ces transformations et que la vitesse de la lumière est constante quelle que soit la vitesse de la source. Einstein qui a priori ne connaissait pas les expériences de Michelson sur l'invariance de la vitesse de la lumière a cherché une transformation compatible avec l'électromagnétisme et par la suite Minkowski a théorisé la nouvelle transformation en créant un espace à 4 dimensions, l'espace et le temps étant imbriqués l'un avec l'autre. Les travaux d'Einstein connus sous le nom de "relativité restreinte" ont mis en évidence la relativité du temps (dilatation) et des longueurs (contraction) mais surtout l'équivalence masse/énergie. La mécanique classique a alors été modifiée pour être invariante par rapport aux transformations de Minkowski (en particulier la notion de tenseur a alors pris une importance primordiale).

Était-ce satisfaisant ? On peut dire un gros oui pour toute une partie de la physique et ce jusqu'à nos jours (mécanique quantique, théorie des champs, modèle standard des particules élémentaires, etc). Mais pour Einstein la gravité ne rentrait pas dans ces principes et il était insatisfait. Localement, c'est à dire en un point donné de l'espace, la gravité est équivalente à une accélération (ascenseur d'Einstein), si je tombe dans un champ de gravité comme la masse est équivalente à l'énergie pour moi les lois de l'électromagnétisme doivent être les mêmes (la force faible et la force forte étaient à l'époque inconnues), un disque tournant voit sa longueur périphérique contractée donc les lois des espaces euclidiens ne sont plus valables pour certains observateurs. Quelles conclusions en a-t-il tirées ? Pour prendre en compte la gravité, il faut utiliser un espace courbe (riemannien) et mettre en relation un tenseur géométrique avec un tenseur masse/énergie en gardant en mémoire que le tenseur masse/énergie doit être conservatif et que le tenseur géométrique ne doit contenir que le champ et ses dérivés premières. Avec l'aide du mathématicien Grossmann, un de ses amis proches, Einstein a pu élaborer les équations de la relativité générale complétées peu après par le mathématicien Cartan (constante cosmologique). Ces équations nous permettent de décrire l'univers dans son ensemble et en particulier d'apporter des corrections à la théorie de la gravité de Newton. Elles forment avec nos autres théories un ensemble qui permet de bien décrire nos observations toutefois elles sont disruptives sur quelques points en particulier lorsque l'on veut les "quantifier" comme les autres théories.

Mais revenons-en à notre principe d'équivalence et de relativité. Dans les équations de la relativité générale les corps non soumis à des forces suivent les géodésiques de l'espace temps quelque soit leur masse/énergie mais ils vont en même temps courber l'espace d'où la non linéarité de ces équations. Le principe d'équivalence se traduit par le fait qu'en tout point je peux annuler le champ de gravité (via une accélération par exemple) et me ramener à un référentiel de Minkowski et utiliser mes autres théories dans ce référentiel sans tenir compte de la gravité. Mais cela n'est vrai que dans un volume infinitésimal entourant ce point. Seule une masse/énergie courbe la totalité de l'espace, ce n'est pas vrai pour une accélération. Un observateur extérieur au corps accéléré ne verra pas de courbure de l'espace alors qu'en présence d'une masse/énergie il pourra mesurer cette courbure. Il ne faut pas confondre une courbure fictive vue par l'observateur accéléré et une courbure réelle (exemple : cas du disque tournant). Par contre pour un observateur accéléré, la physique peut-être différente comme le montre l'effet Unruh (l'observateur voit un bain thermique à une température proportionnelle à son accélération et le nombre de particules n'est pas conservé). Toutefois ces calculs d'ailleurs approximatifs font intervenir la mécanique quantique et les relations entre la mécanique quantique et la relativité générale sont loin d'être bien comprises.

dimanche, janvier 8 2023

Everett et l'interprétation des mondes multiples

On attribue à Everett l'interprétation de la mécanique quantique via une théorie des mondes multiples (Many-Worlds). Cette théorie explique que lors d'une mesure le monde se scinde en autant de mondes que de résultats de mesure chacun contenant un clone de l'opérateur.

En fait si on lit en détail la thèse d'Everett on s'aperçoit que cette interprétation ne vient pas de lui. C'est De Witt qui en s'appuyant sur la thèse d'Everett l'a introduite, certainement à cause de l'exemple donné en tout début de la thèse mais qui n'est pas représentatif des développements suivants. Pour Everett la mécanique quantique est une théorie purement statistique qui s'appuie sur la théorie de l'information de Shannon. Elle présente évidemment des caractéristiques particulières via l'introduction de la "fonction d'onde" dont le carré complexe donne une probabilité. On notera qu'Everett considère que toute interaction élémentaire peut être considérée comme une mesure. Ce qui veut dire que si l'on se réfère à l'interprétation Many-Worlds, lors de la mesure d'un spin 1/2 ce n'est pas 2 mondes séparés qui interviennent mais au moins 10 puissance 23 c'est à dire pratiquement un nombre égal au nombre d'atomes de l'aimant constituant l'appareil de mesure (souvent en mécanique quantique on traduit cette interaction par un champ macroscopique mais en fait c'est une approximation car l'interaction se fait réellement avec chacun des atomes). C'est beaucoup de mondes qui se séparent !

L'interprétation Many-Worlds est tout à fait compatible avec la mécanique quantique mais c'est plus une non interprétation un peu comme le fait d'arrêter la fameuse chaîne quantique de Von Neumann dans le cerveau de l'opérateur lors d'une mesure. Les interprétations statistiques présentent plusieurs avantages à condition de se baser simplement sur le postulat que les probabilités sont issues d'une fonction de probabilités complexe (voir mon billet à ce sujet). Elles permettent de se passer de tous les éléments folkloriques qui habillent souvent la mécanique quantique (onde/particule par exemple) car il ne faut pas confondre image commode et réalité. En fait nous ne savons pas ce qu'est réellement un objet quantique mais la mécanique quantique nous permet de comprendre son comportement ce qui est déjà plus que suffisant. Les interprétations nous permettent de nous référer au monde macroscopique et par là de construire des outils de mesure ou des composants technologiques utilisant les propriétés quantiques. Je ne pense pas qu'une interprétation type Many-Worlds soit très utile dans ce cas.

jeudi, janvier 5 2023

Dernières nouvelles sur les trous noirs

J'ai fait plusieurs billets sur les trous noirs et expliqué que l'on pouvait considérer que l'on savait qu'il existait dans l'univers des objets plus compacts que des étoiles à neutrons mais que l'on ne pouvait pas aller plus loin. Plutôt que de parler de trou noir (tn) il vaut mieux parler de trou gris (tg) qui ont des caractéristiques assez proches de celles des tn en particulier en ce qui concerne leurs interactions avec le milieu extérieur. Un article très récemment sorti et publié par une équipe principalement canadienne apporte des précisions sur les tn versus tg.

Tout d'abord résumons comment le concept de tn s'est imposé en physique (en tout cas pour la version vendue au grand public). Il existe des solutions exactes aux équations de la relativité générale. Si l'on suppose une certaine quantité de matière concentrée dans un volume donné possédant certaines symétries on peut définir 4 métriques en dehors de la matière : masse sans mouvement = métrique de Schwarzschild (ms), masse en rotation = métrique de Kerr (mk), masse chargée = métrique de Ressner-Nordström, masse chargée + en rotation = métrique de Kerr-Newman. Les 2 dernières n'ont pas vraiment d'intérêt car les impacts d'une charge sur la métrique par rapport à la masse sont petits si cette charge est faible et visiblement nos observations montrent que dans les objets peuplant l'univers cette charge ne peut être que petite. Si l'on suppose que cette masse est très concentrée alors il existe dans le cas ms et mk (mais dans ce cas cela dépend de la valeur du moment cinétique de la masse) un horizon des événements. C'est à dire une valeur de r (attention r est une coordonnée définissant un rayon mais pas une distance) appelée rayon de Schwarzschild (rs) pour laquelle tout objet physique ponctuel et de masse négligeable (par rapport à la masse du tn) qui atteint cette valeur (rs) ne peut que se diriger vers r = 0 (un point pour ms, un anneau pour mk). On considère donc que toute la masse du trou noir est concentrée vers r = 0 avec une densité infinie (problème ?). Ensuite sur l'horizon la vitesse des particules est égale à la vitesse de la lumière (problème ?) et pour r < rs la coordonnée r est devenue une cordonnée temporelle (problème ?). On notera que pour un observateur extérieur, dans son référentiel, aucun objet tombant de r > rs n'atteint jamais rs en un temps fini mais ce n'est pas le cas dans le référentiel propre de l'objet (voir nota 1).

Tout cela est bien joli mais maintenant il faut relier les objets connus en particulier les étoiles aux tn. Il faut donc être capable en partant d'une étoile qui s'effondre d'arriver à un tn.

Nous savons que les étoiles sont en équilibre sous la pression de radiation principalement due aux photons émis lors des réactions nucléaires (dans un premier temps la transformation d'hydrogène en hélium). Remarquons d'abord qu'une étoile est donc avant tout un objet quantique. Lorsque ces réactions s'arrêtent car le "carburant" des réactions nucléaires est épuisé la pression de dégénérescence des électrons puis des neutrons va arrêter l'effondrement. Toutefois si l'on calcule la valeur de cette pression pour une étoile suffisamment grosse, sa valeur n'est pas suffisante pour arrêter l'effondrement. Ce calcul a été fait en 1939 mais depuis nous avons appris beaucoup de choses (quarks, chromodynamique quantique, etc) et mis au point le modèle standard des particules élémentaires d'ailleurs non définitif car par exemple la masse des neutrinos nous indique qu'il y a encore beaucoup de choses à découvrir au-delà. Donc il est peut-être possible d'arrêter cet effondrement par de nouveaux mécanismes (problème ?).

Des calculs ont été faits pour montrer comment le processus d'effondrement pouvait se dérouler. En particulier en 1939, en prenant en compte une matière inerte sans interaction (pression nulle), répartie de manière sphérique et sans mouvement de rotation il a été calculé que l'on arrivait bien à un tn de type ms. Malheureusement ce cas n'a rien à voir avec une étoile en effondrement (problème ?). Depuis d'autres calculs plus fins ont été faits mais ils font tous des approximations grossières et ne prennent pas en compte suffisamment la mécanique quantique (nous ne savons pas quelle est l'équation d'état de la matière par exemple ni quel est le degré d'homogénéité de l'étoile en effondrement). De plus certains résultats montrent que l'on arrive à une singularité nue donc sans horizon des événements et la fameuse conjecture de Penrose (voir nota 2) ne s'applique pas (problème ?). De fait le premier calcul de 1939 ne pourrait pas s'appliquer à un énorme nuage de gaz (plusieurs milliards de masses solaires) en effondrement car dans ce cas la "densité" calculée au niveau de rs est très faible (ce calcul est une "densité" moyenne dans la sphère de Schwarzschild et il vaut mieux donc parler de forces de marée). C'est pourquoi l'on parle souvent d'astronaute tombant dans un trou noir sans qu'il ne se passe rien pour lui (au moins dans un premier temps). Mais pour une telle "densité" les réactions nucléaires ne pourraient pas s'enclencher tant que r est supérieur à rs et de plus dans ce type de nuage des concentrations locales se forment (comme nos observations courantes nous le montrent) et produisent des étoiles donc ce cas est à rejeter (problème ?). La solution expliquant que ces énormes soit disant tn se sont formés à partir d'objets plus petits déjà agglomérés (tn, étoiles standards, étoiles à neutrons, etc) n'est pas plus réaliste (problème ?).

Pour conclure cette première partie nous sommes donc sur que les tg existent mais aller au-delà c'est une pure spéculation.

Un événement fracassant c'est produit ces dernières années, la publication de l'image de tn grâce à la collaboration EHT. C'est en fait une image de synthèse produite par l'analyse de données issues de plusieurs radio télescopes répartis sur la surface de la terre. C'est donc une analyse en ondes radio très courtes (la lumière émise dans un fort champ de gravitation est très très décalée vers le rouge). C'est un travail remarquable et l'on distingue sur ces images de synthèse (fausses couleurs) une répartition de la lumière conforme aux calculs faits lorsque l'on considère une répartition de matière très concentrée dans l'univers (le premier calcul exact a été fait par JP Luminet dans les années 1970). On distingue en particulier le fameux disque d'accrétion caractéristique des tn ou tg. Dans le nouvel article paru récemment (fin 2022), l'équipe principalement canadienne explique qu'après une analyse fine des données ayant permis de produire l'image de synthèse ils ont pu détecter des anneaux de photons. Ces anneaux sont prévus par mk et ils se trouvent très proches de l'horizon des événements (en ms il en existe un seul). D'après JP Luminet qui se base sur un travail de l'équipe de l'observatoire de Paris un des anneaux serait à 2.6 rs donc vraiment à proximité de l'horizon des événements. Si ces données et calculs sont exacts la marge entre les tg et les tn se resserre. Toutefois les données doivent être validées de manière beaucoup plus fines et les calculs restent un peu hypothétiques sachant qu'ils se basent eux-mêmes sur mk (en particulier la masse du trou noir n'est pas connue de façon très précise). Il faut donc attendre la mise en service de nouveaux radio télescopes pour se prononcer. Plusieurs doivent rejoindre le projet EHT et il est prévu d'en installer sur la lune. De plus les calculs doivent être vérifiés par plusieurs équipes. A noter que JP Luminet dans ses conférences sur les trous noirs explique maintenant que ce qui se passe dans un trou noir est un gros point d'interrogation. Il est temps que tous les physiciens l'expliquent au grand public et précisent que le reste comme les trous de vers est avant tout de la spéculation infondée tant que la mécanique quantique ne sera pas correctement prise en compte (d'ailleurs c'est en appliquant la mécanique quantique sur l'horizon des événements, mais de manière très approximative, semi-classique, que l'on calcule l'entropie et le rayonnement des tn, ces deux caractéristiques étant nulles de manière classique).

Nota 1 : En fait sur tous ces points la situation avec mk est un peu plus compliquée car le moment cinétique de la masse joue un rôle : existence de plusieurs valeurs spécifiques de r et d'une ergosphére aux propriétés particulières. Mais cela ne change en rien les problèmes de fond qui sont simplement un peu plus compliqués via la présence du moment cinétique.

Nota 2 : Penrose a reçu le Prix Nobel de physique pour ses contributions à la théorie des trous noirs. Il est vrai que toutes ses démonstrations sont mathématiquement très belles car elles sont basées sur la topologie appliquée aux équations de la relativité générale. Malheureusement elles prennent en compte une conjecture sur les sous-variétés de l'espace-temps et de plus la mécanique quantique ne joue aucun rôle. Il faut donc les prendre avec des pincettes.

vendredi, novembre 18 2022

La non localité et le théorème de Bell

Le théorème de Bell est fondamental pour l'interprétation de la mécanique quantique. Toutefois j'ai vu une démonstration qui me parait vraiment fausse et elle est reprise par plusieurs auteurs. Ce qui a de plus surprenant c'est que Aspect (prix Nobel 2022 pour son expérience démontrant le résultat de Bell) la reprend à son compte mais il spécifie bien que c'est une démonstration naïve (naïf mais en fait faux, un peu bizarre, non ?). Tout d'abord le cas pris comme référence par Bell est difficile à traduire par une expérience donc il a fallu trouver un cas similaire qui est expérimentalement possible, c'est le fameux test CHSH (initiale des auteurs), test d'une inégalité vraie pour des théories à variables cachées locales et fausse dans certaines circonstances particulières en mécanique quantique.

Mais tout d'abord revenons à ce qui a déclenché chez Bell l'idée de son théorème. En 1935 Einstein, Podolsky et Rosen publient le fameux article dit EPR. Ils croient à la localité fer de lance de toutes les théories classiques et en particulier de la relativité. Ils ne remettent pas en question les résultats de la mécanique quantique mais pensent qu'ils proviennent d'une incomplétude de la théorie. Ses résultats s'expliquent du fait de variables inconnues qui produisent les effets constatés et en particulier le fait que la mécanique quantique utilise des probabilités ("Dieu ne joue pas aux dés" d'après Einstein). Ces variables inconnues qui agissent localement nous sont cachées. On pourrait dire que le fait que ces variables soient cachées et a priori indétectables n'apportent rien de plus à part de rassurer le trio EPR, par contre l'hypothèse de localité est mise à mal par le théorème de Bell qui ne s'en est aperçu qu'après avoir analysé plus finement les résultats de son théorème. Mais pour comprendre les idées du trio EPR le traitement d'un cas simple les met en évidence. Mettons deux boules dans une urne, l'une bleue, l'autre rouge. Si je tire une boule bleue je suis sûr de tirer ensuite une boule rouge et ce quel que soit l'instant qui sépare les deux tirages et même si je déplace l'urne à plusieurs années lumières après le premier tirage. Si un couple de photons est dans l'état de spin nul du type |1z, -1z> - |-1z, 1z>, la mesure de l'état du premier suivant l'axe Z donne automatiquement l'état du second (1 -> -1, -1 -> 1). Est-on dans le cas des boules rouge ou bleue ? C'est là que se situe le théorème de Bell. Pour cela il faut comparer les résultats obtenus dans les cas où l'on fait les mesure avec des angles a et a' pour le premier photon et b et b' pour le deuxième photon.

D'abord comme la mécanique quantique est supposée exacte, les résultats obtenues dans tous les cas sont plus 1 ou moins 1. Si l'on forme le nombre :

s = r1(a,u)r2(b,u) - r1(a,u)r2(b',u) + r1(a',u)r2(b,u) + r1(a',u)r2(b',u) = r1(a,u)(r2(b,u) - r2(b',u)) + r1(a',u)(r2(b,u) + r2(b',u))

où r représente le résultat d'une mesure suivant un angle donné et u potentiellement un paramétre décrivant l'ensemble des variables cachées associées aux photons, ce nombre s est automatiquement égal à 2 ou -2 que l'on considère ou pas des variables cachées. Dans le cas des dites variables, certains auteurs prennent la moyenne sur u de ce nombre et donc bien sur la valeur obtenue est inférieure ou égale à 2 en valeur absolue mais on a en aucun cas prouvé l'inégalité CHSH car cette moyenne ne veut tout simplement rien dire et en tout cas ne permet pas de comparaison entre une théorie à variables cachées et la mécanique quantique (même résultat pour les deux).

Reprenons donc le vrai calcul qui permet d'obtenir l'inégalité CHSH qui est :

|E(a,b) - E(a,b') + E(a',b) + E(a',b')| < ou = 2 , E est la moyenne des résultats obtenus avec les angles entre parenthèses.

D'après EPR, les probabilités d'obtenir un résultat est indépendant de tout le reste donc :

E(a,b) = Intégrale(p(u)Somme(r1(a,u)r2(b,u)p1(r1,a,u)p2(r2,b,u))du) , où les p sont les probabilités indépendantes. On obtient après réarrangement des termes :

Somme(r1(a,u)r2(b,u)p1(a,u)p2(b,u)) = (p1(1,a,u) - p1(-1,a,u))(p2(1,b, u) - p2(-1, b, u)) = P1(a,u)P2(b,u) , ces 2 termes sont obligatoirement inférieur à 1 en valeur absolue (voir nota 1).

On peut donc écrire après réarrangement des termes : E(a,b) - E(a,b') + E(a',b) + E(a',b') = Intégrale(p(u)(P1(a,u)(P2(b,u) -P2(b'u)) + P1(a',u)(P2(b,u) + P2(b',u)))du)

Ce n'est pas si évident que cela mais comme tous ces termes sont inférieurs à 1 en valeur absolue on a bien démontré l'inégalité CHSH (voir nota 2).

En projetant le vecteur de base |1z, -1z> - |-1z, 1z> dûment normalisé (facteur racine carrée de 2 devant les 2 termes) sur les angles a et b, calcul relativement simple en mécanique quantique, et en calculant ensuite les moyennes sur les couples d'angles, l'inégalité CHSH est violée pour certains angles (voir nota 3).

Les résultats de la mécanique quantique rejettent l'hypothèse EPR et une analyse fine montre que c'est la localité qui en est la cause. On peut toujours supposer des variables cachées non locales mais cela n'apporte rien. Beaucoup ont cherché des parades à ce théorème. Il en existe mais elles sont si tarabiscotés que le plus simple est de les rejeter. La mécanique quantique a fait plus que ses preuves depuis plus de 100 ans et admettre sa non localité est plus simple que de se torturer l'esprit (même si cela contrarie notre entendement de la nature) et explique simplement tous les résultats obtenus sans contredire la relativité car tout échange d'information entre "opérateurs" ne peut se faire plus vite que la lumière même en essayant d'utiliser l'intrication et sa non localité.

Nota 1 : cette somme peut être considérée comme un coefficient de corrélation -> C(a,b) = p1(1,a)p2(1,b) + p1(-1,a)p2(-1,b) - p1(1,a)p2(-1,b) - p1(-1,a)p2(1,b) qui dans notre cas dépend de u. On peut écrire -> P1(a,u) = 1 - (2 x p1(-1,a,u)) ce qui montre que P1 varie de façon continue et linéaire de moins 1 à plus 1 (idem pour P2(b,u)).

Nota 2 : le terme pris en moyenne sur u prend ses valeurs extrèmes (+ 2 ou - 2) quand par exemple - > P1(a,u) = + 1 ou - 1 , P2(b,u) = + 1 , P2(b'u) = - 1 mais d'autres cas sont possibles.

Nota 3 : on prend a, a', b, b' dans le même plan passant par Z avec les valeurs suivantes des angles: (a,b) = (b,a') = (a',b') = (1/3) (a,b') = m , l'application de la mécanique quantique donne alors -> CHSH = |cos(6m) - 3 cos(2m)| qui pour m = 22.5° donne CHSH = 2.7 . C'est le fait que en mécanique quantique les probabilités dépendent des angles qui différencie ses résultats par rapport à ceux des hypothèses EPR (p(r, a, u) et non pas p(r, a, b, u)). C'est pourquoi les nouvelles expériences mettant en évidence le théorème de Bell modifient de manière aléatoire les angles, cette modification ayant lieu pendant le temps de vol des photons.

- page 1 de 4