Physique_et_autres

Aller au contenu | Aller au menu | Aller à la recherche

dimanche, octobre 20 2024

Les trous noirs, parlons en !

Actuellement, il y a 3 observations principales différentes qui valident la notion de "trous noirs". La plus convaincante au moins pour le grand public ce sont les images publiées par le EHT. Ensuite, pour les gens qui ont quelques connaissances en physique, les trajectoires de quelques étoiles autour du centre de notre galaxie. Enfin, les résultats mesurés sur les ondes gravitationnelles via les interféromètres LIFO/VIGO lors de la coalescence de 2 "trous noirs".

Maintenant regardons ce que nous dit la rg. En ce qui concerne la métrique je prends uniquement le cas de la métrique de Schwarzschild car la métrique de Kerr plus conforme à une certaine "réalité" introduit des notions supplémentaires qui ne sont pas vraiment utiles dans le cadre qui nous intéresse. Cette métrique de Schwarzschild est établie dans un cadre d'hypothèses bien spécifiques. On suppose que la matière est répartie de façon sphérique et on cherche une solution simple ayant cette symétrie lorsque l'on est en dehors de la matière, je répète en dehors de la matière. La métrique de Schwarzschild est la solution cherchée. Elle fait apparaitre un rayon appelé le rayon de Schwarzschild, rs. Lorsque le rayon utilisé dans la métrique en tant que coordonnée, qui est bien un rayon et pas une distance, est supérieur à rs on a un espace dit statique c'est à dire que les coefficients g de la métrique sont indépendants du temps. Une remarque tout de même, si l'on tient compte de la constante cosmologique ce n'est plus vrai à partir d'une certaine distance, très très grande, mais ici on fait comme si cette constante n'existait pas. On peut se demander alors ce que signifie la coordonnée de temps. C'est tout simplement le temps mesuré par un observateur situé à très grande distance de la matière (pas à l'infini à cause de la constante cosmologique). Pour cet observateur, un objet en chute libre met un temps infini pour atteindre rs. Le rayon rs ne définit pas une singularité au sens traditionnel du terme, par contre il définit une sphère de points singuliers pour la métrique, l'horizon des événements. Sur cet horizon les diagrammes de Minkowski sont fermés et tangents à la sphère. Dès que r devient plus petit que rs, la coordonnée t devient une coordonnée d'espace et r une coordonnée de temps, la métrique n'est plus statique. On peut toujours faire un changement de variables, c'est mathématiquement possible mais ces nouvelles variables doivent respecter les domaines de définition des anciennes et si on étend ces domaines comme c'est souvent le cas, il faut vérifier impérativement que la nouvelle métrique est bien solution (jamais fait). On a bien des définitions opérationnelles des coordonnées quand r est supérieur à rs mais ce n'est plus le cas quand r est inférieur à rs donc toute déduction est à prendre avec des pincettes d'autant que si l'on applique la métrique de Kerr les résultats peuvent être contradictoires comme l'a montré dernièrement Kerr lui-même. Une dernière précision, ce qui intervient dans la métrique pour définir un "trou noir" c'est un rapport masse sur rayon ce qui explique qu'un "trou noir" de très grande masse a un très grand rayon et donc si l'on calcule une densité "fictive" interne, cette densité peut être inférieure à la densité de l'air si la masse est énorme. Ensuite, on a le fameux théorème de Penrose/Hawking. Le problème c'est que la convergence de géodésiques est un résultat purement mathématique et ce qui doit converger c'est de la matière. Cette matière ce n'est pas uniquement ce que les astrophysiciens classent souvent sous le terme de poussière. Elle a des caractéristiques bien particulières par exemple via les interactions nucléaires de se transformer en étoile et beaucoup d'autres possibilités qui font qu'elle ne se contente pas de suivre des géodésiques de l"espace/temps . De plus, la seule caractéristique de la matière prise en compte par Penrose/Hawking dans leur théorème mathématique est une propriété de la matière dans un état plus qu'ordinaire.

Bon, revenons aux fameuses 3 observations. Pour les images du EHT une remarque tout de même. C'est évidemment des images en fausses couleurs. La norme lorsqu'on publie de telles images c'est d'adjoindre systématiquement une échelle de températures (en fait une échelle énergétique). Dans les articles publiés par le EHT c'est bien le cas, par contre pour les images destinées au grand public ce n'est plus le cas et on oublie de rappeler que ce sont des fausses couleurs, cela ne me parait pas très correct et surtout pas déontologique. Les 2 premières observations montrent qu'il existe au sein des galaxies des objets physiques très massifs ayant les caractéristiques externes que l'on peut attribuer aux "trous noirs". La troisième que des objets physiques très massifs sont susceptibles de coalescence et d'engendrer ainsi des ondes gravitationnelles dont le signal mesuré est en accord avec les prévisions de la rg linéarisée. Ces observations mettent donc en évidence qu'il existe dans l'univers des objets physiques dont les propriétés externes mesurées sont très proches de celles des "trous noirs classiques" mais il faut insister sur les mots "propriétés externes". De plus, elles valident que la rg est tout à fait adéquate pour calculer ces propriétés externes, mais rien de plus. On notera que pour les images du "trou noir" les contrastes ne sont pas tout à fait en accord avec l'échelle de températures en particulier en ce qui concerne l'ombre du "trou noir". De plus, un certain nombre d'articles rédigés par une équipe nippone mettent en doute l'image produite. On peut alors se demander si le EHT n'a pas fait en fait de l'auto- référence c'est à dire traiter les données de manière à obtenir le résultat attendu. Cela arrive souvent quand la somme des données à traiter est énorme et pas toujours significative. Mais évidemment cela reste une hypothèse et le EHT a à cœur de justifier ses résultats.

Il reste à savoir comment à partir de la matière on peut arriver à ces objets physiques ressemblant à des "trous noirs classiques" (je vais employer maintenant systématiquement le mot "trou noir" pour ces objets physiques). Hawking a prédit que à la "naissance" de l'univers il pourrait se former des micro-trous noirs. En explosant, le terme n'est pas trop fort, et ce très rapidement étant donné leur taille ils auraient du laisser des traces dans l'univers actuel. A priori aucune observation n'a validé ces traces donc leur existence éphémère. La seule façon de former un trou noir c'est donc via l'effondrement de la matière. Mais l'effondrement de la matière produit automatiquement des réactions nucléaires et donne naissance à des étoiles donc dans l'univers actuel uniquement des trous noirs de quelques masses solaires. On peut se demander d'où viennent alors les trous noirs supers massifs au centre des galaxies.

En fait dans l'univers très jeune, après le découplage, la densité de matière et sa non métallicité permet à des étoiles supers massives de se former et étant donné leur masse leur durée de vie est très courte et elles se transforment très rapidement en un trou noir qui est entouré de matière très dense qu'il va se mettre à absorber. Ce scénario n'est pas pour l'instant validé mais il a l'air de correspondre aux observations de JWST. Aucun autre scénario à ma connaissance n'explique pourquoi les galaxies ont en leur sein un trou noir super massif. Donc si l'on admet que tous les trous noirs se sont formés à partir d'étoiles via leur effondrement et sachant qu'une étoile est avant tout un système quantique (réactions nucléaires), il est difficile de se passer de la mq pour décrire cet effondrement. Le stade ultime d'une étoile dès qu'elle a une certaine masse c'est l'étoile à neutrons. La mq nous dit qu'une étoile à neutrons peut être stabilisée par sa pression de dégénérescence mais que celle-ci a une limite. Disons déjà que pour l'instant une étoile à neutrons sur le plan physique on ne sait pas encore très bien la définir et certainement il y aura des surprises, les calculs sont très difficiles. En tout cas ce n'est pas des neutrons collés les uns aux autres comme on pouvait le supposer en 1939. A priori, la limite existe bien donc l'étoile à neutrons suivant sa masse peut continuer à évoluer. On peut alors admettre que le modèle de l'étoile à quarks est probable, quarks qui vont se transformer en quarks étranges. On ne connait pas très bien les étoiles à neutrons, évidemment les étoiles étranges sont encore plus étrangères à notre connaissance. Mais on peut affirmer d'ores et déjà que sans gravité quantique, il faut prendre tous les résultats avec des pincettes (gravité quantique n'implique aucunement la quantification de la gravité que l'on essaie de faire depuis les années 1950 sans aucun succès). Un résultat du à Hawking montre que les trous noirs doivent rayonner ce qui est absolument en contradiction avec les résultats des "trous noirs classiques" mais les incohérences ne s'arrêtent pas là bien entendu.

En définitive, il est pratiquement certain qu'il existe dans l'univers des objets physiques qui ont des caractéristiques externes très proches de celles des "trous noirs classiques" mais c'est tout ce que l'on sait. Et pour aller plus loin il faut avoir une théorie quantique de la gravitation que l'on n'a pas. Je ne m'explique pas pourquoi la plus part des livres consacre plusieurs pages à nous expliquer ce qui se passe dans un "trou noir" en utilisant la rg classique, le summum étant les "trous de vers" classiques.

Les nouvelles théories de la physique, parlons en !

Si certains ont lu mes écrits sur la physique, ils ont pu s'apercevoir que je ne suis pas un fana des nouvelles théories physiques. En fait, j'ai "étudié" les 3 qui me semblent les plus importantes. Je veux simplement donner ici les points principaux qui me paraissent les plus contestables.

La théorie des cordes a été construite pour éliminer les infinis provenant de la ponctualité des "particules" qui ont été remplacées par des cordes, des objets unidimensionnels. Très vite, il est apparu la notion de branes de dimensions allant de 0 à 9. Étrange donc de revoir apparaitre des objets ponctuels que la théorie devait éliminer, brane de dimension 0. Bon, on peut rajouter les superpartenaires, les dimensions supplémentaires, la théorie M et même la F.

La théorie des boucles a éliminé le temps. La physique c'est avant tout de la dynamique et sans temps on fait comment pour la causalité. Le temps dépend de l'observateur et alors ? Si je sais relier ces différents temps entre eux où est le problème ? Avec les arguments de Rovelli pour justifier que le temps n'existe pas, on peut justifier que l'espace n'existe pas, un peu compliqué pour faire de la physique.

La géométrie non commutative, plusieurs centaines de pages de mathématiques pures pour retrouver la QFT et la RG classique. Évidemment si je remplace une expression d'une centaine de lignes par A et une autre expression de la même taille par B et que ces 2 expressions sont égales si j'écris A = B cela tient moins de place mais quand je fais un calcul j'ai toujours 2 expressions d'une centaine de lignes. A noter que quand on a identifié le boson de Higgs et mesuré sa masse, il a fallu modifier la théorie. C'est vrai qu'en mathématique en prenant les bonnes hypothèses, pardon les bons axiomes, on arrive toujours à ses fins.

J'aime bien la nouvelle expression pour définir la QFT, c'est une théorie effective valable uniquement à basse énergie, malheureusement plus on augmente les énergies pour les observations et les mesures plus la QFT prouve sa validité alors que pour les nouvelles théories, rien, toujours rien. C'est normal car on n'est pas dans le domaine de Planck, domaine à jamais inatteignable. Il est construit à partir des constantes universelles, pour c et h, pour l'instant il n'y a aucune raison qu'elles ne soient pas universelles mais ce n'est pas le cas de G et certains résultats vont dans ce sens. Donc pour l'instant le domaine de Planck c'est surtout l'ELDORADO des nouvelles théories.

mercredi, septembre 18 2024

Un scénario qui explique les observations de JWST dans l'univers très jeune

Ce scénario doit être considéré comme une hypothèse de travail et des calculs futurs poussés ainsi que d'autres observations devront le valider, toutefois quelques calculs à la main le rendent plausible ainsi que certaines constations dans l'univers actuel.

Peu après le découplage photons/matière, la densité de la matière et sa composition (nota 1) étaient telles que des étoiles de très grande masse pouvaient se former très rapidement (nota 2). Étant donné leur masse, elles se sont rapidement transformer (nota 3) en trous noirs très gloutons car la densité du gaz les entourant était très importante (nota 4). Ces trous noirs sont donc devenus très lumineux (nota 5), plus lumineux que les plus grandes galaxies actuelles, donc JWST détecte dans l'univers très jeune non pas des galaxies mais ces trous noirs gloutons.

Ce scénario explique très bien pourquoi les galaxies actuelles comportent en leur centre des trous noirs massifs (nota 6) et pourquoi la densité d'étoiles près de ces trous noirs est très faible (nota 7). Avec ce scénario, il est possible mais pas certain que les galaxies passent par une phase de luminosité relativement faible si la luminosité des trous noirs diminuent plus rapidement que l'augmentation de luminosité due à la création d'étoiles dans les galaxies, mais il est possible qu'il y ait un phénomène de compensation. Si ce phénomène existe il doit être relativement facile à observer et les calculs théoriques semblent relativement simples (au moins avec les mains).

Nota 1 : la métallicité de la matière était très très faible c'est à dire qu'elle était principalement composé d'hydrogène et de quelques noyaux d'hélium, pas d'autres composants plus lourds.

Nota 2 : il s'agit d'étoiles beaucoup plus grosses que les plus grosses étoiles actuelles, peut-être des centaines à milliers de masses solaires.

Nota 3 : la durée de vie d'une étoile dépend de sa masse, plus celle-ci est importante plus la durée de vie est courte, le soleil doit vivre environ 9 milliards d'années et une étoiles de masse 10 fois plus grande seulement 30 millions d'années. D'après les théories actuelles toutes les étoiles massives se transforment en trou noir (en tout cas en des objets physiques présentant les mêmes caractéristiques extérieures que les trous noirs) après une phase de supernova.

Nota 4 : pendant la phase de supernova une grand partie des couches extérieures de l'étoile est expulsée ainsi qu'une partie du halo de gaz entourant l'étoile. Toutefois ce phénomène n'est pas symétrique car la rotation de l'étoile le rend directionnel (plus certainement des effets magnétiques) et donc il reste une grande partie du gaz entourant l'étoile et cela permet au trou noir formé de grossir très très rapidement. On notera qu'il n'y a pratiquement aucune étude de ces étoiles monstrueuses car elles ne peuvent plus se former aujourd'hui étant donné la densité actuelle de la matière dans l'univers qui est sans commune mesure avec la densité de matière dans l'univers très jeune.

Nota 5 :en tombant dans le trou noir la matière rayonne une énergie énorme ce qui rend le pourtour du trou noir très lumineux.

Nota 6 : plusieurs millions à milliards de masses solaires.

Nota 7 : les étoiles qui sont près des trous noirs centraux des galaxies sont certainement des étoiles précédemment éloignées qui ont été éjectées de leur trajectoire primaire, leurs trajectoires constatées autour du trou noir étant statistiquement très aléatoires, pratiquement aucune identique.

mardi, janvier 30 2024

Formation de trous noirs supers massifs

Bon, je ne vais pas revenir sur le problème de la théorie des trous noirs que je préfère appeler des trous gris car leur théorie physique est encore très problématique, et j'ai fait plusieurs billets à ce sujet. On notera toutefois que Kerr a démontré dernièrement que dans le cadre de sa métrique le fameux théorème de Hawking/Penrose était aussi faux que la conjecture de Penrose sur la formation systématique de l'horizon d'un trou noir (gris). Pour simplifier ce billet je vais employer le terme "trou noir".

Les observations de JWST (le satellite) concernant l'univers jeune semblaient aberrantes et certains voulaient remettre en question une bonne partie de la cosmologie/astrophysique et les équations d'Einstein. En fait il existe une solution très plausible qui bien sûr reste à confirmer par le calcul et les observations.

Les filaments de la toile cosmique sont parcourus par des rivières cosmiques de matière. Dans l'univers jeune, c'est à dire quelques centaines de milliers à millions d'années après le découplage matière/photons, leur densité et leur composition étaient telles qu'elles permettaient d'approvisionner en matière un trou noir pour qu'il devienne un trou noir super massif (milliards de masses solaires) et ce dans un temps très court car le trou noir s'était lui-même formè à partir dune étoile très très massive donc à très courte durée de vie. Cette théorie permet aussi d'expliquer la formation et la forme de galaxies nées très peu de temps après le découplage matière/photons soit quelques centaines de millions d'années après.

De nouvelles observations via JWST permettront d'infirmer ou de confirmer cette théorie qui évite évidemment de chambouler la physique connue.

mardi, décembre 5 2023

Effet Casimir et gravité émergente

J'ai fait plusieurs billets sur la gravité émergente concluant que la gravité devait provenir d'une ou de plusieurs caractéristiques de la mécanique quantique. L'une de ses caractéristiques majeures est le phénomène d'intrication et j'ai essayé d'expliquer comment à partir de ce phénomène caractéristique on pouvait définir une gravité émergente. L'autre caractéristique majeure de la mécanique quantique est le fait que le vide fluctue via "le principe d'incertitude d'Heisenberg". Ces fluctuations donnent lieu à des impacts directs sur les propriétés de la matière et sont parfaitement mesurables (effet Lamb, moment magnétique anomal de l'électron, etc). Peut-on donc faire émerger la gravité des fluctuations du vide ?

Tout d'abord, est-ce que ces fluctuations permettent de dire que le vide "pèse", c'est à dire que l'énergie moyenne du vide n'est pas nulle ? Des expériences en cours veulent justement faire cette mesure, espérons qu'elles n'utilisent pas une balance de Roberval. Des physiciens théoriciens ont essayé de prouver que la constante cosmologique des équations d'Einstein provenait de l'énergie du vide mais les valeurs trouvées sont sans commune mesure avec la valeur de la constante cosmologique. Un calcul relativement simple montre pourtant que l'énergie du vide est nulle. En effet l'impact des termes fermioniques annule tout simplement l'impact des termes bosoniques dans le cas de particules de masse nulle. Comme les fluctuations du vide produisent des particules uniquement virtuelles on peut considérer que ces particules ne sont pas soumises au champ de Higgs donc restent sans masse. Reste le cas de la masse des neutrinos sauf si l'on ferme le modèle standard en introduisant 3 neutrinos dextrogyres ce qui a l'avantage d'avoir de très bons candidats pour la matière noire mais aussi explique pourquoi on ne constate pas de présence significative d'antimatière dans l'univers. On entend souvent que des expériences ont prouvé que les neutrinos dextrogyres n'existent pas. C'est faux ! Ces expériences ont simplement fermé quelques portes mais il reste encore pas mal de place surtout si les neutrinos dextrogyres ne ressentent pas la force faible contrairement aux lévogyres. L'exemple de l'expérience STEREO est flagrant. L'anomalie constatée dans le flux de neutrinos lévogyres provenant du réacteur nucléaire était simplement due à un biais dans les données. Une fois le biais corrigé cette expérience permet de fermer une porte mais certainement pas toutes les portes. Donc en conclusion l'énergie globale du vide (sommée sur tous les champs) est théoriquement nulle. Attendons les résultats des expériences de "pesage" et espérons qu'il n'y aura pas de biais dans les données car on voit maintenant souvent des articles publiés montrant avec force un résultat soit disant probant qui en définitive s'avère complétement faux (surtout en astronomie/cosmologie).

L'effet Casimir a été expérimenté et les résultats confortent l'existence de cet effet. Pour cela on utilise 2 plaques conductrices parallèles dans un vide très poussé. Lorsque les plaques sont suffisamment proches on constate qu'elles s'attirent. Pour des plaques planes la force engendrée est en un sur la distance de séparation puissance 4, si une des plaques est sphérique en un sur puissance 3. On peut faire un calcul détaillé et retrouver ces résultats mais l'explication physique est simple (voir nota 1). Entre les plaques, les fluctuations du vide sont limitées en fréquence (multiples de un sur la distance), en dehors des plaques il n'y a plus de limite d'où une différence fondamentale qui entraine cette force. Nous sommes dans le cas de plaques conductrices donc on fait référence ici à une théorie des champs quantiques électromagnétiques mais en théorie des champs quantiques on associe à chaque champ une particule et réciproquement on peut donc appliquer cette théorie à toutes les particules et champs. Une particule quantique est un objet complétement inconnu dont on ne sait définir que des propriétés contextuelles (dépendantes de l'expérience réalisée, interprétée d'ailleurs elle même sous forme d'histoires, voir nota 2). Il est donc difficile de faire une théorie complète de ce phénomène mais on peut émettre quelques hypothèses très spéculatives. La conservation du flux entraine une force en un sur le carré de la distance. En effet, la différence d'énergie pour un champ donné entre l'espace séparant les particules et l'espace extérieur est due au fait que les modes possibles de ce champ sont limités entre les particules et ce proportionnellement à l'inverse de la distance ce qui donne une fonction potentiel attirante en 1/d (voir nota 3). Même si les particules virtuelles sont sans masse, elles influent sur des particules massives donc la masse des particules doit être prise en compte et a priori de façon linéaire (voir nota 4). On retrouve donc de façon très spéculative la force de Newton pour des objets de "taille macroscopique" sachant que la valeur de la constante de gravité n'est pas si bien définie que ce que l'on suppose (voir nota 5).

Pour conclure, nos hypothèses sont très spéculatives mais une théorie émergente de la gravité permet de comprendre pourquoi les théoriciens se cassent les dents depuis plus de soixante ans sur la quantification de la gravité. Et ce n'est pas le seul argument en faveur de la gravité émergente, je renvoie à mes billets sur ce sujet pour en savoir plus (voir nota 6).

Pour finir, un peu d'histoire. Newton n'a jamais été content de sa formule donnant la force de gravité car il ne comprenait pas comment des corps pouvaient s'attirer à travers le vide. Les forces devaient se propager de proche en proche à travers un milieu servant de support, via un hypothétique éther par exemple. Un physicien de son époque (ou légèrement postérieure), Lesage, a résolu le problème en supposant que les corps macroscopiques étaient sans arrêt bombardés par des particules microscopiques, la gravité provenant alors d'un effet de masquage du flux des particules microscopiques. Feynman a repris ce concept dans un de ses écrits pour montrer que l'on pouvait concevoir un concept physique de plusieurs manières (voir nota 7). On peut considérer que le concept de gravité émergente via l'effet Casimir n'est pas si éloigné que ça de ce concept vieux de plusieurs centaines d'années..

Nota 1 : En fait, le calcul est plus compliqué si l'on tient compte de la température (agitation électronique et atomique) et que les plaques ne sont pas vraiment des conducteurs parfaits pour toutes les fréquences photoniques (passage de conducteur à diélectrique pour les très hautes fréquences ainsi que différents effets secondaires). Dans notre calcul on se place dans le cas de conducteurs parfaits et à température nulle car sinon la combinaison des différents effets est difficile à découper en effets primaires et secondaires.

Nota 2 : Griffiths a théorisé via des mathématiques rigoureuses les histoires en mécanique quantique. C'est beau mais très lourd mathématiquement et une compréhension avec les "mains" est très suffisante. Dans la description d'une expérience on ne fait jamais référence à la myriade d'interactions entre les objets quantiques, on construit simplement des histoires, exemple le photon est réfléchi par le miroir, un peu simpliste non ?

Nota 3 : Il s'agit évidemment d'un potentiel que l'on ne peut considérer que comme résiduel (type force de Van der Waals). En effet, les forces intrinsèques des champs quantiques sont beaucoup plus fortes que cette force qui n'est que la conséquence des fluctuations du vide. Son effet ne peux être significatif que quand la matière est globalement neutre (tous types de charges confondus). Par contre son effet est cumulatif, c'est pourquoi la force dérivée de ce potentiel ne devient sensiblement prépondérante que pour des corps au moins mésoscopiques. Et plus les corps sont dans le domaine macroscopique plus son effet est dominant sauf évidemment dans le cas où l'on ne peut pas considérer la matière comme neutre (plasma, corps ionisé, réaction nucléaire, etc), car dans ce cas les forces intrinsèques des champs quantiques reprennent leurs droits. Mais cela peut aussi se produire dans certains cas physiques particuliers comme par exemple les trous noirs qui semblent marquer a priori la limite de la relativité générale (pour les trous noirs supermassifs c'est plus difficile à affirmer car la valeur de leur courbure au niveau de la "sphère de Schwarzschild" est très faible mais la bonne métrique, celle de Kerr, peut laisser place à plusieurs types d'interprétations et le rayonnement d'Hawking de nature purement quantique est toujours présent. De plus, les dernières théories sur la constitution de l'univers jeune, quelques millions d'années après le découplage lumière/matière, permettent de penser que les trous noirs supermassifs se sont bien formés à partir de trous noirs stellaires issus d'étoiles massives).

Nota 4 : En fait, on doit raisonner de cette manière. L'effet étant cumulatif, la force globale attirante dérivée du potentiel en 1/d qui s'exerce sur 2 objets physiques indépendants (d étant alors la distance moyenne entre les 2 objets) est proportionnelle au nombre de particules composant chacun des 2 objets donc proportionnelle à leur masse respective.

Nota 5 : Des expériences faites pour mesurer la valeur de la constante G de la gravité donnent des résultats qui ne se recoupent pas (incertitudes prises en compte). La valeur de G a été fixée de manière très arbitraire par le bureau international des poids et mesures (valeur SI de G).

Nota 6 : Un exemple typique : comment peut-on définir le champ de gravitation d'une particule quantique en état de superposition spatiale (c'est pratiquement toujours le cas des particules quantiques) ?

Nota 7 : Ce type de théorie est reprise comme exemple par Poincaré dans son livre "La Science et l'Hypothèse".

dimanche, octobre 29 2023

L'extension minimale des théories physiques

On sait que les théories physiques actuelles expliquent beaucoup de choses de l'univers qui nous entoure et qu'elles permettent des développements technologiques que l'on n'aurait pas imaginés il y a à peine quelques dizaines d'années. Pourtant elles sont loin de tout expliquer et beaucoup de physiciens, en particulier des théoriciens (mathématiciens ?), travaillent à leur extension. Faisons d'abord un point sur les plus connues.

La théorie des cordes avec son aboutissement la théorie M : historiquement son avènement a été un peu un hasard. Les "découvreurs" cherchaient en fait une théorie de la force forte, puis ils se sont aperçus que leur théorie qui ne fonctionnait pas dans le cadre prévu pouvait s'appliquer à des objets unidimensionnels ce qui permettait de supprimer la majeure partie des problèmes de la physique liés au fait que les particules sont a priori sans dimension et les interactions ponctuelles. Mais la théorie ne fonctionnait qu'avec un espace/temps à 26 dimensions, puis il a fallu ajouter la supersymétrie pour supprimer les tachyons et faire apparaître facilement les fermions, l'espace/temps n'avait alors plus que 10 dimensions et des objets ayant de 0 à 9 dimensions étaient alors présents, et enfin pour avoir une seule théorie à la place de 5 plus une, la supergravité, il a fallu créer la fameuse théorie M que personne ne sait vraiment définir précisément, la dimension de l'espace/temps étant alors égale à 11. Au point de vue justification observationnelles et mesures rien, absolument rien, ne permet de la supporter. C'est une très belle construction mathématique que certains considèrent, en particulier les cordistes, comme une métathéorie qui englobe toute nos théories physiques. Bon, et donc ?

La théorie quantique à boucles : elle se veut principalement une théorie de gravité quantique, en fait c'est plus exactement une théorie quantique de l'espace car le temps n'existe plus. Comme d'après la relativité générale on peut assimiler l'espace/temps à la gravité, on fait le raccourci quantification de l'espace égale quantification de la gravité malheureusement le lien entre la théorie et la relativité générale classique est très loin d'être établi. De plus, les explications pour dire que le temps est en fait une illusion ne sont pas très convaincantes et la justification théorique n'est pas mieux établie. Enfin, cette théorie ne dit rien sur le reste de la physique. Au point de vue justification observationnelles et mesures rien, absolument rien, ne permet de la supporter. Bon, et donc ?

La géométrie non commutative : c'est avant tout une théorie purement mathématique, d'ailleurs très difficile à comprendre si l'on n'est pas un mathématicien pur. Elle permet de retrouver d'après ses auteurs les théories physiques déjà connues => interactions + particules élémentaires + relativité générale, mais quoi de plus ? Au point de vue justification observationnelles et mesures rien, absolument rien, ne permet de la supporter à part évidemment les résultats déjà connus via nos théories existantes, et en plus à ma connaissance il a fallu la modifier pour trouver la bonne masse du boson de Higgs. Bon, et donc ?

L'imagination fertile des théoriciens ne s'arrête évidemment pas là et je pense qu'il est pratiquement impossible de faire un tour exhaustif de toutes les théories existantes (et futures ?), mais revenons à notre sujet de départ.

Les théories actuelles sont vérifiées avec une extrême précision. En ce qui concerne le modèle standard des particules élémentaires, il y a, a priori, 2 problèmes majeurs, le nombre de paramètres auquel il fait appel et la masse des neutrinos. Pour le premier, c'est en fait un vœu pieux que de croire que nos théories doivent être construite avec un nombre de paramètres minimal. Pour le second, notre modèle fait état de 3 générations de fermions ayant chacun une masse issue du champ de Higgs sauf pour les neutrinos que l'on a détecté uniquement dans un état lévogyre. Si l'on rajoute 3 neutrinos dextrogyres au modèle, le problème est résolu de façon théorique. L'application de nos concepts de base nous dit qu'au moins l'un d'eux est très "lourds" puisque les neutrinos lévogyres sont très "légers" et a priori sans interaction en dehors de la gravité (peut-être subissent ils la force faible ?). La fameuse matière noire indispensable dans notre modèle cosmologique le mieux accepté par la communauté des physicien, lambdaCDM, est parfaitement expliquée si au moins un des neutrinos dextrogyres est suffisamment "lourd" (voir nota). De plus, c'est une aparté indispensable ici, l'énergie noire n'est que la deuxième constante des équations d'Einstein, pour l'instant rien n'indique le contraire. Le modèle lambdaCDM est donc dans ce cas parfaitement défini sachant qu'en partant de nos observations et mesures du fond diffus cosmologique, il conduit avec une bonne approximation à nos constatations sur l'état de l'univers actuel. En ce qui concerne, la force de gravité que l'on essaie désespérément de quantifier, il faut préciser que absolument rien n'indique qu'elle doit l'être. Une solution simple est de la considérer comme une force émergente (voir mes billets à ce sujet pour une explication plus fouillée), elle ne doit donc pas être quantifiée, par contre elle ne peut émerger que de caractéristiques purement quantiques donc elles basiquement parfaitement quantifiées. Les deux caractéristiques quantiques qui me paraissent les plus à même de provoquer cette émergence sont d'abord le phénomène d'intrication ou alors les fluctuations du vide. Mais si rien n'indique que la gravité doit être quantifiée, cela n'empêche pas l'espace/temps de l'être, c'est un autre problème dans ce cas . Il y a certainement d'autres possibilités mais personnellement je n'en vois pas d'autres.

Pour résumer, l'existence des neutrinos dextrogyres et la théorie d'émergence de la gravité via une ou des caractéristiques quantiques permettent de faire une extension minimale de nos théories connues en expliquant une bonne partie des problèmes sur lesquels les théoriciens se cassent les dents depuis plusieurs dizaines d'années. Evidemment, il reste à expliquer d'où provient l'émergence de la gravité et de mettre en évidence les neutrinos dextrogyres. Pour les neutrinos, ce n'est vraiment pas gagné pour l'instant, plusieurs expériences ayant restreint leur possibilité d'existence (tel que STEREO) mais il reste encore des possibilités. En fait, ce qui me parait primordial aujourd'hui pour la physique c'est de repartir des observations et des mesures au lieu de rajouter des couches mathématiques à des théories qui s'éloignent de plus en plus de nos constatations sur le terrain. Un peu moins de mathématiques et beaucoup, beaucoup plus de physique !

Nota : En fait, l'introduction des 3 neutrinos dextrogyres permet d'avoir 6 degrés de liberté supplémentaires pour affiner la théorie, 3 masses et 3 sections efficaces d'interaction avec la force faible. Elle permet de plus d'expliquer pourquoi on ne constate pas de présence significative d'antimatière dans l'univers.

mercredi, octobre 18 2023

Les neutrons rebondissants

Une équipe d'un laboratoire de l'université de Grenoble (expérience GRANIT) a étudié les états de neutrons ultra froids, c'est à dire ayant une très petite énergie cinétique (vitesse linéaire très faible dans le plan x/y), dans un champ de gravité suivant l'axe z (voir nota 1). Ces neutrons se comportent comme des balles que l'on ferait rebondir sur une surface dure. Ici, ils rebondissent sur un miroir et le système permet de mesurer quelle est la hauteur du rebond qui est fonction de l'énergie potentielle des neutrons.

Du point de vue quantique, le système s'analyse en prenant un potentiel Newtonien classique égal à mgz (m = masse du neutron, g = accélération moyenne de la pesanteur, z = hauteur du rebond) et en résolvant l'équation non relativiste de Schrödinger. Les rebonds étant petits, en fait de l'ordre du micron, g varie infiniment peu. Les mesures montrent que comme le prévoit la mécanique quantique les états de rebond sont quantifiés et que les neutrons peuvent passer de l'un à l'autre via des phénomènes d'excitation ou de désexcitation. De plus, les mesures sont en parfaites accord avec les calculs (voir nota 2).

Ces résultats montrent que dans une expérience avec des objets quantiques la gravité n'a pas besoin d'être quantifiée au moins pour des longueurs de l'ordre du micron mais surtout que le principe d'équivalence faible (voir nota 3) est mis en défaut car les énergies des états quantifiés dépendent de la masse du neutron. Pour une particule très lourde, les énergies des états quantifiés sont très proches deux à deux, il y a pratiquement continuité et le principe d'équivalence faible est approximativement respecté, mais pour une particule très légère comme ici le neutron ce n'est plus le cas. En fait il n'y a aucune raison qu'un principe classique soit automatiquement vrai en physique quantique.

Il y a plusieurs façons d'interpréter ce résultat. L'une est d'introduire une cinquième force (appelé Caméléon, on comprend pourquoi) très très faible qui expliquerait en particulier "l'énergie noire" et certains essaient d'utiliser cette expérience pour la caractériser. Cela n'a pour l'instant pas donner de résultat significatif et "l'énergie noire" reste la deuxième constante des équations d'Einstein, le nom constante cosmologique est plus en équation avec les observations et les mesures en attendant les résultats du satellite EUCLID. Une autre est de considérer la gravité comme une force émergente. Dans ce cas, le principe d'équivalence faible n'a pas lieu d'être au niveau quantique (voir nota 4), c'est un résultat approximatif purement macroscopique. Je suppose que l'on peut introduire d'autres interprétations mais cette deuxième interprétation me parait tout à fait cohérente quand on analyse les mesures faites sur la valeur de la constante de gravitation G dont certaines ne se recoupent pas (limites de précision incluses).

Nota 1 : Pour les détails de l'expérience voir l'article "Status of the GRANIT facility", lien = https://arxiv.org/pdf/1410.1376.pdf

Nota 2 : Pour les résultats de l'expérience et les calculs quantiques voir l'article "Manipulation of gravitational quantum states of a bouncing neutron with the GRANIT spectrometer", lien = https://arxiv.org/pdf/2205.11130.pdf

Nota 3 : Quand je parle du principe d'équivalence faible je fais mention au fait que dans un champ de gravité les objets "tombent" de la même manière quelque soit leur poids (donc leur masse). c'est le principe d'équivalence dit de Galilée. L'égalité de la masse "pesante" et de la masse inertielle (ou autres) provient elle tout simplement du fait qu'il existe en relativité restreinte un quadrivecteur dont la norme est constante, le quadrivecteur impulsion/énergie, m étant tout simplement la valeur de la norme (la vitesse de la lumière est prise égale à l'unité), et m caractérisant l'objet physique pris en compte. Le principe d'équivalence fort pris par Einstein comme hypothèse de base de sa théorie de la relativité générale est le fait qu'en tout point événement on peut ramener la métrique à celle de Minkowski qui va rester valable approximativement dans un volume d'espace/temps entourant le point choisi, c'est la fameuse expérience de pensée de l'ascenseur. A noter que l'annulation de la gravité en ce point oblige à franchir mathématiquement un pas de plus car il faut alors annuler les symboles de Christoffel mais ceci est toujours possible. Il est évident que la taille du volume d'espace/temps entourant le point dépend de la valeur de la gravité en ce point.

Nota 4 : La gravité dans ce cas n'a pas besoin d'être quantifiée car ce n'est pas une force fondamentale comme les 3 autres et dire au contraire que les résultats obtenus par l'expérience GRANIT montrent que la gravité doit être quantifiée n'est pas cohérent avec les distances impliquées qui sont seulement de l'ordre du micron, donc rien à voir avec la longueur de Planck, mais en fait rien n'est impossible.

dimanche, août 20 2023

La théorie M de la théorie des cordes, coup de génie ou tour de passe passe ?

Pour répondre à cette question (évidemment sans pouvoir affirmer quoique ce soit), il faut se replonger dans les développements des théories physiques avant la fameuse conférence de Witten de 1995 sur la théorie des cordes (voir nota 1). D'après certains cordistes et en particulier Hawking, la théorie des cordes est "une théorie du tout", à savoir elle doit faire la synthèse des théories connues c'est à dire : la relativité générale, la théorie électrofaible et chromodynamique, le modèle standard des particules élémentaires (voir nota 2).

En parallèle, les physiciens ont développé la théorie de la supergravité, c'est à dire que l'on a appliqué à la relativité générale un principe de jauge local supersymétrique comme on le fait pour les 2 théories des champs, l'électrofaible et la chromodynamique. En utilisant cette supergravité dans un espace à plus de 4 dimensions, comme l'avait fait auparavant Kaluza-Klein pour la relativité générale classique (c'est à dire sans utiliser la mécanique quantique), certains physiciens avaient l'espoir d'en faire aussi une "théorie du tout". Il a été alors montré que la supergravité restait cohérente si les dimensions de l'espace/temps utilisée avait moins de 12 dimensions (11 dimensions au plus) mais la synthèse voulue au départ s'est avérée vaine.

Pour la théorie des cordes en 1995, les physiciens étaient devant un mur de dilemmes (voir nota 3). Il y avait en fait 5 théories des cordes différentes toutes impérativement à 10 dimensions. Pour une synthèse c'était loupé. On avait tout de même montré que l'on pouvait passer de l'une à l'autre via des dualités (voir nota 4) mais cela n'était valable que 2 à 2, aucune dualité ne permettant de passer de l'une vers les 5 autres et réciproquement. De plus, on avait bien le graviton (particule de masse nulle et de spin 2) comme particule de la théorie mais le graviton est une particule possible de la relativité générale que l'on peut faire apparaitre uniquement en champs faibles (si l'on linéarise la gravité qui est par essence non linéaire et qui de plus est une théorie purement géométrique de l'espace/temps à 4 dimensions), le graviton correspondant à la quantification du champ d'onde ainsi mis en évidence. L'existence du graviton est donc une pure spéculation qui en aucun cas ne redonne globalement la relativité générale. On pouvait aussi voir que si l'on partait du lagrangien de la relativité générale et incluait de manière tout à fait manuelle à ce lagrangien une théorie des cordes, la relativité générale était modifiée de façon marginale (impossible d'observer et encore moins de mesurer une quelconque de ces modifications). Enfin, on avait découvert que les cordes à une dimension n'étaient pas les seuls objets "physiques" de la théorie mais qu'il existait aussi des d-branes qui étaient des objets ayant de 0 à 9 dimensions (il faut toujours tenir compte d'une dimension de temps supplémentaire) donc la possibilité d'associer de manière plus ou moins subjective la supergravité à la théorie des cordes (voir nota 5).

Une fois ce portait tracé que peut-on se dire si comme Witten on est avant tout un pur mathématicien (médaille Fields 1990) : "je le fais à la Grothendieck donc j'introduis une nouvelle théorie, la théorie M qui elle est à 11 dimensions, théorie chapeau ou métathéorie (cela fait mieux), elle englobe les 5 théorie des cordes et la supergravité, et grâce à mes dualités et mes d-branes je passe de l'une à l'autre sans problème". Bon, c'est bien mais au fait c'est quoi la théorie M "physiquement" en dehors d'une pure conjecture mathématique ? Depuis 1995 même Witten n'a toujours pas pu la définir et donc répondre à cette question pourtant décisive (voir nota 6). .

Alors, coup de génie ou tour de passe passe ? A chacun de se faire son opinion.

Nota 1 : Cette conférence représente ce que l'on appelle la 2éme révolution des cordes, la première correspond à l'introduction de la supersymétrie. La supersymétrie a 2 vertus principales (entre autres), la suppression des tachyons et l'introduction de manière relativement simple des fermions dans la théorie. L'espace/temps des cordes n'a alors plus 26 dimensions mais seulement 10 (une des dimensions est le temps) et il y a 5 théories possibles : type I, type IIA, type IIB, hétérotique E8xE8 et hétérotique SO(32). En dehors de ce premier problème, les particules élémentaires connues ne sont pas supersymétriques, il faut alors introduire une brisure de symétrie. Les cordistes pensaient que le lhc avec une énergie d'environ 10 TEV mettrait en évidence ces particules supersymétriques mais ce n'a pas été le cas. On verra avec une énergie qui devrait être d'environ 13.6 TEV dans un futur proche mais certains cordistes se réfugient au niveau Planckien donc à un niveau pratiquement inatteignable.

Nota 2 : Cette notion de "théorie du tout" fait de moins en moins partie du langage des cordistes. Pour l'instant sur le plan des observations et des mesures, rien ne valide la théorie des cordes. Par contre elle a amené des outils très intéressants pour faire des calculs en théorie des champs et même dans d'autres domaines de la physique. Elle a aussi ouvert des perspectives nouvelles mais les cordes dans ces cas ne sont plus obligatoirement nécessaires.

Nota 3 : Dans un article de 1994, Susskind, promoteur de la théorie des cordes dans les années 70/80, disait : "I beleive that this is an extremely important problem for string theorists who want really exists and defines a quantum theory of gravity".

Nota 4 : La T-dualité met en relation le type IIA avec le type IIB et les 2 types hétérotiques ensemble via une relation petite distance/grande distance. La S-dualité met en relation le type I avec le type hétérotique SO(32) et le type IIB avec lui-même via une relation forte interaction/faible interaction.

Nota 5 : On inclut en général à ces résultats le principe holographique dont Susskind s'est fait le "Pape". Ce principe vient du calcul de l'entropie d'un trou noir et de la polémique sur la perte (ou non ?) de l'information quand le trou noir absorbe de la matière. On peut le relier à la théorie des cordes via l'existence des d-branes. Il y a beaucoup à dire là-dessus et j'ai d'ailleurs plusieurs billets qui en parlent.

Nota 6 : On notera de plus qu'en théorie des cordes les théories électrofaible et la chromodynamique ne sont retrouvées que via des approximations (champs faibles) et qu'il est impossible de caractériser correctement le modèle standard des particules élémentaires.

samedi, juillet 15 2023

Synthèse de mes réflexions sur la physique

Ce billet se veut une synthèse de mes réflexions sur la physique. Il est donc évidemment moins précis que les autres billets traitant d'un sujet en particulier. Soyons clair, tous les billets sont uniquement des réflexions et ne prétendent aucunement être des théories mais certains points soulevés me semblent pouvoir être des axes à approfondir par des théoriciens ou même des mathématiciens purs. Ils ne sont d'ailleurs pas que basés sur des réflexions (et bien sur des lectures et des études personnelles) mais sur de nombreux échanges concrets avec des physiciens spécialistes de ces sujets.

La physique actuelle se base sur 2 grands paradigmes, d'un coté la théorie quantique, de nombreux physiciens ont contribué à la mise en place de son cadre fondamental (Bohr, Einstein, Born, Heisenberg, Dirac, Pauli et bien d'autres), de l'autre la théorie de la relativité générale définie par le seul Einstein (mais aidé a priori sur le plan mathématique par son ami Grossmann). Ces 2 théories dans leur domaine d'application conduisent à des observations et des mesures très précises. Elles ont été élaborées pratiquement en même temps, au début du 20éme siècle.

La théorie quantique se préoccupe principalement de "l'infiniment petit", en fait surtout des atomes, des molécules, des particules dites élémentaires et son aboutissement est la théorie des champs (principalement champ électrofaible, champ chromodynamique et champ de Higgs) plus le modèle standard des particules élémentaires. Toutefois, des effets quantiques se manifestent au niveau macroscopique comme par exemple la supraconductivité ou la superfluidité et on utilise couramment les propriétés de la mécanique quantique comme l'effet tunnel dans nos appareils de tous les jours (le transistor est à la base des microprocesseurs et de leurs environnements qui sont présents actuellement dans pratiquement tous nos appareils). Par contre, il reste des phénomènes inexpliqués en particulier la masse des neutrinos et pourquoi le modèle standard des particules élémentaires fait appel à une trentaine de paramètres différents.

La relativité générale se préoccupe de "l'infiniment grand", en fait elle corrige la loi de Newton de la gravité pour les calculs dits locaux (système solaire), permet de définir le comportement de l'ensemble de l'univers (sa géométrie et sa dynamique). C'est avant tout une théorie géométrique de l'espace/temps (3 dimensions d'espace et 1 dimension de temps) qui met en relation la forme de l'espace/temps avec son contenu énergétique (courbure de l'espace par les masses, les particules suivant alors des géodésiques) sachant que depuis la théorie de la relativité restreinte du même Einstein la masse et l'énergie sont les 2 facettes d'un même paramètre physique (E = MC²). Comme l'espace et le temps sont imbriqués dans cette théorie (en relativité restreinte aussi mais plus simplement), le temps dépend de la masse présente et les caractéristiques de la lumière aussi (effet de lentille, décalage vers le rouge, trajectoire courbée). La théorie est non linéaire ce qui rend la recherche de ses solutions très difficiles et seules quelques unes sont connues mais uniquement en faisant des hypothèses très simplificatrices et souvent des approximations. On peut de plus assimiler les coefficients de la métrique de l'espace/temps à un champ en supposant que la gravité est très faible et l'on fait alors apparaitre des ondes gravitationnelles se propageant à la vitesse de la lumière (vitesse limite qui est la vitesse de propagation de tous les autres champs).

En conclusion, on a 2 théories qui de prime abord semblent indépendantes. Cela n'est pas satisfaisant pour les physiciens et plusieurs se sont attelés à la tâche de les rendre interdépendantes. En dehors de la gravité, tous les autres champs sont quantifiés, et à part Einstein et quelques uns qui ont essayé de rester dans le domaine classique pour unifier tous les champs (mais évidemment n'ont pas abouti), les autres physiciens ont basé leurs études sur la quantification de la gravité (voir nota 1). En fait, rien n'indique que la gravité doit être quantifiée mais il est vrai que cela semble naturel car l'on peut assimiler le champ de gravité en champ faible à celui d'une particule élémentaire de spin 2, le graviton, mais l'on perd alors à la fois le caractère géométrique de la théorie et la non linéarité pure (une particule de spin 2 introduit des non linéarités mais différentes) qu'il faut rétablir a priori par d'autres moyens. Il y a beaucoup de théories qui ont été élaborées, les 2 plus connues sont la théorie des cordes et la théorie des boucles, mais pour l'instant à part de beaux théorèmes mathématiques aucune n'a montré le moindre lien avec le réel des observations et des mesures. L'une d'elles aboutira peut-être un jour à quelque chose, l'avenir nous le dira mais il semble que pour l'instant ce jour semble très très lointain (mais cela peut changer du jour au lendemain), et de plus pour moi certaines ont déjà du plomb dans l'aile (et cette image est parfois faible).

Bon, voyons maintenant l'apport de mes réflexions. Comme je l'ai montré dans un billet si l'on considère la mécanique quantique comme une pure théorie statistique mais dont les probabilités sont issues d'une fonction complexe via des conditions suffisantes on retrouve en quelques lignes tout le cadre de la mécanique quantique (classique ou relativiste). En étudiant une interaction microscopique ont met en relation les constantes de la théorie avec la constante fondamentale de Planck. La plupart des phénomènes "mystérieux" de la mécanique quantique disparaissent tels que la réduction du paquet d'onde, le résultat d'une mesure, la non localité, etc, car ils sont Inhérents à une théorie statistique. Le fait que les probabilités soient issues d'une fonction complexe explique clairement les interférences, les états assimilables à des histoires (et pourquoi cela marche) et le phénomène d'intrication via les interactions. L'intrication via l'interaction semble d'ailleurs le phénomène fondateur de la physique. Il explique la flèche du temps puisque les objets physiques ayant interagi sont automatiquement corrélés au moins en partie et cette corrélation n'est pas réversible d'où l'irréversibilité globale des phénomènes physiques. De plus, si l'on prend en compte, le fait que la gravité est avant tout un phénomène macroscopique (aucune mesure microscopique réelle n'a jamais été faite jusqu'à présent car la petitesse de la gravité par rapport aux autres forces l'empêche) et que l'homogénéité de l'univers s'explique par le fait que tous les objets physiques ont déjà été en interaction par le passé (observation du fond diffus cosmologique), on peut considérer que la gravité est une force émergeante issues de l'intrication des objets physiques (mais ce n'est pas la seule caractéristique quantique qui peut la faire émerger). Je renvoie à mes billets pour de plus amples explications.

In fine, on peut dire que vouloir quantifier la gravitation n'a aucun sens car c'est une théorie émergeante et que la théorie quantique répond pour l'instant à la plupart de nos questions. Par contre, il est évident que le modèle standard des particules élémentaires doit être complété. En ce qui concerne la gravité, parler d'énergie noire est une aberration car la constante cosmologique est tout simplement la seconde constante des équations d'Einstein, par contre la matière noire peut être soit une particule encore inconnue de notre modèle à compléter soit un phénomène provenant du fait que la gravité est émergeante via l'intrication (mais ce n'est pas la seule caractéristique quantique qui peut la faire émerger) et de nos hypothèses simplificatrices. Enfin lorsque les phénomènes quantiques jouent un rôle prépondérant nos conceptions sur la gravité atteignent leurs limites et c'est certainement le cas pour les trous noirs et le big bang (voir nota 2).

Nota 1 : Dans la mesure où l'on considère que l'espace/temps et la gravité sont la même chose (théorie d'Einstein), quantifier l'espace/temps ou la gravité revient au même. Dans beaucoup de théories, c'est l'espace/temps qui est quantifié.

Nota 2 : La non détection des micros trous noirs de Hawking dont la création est prévue lors des phases initiales du big bang peut être considérée comme un indice que lors des phases initiales du big bang les équations d'Einstein ne sont pas valides.

dimanche, avril 30 2023

Un calcul approximatif un peu étrange

On cite toujours plusieurs mesures et observations qui valident la relativité générale d'Einstein. Il y en a une principale pour laquelle la façon de faire le calcul m'a toujours parue étrange, pourtant c'est une des premières qu'Einstein a mise en avant. Je la soumets à votre sagacité.

Mais avant, pour éviter toute confusion ou incompréhension, parlons de celles où le calcul et l'observation ne posent pas à mon sens de problème (voir nota 1) : la déviation de la lumière par une masse dont en particulier les mirages gravitationnels, elle valide de façon éclatante l'équivalence masse/énergie et la courbure de l'espace par la masse/énergie ; le ralentissement du temps à proximité d'une masse (dont l'utilisation du gps est un exemple de tous les jours) ; les échos radar en prenant comme cible une planète ; les images des "trous noirs" (qui pour moi sont en fait pour l'instant des "trous gris") ; la coalescence de "trous noirs" ou d'étoiles à neutrons (mesure des ondes gravitationnelles par le système LIRGO/VIRGO) ; le modèle lambdaCDM qui rend bien compte de l'évolution de l'univers (aucune autre théorie n'est aussi pertinente même s'il y a des "trous dans la raquette"). Certainement d'autres mais elles ne me viennent pas à l'esprit. Par contre, il ne faut pas se faire d'illusions, les approximations et parfois les conjectures sont souvent présentes.

Revenons-en à ma problématique, il s'agit du calcul de l'avance du périhélie de Mercure. Comment fait-on ? On sait qu'en première approximation, les équations d'Einstein se ramènent à la théorie de Newton (la gravité est une force instantanée en 1/r²). Partant de ce principe (l'ensemble du calcul a été fait bien avant qu'Einstein ne pose ses équations) on calcule la trajectoire de Mercure (il n'y a alors aucune avance de son périhélie). Puis en utilisant une série d'approximations, on calcule quels sont les impacts entrainés par la présence des autres corps du système solaire et du fait que le soleil n'est pas parfaitement sphérique (par exemple aplatissement de ses pôles, vrai pour tout ce qui tourne mais fonction du degré de fluidité du corps) sur la dite trajectoire. Suite à ces calculs (très approximatifs) on trouve une avance du périhélie. Manque de bol, le calcul et les mesures observationnelles ne coïncident pas, il reste un résidu de 43.1 secondes d'arc. Avant les équations d'Einstein, toutes les tentatives pour expliquer ce résidu ont échoué.

Comment les équations d'Einstein résolvent ce problème ? En fait, on utilise ces équations en faisant une approximation de deuxième ordre. Et là, bingo, on trouve exactement la valeur de ce résidu. Problème, on a trouvé une avance du périhélie qui n'est que de cette valeur à savoir 43.1 secondes d'arc et pas du tout la valeur totale. Vous me direz c'est normal car on n'a pas tenu compte des autres corps du système solaire ni de la platitude aux pôles du soleil. Sauf que l'on ne sait pas faire avec les équations d'Einstein et moi ce qui me trouble c'est quel serait le résultat car on a fait un premier calcul avec une série d'approximation à un ordre mal défini et on a rajouté une toute petite partie d'un calcul (incomplet) avec une approximation du deuxième ordre ? Je suis étonné que cela ne soit jamais souligné (au moins à ma connaissance). Visiblement cela marche mais ce calcul ne me parait pas très cohérent. Il est vrai que le grand Einstein n'a pas été troublé par cette démarche sachant que le calcul qu'il a produit lui-même était encore plus approximatif que l'approximation faite aujourd'hui car la métrique de Schwarzschild ne lui était pas encore connue (mais quand on veut valider une théorie ???). Voilà j'ai posé les bases, à vous d'y réfléchir, et si certains veulent me donner un élément de réponse j'en serai ravi (voir nota 2).

Nota 1 : dans un calcul en physique lorsque l'on veut valider une observation ou une mesure par rapport à une théorie (ou réciproquement), il est pratiquement impossible de ne pas faire d'approximations. Il faut alors parfaitement définir quels sont leurs domaines de validité et ce n'est pas toujours très clair dans certains articles. De plus, lorsque l'on utilise des statistiques, les résultats vraiment aberrants non suffisamment répétitifs sont rejetés car considérés comme des scories de la mesure ou de l'observation, aucune expérience ou observation en physique n'étant parfaite.

Nota 2 : je pense que quelques précisions s'imposent. Au premier ordre, on pose la vitesse de la lumière égale à l'infini ce qui implique l'existence d'un temps absolu. Puis on rajoute des perturbations dans le même contexte. Au deuxième ordre, la vitesse de la lumière n'est plus infinie donc le temps n'est plus absolu. Que se passerait-il pour les perturbations en utilisant le deuxième ordre ? De plus, on utilise pour le deuxième ordre la métrique de Schwarzschild donc on ne tient pas compte de la rotation du soleil et on oublie que le "r" de cette métrique n'est pas une coordonnée radiale et que le "t" est celui d'un observateur situé à l'infini (voir mes autres billets) et que les équations d'Einstein sont non linéaires donc tous les corps présents courbent l'espace/temps et en particulier Mercure elle-même. Je n'ai jamais vu aucun calcul qui hiérarchise ces approximations. Ce qui est bluffant c'est la justesse et la précision du résultat obtenu en empilant une série d'approximations dont les contours sont mal définis et sans tenir compte des autres possibilités a priori impactantes sur le résultat final (sont-elles vraiment négligeables ? quels seraient leurs impacts sur le résultat final ?).

samedi, avril 22 2023

Gravité émergeante (et spéculations dans les sciences)

j'ai souvent évoqué dans mes billets que la gravité pourrait être une théorie émergente (et expliqué dans un ce qu'est une théorie émergente). Le but de ce billet est de donner les raisons qui me le font penser et à titre très spéculatif de les compléter par une possibilité qui pourrait être l'hypothèse de départ d'une théorie qui reste à construire (je vais parler longuement de spéculation donc il est possible sans que cela pose de problème de sauter toute cette partie et d'aller directement au sujet sur "la gravité émergente", paragraphe ***).

Comme je vais entrer dans le domaine de la spéculation, je dois préciser quel est mon point de vue sur la spéculation dans les théories car mes autres billets peuvent laisser penser que j'ai un sentiment très négatif à son sujet. Soyons très clair, la spéculation est nécessaire, et même indispensable, pour faire avancer les théories scientifiques. Tant qu'elle reste dans le cercle scientifique cela ne peut pas poser de problème car les scientifiques sont des gens avertis, par contre dès qu'elle sort de ce cercle pour aller vers le "grand public" elle doit être employée avec d'infinies précautions et il faut expliquer clairement la limite entre les théories reconnues (via l'observation et les expériences) et celles qui ne sont que des spéculations. Malheureusement, les livres dit de vulgarisation qui se vendent bien (et rapportent pas mal d'argent à leurs auteurs) piétinent en général ce concept et il en est de même pour les conférences "grand public" où le conférencier acquière de la notoriété, et comme par hasard a un de ses livres à vendre. Bien maintenant que tout est clair et que je vais parler de gravité, je voudrais revenir sur quelques théories où la spéculation va bon train.

Les "trou noirs", j'en ai fait presque un sacerdoce. Le problème c'est qu'on les trouve mis à toutes les sauces. Nos théories et en particulier la relativité générale atteignent leurs limites si l'on dépasse ce que l'on appelait avant les étoiles figées (en gros, le temps vu par l'opérateur distant se fige sur la "sphère de Schwarzschild") et non pas des "trous noirs", évocation parlante mais surtout plus vendeuse. Vouloir aller plus loin, c'est de la pure spéculation car nos théories ont atteint plus que leurs limites et ce ne sont pas les images du EHT ni les mesures faites par le réseau LIGO/VIRGO (ondes gravitationnelles) qui prouvent le contraire. Elles montrent simplement qu'il existent des objets plus compacts que les étoilent à neutrons qui ont effectivement certaines caractéristiques des "trous noirs" mais rien de plus, au moins pour l'instant (voir mes billets à ce sujet).

Puisque je vais parler de gravité, je dois parler des autres théories spéculatives sur la gravité. Malheureusement, je n'en connais que deux suffisamment bien. Barrau a produit un article de synthèse sur les plus connues en les appliquant à la cosmologie dont le titre est "Testing different approaches to quantum gravity with cosmology: An overview" (lien : https://arxiv.org/abs/1705.01597). Cette référence vous donnera quelques indications sur celles-ci.

La théorie des cordes n'est pas à proprement parler une théorie de la gravité mais comme elle se veut une théorie de tout, la gravité en fait partie. Le point de départ n'est pas vraiment spéculatif. On sait que dans nos théories le point le plus problématique est de considérer les interactions comme ponctuelles car nos q-particules n'ont pas de dimension (au moins au niveau de la théorie). L'objet le plus simple, non ponctuel, c'est une corde (une dimension d'espace). On construit alors via les principes relativistes une théorie séduisante qui supprime une partie des problèmes dus à la ponctualité des interactions. Mais l'espace/temps a alors 26 dimensions (25 d'espaces et 1 de temps, en théorie normale des cordes il y a toujours une seule dimension de temps) et il n'existe que des bosons (particules dont le spin est entier). A partir de là, les spéculations vont bon train, espaces de Calabi-Yau, supersymétrie brisée, théorie M, branes, théorie holographique, etc, etc (voir mes autres billets).

La théorie des boucles (loop quantum gravity ou LQG) est une théorie uniquement de quantification de la gravité (plus exactement de l'espace). Elle est construite au départ sur l'équation de Wheeler-DeWitt et la mise sous forme canonique de la gravité par Ashtekar mais son principe de base parait tout à fait vraisemblable. Si tout peut être granulaire pourquoi pas l'espace/temps (la plupart des autres théories de la gravité partent de ce principe) ? J'ai déjà expliqué dans un autre billet que nos observations et expériences sont basées sur des comparaisons d'intervalles et que l'existence de la constante de Planck nous permet de définir un intervalle minimum de temps et de longueur (via nos autres constantes). Une des solutions de l'équation de Wheeler-DeWitt est une boucle dimensionnelle d'espace, la dimension temps ayant disparu dans la théorie. Ensuite, on déroule des concepts mathématiques pour construire une théorie tant soit peu cohérente. Le problème c'est que pour l'instant cette théorie n'a aucune prise avec le réel de nos observations et de nos expériences et qu'il ne suffit pas d'utiliser des arguments "spécieux" pour expliquer que le temps n'existe pas (voir mon billet à ce sujet).

Bon j'en termine là, sur mon aparté sur la spéculation dans les sciences mais je la crois utile car depuis le "best seller" d'Hawking des années 80 (qui a d'ailleurs fait sa fortune) foisonnant de spéculations, les livres de vulgarisation scientifiques contiennent pour la plupart une masse de spéculations sans que l'auteur l'explique clairement (à noter par contre que le "pavé" de vulgarisation scientifique de Penrose n'entre pas dans cette catégorie).


*** Avant de commencer sur ma propre théorie spéculative, je dois parler de la théorie émergente de Verlinde, seule théorie à ma connaissance qui a une certaine notoriété dans le monde scientifique (à noter que Verlinde s'inspire très largement de la théorie développée par Jacobson).

Au départ, Verlinde construit une théorie émergente de la gravité qui se cantonne à la théorie Newtonienne. Pour cela, il introduit la notion de force entropique que l'on peut mettre en évidence en théorie thermodynamique de la matière. Donc suite à des calculs qui ne paraissent pas très consistants et à une série d'approximation, il arrive à "démontrer" que la force Newtonienne peut émerger via la force entropique. En dehors du fait que les calculs ne sont pas vraiment probants, l'entropie est pour moi une fonction importante mais secondaire (voir mes billets à ce sujet), la notion primaire dont découle l'entropie est l'irréversibilité. Dans un deuxième temps, pour arriver à quelque chose qui ressemble aux équations d'Einstein, il prend comme concept de départ l'intrication et en faisant plusieurs "tours de passe-passe" avec l'entropie, la théorie des cordes (c'est un théoricien des cordes) et la théorie holographique, il arrive à "justifier sa théorie" (très très partiellement).

Après avoir critiqué assez vertement la théorie de Verlinde, voyons quelles sont mes propositions. Tout d'abord, pourquoi une théorie émergente de la gravité ?

Le premier point est la faiblesse de la force de gravité par rapport aux 3 autres forces fondamentales (dans les théories à plus de 4 dimensions, on l'explique souvent par le fait que la gravité se répand dans toutes les dimensions alors que les autres forces fondamentales restent cantonner aux 4 dimensions habituelles). Les mesures de la gravité sont au mieux dans le monde submillimétrique et ne testent que les déviations possibles par rapport à la force Newtonienne en 1/r². En ce qui concerne les équations d'Einstein, les mesures ne peuvent se faire au mieux qu'au niveau du système solaire sauf en ce qui concerne les effets de la gravité sur le temps mais on reste au niveau terrestre. Ce sont donc uniquement des équations testées lorsque le nombre de particules en jeu est colossal.

Le deuxième point est que bien que les équations d'Einstein traduisent aussi une théorie de jauge comme nos 3 autres théories des forces fondamentales, il est impossible de la quantifier de la même manière. Sa non linéarité n'explique pas tout et il semble que cette impossibilité soit intrinsèque à la théorie elle-même.

Le troisième point est que la "charge" de la théorie (la masse/énergie de la matière) ne peut pas être annulée. Donc nous baignons dans la gravité et nos instruments de mesure sont automatiquement impactés par elle. Nos mètres étalons sont "courbés" par les masses qu'ils sont sensés mesurer. Il n'y a donc rien d'étonnant à ce que nous voyons notre espace local comme étant courbé (l'univers dans son ensemble est a priori pratiquement plat mais c'est un autre sujet) d'où les fameuses équations d'Einstein qui mettent en relation la géométrie de l'espace et son contenu.

Un point sur lequel je suis d'accord avec Verlinde c'est que la gravité si elle est vraiment émergente ne peut émerger que de l'intrication, concept fondamental (pour ne pas dire fondement) de la mécanique quantique. A partir de là, mais c'est très difficile de le mettre en équation de manière correcte, on doit pouvoir déduire que pour une quantité raisonnable de particules on arrive à une force automatiquement attractive en 1/r² issue de leurs intrications (géométriquement c'est relativement clair). Puis pour des quantités de particules suffisamment importantes, des effets non linéaires se produisent et le fait que tout soit attractif conduit à des équations qui déterminent la géométrie de l'espace via son contenu de matière et réciproquement. Si l'on se rappelle que l'intrication est un phénomène non local dans le temps et dans l'espace et que toutes les particules ont été en intrication les unes avec les autres (homogénéité et isotropie du fond diffus cosmologique), les équations que l'on déduit sont en fait des équations de l'espace/temps et qui en suivant les principes relativistes ne peuvent aboutir qu'aux équations d'Einstein et en particulier montrer que la gravité émergente est aussi limitée dans sa causalité par la vitesse de la lumière (il est impossible d'utiliser l'intrication pour échanger des informations entre opérateurs plus vite que la vitesse de la lumière). Evidemment, mathématiquement c'est un peu court comme théorie et c'est aussi "tour de passe-passe" que la théorie de Verlinde mais par contre mes 3 constats de départ me semblent très solides et ma "pseudo théorie" ne repose pas sur des théories très spéculatives comme l'est celle de Verlinde. Elle explique de façon très simple pourquoi il est inutile et même incohérent de vouloir quantifier la gravitation (voir nota). Peut-être qu'un physicien théoricien finira par avoir les mêmes idées et sera capable de les mettre en "musique" (pour en savoir plus voir la page : "Ebauche théorique du concept de gravité émergeante").

Nota : Cela n'empêche pas l'espace/temps d'être granulaire (rien ne le démontre en dehors des possibilités offertes par la constante de Planck) mais ce ne sera pas lié à la gravité elle-même. De plus, on peut toujours quantifier les ondes gravitationnelles mais c'est un artefact mathématique comme pour les phonons en théorie du solide.

lundi, avril 10 2023

Champ profond et raie Lyman Alpha

Comme j'ai fait un billet sur les images collectées par JWST en champ profond, je suis un peu obligé de parler de la raie Lyman Alpha qui joue un grand rôle pour l'interprétation de ces images. C'est donc un billet un peu plus technique mais sans aucun calcul.

La raie Lyman Alpha correspond dans le spectre de l'hydrogène atomique à la transition 2p -> 1s qui est produite lors de la désexcitation de l'atome (la réciproque est bien sur vraie, phénomène d'excitation). Sa longueur d'onde est de 1216 ångström, elle se situe donc dans l'ultraviolet. Cette longueur d'onde lorsqu'elle est mesurée en provenance d'un atome distant est décalée vers le rouge, "red shift", à cause de l'expansion de l'univers (pour un atome très très distant, donc en champ profond, elle est même décalée dans l'infrarouge lointain). La mesure de ce décalage permet de calculer théoriquement le moment où l'émission a eu lieu, c'est à dire à quel moment après le big bang puisque ce dernier est supposé avoir eu lieu il y approximativement 13.7 milliards d'années (j'ai déjà expliqué dans d'autres billets les difficultés d'arpenter l'univers, mesure des temps et des distances).

L'hydrogène est évidemment l'élément le plus répandu dans l'univers, donc quand on pointe une galaxie il est assez facile de repérer dans son spectre d'absorption la raie Lyman Alpha. Il se trouve que pour des galaxies très très éloignées cette raie est très marquée alors que les autres sont difficiles à détecter. C'est bien sur l'abondance de l'hydrogène atomique dans l'univers qui produit ce phénomène et ce d'autant plus que les premières galaxies, nées peu après le big bang, contiennent très peu d'éléments dits "métalliques" , c'est à dire d'éléments autres que l'hydrogène et l'hélium (c'est les galaxies qui forment les éléments "métalliques" mais pour cela il leur faut du temps, ces galaxies sont théoriquement très jeunes).

Il y a encore beaucoup à dire, d'ailleurs dans la littérature on parle de "forêts Lyman Alpha", c'est dire l'importance de cette raie pour l'astrophysique, mais cela suffit à mon propos et je me contenterai de souligner toutes les difficultés attachées aux interprétations des images en champ profond surtout en ce qui concerne la datation des objets qu'elles contiennent.

Nota : L'esprit de ce billet est de simplifier au maximum les choses et donc d'utiliser quelques approximations. Pour ceux qui veulent en savoir plus sur l'utilisation de cette fameuse raie et surtout sur les "forêts Lyman Alpha", 2 liens : https://arxiv.org/pdf/astro-ph/9806286.pdf (pour se faire mal à la tête) : https://www.astro.ucla.edu/~wright/Lyman-alpha-forest.html (beaucoup plus fun mais très limité).

lundi, avril 3 2023

Passé, Futur, Circularité

Ce billet se veut un peu plus philosophique que les autres, toutefois les réflexions qu'il contient sont basées uniquement sur les théories physiques. De plus, ces réflexions sont déjà plus ou moins présentes dans quelques uns de mes billets.

On trouve dans la littérature beaucoup de papiers qui pose la question : "c'est quoi la flèche du temps ?" Une réponse simple que j'ai déjà donnée est le fait qu'une des propriétés fondamentales de la mécanique quantique est l'intrication (d'ailleurs issue de son fondement statistique, voir mes billets à ce sujet). En effet, le phénomène d'intrication se produit lors des interactions entre q-particules. Il peut être de nature explicite, par exemple un couple de q-particules est émis avec un spin global égal à 0, ou de nature plus cachée, par exemple les interférences dans le cas de l'expérience des fentes d'Young. L'intrication implique donc une flèche du temps au niveau microscopique, 2 q-particules ayant interagi ne sont plus indépendantes l'une de l'autre au moins jusqu'à ce qu'elles subissent une nouvelle interaction qui va modifier leurs niveaux d'intrication pour en créer d'autres d'un nouveau type. Le phénomène de décohérence est le pendant de l'intrication puisqu'il traduit tout simplement la myriade d'interactions que subit un système macroscopique en temps normal ou une q-particule lors d'une mesure. Cette myriade d'interactions fait alors passer l'irréversibilité des phénomènes du monde microscopique au monde macroscopique. C'est donc la flèche du temps microscopique qui implique la flèche du temps macroscopique. La fonction entropie permet de la mesurer de façon relative au niveau macroscopique (c'est à dire entre 2 états) via la valeur de sa croissance. Son utilisation à un niveau intermédiaire pose quelques problèmes, en particulier sa non unicité (calcul du type "gros grains") et sa soumission aux fluctuations potentielles des objets physiques. Il est dommage que les physiciens la prennent souvent comme fonction fondamentale des théories physiques et surtout la mettent à "toutes les sauces".

Je ne voudrais pas laisser croire que je considère l'entropie comme une fonction mineure. C'est une fonction très utile par contre à employer avec précautions. Merci à Boltzmann de l'avoir définie de façon précise dans le cas d'un gaz et d'avoir mis en évidence sa provenance, d'ailleurs purement statistique. Lorsque ses protagonistes lui faisaient remarquer qu'en inversant les vitesses des particules, le résultat s'inversait, il leur répondait tout simplement : "Eh bien essayez !". Il est vrai qu'inverser toutes les vitesses des particules d'un gaz est mission impossible (même en restant dans le domaine classique). Toutefois, je voudrais faire la réflexion suivante. Je réunis les particules du gaz dans un petit volume puis je les libère dans un grand volume. Si je passe le film de la scène à l'envers, tout le monde croit pouvoir dire que le film est passé à l'envers. Pourtant, attendons un temps beaucoup plus long, une fois les particules réunies à nouveau que va-t-il se passer ? Elles vont encore se disperser et je vais retrouver le même état moyen dans le passé que dans le futur et je ne saurai plus dire si c'est une scène du passé ou du futur (j'ai évidemment supposé l'impossible, retourner toutes les vitesses des particules du gaz). C'est tout de même quelque chose qui interroge car c'est vrai pour le verre qui casse, au bout d'un temps assez long (peut-être une éternité), le passé et le futur sont difficilement reconnaissable au moins au niveau macroscopique. Il est fait mention dans la bible de cette tautologie : "Poussière, tu n'es que poussière et tu retourneras à la poussière". Poincaré a d'ailleurs démontré qu'en physique classique un objet dynamique revient au bout d'un temps fini aussi près que voulu de son point de départ. Un temps fini peut évidemment être très très grand et de plus cela ne tient pas compte de la nature purement statistique de nos lois microscopiques.

Un point fondamental des théories physiques est que l'on peut retourner le sens du temps sans qu'elles perdent leurs statuts. Cela a souvent amené les physiciens à des interrogations. Pourtant, il me semble qu'il n'y a rien d'extraordinaire à cela. La variable temps comme les variables positions ne sont que des artefacts de nos théories, théories qui en plus sont souvent exprimées de manière différentielle. Donc ce qui est important, c'est que nos théories soient indépendantes de ces variables. C'est bien ce que nous dit le principe d'invariance relativiste. Ce qui compte vraiment c'est les intervalles car toute mesure se fait en fait par comparaison d'intervalles et nous devons définir des intervalles de références pour pouvoir produire nos mesures. Ces intervalles peuvent être très petits mais jamais tendre vers 0, d'ailleurs l'existence de la constante de Planck nous permet de définir des intervalles minimaux. Les variables temps et espace sont donc bien des artefacts issus tout simplement de moyennes sur ces intervalles.

Ceci nous amène d'ailleurs à la circularité de nos théories. Prenons un exemple typique. Pour faire son expérience qui lui a valu le prix Nobel de physique Aspect avait besoin d'une source fiable (c'est d'ailleurs la mise au point de cette source qui lui a pris le plus de temps pour faire son expérience). C'est à dire d'une source dont les couples de photons émis avaient un spin global égal à 0 avec une possibilité d'erreur très petite (je ne connais pas cette valeur). Mais pour définir la fiabilité de sa source, il s'est appuyé premièrement sur la théorie, la mécanique quantique, qui lui expliquait pourquoi sa source devait émettre des couples de photons avec un spin global égal à 0 et deuxièmement une série de mesures qui montrait que les couples de photons émis avaient bien un spin global égal à 0. Une fois sa source fiable mise au point, il a pu réaliser concrètement son expérience qui montre le caractère "non local" du phénomène d'intrication. Il est évident que cette expérience incontestable était digne du prix Nobel (ce n'est pas le cas de tous les prix Nobel). Mais il est difficile de nier une certaine circularité (le serpent se mords la queue) car les résultats de l'expérience ne peuvent être interprétés que statistiquement comme l'est la fiabilité de la source dite "fiable". Cela permet à certains non pas de contester les résultats obtenus mais de trouver des explications autres (farfelues ?) que la "non localité" du phénomène d'intrication. Pour trouver d'autres exemples typiques, on peut se référer à l'astronomie ou à la cosmologie. Le problème principal de ces sciences, c'est que l'expérimentation étant impossible, il faut pour interpréter les observations se référer à nos théories testées uniquement localement. On doit donc la plupart du temps utiliser des fonctions statistiques pour assimiler des observations à des mesures. Par exemple, l'arpentage de l'univers est bâti sur plusieurs types de chandelles standards. Pour n'en citer que 2, les céphéides (étoiles variables dont on suppose connaître très bien la périodicité), les supernovas de type Ia (dont on pense bien connaître les processus physiques conduisant à leur formation). Pour ces dernières il faut en plus rajouter, le "red shift", issu de l'application des équations d'Einstein dans un modèle très particulier qui suppose que sur des grandes distances l'univers peut être considéré comme isotrope et homogène (mais pas que, par exemple que les galaxies ou les amas peuvent être assimilés à un gaz parfait sur ces grandes distances). Ce "red shift" permet alors de déterminer la distance de ces supernovas. Je pense que le modèle lambdaCDM, issu de ces observations et d'autres (mesure de ses principaux paramètres via nos observations du fonds diffus cosmologique) est bien la meilleure solution pour décrire l'univers mais il ne faut pas s'étonner qu'il y ait des "trous dans la raquette", les autres modèles (je ne sais pas s'il y en a tant que ça qui soit un peu cohérent) ne me semblent pas lui arriver à la "cheville".

Bon pour le moment, j'arrête là ces quelques réflexions. Elles me paraissent pertinentes, pourquoi certains physiciens ne s'en inspireraient-ils pas ?

jeudi, mars 30 2023

Théorie des champs versus particules

Newton a été le premier à établir une théorie physique basée sur des concepts mathématiques cohérents. Pour lui, il existait des systèmes physiques que l'on pouvait décrire comme des ensembles de particules et dont la dynamique était engendrée par des forces. Même la lumière était constituée de particules. L'étude des interférences lumineuses et de la diffraction de la lumière a permis de définir la lumière comme une onde en opposition avec les idées de Newton. Il y avait donc 2 concepts en opposition totale car les 2 théories paraissaient mathématiquement irréconciliables.

A l'époque 3 forces fondamentales étaient connues, la force de gravité, la force électrique, la force magnétique, toutes les 3 en 1/r². Faraday a eu alors l'idée pour mettre en évidence les forces magnétiques de répartir autour d'un aimant de la limaille de fer. Il a alors constaté que celle-ci se répartissait suivant des courbes bien définies entourant l'aimant. C'était la naissance du concept de lignes de force. Par la suite, les travaux mathématiques de Maxwell sur les concepts d'électricité et de magnétisme lui ont permis de définir ses fameuses équations et de donner naissance au concept de champ classique (voir nota 1), en fait le champ électromagnétique dont la lumière était une entité spécifique. C'est en particulier en s'appuyant sur ce concept de champ que Einstein, suite à ses travaux sur la relativité restreinte, a pu définir ses équations pour la relativité générale.

Einstein pensait que le concept de particule n'était pas un concept fondamental a contrario de celui de champ et il a passé une large partie de ses recherches suivantes à essayer d'intégrer la notion de particules dans celle de champ ainsi que de marier le champ électromagnétique avec la gravité (de manière classique). En relativité générale, les équations sont non linéaires et le concept de "charge" est "amoindrie" (voir nota 2) car les particules suivent des géodésique de l'espace/temps. Les recherches d'Einstein n'ont pas vraiment abouti mais en parallèle s'est développé la mécanique quantique à laquelle il a d'ailleurs apporté des contributions importantes même si la mécanique quantique contredisait dans ses fondements les convictions profondes d'Einstein sur ce que doit être une théorie physique.

La mécanique quantique étant probabiliste via une fonction de probabilités complexe, le mariage corpuscule/onde ne semblait pas impossible bien qu'il pose des problèmes très mystérieux à notre compréhension macroscopique du monde (voir mes billets sur la mécanique quantique et une façon de les résoudre). Toutefois, il semblait difficile de se passer du concept de particule dans la théorie même si celui-ci avait un statut différent de celui de la physique classique. Le concept de champ classique devait aussi être quantifié pour expliquer les phénomènes physiques constatés. Premièrement les échanges électromagnétiques se font par "grain" d'énergie, les photons. Deuxièmement, la mise en conformité des équations de la mécanique quantique avec la relativité fait apparaitre pour toute particule une antiparticule, cela conduit pour avoir un concept mathématiquement cohérent à des champs de spineurs, ces champs étant définis par la valeur du spin qui leur est attribuée. Et par suite au concept de création ou d'annihilation de particules entrainant le fait que le nombre de particules n'est plus une constante des théories. De plus, les fluctuations quantiques permettent la création de paires, particule/antiparticule, virtuelles. La découverte de la force forte et de la force faible pour expliquer les noyaux des atomes et leur instabilité dans certaines circonstances a permis de classifier les champs en rajoutant en plus du spin des caractéristiques supplémentaires liées à ces forces ce qui a donné naissance au modèle standard des particules élémentaires. Ces champs ont en commun la notion d'invariance de jauge qui est vraie aussi pour le champ de gravité mais ce dernier étant non linéaire il est impossible de le quantifier de la même manière (voir nota 3). Pour finaliser le modèle de base qui n'était cohérent que si les particules avaient une masse nulle, il a fallu rajouter un champ, le champ de Higgs, de spin 0, dont l'interaction avec les particules connues leur permettait d'acquérir l'équivalent d'une masse. La particule de Higss a été détecté en 2012 en accord pratiquement parfait avec les attendus du modèle. Par contre, suite à la détection du phénomène de "see saw" (voir nota 4) chez les neutrinos, il a fallu leur attribuer une masse qui a priori n'est pas issue d'une interaction avec le champ de Higgs. Cela détruit en partie la cohérence du modèle et ouvre la perspective d'un modèle au-delà du modèle standard.

La théorie des champs du modèle standard permet des calculs très précis à condition de lui appliquer le concept de renormalisation. Concept assez facile à comprendre mais souvent plus difficile à mettre en pratique. Par exemple, suite à la possibilité de création de particules virtuelles, une particule est toujours entourée de ces particules virtuelles qui vont soit écranter le champ soit le renforcer et par suite créer des infinis lors des calculs. La procédure de renormalisation consiste à éliminer ces infinis pour arriver à des calculs finis. Mais en fait ce procédé fait un peu "tâche" dans nos belles théories. Un autre moyen d'éliminer ces infinis est de supposer les particules étalées dans l'espace. Il y a très longtemps que cette idée est venue à l'esprit des physiciens mais aucune théorie cohérente n'avait pu être construite jusqu'à l'avènement de la théorie des cordes. Malheureusement cette théorie a maintenant montré ses limites (voir mes billets sur ce sujet).

En conclusion, le concept de particule a grandement évolué depuis Newton mais le rêve d'Einstein ne s'est toujours pas concrétisé. Même s'il est pratiquement impossible de définir aujourd'hui ce qu'est vraiment une particule, nos théories ne savent pas encore s'en passer.

Nota 1 : classiquement, le champ est considéré comme une entité physique remplissant tout l'espace. C'est la présence de particules "chargées" (le type de charge dépend du champ considéré) qui définit sa valeur en un point.

Nota 2 : dans une théorie non linéaire on peut facilement faire apparaître la notion de soliton, c'est à dire l'équivalent d'une particule constituée par le champ lui-même mais qui a une durée de vie en général finie. "Amoindrie" car les particules suivent des géodésiques mais l'espace/temps est "courbée" par leur présence, à savoir leur contenu en masse/énergie. En 1935 Einstein et Rosen ont publié un article qui en s'inspirant de la métrique de Schwarzschild (et de Ressner-Nordström) essayait de définir une particule comme une singularité du champ de gravité. Ils ont ainsi créé mathématiquement le premier "trou de ver" connu aujourd'hui sous le nom de pont d'Einstein-Rosen. A ma connaissance, cela n'est pas allé plus loin.

Nota 3 : rien dans nos observations n'empêche la possibilité que le champ de gravité soit en fait un champ émergeant, cela pourrait expliquer cette dichotomie. Un champ émergeant est un champ qui provient d'un concept plus profond. Pour la gravité, il pourrait s'agir de l'intrication, une des propriétés fondamentales de la mécanique quantique (voir les travaux de Verlinde, toutefois je ne suis pas en accord avec son approche et ses calculs). Citons comme exemple de forces émergeantes : la force de Van der Walls, résidu de la force électrique dans les atomes ou les molécules, qui permet un type de liaison moléculaire: la force semi-forte qui permet la formation des noyaux et qui est le résidu de la force s'exerçant entre les quarks.

Nota 4 : les neutrinos sont dans ce modèle au nombre de 3 et ils peuvent se transformer les uns dans les autres, c'est le phénomène de "see saw". Cela ne peut s'expliquer que s'ils ont une masse non nulle. Pour l'instant on ne sait pas mesurer la valeur absolue de ces masses, uniquement leurs rapports, mais on sait qu'elles sont très très petites.

jeudi, mars 23 2023

Le temps existe-t-il ?

Ce questionnement est très à la mode et de nombreuses conférences sont données sur ce thème. Dans ce billet, je voudrais simplement revenir sur les raisons qu'a données Carlo Rovelli pour soutenir que le temps n'existe pas lors de sa conférence dans le cadre du cycle de conférences "Einstein et sa postérité". Carlo Rovelli est très en pointe sur ce sujet mais il me semble qu'il a une raison évidente pour cela. Carlo Rovelli est l'inventeur avec Lee Smolin de la théorie de la gravité quantique à boucles (loop quantum gravity, LQG). La construction de cette théorie est basée sur l'équation de Wheeler/DeWitt et les travaux de Abhay Ashtekar qui a explicité une forme canonique de la théorie de la gravité. Dans la LQG, en fait il n'y a pas de place pour le temps, seul existe un espace en 3 dimensions constitué de boucles quantiques.

Mais revenons-en aux raisons données par Carlo Rovelli dans sa conférence. Il explique que la définition du temps est cyclique, c'est à dire que si je veux définir le temps que met un pendule pour revenir à sa position initiale je suis obligé de me référer à quelque chose qui est aussi cyclique. Par exemple, l'angle que parcours la corde du pendule, je vais le relier à l'angle que l'aiguille de ma montre a parcouru (on peut dire que le serpent se mort la queue). Donc en fait, je n'ai pas besoin du temps car je peux me contenter d'expliciter des relations entre objets physiques existant dans l'espace. Cet argument me parait fallacieux car je peux faire le même raisonnement pour l'espace. Si je veux mesurer la distance séparant 2 objets physiques, je vais faire intervenir une autre distances séparant 2 autres objets physiques par exemple les 2 extrémités de ma règle d'arpenteur. Sans référentiel dans lequel je sais faire de l'arpentage dans le temps et l'espace, je suis démuni et cela est aussi vrai au niveau quantique.

Il me semble plus opportun de dire que les relations entre objets physiques ne sont pas des variables temps ou espace mais des intervalles que je peux comparer les uns avec les autres et ainsi définir d'une façon relative les événements de l'espace/temps. D'ailleurs c'est bien ce que l'on fait quand on définit la norme relativiste, le fameux ds². En prenant la vitesse de la lumière égale à un, nos unités d'espace et de temps deviennent homogènes (la vitesse d'un objet est alors un pourcentage de la vitesse de la lumière). C'est ce qui parait le plus naturel, notre système d'unités étant issu de la "vieille physique". L'avantage de cette conception ne faisant intervenir que des intervalles est qu'elle n'a pas besoin du continu, elle peut être discrétisée facilement puisque nous avons la constante de Planck qui permet avec les autres constantes de définir un grain d'espace et un grain de temps (la longueur de Planck et le temps de Planck, voir nota). Est-ce suffisant ? Je suis bien incapable de le dire. On notera en particulier qu'il reste la possibilité que la gravité soit une théorie émergente (elle est très bien vérifiée macroscopiquement et localement mais c'est tout), et dans ce cas, quelle est la définition de l'espace/temps ? En tout cas vous l'aurez compris, malgré le fait que je considère Carlo Rovelli comme un des grands physiciens actuels, ses arguments ne m'ont pas convaincu.

Nota : vu la "taille" de ces grains, il est possible de définir, même au niveau microscopique, des variables continues représentant l'espace/temps qui sont des sortes de moyennes. Elles permettent alors de définir des opérateurs de type dérivées partielles ou totales. On notera qu'alors la notion d'interaction ponctuelle est en fait un artefact de ces variables. De plus, les interactions conduisent, en mécanique quantique, à la notion d'intrication qui permet de définir une flèche du temps.

samedi, mars 18 2023

Questionnement suite aux premières images en champ profond du satellite JWST

Le nouveau télescope envoyé dans l'espace, JWST (James Webb Space Telescope), a fourni début juillet des images impressionnantes du champ profond de l'espace, c'est à dire aux ultra grandes distances. Tout de suite certains scientifiques en quête de sensationnel ont conclu que ces images remettaient en question la théorie cosmologique actuelle (lambdaCDM) bien que celle-ci est un fondement solide suite à l'analyse du fond cosmologique diffus et ils ne se sont pas privés de publier des articles soit disant de référence à ce sujet.

L'argument massue est qu'il existe de nombreuses galaxies bien formées et très massives au tout "début de l'univers". Malheureusement déterminer la distance d'une galaxie n'est pas si simple dès que l'on est en champ profond. On entend parler sans arrêt du fameux "red shift" comme s'il était le "nec plus ultra" pour savoir quelle est la distance d'une galaxie. Le "red shift" est bien un phénomène parfaitement connu qui provient de l'expansion de l'espace lorsque l'on utilise le modèle d'univers de Friedman-Lemaître (issu des équations d'Einstein) base du modèle actuel. En fait on a une formule très simple qui relie le "red shift" au facteur d'expansion de l'univers mais qui n'est valable que quand le "red shift" est petit (les cosmologistes utilisent le coefficient z pour caractériser le "red shift"). Dès que celui-ci est grand, c'est à dire z > 0.1 (JWST mesure des z jusqu'à plus de 10), la formule n'est plus du tout la même car l'approximation n'est absolument pas valable. En plus, le facteur d'expansion n'est pas une simple fonction linéaire du temps cosmologique et il varie fortement lorsque l'on se rapproche du "début de l'univers".

En dehors de ce point fondamental, il faut de plus se rappeler que plus la lumière vient de loin plus elle rencontre du gaz donc comme le montre très bien la théorie elle perd un peu d'énergie, "elle vieillit", et donc cette perte d'énergie augmente sa longueur d'onde, c'est un autre motif de "red shift". Il est très très faible mais l'accumulation des chocs due à la distance fait qu'il n'est plus négligeable pour des distances aussi grandes.

Un dernier point bien connu de la relativité générale est le fait que la trajectoire de la lumière est courbée par les masses. Cet effet augmente la distance mesurée par rapport à la distance en "ligne droite" (la lumière suit les géodésiques de l'espace/temps) et donc plus la lumière provient de loin, plus cet effet conduit à une mesure de distance qui est surévaluée car globalement l'espace/temps est considéré comme pratiquement plat.

En dernier ressort, il est possible que comme le dit JP Luminet l'univers soit "chiffonné" (je ne connais pas d'indication dans ce sens). C'est à dire que sa géométrie ne soit pas simple. Alors une galaxie peut être vue plusieurs fois à différents endroits (indépendamment des mirages gravitationnels, autres sources de multiplication des images). Dans ce cas, les mesures des grandes distances seraient erronées (il s'agit évidemment des distances du champ profond et non pas des distances locales).

En conclusion, "avant de jeter le bébé avec l'eau du bain", les scientifiques doivent réévaluer certaines hypothèses qui peuvent conduire à des calculs erronés. N'oublions pas la une de journaux scientifiques il n'y a pas si longtemps : "le neutrino se déplace plus vite que la lumière" qui s'est conclu par : "c'était un problème de connexion au niveau des fibres optiques", cela fait froid dans le dos, non ? Le problème fondamental de la cosmologie est un problème très terre à terre : faire de l'arpentage. Rien d'évident, on ne peut pas se déplacer dans le cosmos avec un mètre d'arpenteur ni même utiliser un laser comme le font les géomètres. C'est une question très difficile que les scientifiques en guise de sensationnel ferait mieux d'aborder sérieusement avant de vouloir vendre au grand public leurs "négationnismes".

Je voudrais compléter cette conclusion par quelques remarques. D'abord les points évoqués ci-dessus ne sont certainement pas la solution aux problèmes rencontrés mais ils illustrent bien les difficultés de définir une distance en champ profond (voir nota). Certains veulent remplacer la théorie lambdaCDM par une théorie MOND. En dehors de la première théorie de Milgrom qui est une théorie ad hoc pour expliquer la courbe de rotation de certaines galaxies (c'est à dire la vitesse de rotation des étoiles périphériques) et n'explique rien de plus, les autres théories MOND font appel à de nouveaux champs et s'enorgueillissent souvent de supprimer la matière noire. Mais qui dit nouveaux champs, dit nouvelles particules d'après la mécanique quantique donc où est le gain ? De plus, ces théories ont beaucoup de "trous dans la raquette". Ce qui me semble bien établi en cosmologie c'est l'existence du fond diffus cosmologique et ses caractéristiques d'où le modèle lambdaCDM via les équations d'Einstein valables simplement au niveau macroscopique (ce qui laisse la place à une théorie émergente de ces équations). Ce modèle nous dit qu'il existe de la matière dite noire car interagissant très peu (et non pas, pas du tout) avec la matière connue et une constante cosmologique (comme l'a montré Cartan) dont la valeur est positive et très petite. On peut aussi en déduire en étudiant les fluctuations du fond diffus et si l'on suppose que l'univers a "débuté" par une phase quantique que l'univers a connu une phase d'inflation. Je mets le terme "débuté" entre guillemet car pour définir un début il faut un référentiel et je ne vois pas très bien comment le définir. Cette remarque vaut d'ailleurs pour la phase d'inflation. Nos problèmes d'arpentage (temps et espace) sont vraiment prégnant dans toutes les phases de l'univers (sauf en champ local). Un autre point est que malgré nos nombreuses observations nous connaissons mal la dynamique des galaxies et des amas mais à partir du modèle lambdaCDM on reconstitue très bien la toile cosmique. En conclusion de la conclusion, la cosmologie est une science très molle et difficile car l'univers est par essence unique. Aucune expérience n'est possible donc tout est sujet à interprétation via nos théories physiques les mieux établis mais il y a donc toujours une grande place pour le doute. JWST ne donne pas que des images du champ profond, il permet d'analyser plusieurs domaines du champ local où nos observations sont moins sujettes à caution. C'est vraiment un instrument extraordinaire qui va enrichir considérablement nos connaissances de l'univers.

Nota : une solution récente qui a les faveurs de JP Luminet (quid de l'univers "chiffonné" ?) est l'existence au "début de l'univers" de trous noirs d'une centaine ou millier de masses solaires (Hawking en a bien prévus mais il s'agit uniquement de "micros trous noirs" dont les traces n'ont toujours pas été détectées). Via un système d'accrétion rapide dit de "Bondi" (théorisé par le physicien Hermann Bondi), ces trous noirs atteignent rapidement une taille de plusieurs millions ou même milliards de masses solaires et permettent alors la formation rapide de galaxies de tailles et de formes significatives. Dans les articles correspondants, je n'ai pas trouvé de justification théorique, uniquement des courbes basées sur des modèles statistiques. Si vous avez plus de données ou de références, merci de me les communiquer. D'autant qu'un des astrophysiciens de l'institut d'astrophysique de Paris s'apprête à publier la mise en évidence de l'existence d'une galaxie née 250 millions d'années après le big bang (via les données issues de JWST). Des galaxies nées 250 millions d'année après le big bang avaient déjà été découvertes (via les mêmes données), puis "pan pan rataplan", elles étaient nées en fait quelques milliards d'années après le big bang (z = 5 ou 6). Bon ! espérons les arguments de cet astrophysicien plus solides. Pour la création des "gros trous noirs primordiaux", on est encore dans la phase "mystères et boules de gomme".

samedi, mars 11 2023

Invariants relativistes

Le but de ce billet n'est pas de faire un cours de mathématiques sur la relativité (il en existe beaucoup, plus ou moins bien faits) mais de mettre en évidence quelques points particuliers souvent négligés mais qui peuvent avoir leurs importances et permettent d'avoir une vue plus globale des implications de la relativité.

Je rappelle qu'un des principes premiers de la relativité (pas toujours bien explicité) est que l'on peut toujours localement, donc en un point événement, se ramener à un espace/temps de Minkowski. Le terme localement veut dire que théoriquement ce point événement est infinitésimal mais dans le cas d'un champ de gravité faible il peut définir un espace/temps relativement grand et ce d'autant plus que la force de gravité est beaucoup plus faible que les autres forces connues. L'espace/temps de Minkowski est défini par sa pseudo norme (ou pseudo produit scalaire) ds² = dt² - dx² - dy² - dz² où (t, x, y, z) définissent un quadri-vecteur X qui représente un événement de l'espace/temps (voir nota 1). Cette pseudo norme exprime en particulier le fait que rien ne peut dépasser la vitesse de la lumière.

Cette pseudo norme est la base de la construction de tous les invariants en relativité. Il y a plusieurs objets que l'on peut construire : des quadri-vecteurs, des tenseurs et enfin des spineurs. Ils ont tous la particularité lors d'un changement de référentiel de se transformer de manière à laisser leurs produits scalaires invariants (voir nota 2).

Le premier invariant que l'on peut construire de manière évidente c'est la vitesse d'univers dont la pseudo norme est égale à 1. En effet : (dt/ds)² - (dx/ds)² - (dy/ds)² - (dz/ds)² = 1. En remarquant que (ds/dt)² = 1 - v² et en introduisant une constante m propre à la particule qui va donc la caractériser, on construit le quadri-vecteur P = (Pt, Px, Py, Pz). Par analogie avec la physique classique (v petit), on associe ce quadri-vecteur à l'énergie et à l'impulsion de la particule, c'est donc son quadri-vecteur énergie/impulsion et m sa masse d'où d'ailleurs l'équivalence masse/énergie. Bon vous me direz tout ça pour ça mais on n'est pas obligé de s'arrêter là.

Amusons nous à construire un tenseur à l'aide des 2 quadri-vecteurs X et P (voir nota 3). En fait la construction simple n'a pas beaucoup d'intérêt mais tout tenseur d'ordre 2 peut de décomposer de manière évidente en un tenseur symétrique et un tenseur antisymétrique, noté M ici (voir nota 4). Un tenseur antisymétrique d'ordre 2 peut se décomposer en 2 vecteurs d'espace (composantes en x, y et z), le premier s'appelle vecteur d'espace électrique E, l'autre vecteur d'espace magnétique B (voir nota 5). Ici B est tout simplement proportionnel au moment cinétique classique. A partir de ce tenseur on fabrique 2 invariants relativistes E² - B² et E.B (on utilise le produit scalaire d'espace ici), On retrouve ce résultat en électromagnétisme, le premier invariant étant le Laplacien du champ électromagnétique. On peut continuer en introduisant le tenseur de Levi-Cevita (Lc) et créer un nouveau quadri-vecteur W = (1/2) Lc M P (voir nota 6) dont la pseudo norme est un invariant de Casimir (l'autre invariant de Casimir étant la pseudo norme de P, soit m).

Il nous reste un dernier objet à construire, les spineurs. Un quadri-vecteur est composé de 4 composantes qui ont la propriété de se transformer par un changement de base de manière à conserver la pseudo norme donc si l'on définit un objet mathématique ayant 2 composantes complexes nous auront le même nombre de variables mais il faudra que ces variables se transforment en conservant la pseudo norme. Il faut donc imposer aux termes de la matrice définissant la transformation un certain nombre de contraintes en particulier celles définies par les 6 rotations dans les 6 plans de l'espace/temps (voir nota 7). Une fois ces contraintes imposées on peut définir : un produit scalaire de spineurs (sa valeur doit être bien sur invariante), un spineur métrique en relation avec ce produit scalaire, la notion de spineur conjugué ou spineur à indice pointé, des spineurs dit "tensoriels" (voir nota 8) et enfin relier les spineurs "tensoriels" aux tenseurs et en particulier aux quadri-vecteurs. Si l'on ne s'occupe que de la composante espace d'un spineur, celle-ci à la particularité de s'inverser lors d'une rotation de 360° dans la partie espace, il faut donc faire 2 tours pour retrouver le spineur "espace". Comme ces objets sont un peu particuliers, il est loisible de dire qu'ils agissent dans un espace "interne" lié à la particule (voir nota 9) mais leurs liens avec les tenseurs vont se traduire par des actions dans l'espace/temps.

Un constat important que l'on peut faire vis à vis des transformations laissant invariant le pseudo scalaire est que le produit de 2 transformations de même type ne conduit pas toujours au même type de transformation. La conjugaison de 2 "boosts" (voir nota 10) conduit en fonction de l'orientation des vitesses à un boost plus une rotation. Pour une particule accélérée cela se traduit par la précession de tout vecteur rattaché à la particule, précession dite de Thomas, en particulier celle de son spin.

Un autre est que si l'on attribue un vecteur spin (de type espace) à une particule, on peut définir la projection de son vecteur impulsion (de type espace) sur ce vecteur spin. Cette quantité change de signe si le nouveau référentiel employé se déplace plus vite que la particule. Par contre si la masse de la particule est nulle (photon par exemple), celle-ci se déplaçant à la vitesse de la lumière, le signe est un invariant caractérisant la particule (voir nota 11).

Tout ceci est encore mieux défini si l'on se place dans le cadre de la mécanique quantique. Les différents objets deviennent des opérateurs hermitiques qu'il est relativement simple de faire apparaitre en considérant l'invariance de la fonction de probabilités complexe (voir nota 12). Cette invariance définit alors les relations de commutation entre ces opérateurs et les opérations algébriques que l'on peut effectuer entre eux permettent de définir leurs valeurs propres et leurs fonctions propres. Mais si l'on veut être mathématiquement complet et surtout plus rigoureux, on se place alors en théorie des groupes, ici le groupe de Poincaré (groupe de Lorentz élargi), et on recherche les générateurs du groupe et l'algèbre de Lie associée mais cela est plus des mathématiques que de la physique (souvent indispensables mais pas toujours nécessaires).

Enfin si l'on veut pleinement définir une particule, il faut caractériser son interaction avec les champs via des objets qui peuvent être simples, par exemple la charge électrique pour le champ électromagnétique, ou parfois plus compliqués, par exemple la charge de couleur (rouge, vert, bleu) pour le champ de la force forte.

Nota 1 : la vitesse de la lumière est prise égale à 1 donc l'unité de temps est identique à l'unité de distance et les vitesses sont exprimées en pourcentage de la vitesse de la lumière. Dans beaucoup d'ouvrages la définition du ds² est inversée, je n'ai jamais compris l'intérêt de cette inversion car les particules ont toutes une vitesse égale ou inférieure à celle de la lumière et donc le ds² doit être positif pour les cas physiques.

Nota 2 : pour un tenseur on montre que sa trace est aussi un invariant.

Nota 3 : on peut toujours construire des tenseurs de plusieurs ordres en multipliant (correctement) les coordonnées de plusieurs quadri-vecteurs mais le contraire n'est généralement pas vrai, un tenseur n'est pas obligatoirement le produit de plusieurs quadri-vecteurs.

Nota 4 : un tenseur symétrique a ses composantes opposées égales, un tenseur antisymétrique à toutes ses composantes opposées inverses l'une de l'autre (coefficient moins 1 entre elles) et nulles si les 2 indices sont identiques.

Nota 5 : cette dénomination vient de l'électromagnétisme. Les champs électrique et magnétique qui dérivent d'un quadri-potentiel sont regroupés en relativité dans un tenseur d'ordre 2 antisymétrique, le tenseur électromagnétique.

Nota 6 : le tenseur de Levi-Cevita est un tenseur d'ordre 4. Il est égal à plus 1 si ses indices sont dans l'ordre normal d'une permutation circulaire par exemple (0, 1, 2, 3) ou (2, 3, 0, 1), moins 1 dans un ordre anormal par exemple (0, 2, 1, 3) ou (2, 3, 1, 0) et nul si 2 au moins sont égaux par exemple (0, 0, 1, 2) ou (3, 3, 3, 3). Pour construire le quadri-vecteur W à partir de ces 2 tenseurs et du quadri-vecteur on applique une contraction d'indices au tenseur ainsi formé. Ici la contraction s'effectue sur 3 indices bas du tenseur de Levi-Cevita et les 3 indices haut du tenseur M P. L'opération de contraction d'un tenseur permet de réduire son ordre tout en conservant sa propriété d'être un tenseur (ou de devenir un quadri-vecteur ou un scalaire). Elle s'effectue toujours entre un indice haut (indice contravariant) et un indice bas (indice covariant). Il est toujours possible de changer la position d'un indice en utilisant le tenseur métrique associé à la pseudo norme.

Nota 7 : les 6 plans sont : (t, x), (t, y), (t, z), (x, y), (x, z) et (y, z).

Nota 8 : la construction de spineurs "tensoriels" se fait de la même manière que pour les tenseurs avec la possibilité d'effectuer les mêmes opérations sur les indices.

Nota 9 : mathématiquement l'espace/temps devient un espace fibré.

Nota 10 : un boost est une transformation qui relie le passage d'un référentiel à un autre via une simple vitesse de type espace, c'est la fameuse transformation de Lorentz remplaçante de la transformation de Galilée de la mécanique classique .

Nota 11 : pour le photon qui a un spin de valeur 1 cela implique aussi que la valeur du spin sur un axe x, y ou z ne peut prendre que les valeurs plus ou moins un et pas zéro.

Nota 12 : cette fonction devient alors dans le cas général un bispineur (composé d'un spineur et d'un spineur à indice pointé) pour tenir compte de l'invariance de la théorie par une réflexion d'espace. L'apparition dans l'équation de Dirac d'une antiparticule associée systématiquement à une particule conduit pour une question de cohérence à la théorie quantique des champs. A titre d'indication, une introduction élémentaire sur les spineurs : https://arxiv.org/pdf/1312.3824.pdf

vendredi, février 10 2023

Densité d'un trou noir, un paradoxe de plus

J'ai déjà fait pas mal de billets sur les trous noirs et mis en avant un certain nombre de paradoxes montrant que la représentation classique (en particulier celle vendue au grand public) des trous noirs était a priori non physique et surtout une extrapolation des équations d'Einstein dans un domaine où l'on pouvait douter de leur validité. C'est pourquoi je préfère parler de trous gris car nos observations montrent qu'il existe des objets célestes ayant certaines caractéristiques des trous noirs mais que notre physique actuelle ne sait pas définir suffisamment bien (voir nota 1).

Les physiciens parlent souvent de la densité d'un trou noir et font remarquer que pour des trous noirs de plusieurs millions de fois la masse du soleil leur densité est inférieure à la densité de l'air donc si un astronaute tombe dedans il ne se passera rien pour lui dans un premier temps (ensuite ce sera un peu plus délicat, spaghettifié le pauvre). Bon, déjà cela ne tient pas compte du fait que sa vitesse devient égale à la vitesse de la lumière sur l'horizon des événements et que le temps de la métrique devient une coordonnée d'espace (et réciproquement), étrange non ? A l'intérieur de l'horizon des événements notre conception de l'espace-temps est tout de même un peu chamboule (voir nota 2).

Sur la densité, j'ai déjà expliqué que c'est une densité fictive car si l'on prend au pied de la lettre la conception du trou noir classique toute la matière est concentrée en r = 0 (un point ou un anneau si le trou noir tourne) et donc la densité est infinie à cet endroit et nulle ailleurs. Un sérieux problème physique même si la mécanique quantique pourrait résoudre ce problème mais nous ne savons pas comment pour l'instant (voir nota 3). En fait dans un trou noir classique, il faut parler d'effet de marée (différence de la force de gravité entre 2 points de l'espace) et pas de densité.

Mais comme je veux parler de densité, voyons de quelle densité fictive les physiciens se saisissent. En fait c'est tout simple, ils prennent la masse du trou noir M et la divise par le volume de la "sphère de Schwarzschild" soit (4/3) x Pi x rs(*3), en gros c'est une densité "moyenne". Ce concept est "intéressant" car il nous permet de montrer que pour n'importe quelle densité il existe un "rayon de Schwarzschild". En effet, Il est facile de voir que rs est proportionnel à un sur racine carré de la densité (voir nota 4). Comme la masse et l'énergie sont les 2 facettes d'un même concept pour les équations d'Einstein et que l'on connait a priori la valeur de la densité masse/énergie pour l'univers (sa platitude mesurée donne une valeur assez précise avec une faible incertitude ainsi que sa "taille" minimum qui est en fait pratiquement infinie par rapport aux distances cosmologiques habituelles), on en déduit que l'univers pourrait être un trou noir (voir nota 5), surprenant non ? Bon, en inversant le sens de la métrique on peut considérer des trous blancs (tout peut sortir mais rien ne rentre dans la "sphère de Schwarzschild" ), cela semble un petit peu moins en contradiction avec nos observations même si cela ne les recoupe pas vraiment.

J'ai déjà mentionné le cas des trous noirs stellaires dont la formation est plus que problématique surtout si l'on considère que notre modèle des particules élémentaires et de leurs interactions n'est pas abouti. Et même avec nos connaissances actuelles il reste pas mal de calcul à faire avant de dire que la pression de dégénérescence ne peut pas arrêter l'effondrement gravitationnel car elle va entrainer une transmutation de la matière que nos accélérateurs de particules nous permettent d'étudier mais malheureusement il reste encore pas mal de boulot et les énergies atteintes limitent nos possibilités d'analyse . En ce qui concerne l'effondrement d'un nuage de gaz gigantesque de densité très faible au départ l'on sait que la formation locale d'étoiles va entrainer sa dislocation et donc empêcher l'effondrement d'ensemble. Toutefois, il reste un cas très particulier, les astronomes ont détecté, "parait-il", des trous noirs gigantesques (donc très peu dense) dans des primo galaxies nées peu après le "big bang". Pour la théorie classique il est pratiquement impossible de comprendre ce phénomène car l'effondrement d'une telle masse de gaz demande un certain temps incompatible avec la durée observée (voir nota 6), même sans parler de la formation d'étoiles.

En conclusion, pour l'instant, les trous noirs stellaires sont surtout des trous gris et les trous noirs peu denses ne sont pas mieux définis et surtout compris. Les physiciens feraient mieux de "tourner sept fois leur langue dans leur bouche" avant de parler de trous noirs à "tire larigot". Il semble que certains physiciens (très peu nombreux) en ont enfin pris conscience.

Nota 1 : Il a été démontré qu'il pouvait théoriquement exister des objets astronomiques ayant des caractéristiques externes très semblables à celles des trous noirs.

Nota 2 : En théorie des cordes (théorie hautement spéculative), une solution (très spéculative aussi) consiste en un espace entremêlé de cordes configurées d'une manière particulière.

Nota 3 : En particulier la mécanique quantique pourrait conduire à une force de rebond mais le sort de la matière rebondissante reste à définir (par exemple le rebond pourrait prendre un temps pratiquement infini).

Nota 4 : rs = c ( (3/8Pi) (1/G) (1/d) )(*1/2) où c est la vitesse de la lumière, G la constante gravitationnelle et d la densité fictive du trou noir. Toutefois, il faut prendre en compte que la solution de Schwarzschild est valide uniquement en dehors de la matière donc que cette formule n'est valide que lorsque la matière est circonscrite dans un volume fini.

Nota 5 : La valeur calculée pour aujourd'hui de rs est d'environ 10 puissance 10 années lumière, valeur d'ailleurs du même ordre de grandeur que l'âge de l'univers. On peut de plus se demander si la constante cosmologique joue un rôle, le coefficient de Schwarzschild complet étant en fait (1 - (2GM/c²r) - (Dr²/3)) où D est la constante cosmologique. La distance à partir de laquelle où D commence à jouer un rôle significatif est du même ordre de grandeur que le rs calculé pour aujourd'hui (pour les cas concrets le facteur contenant D est toujours négligeable). A noter cependant qu'à cause de l'expansion de l'univers, par le passé, la densité de matière pure (baryons et matière noire) était beaucoup plus importante donc le rôle de D était rendu négligeable car rs était beaucoup plus petit. Le satellite EUCLID, récemment envoyé dans l'espace, a pour mission en particulier de vérifier que la constante cosmologique est bien une constante, ce que nos observations confirment pour l'instant. Voir l'article suivant pour connaître de manière détaillée l'influence de la constante cosmologique sur la création des "trous noirs" : https://arxiv.org/pdf/gr-qc/9912066.pdf

A l'autre bout de l'échelle, on peut se poser la question : une particule élémentaire est-elle un "trou noir" ? C'est ce qu'ont fait Einstein et Rosen dans un article publié en 1935. Ils sont alors arrivés à une structure du type "trou de ver" connue aujourd'hui sous le nom de "pont d'Einstein-Rosen" (le nom "trou de ver" n'avait pas encore été inventé). A ma connaissance, il n'y a pas eu de suite en ce qui concerne les particules élémentaires, ni de tentative dans la même veine ayant passé à la postérité. La raison a priori évidente : "la mécanique quantique". Mais ce qui parait évident pour les particules élémentaires me semble aussi évident pour les "trous noirs" dits "classiques". Toute théorie a ses limites et l'extrapoler dans des domaines inconnus est de la pure spéculation.

Nota 6 : A priori la pression régnant dans le milieu stellaire "au début de l'univers" permet seulement la formation des fameux "micros trous noirs" de Hawking qui pour l'instant n'ont jamais donné "un signe de vie". Au centre des autres galaxies, il y a généralement un trou noir très conséquent (plusieurs millions de fois la masse du soleil) mais l'on suppose actuellement qu'il s'est formé par agrégation d'objets célestes de tailles raisonnables (au plus quelques dizaines de fois la masse du soleil). Notre compréhension de la formation des galaxies est encore très incertaine.

vendredi, janvier 27 2023

Expériences de pensée et représentations imagées des phénomènes

L'utilisation d'expériences de pensée ou d'images est un outil pour le raisonnement à la fois dans le domaine de la recherche mais surtout dans le domaine de la vulgarisation des théories. Le danger principal de cet outil c'est que pour des esprits non avertis il peut créer des biais conduisant à des fausses interprétations. Par exemple, plusieurs mathématiciens de renom travaillant sur des théories très abstraites aiment bien se représenter les objets mathématiques sous forme géométrique et cela n'a aucune conséquence pour leurs théories, c'est une simple aide conceptuelle. En physique, Einstein a construit de nombreuses expériences de pensée dont les plus célèbres essayaient de montrer qu'il existait des incohérences ou des imprécisions en mécanique quantique mais cette dernière en est toujours sortie vainqueur. Ceci montre bien qu'il faut être très méfiant vis à vis de ces expériences de pensée ou de ces images.

Une image souvent utilisée pour expliquer l'expansion de l'univers est celle du ballon que l'on gonfle. Evidemment c'est une représentation de ce qui se passe à 3 dimensions alors que la surface du ballon n'en a que 2 mais c'est une très bonne image, pourquoi ? Pour représenter l'univers que l'on suppose homogène et isotrope on peut utiliser une métrique comobile qui définit un temps universel on a donc un espace à 3 dimensions plus un temps indépendant. Maintenant sur la surface du ballon définissons un pavage (voir nota) avec des points centraux. Lorsque l'on gonfle le ballon, la distance entre les points augmentent mais le nombre de pavages qui les sépare ne change pas. De plus la vitesse d'éloignement entre les points est proportionnelle à la distance. C'est exactement ce que nous dit notre théorie de l'univers et que nos observations montrent. Toutefois l'analogie s'arrête là car la courbure observée de l'univers est pratiquement nulle donc très légèrement positive ou négative ou vraiment nulle (?).

Dans le cas de l'univers il faut rajouter ce que l'on appelle couramment l'énergie noire qui accélère l'expansion. Pour l'instant cette appellation est abusive car il s'agit tout simplement d'une deuxième constante dans les équations d'Einstein comme l'a montré le mathématicien Cartan. Des observations plus poussées nous dirons si elle varie dans le temps mais pour l'instant notre meilleur modèle la considère comme une vraie constante (et aucune mesure ne le contredit). Aucun calcul d'énergie d'un champ quelconque ou du vide ne rend compte de sa valeur.

Une représentation de la gravité qui est souvent utilisée c'est le drap tendu sur lequel on pose une masse sphérique. Ce dernier se déforme alors et si l'on jette une bille légère sur le drap celle-ci va suivre une courbe qui va définir une pseudo géodésique. En ce qui concerne l'idée de géodésique c'est une bonne image. Par contre en ce qui concerne l'espace/temps et la gravité c'est très insuffisant car une masse courbe l'espace et le temps ensemble (on ne peut pas définir un temps universel comme lorsque l'on analyse l'univers dans son ensemble). Le temps joue un rôle dans la courbure ainsi que l'espace et donc les phénomènes constatés sont dus à la combinaison des effets engendrés par la courbure de l'espace et du temps (par exemple : calcul de la déviation de la lumière par le soleil ou de l'avance du périhélie de Mercure).

On associe souvent à un objet quantique la notion d'onde/corpuscule. Dans l'expérience des fentes d'Young appliquée à des objets quantiques on s'amuse à fermer ou à ouvrir une des fentes : une fente fermée pas d'interférences, les 2 ouvertes "pan pan rataplan" interférences. Cela prouve-t-il que l'objet quantique est à la fois une onde et un corpuscule ? "Que nenni". Nos expériences montrent que l'objet quantique a une certaine probabilité d'arriver à un endroit de l'écran mais cela est dépendant du contexte car lors de son trajet l'objet quantique va interagir avec les objets quantiques de la source, puis du premier écran, puis du deuxième écran et avec son environnement, il va donc s'intriquer avec des tas d'objets quantiques et donc dans les 2 cas il ne se comporte pas de la même manière et des cohérences entre les objets quantiques vont se créer. En utilisant des cavités résonnantes derrière les fentes et des atomes excités on comprend bien le phénomène (voir mes autres billets). Mais cette image onde/corpuscule est très utile pour interpréter et analyser certains phénomènes en faisant l'impasse sur les multitudes d'interactions que l'objet quantique a en réalité. Ce qui est bluffant en mécanique quantique c'est qu'en inventant une histoire du type l'objet quantique a 2 états possibles : passage par le fente 1 ou passage par la fente 2, on explique l'expérience d'Young en une ou deux lignes de calcul élémentaire.

Une autre expérience de pensée dont on parle souvent en mécanique quantique est celle du chat de Schrödinger. Via un dispositif aléatoire basé sur des objets quantiques, un poison est libéré qui tue le chat enfermé dans une boite. Vu de l'observateur extérieur le chat peut-être vivant ou mort et la mécanique quantique nous dit que le chat est dans un état superposé de ces 2 états et que c'est lors de l'ouverture de la boite qu'un des états est choisi. Je n'ai jamais bien compris ce que cette expérience voulait prouver. Le chat est un objet macroscopique, si je veux qu'il reste vivant un certain temps avant que le dispositif ne se déclenche, il faut lui laisser de l'air et donc il va avoir comme tout objet macroscopique des myriades d'interactions avec son environnement (de plus il est pratiquement impossible d'arrêter le rayonnement cosmologique diffus des photons et des neutrinos). Dans ce cas le chat ne peut être que dans un seul état : vivant tant que le poison n'est pas libéré et mort une fois le poison libéré. Que montre cette expérience ?

Dans un livre de vulgarisation, un poisson quantique est montré éparpillé façon puzzle dans une mare. Lorsque le pécheur ferre le poisson, il se reconstitue. La mécanique quantique nous dit simplement que le poisson a une certaine probabilité de se trouver en un certain endroit, c'est tout. L'auteur ferait bien de relire ses classiques.

Une expérience de pensée qui me semble grotesque et qui est employée par Susskind, pourtant un grand théoricien et un excellent pédagogue, est celle-ci. Susskind intrique un nombre immense de particules 2 à 2. Il sépare les couples de plusieurs années lumière et forme avec chacun de ces 2 ensembles 2 trous noirs. Je ne veux même pas savoir ce qu'il en déduit, pour moi, même en pensée cette expérience est stupide. Une expérience de pensée doit avoir au moins un certain degré de réalité, là c'est de la fantasmagorie (cela me rappelle d'ailleurs le livre de vulgarisation de Thorne sur les trous de vers, une crise de delirium tremens, j'espère qu'il est guéri). Il parait aussi que Susskind dit que le fait que les cordes prévoient une particule du type graviton (donc engendrant la gravité) prouve que la théorie des cordes est juste. Je ne savais pas que l'inventeur de la théorie des cordes était Newton, il était vraiment en avance sur son époque.

Bon en conclusion, les expériences de pensée et les images c'est bien mais "l'eau ferrugineuse c'est mieux", donc à consommer avec modération et dans un cadre bien défini.

Nota : Un pavage correspond à couvrir une surface de petites surfaces identiques toutes contigües les unes aux autres (pas d'espace libre entre elles ni de recouvrement). En fonction de la surface le choix est souvent difficile (cela s'étend à des espace à n dimensions) et en fait c'est une branche ardue des mathématiques. Dans notre cas on suppose que l'on sait le faire.

samedi, janvier 21 2023

Les principes d'équivalence et de relativité

Ces principes sont parfois mal compris et peuvent conduire à des ambiguïtés, je vais donc essayer dans la mesure du possible de les rendre le plus clair possible.

Ces 2 principes sont issus à la base des réflexions géniales (expériences ?) de Galilée : 1 - lorsque 2 corps tombent sous la seule influence de la gravité (aucune autre force extérieure), ils tombent à la même vitesse (variable) et donc atteignent le même niveau en même temps. 2 - le mouvement à vitesse constante n'est "rien" (si je saute d'une fusée allant à vitesse constante et soumise à aucune force de gravité, loin de tout astre, je vais continuer à me mouvoir parallèlement à elle).

Ces 2 principes ont pris vraiment corps avec la théorie de Newton : 1 - les corps sont déviés de leur trajectoire par des forces dont la résultante est proportionnelle à leur accélération donc si aucune force n'est appliquée ils continuent leur mouvement en ligne droite. 2 - la gravité est une force proportionnelle au même coefficient de proportionnalité c'est à dire que la masse inerte (poids) est égale avec les bonnes unités à la masse inertielle. 3 - le temps est universel. Ces 3 principes permettent de définir des référentiels inertiels qui sont tous équivalents par rapport à un espace supposé fixe et éternel. Pour passer d'un référentiels à l'autre on utilise la transformation de Galilée. Les théories physiques doivent être invariantes vis à vis de ses référentiels.

Le problème c'est que la théorie de l'électromagnétisme de Maxwell n'est pas invariante par ces transformations et que la vitesse de la lumière est constante quelle que soit la vitesse de la source. Einstein qui a priori ne connaissait pas les expériences de Michelson sur l'invariance de la vitesse de la lumière a cherché une transformation compatible avec l'électromagnétisme et par la suite Minkowski a théorisé la nouvelle transformation en créant un espace à 4 dimensions, l'espace et le temps étant imbriqués l'un avec l'autre. Les travaux d'Einstein connus sous le nom de "relativité restreinte" ont mis en évidence la relativité du temps (dilatation) et des longueurs (contraction) mais surtout l'équivalence masse/énergie. La mécanique classique a alors été modifiée pour être invariante par rapport aux transformations de Minkowski (en particulier la notion de tenseur a alors pris une importance primordiale).

Était-ce satisfaisant ? On peut dire un gros oui pour toute une partie de la physique et ce jusqu'à nos jours (mécanique quantique, théorie des champs, modèle standard des particules élémentaires, etc). Mais pour Einstein la gravité ne rentrait pas dans ces principes et il était insatisfait. Localement, c'est à dire en un point donné de l'espace, la gravité est équivalente à une accélération (ascenseur d'Einstein), si je tombe dans un champ de gravité comme la masse est équivalente à l'énergie pour moi les lois de l'électromagnétisme doivent être les mêmes (la force faible et la force forte étaient à l'époque inconnues), un disque tournant voit sa longueur périphérique contractée donc les lois des espaces euclidiens ne sont plus valables pour certains observateurs. Quelles conclusions en a-t-il tirées ? Pour prendre en compte la gravité, il faut utiliser un espace courbe (riemannien) et mettre en relation un tenseur géométrique avec un tenseur masse/énergie en gardant en mémoire que le tenseur masse/énergie doit être conservatif et que le tenseur géométrique ne doit contenir que le champ et ses dérivés premières. Avec l'aide du mathématicien Grossmann, un de ses amis proches, Einstein a pu élaborer les équations de la relativité générale complétées peu après par le mathématicien Cartan (constante cosmologique). Ces équations nous permettent de décrire l'univers dans son ensemble et en particulier d'apporter des corrections à la théorie de la gravité de Newton. Elles forment avec nos autres théories un ensemble qui permet de bien décrire nos observations toutefois elles sont disruptives sur quelques points en particulier lorsque l'on veut les "quantifier" comme les autres théories.

Mais revenons-en à notre principe d'équivalence et de relativité. Dans les équations de la relativité générale les corps non soumis à des forces suivent les géodésiques de l'espace temps quelque soit leur masse/énergie mais ils vont en même temps courber l'espace d'où la non linéarité de ces équations. Le principe d'équivalence se traduit par le fait qu'en tout point je peux annuler le champ de gravité (via une accélération par exemple) et me ramener à un référentiel de Minkowski et utiliser mes autres théories dans ce référentiel sans tenir compte de la gravité. Mais cela n'est vrai que dans un volume infinitésimal entourant ce point. Seule une masse/énergie courbe la totalité de l'espace, ce n'est pas vrai pour une accélération. Un observateur extérieur au corps accéléré ne verra pas de courbure de l'espace alors qu'en présence d'une masse/énergie il pourra mesurer cette courbure. Il ne faut pas confondre une courbure fictive vue par l'observateur accéléré et une courbure réelle (exemple : cas du disque tournant). Par contre pour un observateur accéléré, la physique peut-être différente comme le montre l'effet Unruh (l'observateur voit un bain thermique à une température proportionnelle à son accélération et le nombre de particules n'est pas conservé). Toutefois ces calculs d'ailleurs approximatifs font intervenir la mécanique quantique et les relations entre la mécanique quantique et la relativité générale sont loin d'être bien comprises.

- page 1 de 4