1-1 Eléments scientifiques de ma synthèse
1-1 Eléments scientifiques de ma synthèse.
voir la conclusion finale.
Conclusion générale sur l'incomplétude.
Autant ces fonctions sont continues comme leurs développements et leurs variations, autant toute valeur statistique est discrète dans ses variations et de ce fait est beaucoup plus pauvre en variations et loin de définir une évolution physique.
On ne peut développer une théorie physique de l'évolution que sur un phénomène continu et de ce fait prévisible point par point.
Mathématiquement, on a ce même problème lorsqu'on construit l'ensemble des nombre entiers qui est l'ensemble fondamental de tout élément. La collection de ces éléments qui est la définition primaire de l'ensemble est relativement évidente caractérisé par le nombre d'éléments 1,2,3,4,5,6,7,8,9, ... et là premier problème qui a mis du temps à être résolu qui apparaitra en occident au troisième sciécle à Alexandrie c'est le zéro 0. C'est donc un nombre très spécial distinct des autres pour différentes raisons donc particulier et distinct des autres.
Notre ensemble est défini par 1 élément type qui sert de référence pour tous les autres et qui en est un modèle de manière à pouvoir définir tous ces ensemble par comparaison. Donc tout ensemble est un ensemble du type de ce qui le définit.
Pour faire l'inventaire des ensemble il suffit alors d'étiqueter ces ensemble avec une étiquette correspondant au nombre d'éléments qu'il contient.
Cela semble raisonnable mais c'est pas suffisant. C'est incomplet ... on aura un problème avec les nombres et c'est l'ensemble zéro 0. Cet ensemble n'en sera pas un car c'est un ensemble vide. Et s'il est vide on ne saura pas de quoi il est ? ou n'est pas.
Notre système mathématique est alors incomplet et nous permet pas de conclure quoi que ce soit ni même ce que l'on étudie. Le Zéro ne fait pas partie de notre système logique car il ne porte pas l'information sue ce que l'on étudie, il est sans information alors qu'un ensemble est supposé être un élément fondamental qu'il contient.
Autant ces fonctions sont continues comme leurs développements et leurs variations, autant toute valeur statistique est discrète dans ses variations et de ce fait est beaucoup plus pauvre en variations et loin de définir une évolution physique.
On ne peut développer une théorie physique de l'évolution que sur un phénomène continu et de ce fait prévisible point par point.
Mathématiquement, on a ce même problème lorsqu'on construit l'ensemble des nombre entiers qui est l'ensemble fondamental de tout élément. La collection de ces éléments qui est la définition primaire de l'ensemble est relativement évidente caractérisé par le nombre d'éléments 1,2,3,4,5,6,7,8,9, ... et là premier problème qui a mis du temps à être résolu qui apparaitra en occident au troisième sciécle à Alexandrie c'est le zéro 0. C'est donc un nombre très spécial distinct des autres pour différentes raisons donc particulier et distinct des autres.
Notre ensemble est défini par 1 élément type qui sert de référence pour tous les autres et qui en est un modèle de manière à pouvoir définir tous ces ensemble par comparaison. Donc tout ensemble est un ensemble du type de ce qui le définit.
Pour faire l'inventaire des ensemble il suffit alors d'étiqueter ces ensemble avec une étiquette correspondant au nombre d'éléments qu'il contient.
Cela semble raisonnable mais c'est pas suffisant. C'est incomplet ... on aura un problème avec les nombres et c'est l'ensemble zéro 0. Cet ensemble n'en sera pas un car c'est un ensemble vide. Et s'il est vide on ne saura pas de quoi il est ? ou n'est pas.
Notre système mathématique est alors incomplet et nous permet pas de conclure quoi que ce soit ni même ce que l'on étudie. Le Zéro ne fait pas partie de notre système logique car il ne porte pas l'information sue ce que l'on étudie, il est sans information alors qu'un ensemble est supposé être un élément fondamental qu'il contient.
Ma remarque fondamentale: Je vous fournis mes références scientifiques qui me permettent de faire une synthèse physique en langage mathématique de toute la science. C'est donc trés abstrait mais complètement justifié. Je parts d'une origine unique l'énergie donc un paquet de photons pour tout en déduire sans exeptions de notre environnement : donc du big bang au cerveau. Et, je trouve mon chemin grace aux goupe d'Abel et de Galois et aux théorèmes de Plancherel et de Feynman que pratiquement personne ne référencie en physique avec un théorème qu'il démontre. C'est évidemment un autre chemin mathématique mais qui se base uniquement sur le principe de cause à effet. Malheureusement comme le dit Feynman personne ne comprend ce qu'est la mécanique quantique. Je pense y être arrivé trés simplement en me méfiant de mon crétain de cerveau qui y a pris son temps en simplifiant tout à partir des contradictions décernées pour obtenir une théorie unique et simple à base du Lagrangien uniquement une fois simplifié lui même...
Alors, lisez ce paragraphe qui résume mon chemin à travers une physique jusqu'au bout, pour en avoir une idée scientifique, et dites vous bien que comme Feinman, je pense aussi, qu'aujourd'hui encore personne ne comprend ce qu'est la mécanique quantique. C'est vraiment gonflé.
Qu'est qu'il y a de neuf dans ce que j'avance ? Pratiquement rien séparément. Par contre globalement je développe une synthèse totalede l'évolution avec des arguments et une théorie unique en physique que j'espère cohérente et sans utiliser de statistiques qui pour moi ne démontrent rien car on sort de la science et de ses démonstrations on ne fait que vérifier statistiquement comme pour le Covid. On doit rester en physiques dans une démonstration numérique algébrique donc dans une fonction comme l'équation de Lagrange tel que L(p,p')= E qui ne peut pas être plus simple car seule p la position initiale ou l'état initial varie tout le reste y est constant.
Ca ne peut pas être plus simple.
Et quels sont ces arguments. Ils sont bien trop complexes mais il faut bien à un moment utiliser le langage mathématique qui pour celà est nécessaire et bien trop abstait pour être compréhensible ?
I- D'abord, évaluer la véracité des arguments utilisés :
En premier lieu la complétude de l'étude est un facteur important et la mesure physique en est la garantie éssentielle. (voir en fin)
1. Le seul juge et arbitre objectif de ce que j'avance ne peut être que la Mesure Physique qui est le moyen thechnique d'évaluation d'une théorie.... et de définitions des paramètres intervenant.
2. La précision d'une mesure s'évalue par le nombre de décimales valables pour rendre compte d'un résultat important et généralement cet ordre de grandeur se mesure en logarithme de ce nombre.
3. Actuellement, la précision des mesures en physique théorique classique comme quantique est de l'ordre de 10-12 c'est à dire de 12 chiffres significatifs. L'atome d'Hydrogène mesure 10-10 m de diamètre.
4. Cette année La mission Microscope dans l'espace étendra probablement cette précision à 10-10 c'est à dire à 15 chiffres significatifs ce qui est au delà de la dimension de notre Univers fini. Cela nous projette au dehors en dehors de notre espace. La précision de nos mesures serait alors valable dans tout notre espace.
5. Le photon est notre unique étalon de mesure: Temps, Longueur, Energie en effet notre Monade originelle qui se retrouve alors dans la définition de notre étude et donc du Lagrangien sous forme d'Energie au départ et ensuite en expension.
II- Ensuite, qu'est ce qu'il y a de neuf ?
Ma théorie s'inspire évidemment de celle développée par la culture grecque à partir de Thalès et Pythagore vers -600 et de la science moderne avec Galilée, Descartes, Liebnitz et Newton vers 1600 et Berthelot, Lagrange, Carnot, Fourier, Abel, Galois vers 1800 .
1. Le rationalisme de Liebnitz se base alors sur 4 principes: de non-contradiction, de raison-suffisente, d'identité des indiscernables et de continuité. Liebnitz développe la dessus un principe d'unicité: la Monade que j'adopte pleinement.
2. Je corrige l'expression du Lagrangien
L(p,p')= 1/2.mv² -V(x) = Energie cinétique - énergie potentielle
par L(p,p')= 1/2.mv² +V(x) = l'Energie totale du système. Et, dans cette expression je considère que l'impulsion ou la quantité de mouvement p'= mv comme l'énergie totale E sont des invariants.
Cette expression n'aura plus qu'une seule variable p et deux invariants p' et E.
On ne peut pas avoir plus simple comme expression.
Ceci valide l'évolution de tout l'Univers à partir d'une Energie totale E initiale qui est le moteur de toute transformation et détermine toute l'évolution naturellement avec une croissance de l'Entropie qui est associée à une Structuration qui augmente.
3. Cette expression unifie la mécanique des particules élémentaires que ce soit la masse ou la charge dans leurs interactions statiques et de plus L(x,p/2m) = 1/2.mv²+V(x) met en valeur les invariants fondamentaux de la mécanique générale que sont l'Energie et la quantité de mouvement. Ceci souligne l'équivalence qui existe entre les lois de conservations et l'invariance des lois physiques en ce qui concerne certaines transformations (typiquement appelées symétries). Théorème de Noether (physique): À toute transformation infinitésimale qui laisse invariante l'intégrale d'action correspond une grandeur qui se conserve et de plus à chaque fois qu'une symétrie continue existe, il existe aussi une relation d'incertitude entre la grandeur physique conservée et la grandeur mesurant l'amplitude de la transformation[3].
4. Jusque là le temps t n'intervient pas directement. Il interviendra comme un paramètre qui mesurera les transformations. Si rien ne bouge relativement rien ne se transforme et toute transformation est nécessairement associée à une augmentation d'Entropie S = Q/T d'aprés le second principe de la thermodynamique. Alors il nous faut trouver cette relation qui est l'inégalité de Nash S= n/2.logt liant l'Entropie S au temps t .
A ce niveau il faut souligner que Nash à dû s'inspirer de manipulations de mesures Physiques pour arriver à ce résultat. C'est la mesure qui s'est imposé sur la pensée mathématique et le fonctionement du Cerveau.
5. Je reprends alors la loi fondamentale de transformation des éléments de l'Univers comme étant l'expression unique des lois de la thermodynamique: " Rien ne se perd, rien ne se crée, tout se transforme dans le temps avec une augmentation d'Entropie Q/T et un minimum d'énergie Q dépensée à la Température T pour stucturer les éléments de l'espace." L'évolution naturelle étant une complexification des structures de l'espace obtenues toutes à partir de l'unité des phonons générés initialement lors du Big Bang définissant la Monade originale. Ce principe est évidemment a l'origine de chacune des ramifications du buissonement de la structure de la complexification de toute l'évolution.
6. Le Temps t ne serait alors que l'augmentation d'Entropie qui mesure les transformations du système et plus précisément l'augmentation de sa structuration. Mais cette complexification à partir d'une monade originelle n'est pas une évolution vers plus de désordre mais plutôt vers plus d'ordre. Ce n'est pas la vision généralement admise et celà est sans doute la raison fondamentale qui empèche le cerveau de trouver le bon chemin. C'est comme le GPS dans mon crane !
7. Le language, la Physique et les mathématiques tout au bout ne sont que des images évoluées de la réalité qui nous entoure. Ce sont des matières intellectuelles qui reproduisent notre environement et construisent l'information..... Cette information de la même manière évolue vers plus de structuration et c'est ainsi qu'une formule mathématique n'est que l'aboutissement de structures qui résument l'état et l'évolution d'un système qu'il soit matériel ou vivant. Un bon exemple en est le Lagrangien qui est la structure qui intègre les variables d'état indépendantes pour les contraintes agissantes.
8. La Mécanique analytique contrairement à la mécanique d'Isaac Newton qui s'appuie sur le concept de point matériel se penche sur les systèmes arbitrairement complexes, et étudie l'évolution de leurs degrés de libertés dans ce qu'on appelle un espace de configuration. Les lois du mouvement sont quant à elles déduites d'un principe variationnel qui, appliqué à une grandeur appelée action, donne le principe de moindre action. En substance, le principe de moindre action énonce que parmi toutes les trajectoires possibles pour relier deux points de l'espace de configuration, celle qui est effectivement parcourue par le système est celle qui donne une valeur minimale et non maximale à l'action ou plutôt un minimum d'énergie E dépensée. C'est là l'intelligence et sa mesure.
9. Le procédé le plus élégant et donc intelligent pour résoudre le Lagrangien est de lui appliquer la transformation de Legendre qui conduit à un hamiltonien et un système de 2 équations différentielles linéaires d'ordre 1, bien plus facile à résoudre donc intelligent et la solution contient alors le théorème de superposition essentiel au développement de la mécanique quantique .
III- Généralisation du Lagrangien :
La formulation Lagrangienne est invariante par changement de systèmes de coordonnées qi , c'est ce qui fait sa puissance, car elle permet de ramener de larges classes d'équations différentielles exprimées en coordonnées cartésiennes, sphériques etc... à quelques cas fondamentaux que l'on sait résoudre.
En outre, elle permet de démontrer que des théorèmes de conservation comme ceux de l'énergie E, de la quantité de mouvement p=m.v etc... sont automatiquement valables pour ces larges classes d'équations différentielles puisque, en démontrant des lois de conservation dans un système de coordonnées données on est sûr qu'ils seront valables dans d'autres systèmes de coordonnées, variables d'état ou degrés de liberté, pour d'autres systèmes mécaniques qui se ramènent à des équations sous la forme de Lagrange.
La validité de lois de conservation comme celles de l'énergie et de la quantité de mouvement, initialement établie pour des points matériels, seront alors tout aussi assurée pour le champ électromagnétique si l'on peut mettre les équation de Maxwell sous la forme d'un lagrangien et c'est le cas.
La situation est d'ailleurs très profonde et a des répercussions en mécanique quantique et en théorie quantique des champs par l'intermédiaire du théorème de Noether reliant l'invariance du Lagrangien par certaines transformations de symétries et l'établissement de lois de conservation.
Ainsi, si l'on écrit une équation différentielle avec des variables n'ayant pas de rapports directs avec les positions d'un système de particule, mais dérivant d'un Lagrangien pouvant avoir la forme de celui d'un système de particules invariant par translation dans le temps, alors on pourra définir une fonction invariante par translation dans le temps et on pourra définir une fonction H qui correspondra à une énergie et satisfera à une loi de conservation.
La formulation de Lagrange peut être étendue de la façon suivante. On introduit une autre variable définie par pi . On peut alors construire une fonction dite hamiltonienne H, déduite du Lagrangien produite par la transformation de Legendre :
Le système d'équations différentielles du second ordre de Lagrange peut alors s'écrire sous la forme d'un système d'équations différentielles du premier ordre qui introduit la propriété de superposition.
Ces équations de Hamilton ont été capitales entre les mains de Heisenberg, Born, Jordan et Dirac pour la découverte et la formulation de la mécanique matricielle et son extension finale, la mécanique quantique. En effet, ces derniers découvriront que le passage de la mécanique classique à la mécanique quantique se fait en remplaçant les quantités précédentes par des matrices.
Evidemment, la fonction de Hamilton H(qi,pi) exprime bien là l'énergie totale E du système mécanique.
Il y a plusieurs conséquences importantes qui découlent de ces équations que l'on trouve aussi à la base de la formulation de la mécanique statistique de Gibbs, Boltzmann et Einstein.
Ces situations ramènent par exemple le mouvement de N points matériels (particules d'un gaz, d'étoiles dans une galaxie etc...) à celui d'un unique point abstrait dans un espace à 6N dimensions que l'on appelle l'espace des phases d'un système mécanique hamiltonien. Les coordonnées de ce point étant définies par 3N paires de coordonnées appellés coordonnées conjuguées qi et pi.
Ces mêmes équations sont invariantes par une plus large classe de changement de coordonnées dites transformations canoniques des variables conjuguées précédentes. Elles s'écrivent :
Qj = fj(qi,pi,t)
Pj = gj(qi,pi,t)
Ceci donne lieu à une puissante technique d'intégration des équations de mouvement d'un système mécanique, comme cela a été initialement démontré en mécanique céleste. C'est d'ailleurs pourquoi Bohr, et surtout Sommerfeld, l'utiliseront pour étudier et construire des modèles atomiques avec des orbites d'électrons autour du noyau d'un atome. C'est là que la précision peut être effectuée à 10-12 prés. Ce qui valides les limites de mon étude post inflation.
Quand à l'Inflation ? Aucune mesure n'atteint évidemment une telle précision, j'en suis conscient et de toute façon ça me dépasse mais si la suite est cohérente il en est aussi probable pour l'origine.
Le vide quantique, source d'énergie et d'émerveillement - Canal-U par M.Spiro. J'ai aimé mais ça me dépasse et c'est probablement dépassé. Il y a souvent une inflation des dimensions de l'espace qui serait au dela des 4 dimensions initiales ce qui permet toutes sortes de développements au dela du raisonable ?
IV- Conclusion et ce sera mon conte de l'évolution.
On accepte la théorie du Bib Bang. Ce sera la naissance de l'Univers. Au début il n'y a pas l'éternel mais disons rien encore. C'est le zéro 0 et puis apparait le nouveau né, l'unique 1. C'est l'unité de départ Ce sera ma nomade virtuelle parceque j'y comprend pas grand chose. Il lui faut un certain temps entre le Big et le Bang disons pour moi 10-12 seconde entre temps 0 et le temps de mon origine. C'est une période dite d'Inflation.
Cette période est comme celle de la formation d'une bulle au fond d'une casserole qui apparaitra on se sait pas exactement ni où ni comment. Mais cette bulle va se développer avant de de se libérer pour s'étendre et essayer rejoindre la surface. Tout ça n'est qu'une image mais c'est comme cela que fonctionne mon cerveau.
J'atendrais que l'univers, le nouveau né, sorte de sa période d'inflation où pour l'instant les mesures sont trop indirectes sur on ne sait trop quoi encore. C'est alors à cet instant de l'ordre de 10-12 seconde que je regroupe tout l'univers sous une seule quantité celle de toute son énergie E originelle car je suppose valable la première loi de conservation de la thermodynamique. Cela veut dire que cette évergie se conserve globalement et il me faudra aditionner ses diférentes formes au bout des 10-12 secondes pour regrouper toute l'énergie initiale qui vaudra alors de l'ordre de 100 GeV.
C'est à ce moment que le bosons de Higgs se manifeste c'est à dire les premiers grains de matière. L'énergie se condense alors en matière E=>mc²..... Ce sont les premières mesures directes qui apparaissent pour des énergies de l'ordre de 125,36 ± 0,37 (stat) ± 0,18 (sys) GeV.c−2 mesuré avec un degré de confiance de 99,99997 %. Ce Boson à une durée de vie de 1,56 × 10−22 s (dans le modèle standard). C'est à ce moment que commence mon conte réel et cohérent.
Jusque là je suppose que je peux regrouper toute l'énergie constante Q de l'univers dans une bulle composée initialement uniquement de photons ayant une énergie E0 globale initiale incommensurable. Cette énergie se calculera statistiquement globalement plus tard avec nos connaissances actuelles. Cette bulle se transforme et s'étend naturellement car les photons ont une vitesse constante c=300.000 km/s. Cette extension spatiale de l'Univers s'effectue avec une croissance de l'entropie dans le temps qui est liée aux transformations et à une baisse de sa Température T moyenne dans une sorte de condensation.....
Mon bilan Physique commence vers 10-12 seconde au temps où la Température aura chuté vers une température moyenne de l'ordre de 1012 degré Kelvin et où la Physique prendra le pas sur la Cosmologie.
V Rappels fondamentaux.
Le théorème de Noether exprime l'équivalence qui existe entre les lois de conservations et l'invariance des lois physiques en ce qui concerne certaines transformations (typiquement appelées symétries).
Établi en 1918 par la mathématicienne Emmy Noether à Göttingen, ce théorème fut qualifié par Albert Einstein de «monument de la pensée mathématique» dans une lettre envoyée à David Hilbert en vue de soutenir la carrière de la mathématicienne.
Il est abondamment utilisé aujourd'hui par la physique théorique, où tout phénomène est abordé, chaque fois que possible, en matière de symétrie d'espace, de charges, et même de temps.
Modification Non observable |
Symétrie par Transformation de: |
Loi de conservation |
Position spatiale absolue |
Translation d'espace |
Impulsion P |
Temps absolu |
Translation dans le temps |
Énergie |
Orientation spatiale absolue |
Rotation |
Moment cinétique L |
Vitesse, Orientation, Position absolues (Relativité Restreinte) |
Transformations du groupe de Poincaré (Lorentz+ translations dans l'Espace et le Temps) |
Intervalle d'espace temps s², Impulsion P, moment cinétique L, Énergie E |
V- Théorème de Noether
À toute transformation infinitésimale qui laisse invariante l'intégrale d'action correspond une grandeur qui se conserve.
Un autre énoncé équivalent est:
Théorème de Noether — À toute transformation infinitésimale qui laisse le Lagrangien d'un système invariant à une dérivée temporelle totale près correspond une grandeur physique conservée.
Chaque «invariance» traduit le fait que les lois de la physique ne changent pas lorsqu'une expérience subit la transformation correspondante, et donc, qu'il n'y a pas de référence absolue pour mener une telle expérience[2].
De plus, à chaque fois qu'une symétrie continue existe, il existe une relation d'incertitude entre la grandeur physique conservée et la grandeur mesurant l'amplitude de la transformation[3].
L'invariance du Lagrangien à une dérivée temporelle totale près se traduit par une invariance des équations du mouvement d'un système.
En mathématiques (plus précisément en algèbre linéaire) un
automorphisme orthogonal d'un espace préhilbertien E est un automorphisme f qui conserve le produit scalaire, c.-à-d.
qui vérifie :
- .
- C'est une introduction algébrique à la mécanique quantique
Applications
Relativité |
Symétrie |
Invariant |
|
---|---|---|---|
Pas de position spatiale absolue |
Invariance par translation dans l'espace (les lois sont les mêmes partout) |
Conservation de l'impulsion |
Δ x . Δ p ≥ ℏ /2 |
Pas de temps absolu |
Invariance par translation dans le temps (les lois sont les mêmes tout le temps) |
Conservation de l'énergie |
Δ t . Δ E ≥ ℏ /2 |
Pas d'orientation absolue |
Invariance par rotation dans l'espace (il n'y a pas de direction privilégiée dans l'espace) |
Conservation du moment cinétique |
Δ α . Δ J ≥ ℏ / 2 |
Pas de vitesse absolue par rapport à celle de la lumière (relativité restreinte) |
Invariance du cône de lumière passant par un point de l'espace-temps. Transformations du groupe de Lorentz |
Conservation de l'intervalle d'espace temps |
|
Pas d'accélération absolue (relativité générale) |
|||
Pas d'identité propre des particules |
Permutation de Particules identiques |
||
Pas de référence absolue pour la phase des particules chargées |
Invariance par changement de phase |
Conservation de la charge électrique |
Le Principe d'incertitude, qui n'intervient pas ici s'introduit par la transformée de Fourrier eT le théorème de Plancherel.
Soit une fonction de carré sommable sur ℝ et soit A > 0. On peut définir la transformée de Fourier de la fonction tronquée f sur [-A, A] par :
Alors lorsque A tend vers l'infini, les fonctions convergent en moyenne quadratique (c'est-à-dire pour la norme valable vers une fonction qu'on note et que l'on appelle transformée de Fourier (ou de Fourier-Plancherel) de .
En outre, la formule d'inversion de Fourier est vérifiée : la fonction est elle-même de carré sommable et on a (au sens de la norme) :
Ainsi, la transformation de Fourier-Plancherel définit un automorphisme de l'espace L2. De plus, c'est une isométrie de cet espace de Hilbert :
ou, ce qui est équivalent :
La formule de Plancherel ( début 1900) relie une fonction et son image par la transformation de Fourier. C'est une relation algébrique unique et avec une corélation directe non statistique.
V-Théorie des Champs Classique
Le théorème de Noether est aussi valide en Théorie des Champs classique où le Lagrangien est remplacé par une densité Lagrangienne qui dépend de champs plutôt que de variables dynamiques. La formulation du théorème reste sensiblement la même.
Théorème de Noether — À toute transformation infinitésimale qui laisse la densité Lagrangienne d'un système invariante à une quadri-divergence près correspond une quantité conservée.
Remarque
Le théorème s'applique à certaines classes de théories décrites soit par un lagrangien, soit par un hamiltonien, ce qui est le cas des théories en physique.
Transformée de Fourier
C'est essentiel sur deux points fondamentaux qui me permettent de préciser la mécanique quantique sans faire appel aux statistiques et en l'associant au principe de superposition qui la caractérise et la définie.
Principe d'incertitude et la Transformation de Fourier — Wikipédia
On peut remarquer que les répartitions d'une fonction f(x) et de sa transformée de Fourier f (ν) ont des comportements opposés : plus la masse de f(x) est « concentrée », plus celle de la transformée f ( ν ) est étalée, et inversement. Il est en fait impossible de concentrer à la fois la masse d'une fonction et celle de sa transformée. C'est l'incertitude associé à l'aspect ondulatoire des particules qui explique aussi la règle de superposition qui dans ce cas se généralise à tous signal Physique périodique.
Ce compromis entre la compaction d'une fonction et celle de sa transformée de Fourier peut se formaliser par un principe d'incertitude en considérant une fonction et sa transformée de Fourier comme des variables conjuguées par la forme symplectique sur le domaine temps-fréquence : par la transformation canonique linéaire, la transformation de Fourier est une rotation de 90° dans le domaine temps–fréquence qui préserve la forme symplectique.
Supposons f(x) intégrable et de carré intégrable. Sans perte de généralité, on supposera f normalisée et f(n) sa transformée de Fourier. Par le théorème de Plancherel, on sait que la transformée de Fourier f ( ν ) est également normalisée.
(On peut mesurer la répartition de matière autour d'un point (x =0 sans perte de généralité) par Do(f) et de même pour la fréquence autour du point ν = 0 par Do(f) et l'on obtient pour leur produit Do(f).Do(f)
En probabilités, il s'agit des moments d'ordre 2 de | f(x) |² et de | f (ν)|² .
Le principe d'incertitude dit que si f(x) est absolument continue et que les fonctions x·f(x) et f′(x) sont de carré intégrable alors on à l'inégalité suivante :
Cette inégalité est aussi connue sous le nom d'inégalité de Heisenberg-Gabor en mécanique quantique.
Vues spatiale (position x) et fréquentielle (impulsion k ou quantité de mouvement) de (a) une onde, (b) un paquet d'onde et (c) un corpuscule. L'onde étant de fréquence pure, son impulsion est définie mais elle n'est pas localisée dans l'espace. Inversement, le corpuscule est localisé mais n'a pas de fréquence déterminée. Le cas général est celui du paquet d'onde qui est distribué en fréquence comme en espace. Du fait de la dualité entre les deux représentations l'étalement spatial Dx est inversement proportionnel à l'étalement fréquentiel Dk.
Conclusion générale sur l'incomplétude.
Autant ces fonctions sont continues comme leurs développements et leurs variations, autant toute valeur statistique est discrète dans ses variations et de ce fait est beaucoup plus pauvre en variations et loin de définir une évolution physique.
On ne peut développer une théorie physique de l'évolution que sur un phénomène continu et de ce fait prévisible point par point.
Mathématiquement, on a ce même problème lorsqu'on construit l'ensemble des nombre entiers qui est l'ensemble fondamental de tout élément. La collection de ces éléments qui est la définition primaire de l'ensemble est relativement évidente caractérisé par le nombre d'éléments 1,2,3,4,5,6,7,8,9, ... et là premier problème qui a mis du temps à être résolu qui apparaitra en occident au troisième sciécle à Alexandrie c'est le zéro 0. C'est donc un nombre très spécial distinct des autres pour différentes raisons donc particulier et posant des problèmes qui doivent être surmontés.
Notre ensemble est défini par 1 élément type qui sert de référence pour tous les autres. C'est la base de notre étude et qui en est un modèle de manière à pouvoir définir tous les ensembles étudiés par comparaison. Donc tout ensemble est un ensemble du type de ce qui le définit. Et pour faire l'inventaire des ensemble il suffit alors d'étiqueter ces ensemble avec une étiquette correspondant au nombre d'éléments qu'il contient.
Cela semble raisonnable mais c'est pas suffisant. C'est incomplet ... on aura un problème avec les nombres et c'est l'ensemble zéro 0 qui n'en est pas un car il n' rien et ce rien ne fait pas partis de notre ensemble ? Cet ensemble n'en sera pas un car c'est un ensemble vide alors que l'on étudie un ensemble d'éléments. Et, s'il est vide on ne saura pas de quoi il est ? ou n'est pas.
Notre système mathématique est alors incomplet et nous permet pas de conclure quoi que ce soit ni même ce que l'on étudie. Le Zéro ne fait pas partie de notre système logique car il ne porte pas d'information sur ce que l'on étudie, il est sans information alors qu'un ensemble est supposé être un ensemble d'éléments fondamentaux qu'il ne contient pas.
C'est pour cette raison que pour définir l'ensemble des entier et y intégrer le zéro 0 on intègre un nouveau paradigme en algèbre pour étidier la quantique qui est le ...
C'est la raison pour laquelle les mathématiciens intègre la notion de Treillis
pour définir le groupe de l'ensemble des nombres entiers à l'usage de la quantique. un nouveau paradigme pour définil'espace et le mesurer.
C'est donc ce que j'utilise pour l'étude de la physique unique que je développe pour passer du zéro à 1 0 .... 1
grace au suport du Tréllis. Une suite de points.
0 --> 1
pourrait être aussi naturellement un Vecteur.
0 1
C'est un suport vide en géométrie l'espace, un vide du point au suivant.
Nécessité du tréllis qui est la concrétisation de l'espace inital en expension
Le Tréllis est le support qui permet de passer du vide absolu 0 à l'espace 1 qui définit l'environement existant et donc du néant au support des ondes. Les ondes et leur énergie sont à l'origine de tout, leur lieu et support doit être comme un éther et l'éternité qui définissent et concrétisent la notion d'espace...
Ce n'est qu'un concept pour imaginer et comprendre que des ondes gravitationelles qui datent de l'origine de l'espace du moins pour ce que l'on en perçoit aujourd'hui nous permettent d'y accéder.
(Voir l'image entête et présentation de cet article).