• Les ondes de structure

     

    PHYSIQUE DES ONDE

    LES ONDES DE STRUCTURE DE LA MATIÈRE

    RUBRIQUE N°1  LES  ONDES  DE  STRUCTURE

    Par Paul Bouchard Le 14/11/2014

    La thèse exposée dans le blog ''eklablog paulpb physique des ondes'' donne à l'électron la place de particule élémentaire de toute matière. C'est une ''onde'', qui possède à la fois l'énergie de son ''onde lumière'' et les propriétés électromagnétiques de son onde transversale magnétique qui lui donne une ''structure'' matérielle. La ''substance de l'espace'' ( notion due à J.J. Micalef), est indispensable pour conduire les ondes dans le ''soi-disant'' vide de l'espace. Toutes ces ondes sont faite DE substance de l'espace et se propagent DANS cette substance (J.J. Micalef). Les ondes de type lumière ( de radio VLF, très basse fréquence, aux rayons X ), ne sont ni électriques ni magnétiques, ce sont des ondes périodiques longitudinales. Les rayons gamma qui sont des ''rayonnements dits ionisants'' et qui sont probablement des paires ''électron-positrons'', sont seuls (avec les électrons) des véritables ondes électromagnétiques (des particules de matière).

    Une réflexion récente m'a fourni un nouvel argument contre la qualification dite électromagnétique des ondes de type lumière. Leur transmission par les fibres optiques en verre a, sur les transmissions par conducteurs métalliques (fil de cuivre par exemple), un énorme avantage de sécurité car, selon Wikipédia « elles ne rayonnent aucun ''champ'' ni électrique ni magnétique. » Quel aveu ! Si l'on désire une transmission électrique ou magnétique, il convient d'introduire, dans le verre des fibres, des poussières métalliques dont les électrons libres peuvent conduire leurs ondes transversales magnétiques, ce que ne peuvent faire les électrons du verre qui restent fixés dans leurs atomes. Les fibres optiques normales ne conduisent que les ondes lumière, qui ne sont donc bien que de simples ondes énergétiques longitudinales, sans composantes magnétiques. CQFD.

    Cette thèse est le résultat d'un travail de 5 ans  mené par un ingénieur  à  la retraite, (sorti de l’École Centrale de Lyon en 1953), qui n'a pas voulu que son cerveau refroidisse, et qui n'a aucun souci de considération ni de crédit aussi bien moral que matériel. De formation scientifique ancienne, j'ai voulu me mettre à niveau en physique nucléaire et quantique, en thermodynamique, biologie, astrophysique. Grâce à internet, on trouve maintenant à notre disposition de nombreuses thèses et publications des pionniers scientifiques du 19ème. siècle, aussi bien que les thèses les plus récentes. A ma stupéfaction, j'ai constaté que, depuis environ 1920, la physique théorique s'est "vautrée" dans la mathématique, et a abandonné l'esprit "mécanique" pour se développer dans le virtuel et souvent même dans l'utopie. 

    Par contre, la physique"technique appliquée", pour ne pas dire "expérimentale" a permis de pénétrer presque au cœur de la matière et d'y faire des découvertes étonnantes, et souvent déconcertantes, remettant en question la physique théorique déconnectée du réel. Les scientifiques actuels ne semblent pas décidés à réagir officiellement, car cela remettrait en cause certaines bases admises par la théorie "standard" et probablement leur crédits de recherche. Il faut dire que les domaines de recherche sont actuellement si "pointus", que les travaux effectués par chacun s'accommodent de l'approximation des "standards" théoriques, qui, pour tenir encore debout, accumulent béquilles sur béquilles.

    J'ai donc tenté de faire une synthèse entre les thèses scientifiques des anciens et des modernes, en tenant compte des toutes dernières découvertes, en privilégiant les thèses de la "mécanique ondulatoire", en faisant abstraction de tout chiffrage, car je n'ai aucun moyen d'expérimentation, et sans mathématique car je n'en ai pas la capacité nécessaire. Au cours des 6 chapitres du blog et de ses 4 post-scriptum, il a été beaucoup question de l'électron, de son onde énergétique (onde de type lumière) et de sa fonction électromagnétique. Dans cette nouvelle rubrique nous allons nous attacher à décrire sa fonction structurante (onde transversale), et le rôle essentiel qui est celui du noyau de l'atome dans la structure de la molécule.

    2) STRUCTURES, ONDES ET MAGNÉTISME

    Le rapprochement de ces trois notions sur internet nous conduit dans plusieurs directions d'études et de thèses. Nous oublierons toutes celles qui s'expriment dans un charabia pseudo-scientifiques. Nous laisserons également de côté les très nombreuses controverses qui traitent des dangers que les ondes présentent pour les structures vivantes. La plupart des études que l'on trouve sur internet regroupant les trois notions portent sur l'utilisation des ondes pour la recherche des structures géologiques terrestres, pour la recherche pétrolière, pour le suivi du volcanisme, pour l'étude des structures vivantes. Ce n'est pas dans ces directions que nous allons nous diriger dans cette rubrique.

    Les systèmes que nous désirons étudier se situent dans le domaine mésoscopique, c'est celui qui se place entre le macroscopique et le microscopique, entre le micromètre et l'angström (0,1 nanomètre)=(1 dixième de milliardième de mètre)=(dimension de l'atome). C'est le domaine de la nanotechnologie, celui dans lequel les phénomènes ondulatoires des ondes électromagnétiques (des électrons) sont réellement mis en évidence, celui qui peut révéler les secrets de la structure de la matière, celui qui est actuellement à la pointe des recherches de tous les laboratoires ''branchés''. Ceci explique, pour moi qui ne suis ni chercheur ni expérimentateur et pour lequel le langage scientifique anglais est plutôt abscons, toute la difficulté que j'ai rencontré dans l'étude des thèses présentées sur le net.

    Le peu de publications récentes que font les scientifiques sur leurs travaux se fait dans un langage qui leur est propre, qui possède, dans les raisonnement et les calculs, beaucoup d'analogies avec d'autres domaines, (mécanique des fluides par exemple), qui n'ose aborder le domaine des ondes qu'en dernier recours, lorsque les calculs donnent des résultats incertains. En effet, l'utilisation en nanoscience et nanotechnologie (NST) des théories qui sont adoptées couramment dans le domaine macroscopique, oblige à la simplification abusive d'une réalité bien plus complexe, puisque elle est de nature ondulatoire, (donc aléatoire). Avec la nanoscience on pénètre dans le domaine de la molécule et des ''relations inter- moléculaires''. La physique quantique, adaptée à l'étude de l'atome, doit se complexifier pour passer à l'échelle de la molécule, de même que la chimie et la physique classique sont dans l'obligation de raisonner souvent en termes de probabilités.

    C'est pourquoi, pour avancer dans la recherche appliquée qui est le fer de lance de leur recherche (de crédits), les scientifiques laissent délibérément de côté la théorie pure, pour répondre essentiellement à la demande des industriels qui ont besoin de matériaux et structures toujours plus performantes (plus miniaturisées). Le domaine de recherche est en effet gigantesque, la société commence à s'en apercevoir , et à s’inquiéter...à juste raison, car si l'on touche à l'atome et à la structure moléculaire, la molécule vivante, par contact, est aussi concernée, avec toutes les dérives (cancers) que l'on peut imaginer. Les ondes, bonnes et mauvaises sont là, (comme de partout), on ne peut faire n'importe quoi sans en subir les conséquences.

    Actuellement les domaines principaux de recherche sont les suivants (je cite Wikipédia) : 

     «Du point de vue de la connaissance scientifique mobilisée, plusieurs sous-disciplines sont particulièrement utiles aux développements des connaissances fondamentales des NST. En effet, des analyses détaillées de la manière dont sont publiés et construits les articles scientifiques concernant les nanotechnologies et les nanosciences, montrent l’émergence de trois sous-champs spécifiques :

    – biosciences et pharma : autour de la biologie, des laboratoires pharmaceutiques et des biotechnologies. Ce champ peut être qualifié comme celui de la nanobiologie ;

    – nanomatériaux et synthèse chimique : autour de la chimie et des nanomatériaux. Ce champ peut être qualifié comme celui des nanomatériaux ;

    – superconductivité et ordinateur quantique : essentiellement issue de la microélectronique, ce champ peut être qualifié comme celui de la nanoélectronique.

    L’ensemble de ces trois champs s’articulent entre eux avec plus ou moins d’intensité et de distance. Ils ont un impact important sur les modalités d’organisation de l’activité industrielle qu’ils mobilisent dans la zone concernée. En effet, la nanobiologie est essentiellement structurée autour de nombreuses petites entreprises et des grands groupes pharmaceutiques, alors que les activités industrielles concernées par la nanoélectronique s’organisent, pour l’essentiel, autour de très grands groupes, quelques petites entreprises et des grands équipements partagés. »

    Je n'ai pas l'intention ici d'expliquer plus avant ce qu'est la nanoscience-technologie (NST), une visite sur Wikipédia ''nanotechnologie'' nous donne tous les éléments qui sont indispensables pour une bonne connaissance de ce domaine d'avenir. Cet article nous montre également que, si la science a pu pénétrer jusqu'à ''voir'' l’angström (au niveau de l'atome), c'est grâce aux microscopes ''à effet tunnel'' et ''à force atomique'', qui utilisent la ''fonction d'onde'' des électrons et les phénomènes de résonance de ces particules.

    On aura compris que, dans notre étude sur internet des thèses et des publications, ce n'est ni les applications pratiques ni le détail des recherches qui m'intéressent présentement. Mon but est ici de montrer que cette ''fonction d'onde de structure'' de l'électron que je cherche à mettre en évidence, permet d'obtenir un nombre infini de structures de la matière et que ces structures se rencontrent dans l'univers à ses différentes échelles. Nous partirons des formes extérieures visibles, à l'échelle humaine, puis nous expliquerons par quels moyens et instruments les laboratoires de recherche sont parvenus à la connaissance de la structure des molécules, jusqu'à ''voir'' l'atome. En utilisant les publications sur internet des thèses et conférences, en tenant compte des principes de base, des résultats obtenus et des pistes qui y sont développées, en conservant à l'esprit les thèses de notre blog, nous tenterons de présenter une hypothèse plausible du rôle des particules internes à l'atome (nucléons et électrons) dans la construction des structures de la matière.

    3)  ÉTUDE DE STRUCTURES CRÉÉES PAR LES ONDES SONORES

    Les ondes électromagnétiques (les électrons) ont le pouvoir de structurer la matière car l'électron est, selon ma thèse, la particule élémentaire constitutive de l'atome, donc celle de toute matière. Mais toutes les ondes, les ondes sonores en particulier (qui sont des simples ondes énergétiques sphériques non magnétiques), créent également de très belles structures qu'il est relativement facile de mettre en évidence et de photographier. Sur internet, le site : LES SONS CRÉATEURS DE FORME de ALAIN BOUDET docteur en sciences physiques, thérapeute psycho-corporel, enseignant, présente, sur cette question, un exposé passionnant et des planches de magnifiques photos de structures, dont je ne peux m’empêcher de présenter ici quelques exemples.

    Pour mettre en évidence ces structures formées par les ondes, plusieurs procédés existent. Le plus connu est celui de la plaque fixée par son milieu, et dont le bord est mis en vibration par un archet. Différentes formes de plaque, différents points touchés par l'archet, différentes fréquences de vibration, différentes granulométries des poudres rependues sur la plaque, donnent une infinité de figures. Beaucoup sont géométriquement hexagonales, elles ont toutes des ressemblances frappantes avec les plantes, herbes, fleurs, feuilles, ainsi qu’avec toutes les formes naturelles de la matière, cristaux, neige, étoiles, etc. Un autre procédé consiste à mettre sur une surface dont la fréquence de vibration est réglable des coupelles contenant des filets d'eau. Voici quelques exemples présentés par Alain Boudet.

    CymaScopePhoto A. LauterwasserPhoto A. Lauterwasser

    vortex dans un liquide en rotation

    « La première image représente un film d'eau déposé sur une membrane ronde en latex soumise à une vibration de 19 Hertz, éclairé par une lampe installée au-dessus. On voit en blanc les reflets de l'éclairage (Photo Erik Larson)

    La deuxième image représente une grosse goutte d'eau déposée sur une surface plate soumise à une vibration de quelques dizaines de Hertz, éclairée par une lampe installée au-dessus. (Photo Alexander Lauterwasser, Images sonores d'eau)

    La troisième image représente une plaque ovale en acier, de longueur 23 cm, sur laquelle on a déposé du sable fin et qui vibre à 12'301 Hertz. On voit en blanc la figure dessinée par le sable (Photo Alexander Lauterwasser, Images sonores d'eau)

    La quatrième image représente une plaque ronde en acier, de 32 cm de diamètre, sur laquelle on a déposé du sable fin et qui vibre à 8200 Hertz. (PhotoHans Jenny, Cymatics p. 46)

    Les vibrations qui animent ces plaques et membranes (10 à 13'000 Hz) correspondent à des fréquences audibles (voir article Sons: hauteur et fréquence). Pendant l'expérience, on entend le son correspondant à la vibration du support.

    La cinquième image représente de l'eau entrainée à grande vitesse dans un récipient circulaire, à laquelle on a ajouté un colorant fluorescent. (Photo Pete ) »

    Voici d'autres photos de structures obtenues avec des films d'eau :

     

    Suite d'ondes stationnaires dans un film d'eau, pour des fréquences croissantes de 10 à 160 Hz.
    © A. Lauterwasser, Images sonores d'eau
    Ci-dessous, un choix de 4 images agrandies

     

    L'avant dernière image représente une fleur de tournesol et la dernière une fleur de pissenlit. Les mêmes ressemblances entre les structures d'ondes et les pelages et écailles d'animaux peuvent être mis en évidence. Il suffit de se promener dans la nature, dans un pré par exemple, pour constater que toutes les herbes ont ces même genres de structures de type géométrique. La forme en spirale des dernières images est d'une importance considérable, dans les structures du vivant notamment. La structure en hélice de l'ADN en est certainement responsable. Les ondes et les structures de la matière sont donc en évidente relation. Il faut donc se demander pourquoi . Quel est donc le matériau porteur d'ondes qui est à l'origine de toute matière vivante ?

    4) IMPORTANCE DE L'EAU DANS LA STRUCTURE DU VIVANT

    C'est l'eau, bien sur, qui constitue 90% de la matière végétale et 65% des êtres vivants. Voila donc LE matériau qui va donc nous permettre, le plus facilement, l'étude de la structure de la matière, c'est à dire l'étude de la structure des ondes, c'est à dire l'étude de l'onde de structure de l'électron. Es' un raccourci trop rapide ? L'étude de l'eau qui va suivre tente de répondre à toutes ces questions. Ses constituants sont l’hydrogène et l’oxygène.

    L'hydrogène est l'élément chimique de base le plus simple, et le principal constituant des étoiles (92% des atomes de l'univers). C'est aussi le combustible de base des étoile par fusion des protons de ses atomes, il est donc en rapport étroit avec les ondes de type lumière, la chaleur et toute l'énergie en mouvement. Chimiquement l'hydrogène se combine avec la plupart des éléments, notamment dans les réactions acido-basiques. Il sert de lien dans la plupart des composés organiques (chimie du carbone). Il est en quelque sorte un solvant universel. Non seulement son rôle de liant est important entre atomes, à l’intérieur de la molécule, mais sous le nom de ''pont hydrogène inter-moléculaire'' il permet de relier les molécules. Nous montrerons au chapitre 8) de cette rubrique que le dihydrogène H2 de la molécule d'eau, élément de base de toute matière vivante, est à l'origine de l'infinité des formes de structures existant dans la nature.

    L'oxygène est un autre composant de grande importance. C'est le 3ème élément le plus important dans l'univers après l'hydrogène et l'hélium. Il constitue 46,4% de l'écorce terrestre sous forme d’oxydes et de silicates, 21% de l'atmosphère terrestre. Son rôle est essentiel dans les phénomènes respiratoires de la plupart des cellules vivantes et dans les processus de combustion. A l’intérieur de la molécule d'eau, c'est l'atome d'oxygène qui relie le doublet d'atomes d'hydrogène.

    Il faut indiquer également que l'eau en tant que substance physique est un milieu permettant de visionner, d'une part, la propagation des ondes, ce qui pour mon blog a une certaine importance, et d'autre part le mouvement (l'eau qui coule) et la circulation du courant entre 2 potentiels.

    L'eau, à la pression ambiante, a la particularité d'être gazeuse au dessus de 100 degrés C., solide en dessous de 0 degrés C. et liquide entre les deux. C'est précisément dans sa phase cristalline, entre la glace et le liquide, que la neige nous offre une infinité de structures géométriques qui ressemblent en tout points aux structures créées par les ondes, dont nous avons vu quelques exemples au chapitre précédent

    5) STRUCTURE DE LA NEIGE

    « En 1951, la Commission internationale de la Neige et de la Glace classe les cristaux en sept catégories distinctes : plats, étoilés, colonnes, nouilles, dendrites, colonnes coiffées et formes irrégulières, complétées par la neige roulée, la grêle et la neige en grains. En 1966, elle répertorie 80 « types morphologiques » de cristaux de neige. » (Wikipédia).

    Voici une sélection de photographies prises par Wilson Bentley :

    Bentley Snowflake8.jpgBentley Snowflake5.jpgBentley Snowflake9.jpgBentley Snowflake13.jpg

    Bentley Snowflake17.jpgBentley Snowflake18.jpgBentley Snowflake2.jpg

    « Les flocons de neige sont des agrégats de milliers de cristaux de glace microscopiques exposés à des températures glaciales. Néanmoins, ils peuvent présenter une énorme variété de formes et de taille, en fonction de deux conditions, l'humidité (taux de vapeur d'eau) et la température. On dit ainsi couramment que chaque flocon est unique. Mais ils ont un point commun : une structure de base hexagonale. Cette structure est liée aux molécules d'eau qui constituent les cristaux. Du fait des atomes d'hydrogène et d'oxygène qui les composent, ces molécules interagissent entre elles en formant naturellement une structure hexagonale. Une fois le cœur du flocon formé, de nouveaux cristaux vont s'ajouter au fur et à mesure à la structure, la faisant grandir peu à peu. »

    « Des structures uniques En fonction des conditions, les cristaux vont s'ajouter à des endroits bien précis. On va alors obtenir une forme en étoile (avec des branches comme dans la vidéo ci-dessus), une forme en plaquette (véritable hexagone) ou encore une forme en aiguille ou en colonne. Au vu du nombre d'arrangements possibles et des milliards de cristaux qui composent les flocons, il y a une chance infime pour que deux flocons identiques soient créés. De plus, comme chaque côté ou branche d'un flocon grandit indépendamment, ce dernier n'est en réalité jamais vraiment symétrique, ajoutant encore un peu plus à son caractère unique. »

    « En savoir plus: http://www.maxisciences.com/flocon/la-merveilleuse-formation-des-flocons-de-neige-filmee-en-time-lapse_art32057.html
    Copyright © Gentside Découverte »

    6) ÉTUDE DES CRISTAUX

    Nous avons vu l'importance de l'eau à l’intérieur de la matière vivante et la concordance de la forme des cristaux de neige avec les formes et structures que l'on trouve dans la nature vivante. Mais l'eau n'est pas le seul élément qui peut se présenter sous forme cristalline (la neige). Les métaux, les sels, les silicates, les oxydes, les sulfures, le sucre, les pierres précieuses (120 gemmes de collection), sont des solides dont les constituants sont assemblés par empilement périodique et régulier d'un nombre considérable de leurs molécules. La cristallographie est un domaine très ancien d'étude par les gemmologues, qui avaient la connaissance expérimentale des nombreuses formes internes des pierres dites précieuses, à cause de leur beauté dans la lumière. Cette expérience est indispensable pour réussir leur taille qui en accentue la beauté.

    C'est l'abbé René Just Haüy (1743-1822), en relation avec les scientifiques de l'époque, qui a déterminé les ''molécules intégrantes'', c'est-à-dire les parallélépipèdes identiques constituant les cristaux. Il est avec Jean-Baptiste Romé de L'Isle le fondateur de la cristallographie géométrique, conçue scientifiquement. Cette science s'est développée dans un milieu scientifique relativement isolé et restreint, avec un langage très spécifique. Au cours du 19 ème siècle et début du 20 ème, les travaux des différentes écoles scientifiques ont abouti à un consensus fixant les structures internes ainsi que les formes et les propriétés des cristaux naturels.

    Voici, succinctement, les principales propriétés des cristaux que les minéralogistes de cette époque ont déterminées, et qui ont permis leur classement :

    * Les cristaux sont des solides formés d'atomes distribués périodiquement dans les trois directions de l'espace.

    * La cristallisation des minéraux est dépendante des conditions de température, de pression et de germination au moment de leur formation.

    * La régularité des formes extérieures d'un cristal reflète exactement l'arrangement d'un élément constitutif élémentaire de base ''la maille élémentaire''. Le cristal final est obtenu par translation dans toutes les directions de cette unité de base. Les éléments qui s'ajoutent sont disposés en couches parallèles ayant les mêmes formes et les mêmes angles que la maille élémentaire.

    * L'état cristallin est défini par un caractère périodique et ordonné à l'échelle atomique et moléculaire. Cette triple périodicité dans l'espace est à l'origine de la symétrie qui est la caractéristique principale des cristaux.

    * 47 ''formes cristallines'' ont été déterminé, il s'agit de la classification des cristaux suivant le nom du polyèdre (ouvert ou fermé) formé par leurs faces qui ''sont dans un rapport de symétrie''. La forme cristalline dominante d'un minéral est le mode d'association le plus fréquent de ses faces cristallines.

    * Auguste Bravais définit, en 1848, à partir des différentes combinaisons des éléments de symétrie cristalline, 32 classes de symétrie possibles, qui elles-mêmes se répartissent en 14 types de réseaux, ceux-ci sont des expansions des 7 formes primitives de cristaux ( cubique, quadratique, orthorhombique, monoclinique, triclinique, rhomboédrique, hexagonal).

    Pour répondre à la demande des gemmologues, les scientifiques ont cherché à produire des cristaux de synthèse. C'est le domaine de la cristallogenèse qui est la formation d'un cristal, soit en milieu naturel, soit de façon synthétique. C'est le passage d'un état désordonné liquide, solide ou gazeux à un état solide de type cristallin. Cette ''fabrication'' dépend, nous l'avons vu pour les flocons de neige, des conditions de température et de pression, de la présence d'un germe, de l'état initial (saturation ou surfusion), de l'état final (temps d'évaporation et de croissance des cristaux). Pour les petites molécules organiques et les minéraux, la cristallisation se réalise à partir des structures atomiques, mais pour les grandes molécules biochimiques, ce sont les relations intermoléculaires qui entrent en action, ce qui rend les opérations de fabrication plus difficiles.

    Les champs d'application de la cristallogenèse sont maintenant devenus très nombreux, dans l'industrie de l'optique (prismes, lasers), dans l'électronique (transistors, diodes, supraconducteurs, écrans à cristaux liquides), en chimie organique et médicale, et enfin dans toutes les recherches concernées par le domaine de la nanoscience (nanotubes, quasi-cristaux, par exemple).

    7)  DE LA CRISTALLOGRAPHIE A LA NANOTECHNOLOGIE

    71) UTILISATION DES ONDES POUR LA CONNAISSANCE DES STRUCTURES

    En 1914 le physicien Max von Laue obtient le prix Nobel pour une découverte qui va faire passer la cristallographie de l'étude des structures géométriques à celles de l'atome. Il s'agit de la diffraction des rayons X par les cristaux, procédé qui a permis de pénétrer au sein même de leur structure atomique. Les progrès réalisés progressivement dans la performance des diffractomètres, grâce à l'électronique et aux basses températures, ont aboutis à une véritable révolution dans la connaissance de la structure de la matière, comme nous le verrons plus loin.

    « Le phénomène de diffraction a lieu lorsque la taille de la fente par laquelle on fait traverser un rayonnement est de l'ordre de la longueur d'onde du rayonnement. Pour un cristal, la distance entre deux plans est de l'ordre de la distance entre les atomes, c'est-à-dire 1/10 de milliardième de mètre. Dans ce cas pour obtenir ce phénomène, il faut un rayonnement dont la longueur d'onde est très courte. Cette condition est réalisée par les rayons X, et c'est grâce à eux que l'on peut sonder la matière. En particulier lorsqu'on éclaire un cristal dans une orientation particulière, le rayonnement n'est diffracté que dans des directions spécifiques. On obtient alors des clichés dits de diffraction, un réseau de taches qui a les mêmes symétries que le cristal. Lorsque ce cristal est irradié par un fin faisceau de rayons X, chacun des atomes du cristal diffuse une onde de faible amplitude, qui se propage dans toutes les directions. Les ondes issues des atomes interfèrent et donnent lieu à la diffraction, faisant apparaître sur le détecteur qui les reçoit, des taches qui correspondent au maximum des ondes en phase, les autres, en opposition de phase, s'annulent. » (Wikipédia).

    Il a été démontré par cette méthode que les propriétés physico-chimiques d'un cristal sont étroitement liées à l'arrangement spatial des molécules dans la matière, cette structure étant elle-même dépendante du caractère périodique et ordonné de sa ''maille élémentaire'' à l'échelle atomique. On se trouve donc au cœur de notre thèse, interférence d'ondes et structure de la matière. Il s'agit là d'ondes électromagnétiques, les rayons X, (des électrons) qui sont projetés sur de la matière (des molécules, des atomes, des nucléons, des électrons), c'est-à-dire sur des ondes, (c'est notre thèse).  Si les fréquences de ces ondes sont accordées ( résonance), on obtient, grâce au diffractomètre, des interférences qui fournissent de précieux renseignements sur la structure profonde des substances cristallines, organiques et inorganiques. « En mesurant les angles et l'intensité des rayons réfractés, il est possible d'obtenir une image en trois dimensions de la densité électronique dans le cristal. À partir de cette densité, la position moyenne des atomes du cristal, leur distance, leur agencement spatial peuvent être déterminés, ainsi que leurs liaisons chimiques, leur entropie et d'autres informations. « (Wikipédia)

    Grâce à cette nouvelle technique de diffraction par les ondes et à son utilisation dans des microscopes de plus en plus performants, un espace d'étude nouveau et très important s'est ouvert, permettant à la cristallographie de s’épanouir dans diverses autres sciences, physique organique et minérale, chimie, biochimie, biologie, médecine, métallurgie, science de la terre. Tous ces domaines sont en effet concernés par la structure de la matière. Utilisée en nanotechnologie, cette technique est à la base de l'élaboration de tous les nouveaux matériaux. Les Nations Unies ont d'ailleurs décidé en assemblée générale, en juillet 2012, de proclamer 2014 année Internationale de la Cristallographie. Celle-ci devient donc le domaine privilégié pour l'étude de la structure de la matière.

    Une autre technique utilisant les ondes est employée dans les microscopes à lumière polarisée, pour l'étude des ''transitions de phases'' des cristaux liquides dont nous parlons ci-dessous. En outre, cette technique est en rapport avec la thèse développée dans notre blog, car les instruments optiques qui permettent d'atteindre la structure moléculaire de ces cristaux utilisent la propriété de ''polarisation'' des ondes, phénomène dont notre explication diffère de celle qui est actuellement enseignée. L'existence de la ''substance de l'espace'' permet de revenir aux idées de Huygens (traité de la lumière de 1678), c'est à dire au concept d'ondes longitudinales pour les ''ondes lumière'', qui n'ont donc pas de composantes transversales, qui, donc, ne sont pas des ondes électro-magnétiques, l'électron étant le seul possédant cette dénomination, et donc les deux propriétés (énergie et magnétisme). Les ondes lumière et radio sont, comme les ondes sonores, polarisées par réflexion (sur la neige,sur l'eau), par diffusion dans l'atmosphère, par leur passage dans un polariseur, par leur émission à partir d'une antenne directive. La lumière naturelle, celle du soleil, n'est pas polarisée, et ce fait pose d'ailleurs un sérieux problème d'explication aux enseignants de la théorie standard.

    La question de la nature de la lumière et l'étude de ses propriétés fondamentales a divisé la communauté scientifique depuis plus de trois siècles, et le compromis actuel, bien qu'il permette les calculs, reste scientifiquement insatisfaisant. Je voudrais montrer, dans une prochaine rubrique consacré à cette question, que les phénomènes de polarisation des ondes lorsque elles rentrent en contact avec la matière ne sont pas dus à la propriété ''transversale'' des ondes de type lumière, mais aux propriétés des ondes électromagnétiques (des électrons) de cette matière.

    De même, le ''quantum'' (photon) qui a été attribué à l'onde lumière, est en réalité la propriété fondamentale de la matière et, plus précisément de la substance de l'espace qui constitue également la substance de l'électron (de l'onde électronique). C'est le quantum de mouvement (''l'unité de base'' d'énergie), de l'électron. Après avoir ''labouré'' les thèses des scientifiques depuis Huygens et pris connaissance des plus récentes théories (plus difficilement, accessibles), j'ai acquis la conviction que cette partie de la thèse exposée dans mon blog arrive bien à coordonner l'ensemble des réalités expérimentales.

    72) LES MATÉRIAUX UTILISES POUR L’ÉTUDE DES STRUCTURES

    La matière, vivante ou non, se présente sous plusieurs ''états'', solides, liquides, gazeux, plasmas (gaz ionisé), mais il existe des états intermédiaires appelés ''phases''. Le passage d'un état à un autre est une ''transition de phase'', généralement instantanée. Les mécanismes  de  changement  d'états   sont, le  plus  souvent, dus à des échanges de chaleur ( cristallisation, liquéfaction, condensation, vaporisation, fusion, sublimation), mais aussi à des modifications de pression et de volume. Un autre classement des états de la matière peut se faire également suivant l'ordre ou le désordre de ses structures internes (cristallisées ou amorphes par exemple).

    Il est important de savoir que plusieurs états différents peuvent exister en même temps dans un même matériau, car certaines transitions de phase nécessitent la présence d'un germe, ou d'une durée de transformation qui peut être très longue. Parmi tous les matériaux difficilement classables figurent les matières molles et les polymorphes, les gels, les verres, les colloïdes, les pâtes et les ''cristaux liquides''. Ceux-ci sont particulièrement intéressant. En effet, ces derniers permettent d'étudier, avec le plus de facilité, les diverses modifications des structures cristallines, en faisant varier successivement chacun des paramètres de cristallisation. En plus, ils font l'objet, pour l'industrie, d'un intérêt particulier étant utilisés à très grande échelle dans presque tous les affichages électroniques (écrans de télé, d'ordinateurs, horaires, etc.

    8)  ÉTUDE DE LA STRUCTURE DE LA MOLÉCULE D'EAU

    Nous poursuivons notre étude des structures de la matière à partir de ses formes extérieures, du flocon de neige à la molécule d'eau, de celle-ci aux atomes d’oxygène et d'hydrogène, de ceux -ci à leurs nucléons et électrons. Nous espérons trouver la ''maille élémentaire'' de la structure de l'eau à partir de laquelle, en sens inverse, il serait possible d'expliquer toutes les propriétés chimiques et physiques (et autres?) de l'eau, et donc de la matière vivante.

    Dans un premier temps, montrons les images qu'il est possible d'obtenir avec un microscope à effet tunnel. Ces images sont présentées par Google sur la toile, nous indiquons leur provenance. Les microscopes atomiques les plus puissants permettent actuellement d'explorer la matière jusqu'au nanomètre (milliardième de mètre). La taille d'un atome (la dimension de son ''nuage'') varie de 0,5 à 3,5 Angström ( 1 Ä=0,1 nanomètre). Ceux de l'oxygène et de l'hydrogène sont parmi les plus petits.

    Figure 5 : Image par microscopie à effet tunnel (STM) à basse température de la surface du cristal moléculaire quasi-unidimensionnel TTF-TCNQ.

    « L'image du haut est la photo obtenue par un microscope à effet tunnel, à basse température, de la surface du cristal moléculaire quasi-unidimensionnel TTF-TCNQ. Les molécules TCNQ apparaissent comme trois sphères en position haute, et les molécules TTF comme deux sphères en position basse. Les alignements unidimensionnels de chacun de ces types de molécules apparaissent clairement. Dimensions latérales : 5 nanomètres par 5 nanomètres. »

    (Image obtenue par l’équipe de Zhao-Zhong Wang au Laboratoire de Photonique et Nanostructures (CNRS). Z.Wang et al., 2003, Physical Review,B 67, p.121401.) Image et commentaires communiqués par les auteurs et reproduite avec leur permission lors de l'inauguration de la Chaire de Physique de la matière condensée. Leçon inaugurale prononcée le jeudi 8 octobre2009 par Antoine Georges.

    L'image du bas est la photo obtenue, par le même moyen, d'atomes de silicium (les boules vertes), on voit très bien l'arrangement ordonné cristallin du matériau. (image et commentaire extraits d'un cours de l'Institut des Sciences de l'Ingénieur de Toulon et du Var)

    Si l'on voulait ''voir'' l’intérieur des boules vertes, on y trouverait 99,999999999999999...% de vide, autant dire que le microscope a atteint la plus petite partie de ce qu'on peut appeler ''la matière''. En dessous, ce sont des ''particules'', en réalité des ''ondes'' stationnaires, mobiles ou stables. Comment donc alors, peut-on parler d 'étude de la structure de la matière (du vide) ? Il faut donc utiliser ce que l'on peut ''voir'', c'est à dire ''les boules'', mais principalement ce que les physiciens et les chimistes ont petit à petit (depuis un siècle) découvert en partant des éléments du tableau de Mendeleïev, je veux parler des principes et postulats de la mécanique quantique ainsi que des configurations électroniques des divers atomes. Ils ont donc échafaudé des hypothèses sur la composition, la disposition et le comportement des ''particules'' (nucléons et électrons) à l'intérieur des atomes, sur les ''orbitales'', sur les ''nuages'' d'électrons, sur les ''fonctions d'ondes''. C'est le ''modèle standard'' qui est une de ces hypothèse. Nous avons vu qu'il est axé sur la physique des particules mais qu'il permet également de raisonner (en théorie) sur des ondes, ce qui est bien commode ! La thèse exposée dans mon blog est basée uniquement sur une matière faite d'ondes, ce qui permet, à mon avis, de clarifier les problèmes, mais oblige à une reconversion de certaines idées. Nous en avons déjà abondamment parlé, mais j'apporte ci-dessous de nouvelles précisions.

    Pour comprendre les propositions et explications qui vont suivre, il faut vous reporter au chapitre 4) de mon blog qui traite de ''la matière, l'atome et l'électron''. Ce dernier est constitué par une onde de type lumière (d'énergie) ''rigidifiée'', ou, dit plus exactement, ''matérialisée'' par une ''onde de structure'' transversale de type ''magnéto-gravitationnelle''. Cette dernière ''polarise'' l'électron, car elle le fait tourner dans le sens horaire (électron-), ou anti-horaire (positron+) de son mouvement. Il prend alors la forme d'un cône tournant ou spiralé. Les principes de base de la mécanique quantique sont alors expliquées par les propriétés des ondes. Les orbitales (on parle maintenant de ''couches électroniques'') deviennent des ''niveaux d'énergie'', suivant la fréquence de l'onde lumière de l'électron. Le niveau de base correspond à la fréquence la plus basse ( l'énergie minimum). Les niveaux 2,3,4.....sur lesquels se ''positionnent'' les électrons correspondent aux harmoniques de la base. Lorsqu'une onde lumière vient exciter un atome, elle met en résonance le ou les électrons susceptibles de s'approprier le ''quantum'' d'énergie supplémentaire, correspondant à la fréquence d'excitation (spectre d'absorption). Ils passent alors au niveau supérieur, mais rendent ce quantum après la fin de l'excitation, par exemple sous forme de chaleur (onde infrarouge), ce qui est le phénomène le plus courant, ou d'onde lumière visible de la fréquence correspondante (spectre d'émission). Ils reviennent alors à leur niveau initial qui correspond à leur stabilité maximum. Mais si l'électron est situé le plus loin du noyau, au niveau le plus énergétique de l'atome (sur l'orbitale dite ''de valence''), et s'il reçoit une excitation suffisante, celui-ci devient ''électron libre''. Il peut alors, par exemple, se trouver lié à un autre atome dans un processus chimique, ou, dans un conducteur, conduire son énergie en direction d'un potentiel électrique plus bas.

    Le fait de raisonner en ondes au lieu de le faire en particules ne change pas les principes fondamentaux de la mécanique quantique, nous en montrons des exemples ci-dessous :

    La recherche permanente de la stabilité maximum et celle de l'économie d'énergie dans les structures ; Les règles du duet et de l'octet ; La recherche du positionnement de 2 électrons au niveau N°1 et de 8 sur le niveau extérieur de valence ; L'attraction et la répulsion des particules sont remplacées par le mariage ou non des ondes suivant leur sens de rotation et la direction de leur mouvement (même sens ou tête bêche); Le spin (rotation de l'électron) devient une réalité; L'électron et son nuage deviennent une onde à part entière ; Les longueurs d'ondes des radiations émises par chaque élément naturel (raies spectrales), correspondent précisément aux fréquences de réémission des ondes lumière par les électrons lors de leur retour à leur niveau initial (énergie de freinage des ondes), comme indiqué précédemment ; Pour les atomes ayant de nombreux électrons, beaucoup de ceux-ci se trouvent avoir des niveaux d'énergie (des fréquences) intermédiaires entre le niveau de base et le niveau de valence, leur répartition sur les divers niveaux reste complexe, mais les 4 nombres quantiques qui ont été déterminés permettent assez bien le calcul de leurs répartitions et de leurs énergies respectives.

    Par contre le phénomène d'élargissement des raies spectrales, (on parle de ''dégénérescence des niveaux d'énergie''), reste sans explication claire, alors que ceci est facilement justifié, dans notre thèse, par l'influence de la rotation de l'onde de structure ( le spin réel) de l'électron. De même, toute la mathématique (calculs de probabilité) déployée pour tenter de connaître à la fois la position de l'électron dans l'atome et son impulsion (état énergétique), s'est révélée une voie sans issue. Le ''mariage'' de la particule et de sa ''fonction d'onde'' est mathématiquement possible, mais pas dans la réalité. On dit qu'il y a ''réduction du paquet d'onde'' ou ''effondrement de la fonction d'onde''. Je pense qu'il faudrait plutôt admettre que les ''particules'' sont ''fuyantes'' ...(sont des ondes). Je cite Wikipédia :

    « il est très important de faire ces calculs pour bien comprendre que ''l'électronde'' (sic), bien que dans un état stationnaire, ne cesse de « bouger » : il est aussi délocalisé en impulsion.......En fait, ce n'est pas une particule, ce n'est pas une onde, c'est une entité nouvelle, la « particlonde », qui ne satisfait plus les équations de la mécanique classique (dans la version dite d'Hamilton), ni l'équation des ondes de l'optique, ni l'équation de la diffusion, mais cette drôle d'équation, l'équation de Schrödinger qui ne se laisse appréhender concrètement que dans la vision lagrangienne de Dirac et Feynman (on parle d'intégrale de chemins et parfois l'équation de Schrödinger est appelée équation de cheminement)). » …......Bizarre, bizarre.

    Les explications générales précédentes vont nous être utiles pour aborder la structure de l'eau qui est le sujet des chapitres N°8 et 9). Voici donc la manière de représenter la molécule d'eau (en rouge et gris, au centre de la figure de gauche) Document extrait de Futura-Sciences. ''L'eau pure'' :

    Les boules rouges figurent les atomes d'oxygène (noyau de 8 protons et 8 neutrons) (2 électrons sur la couche de base + 6 électrons sur la couche N°2 de valence). Les boules gris clair représentent l'atome d'hydrogène qui est l'élément de matière le plus simple et le plus répandu dans l'univers. Il est très spécial car son noyau possède un seul proton et pas de neutron, et donc, sa couche de base n'a qu'un seul électron. La recherche de stabilité de ces atomes entraîne idéalement leur rencontre et leur liaison, entre les deux atomes d'hydrogène d'abord, pour que chacun ait ainsi 2 électrons sur leur couche de base (règle du duet), et aussi entre ces deux atomes et l'atome d'oxygène qui a besoin des 2 électrons pour remplir à 8 sa couche externe de valence (règle de l'octet). Ces liaisons sont figurées ci-dessus par les petits tubes mi-rouge mi-gris.

    Bien sur il ne s'agit que de figuration, car il est difficile de s'imaginer la réalité. En effet il a été calculé qu'une goutte d'eau liquide contient plusieurs centaines de milliards de milliards de molécules d'eau identiques à cet ensemble de trois atomes. Dans la vapeur d'eau, considérée comme un gaz, la densité est moindre. Dans la figure de droite, les molécules sont en voie de cristallisation, et, dans le cas de la glace, les liaisons hydrogène maintiennent une plus grande distance que dans l'eau liquide. (C'est pourquoi la glace flotte et la bouteille d'eau éclate au congélateur.)

    9) STRUCTURE INTERNE DES MOLÉCULES ET DES ATOMES

    91) RÔLE DES ÉLECTRONS    EXEMPLE DE LA LIAISON HYDROGÈNE

    Nous allons maintenant tenter une explication de ce que nous montre la figure de droite en nous posant les questions suivantes : Pourquoi, à l'intérieur des atomes, la recherche naturelle de la stabilité et de l'économie d'énergie amène la matière à créer des formes géométriques ? Dans le cas de l'eau, pourquoi la ''liaison hydrogène'' entraîne des formations hexagonales et, dans l'espace, des formes dodécaèdriques ? Dans ce chapitre nous utiliserons les idées exprimées dans notre thèse ''physique des ondes'' et celles que nous avons précisées au chapitre N°8 précédent. Les deux bases principales de la thèse sont : La ''substance de l'espace'' est à la fois ''la chair'' des ondes et le milieu dans lequel elles circulent. L'électron- (ou le positron+) est une onde double (énergie et structure) qui est la ''brique'' élémentaire de toute la matière.

    En plus de ces hypothèses de base de notre thèse, nous tenons compte des principes suivants, que nous présentons de façon imagée : Le ''socle'' de la structure de l'atome (son corps) est constitué par le noyau, les électrons sont ses bras, ses jambes et ses organes relationnels. Le ''quantum de mouvement'' est la ''monnaie'' de base des échanges entre les structures. Ces ''trocs'' ont lieu lorsque les ondes entrent en résonance (même fréquence ou harmonique). L'économie d'énergie et la stabilité sont les deux règles de base de la ''loi naturelle'' qui dirige la ''société'' des atomes. C'est pourquoi ceux-ci ont tendance à mettre en commun leurs structures (leurs électrons), lorsque les conditions (polarisation, résonance) le permettent, afin de stabiliser leurs couches extérieures de valence. C'est la liaison dite de ''covalence'', dont l'énergie correspond à celles des électrons de la couche externe, dite de valence, et dont les fréquences de résonance des ondes se trouve être celles de la lumière visible, qui permet la création de nouvelles molécules plus complexes et plus structurées.

    Tous ces principes s'appliquent donc à l'atome d'hydrogène dont l'unique électron recherche une union pour assurer la stabilité de l'atome. Par ailleurs cette union est idéale pour la stabilité de plusieurs atomes qui, eux, ont besoin d'absorber des électrons pour également se stabiliser (hydrogène, oxygène, soufre, azote, carbone, etc.) ( règles du duet et de l'octet ). Mais l'atome d'hydrogène possède deux autres propriétés très remarquables qui donnent à la molécule d'eau une position essentielle pour créer et entretenir la vie dans la matière dite vivante.

    Le premier est sa polarisation, positif du coté du proton, négatif pour l'électron. Lorsque ce dernier est ''absorbé'' par l'atome d'oxygène (par exemple), le proton resté ''attaché'', mais isolé, et sa polarité positive attire les électrons libres qui sont disponibles dans son entourage pour former une structure ''associée'' également plus complexe et plus stable. Cependant, cette nouvelle liaison est différente de la liaison covalente précédente, car il s'agit de liaisons ''de polarité'' moins énergétiques et plus souples que les liaisons de valence, ce qui donne aux structures moléculaires assemblées par ces liaisons hydrogène, la possibilité d'évoluer aux températures ambiantes de notre vie sur terre. C'est ainsi que l'eau se révèle particulièrement efficace pour dissoudre les sels, les acides et les bases. Nous montrerons plus loin pourquoi la liaison de polarité avec un proton est moins énergétique qu'entre électrons (la fréquence de résonance du proton est de l'ordre des ondes radio et non des ondes lumineuses)

    Une deuxième propriété de la liaison hydrogène, est sa capacité à :

    « transférer des ions H+ entre les molécules qu'elle lie. Cette propriété est très importante car elle est à l’origine de la réactivité des milieux aqueux. Sans elle, ceux-ci seraient inertes et la vie ne serait pas possible, car les molécules biologiques doivent en permanence réagir pour rester actives. On soupçonne que ce sont les molécules H2O qui autorisent ces transferts d’ions H+ en établissant certaines liaisons hydrogène spécifiques, en d'autres termes qu'elles donnent le feu vert pour que des molécules telles que des protéines puissent réagir. C'est peut-être là leur rôle fondamental, et ce serait grâce à cela que la vie est née dans l'eau et s'y poursuit ! »    (Yves Maréchal CEA Grenoble.) 

    92) RÔLE DU NOYAU.    RÉSONANCE MAGNÉTIQUE NUCLÉAIRE

    Ces deux ions H+ de la molécule d'eau sont les protons (les noyaux) des deux atomes d'hydrogène dont les électrons sont devenus les électrons de valence de l'atome d'oxygène. Ce sont ces ions H+ qui rendent la molécule d'eau ''polaire (+)'' et tellement attirante pour tous les électrons. On peut les représenter, en langage imagé, comme étant les ''mains'' au bout des bras (les électrons) de l'atome d'oxygène. Suivant notre thèse, une de ces ''main'' (un proton) est 1835 fois plus ''structurante'' qu'un électron (voir le chapitre 424 du blog). D'une manière générale, je pense que ce sont les noyaux des atomes qui sont à l'origine des structures géométriques dont nous recherchons les causes. Je pense (selon notre thèse) que la disposition des ''brochettes'' de proton et de neutrons à l’intérieur du noyau d'un atome correspond à cette ''maille élémentaire'' qui est la base de la structure de la matière (voir le chapitre (6) de cette rubrique ).

    Avant de préciser cette nouvelle hypothèse, il est nécessaire d'effectuer une étude rapide et succincte de la plus récente technique qui, sans ''voir'' les noyaux des atomes, permet d'accéder à leur structure et, avec les progrès des techniques, à bien d'autres connaissances concernant aussi bien la nature physique des éléments chimiques que celle des matières vivantes. Je veux parler de la résonance magnétique nucléaire RMN qui, associée à la spectroscopie RMN, à l'imagerie RMN, et grâce à la microscopie à force atomique AFM, fournit une excellente analyse des molécules. Cette technique est irremplaçable en imagerie médicale pour l'étude des tissus mous (le cerveau), car elle fournit des images très contrastées, sans irradiation dangereuse et sans effets secondaires.

    Notre but n'est pas de connaître l'utilisation et les résultats de la RMN, mais d'en dégager quelques principes de base, en relation avec notre recherche de la structure des nucléons et avec notre thèse. Celle-ci permet de présenter ces principes de façon simple, alors que la théorie en cours est basée sur des particules de forme sphérique ayant un ''spin quantique'' (rotation des particules théorique mais pas réelle), sur un rapport gyromagnétique particulier au noyaux de chaque élément, etc. C'est compliqué en théorie mais ça marche quand même ! Notre hypothèse, elle, est que les électrons (et les positrons) sont des ondes de type lumière, matérialisées par des ondes magnétiques transversales, dites de structure. Autre hypothèse, les protons sont des ''brochettes'' d'électrons (917) et de positrons (918) reliés entre elles par leurs ondes de structure qui sont réellement tournantes (force nucléaire forte). Si le principe en est plus simple, la représentation dans l’espace est effectivement moins évidente qu'un système solaire miniature (modèle classique de Bohr).

    Pour réaliser les travaux de spectroscopie et d'imagerie par RMN, les échantillons ou les ''corps'' à analyser sont placés à l’intérieur d'un électroaimant, le champ magnétique qu'il produit agit sur les ''ondes de structure'' des nucléons des atomes à étudier. Les électrons et les positrons qui les constituent sont orientés (en sens contraire) dans la direction de ce champ magnétique. Si le champ est suffisamment puissant ( de 1 Tesla, jusqu'à 23,5 Tesla obtenu à Lyon), les nucléons, les moins solidement ''arrimés'' entre eux (voir plus loin), sont déstabilisés. Comme des toupies qui ont été heurtées, ces protons sont l'objet de mouvements de rotation dits ''de précession''. Ces mouvements sont amplifiés par des ondes de fréquence radio, émises perpendiculairement au champ magnétique. Les fréquences des mouvements de rotation de précession (et leurs harmoniques) sont du même ordre que les fréquences des ondes radio, elles dépendent également de la puissance du champ magnétique initial. Il est donc possible, par un double réglage, d'obtenir la résonance de l'onde radio avec la précession (c'est la fréquence dite de Larmor).

    L'émetteur-récepteur de ces ondes radio est relié à un ordinateur qui commande l'opération et enregistre les données. C'est l'analyse par l'ordinateur de la fréquence de résonance, des harmoniques, des énergies nécessaires à leur production (ondes radio et magnétiques), des temps de mise en route et d’arrêt des mouvements, qui donne tous les renseignements recherchés sur la nature chimique des éléments à étudier (spectroscopie), ou sur la nature différente des tissus vivants (imagerie médicale). Par exemple, pour le proton de l'atome d'hydrogène, la résonance est établie lorsque un champ de 1,4 Tesla rencontre une fréquence radio de 60 MHz, ou un champ de11,7 Tesla, une fréquence de 500MHz.

    C'est précisément le noyau d'hydrogène qui est le ''cobaye'' idéal de la RMN, d'abord parce qu'on le trouve partout dans la nature, et surtout dans la matière vivante, ensuite parce que ce noyau est constitué d'un seul proton, facilement déstabilisé (il n'est pas relié à un neutron). Les autres noyaux généralement étudiés sont:

    « 1H, 13C, 15N, 19F et 31P (Wikipédia)

    1H a une très grande sensibilité en RMN et est très présent dans les composés organiques.

    13C est l'atome présent dans tous les composés organiques malgré sa rare abondance (1,1 %) comparé à l'isotope majoritaire 12C, qui a un spin nul et qui est donc inactif en RMN

    15N atome présent dans les biomolécules comme les protéines et l'ADN

    19F très sensible

     31P assez sensible et très abondant »

    Je dois parler de la complexité du traitement des très nombreux signaux obtenus. En effet les échantillons étudiés contiennent un nombre considérable de protons qui peuvent donner des signaux différents, avec leurs harmoniques, sans compter les neutrons et les électrons qui viennent parasiter les résultats. Ces dernier, si leur densité dans l'atome est trop grande, peuvent ''blinder'' les signaux. En fait, les ondes radio sont émises par impulsion, car les temps de mise en résonance et de relaxation donnent des indications sur la position et l'environnement de chaque proton. Un traitement mathématique par ''transformée de Fourier'' effectue, en spectroscopie, le travail de remise en ordre des signaux, et, pour l'imagerie médicale, celui de positionner dans l'image les noyaux de chaque élément (et tissu) différent.

    Par contre un certain nombre de noyaux ne peuvent pas être étudiés en RMN, ce sont ceux dont le nombre de protons et de neutron dans le noyau sont pairs et égaux. Par exemple : 4/He, 12/C, 16/O, 20/Ne, 24/Mg, 20/Si, 32/S, 40/Ca....L'explication classique est que leur spin est nul (+1/2 -1/2=0).... C'est quantique.... Selon Wikipédia : « Le spin est, en physique quantique, une des propriétés des particules, au même titre que la masse ou la charge électrique. Comme d'autres observables quantiques, sa mesure donne des valeurs discrètes et est soumise au principe d'incertitude. C'est la seule observable quantique qui ne présente pas d'équivalent classique, contrairement, par exemple, à la position, l'impulsion ou l'énergie d'une particule. >>

    Notre thèse propose une explication plus réaliste qui concerne la stabilité du noyau. Pour ces éléments dont le numéro atomique est pair, cette stabilité  est telle que les noyaux ne peuvent être ''ébranlés'', ni par les champs magnétiques, ni par les ondes radio qui leurs sont appliqués par la technique de la RMN. L'exposé du problème et de son explication, grâce à une nouvelle hypothèse concernant la structure du noyau, est fait dans le chapitre suivant. Cela rejoint le but et la conclusion de cette rubrique. 

    93) STRUCTURE DU NOYAU

    Dans cette rubrique, je voudrais poursuivre l'étude de la structure de la matière en partant des hypothèses exposées dans notre blog ''eklablog paulpb physique des ondes'', que l'on peut résumer ainsi : la matière est faite d'ondes de la ''substance de l'espace''; l'électron, particule élémentaire, fondatrice de la matière, est constituée d'une onde de type lumière (énergétique), ''matérialisée'' par une onde transversale de type magnéto-gravitationnelle dite ''onde de structure'', ces deux ondes sont ''quantiques''; l'atome qui est le ''corpuscule'' élémentaire des molécules de matière, est constitué d'un noyau contenant des nucléons (protons(+) et neutrons) et des électrons(-), ceux-ci sont reliés magnétiquement aux protons par leurs ondes de structure qui ont, entre elles, des fréquences différentes.

    Nous avons abondamment parlé des électrons, de leurs relations électromagnétiques avec les protons, de leurs fonctions de liaison entre atomes et entre molécules. Tout cela fait partie d'une science physique bien établie, qui a été construite petit à petit par de merveilleux scientifiques et de très bons techniciens. Alain Bouquet, sur son site remarquable ''champs, noyaux et particules'',décrit l'historique des recherches et découvertes de tous les principaux scientifiques qui ont travaillé sur ces questions depuis Thomson en 1900 jusqu'à Fermi en 1950, en passant par Bohr, Rutherford, Chadwick et bien d'autres. Il analyse dans le détail leurs raisonnements, les expériences menées, les résultats obtenus. Sa devise est particulièrement pertinente :

    « Le plus difficile n’est pas de transmettre une connaissance, mais de transmettre la manière dont elle a été acquise »

    Grâce aux expérimentations de ces pionniers et à leurs idées géniales ( celle de Mendeleïev par exemple), la physique quantique, l'électromagnétisme, l'électronique, etc. ont révolutionné la chimie, la physique, la biologie, ont permis des progrès considérables dans la connaissance de la réalité, et ont transformé la vie de l'homme. La thèse présentée dans mon blog tient compte de tous les résultats expérimentaux obtenus, mais ses hypothèses de base diffèrent de celles qui sont généralement admises. La matière duale ''ondes et particules'' est abandonnée pour une matière entièrement faite d'ondes de la ''substance de l'espace''. Cela modifie peu de choses au niveau énergétique de l'électron, à l'électrodynamique, à l'électrochimie, sinon dans certaines théories et dans leur interprétation.

    Par contre, c'est au niveau du noyau des atomes, seule ''masse'' de matière qui est pratiquement ''existante'', que la physique des particules et celle des ondes entrent réellement en divergence. Au niveau des électrons, les masses en jeu étaient insignifiantes, l'énergie transportée par les ondes pouvait être assimilée à l'action d'un ''champ'' électromagnétique ou à celle de ''photons'' plus ou moins virtuels, bien que la notion d'onde reste partout présente sous l'appellation ''fonction d'onde''. Au niveau du noyau la situation est bien plus complexe, en effet le noyau est 100.000 fois plus petit que l'atome et, d'autre part, les forces qui s'exercent entre les nucléon (forces fortes) sont 1 million de fois plus importantes que celles entre atomes ou entre molécules. Elles sont même beaucoup trop importantes ( fusion et fission nucléaire, radioactivité) pour qu'on puisse les manipuler sans danger.

    Cette ''interaction forte'' entre nucléon (ou force nucléaire forte), mise en évidence par l'équation d'Einstein ( et par ''Gustave Le Bon'' avant lui), proviendrait de la ''masse'' des nucléons. Cette équation a bien transformée cette ''masse'' en énergie, mais la physique standard, axée sur les particules, après avoir ''inventé'' de très nombreuses particules virtuelles, recherche désespérément ce fameux boson de Higgs, capable de donner aux particules une existence réelle (une masse, une énergie). Le ''modèle standard'' qu'il est inutile et dangereux de discuter, est la ''bible'' scientifique en cours qui régit la science officielle, depuis le big -bang jusqu’aux collisionneurs de particules.

    Voici quelques extraits de Wikipédia que je ne veux surtout pas commenter, j'en suis d'ailleurs incapable :

    « Enfin, le modèle standard a été finalisé par l'unification de la chromodynamique quantique avec l'interaction électrofaible, afin d'y intégrer l'interaction forte rendant compte notamment de la liberté asymptotique ainsi que du confinement de couleur des quarks en hadrons dont la charge de couleur résultante est toujours « blanche » (d'où le qualificatif chromodynamique appliqué à cette théorie quantique des champs). »

    « D'un point de vue mathématique, les théories quantiques des champs ont été formalisées dans le cadre de théories de jauge à l'aide de groupes de symétrie locale prenant la forme de groupes de Lie complexes sous-tendant chacun les symétries de jauge modélisées. Ainsi :

     <<

    « Les quarks sont des fermions que la théorie du modèle standard décrit, en compagnie de la famille des leptons, comme les constituants élémentaires de la matière. Les quarks sont les plus petites particules connues à ce jour dans la matière. »

    « Ces associations de quarks ont été évoquées pour rendre compte de la matière sombre de l'Univers. Elles auraient été formées dans les premiers instants du Big Bang, mais leur conservation aurait été problématique de par les conditions régnant alors. »

    « Les régularités dans le comportement des particules sont appelées symétries et elles sont étroitement reliées aux lois de conservation. La symétrie est aussi reliée au concept de l'invariance : si un changement effectué dans un système physique ne produit aucun effet observable, le système est dit invariant au changement, impliquant une symétrie (voir théorème de Noether).>>

    << L'unification électrofaible est fondée sur le concept que les forces sont générées par l'échange de bosons. Lorsqu'on dit qu'il existe une force entre deux fermions (spin 1/2), c'est aussi dire qu'ils sont en train d'échanger des bosons. Il faut à partir de là comprendre comment les bosons transmetteurs des forces fondamentales acquièrent une masse. Dans le cas de l'unification électrofaible, comment les bosons W± et Z° acquièrent-ils une masse alors que ce n'est pas le cas pour le photon ? >>

    << Les symétries de jauge requièrent que les transmetteurs de force (bosons de jauge) soient de masse nulle. Pour contourner le problème de la masse des bosons, Salam, Glashow et Weinberg ont dû inventer un mécanisme pour briser la symétrie de jauge permettant aux W± et Z° d'acquérir une masse. De tels mécanismes avaient été développés dans d'autres contextes par divers théoriciens : Yoichiro Nambu, Jeffrey Goldstone, Sheldon Glashow, Peter Higgs et Philip Anderson. L'idée est de postuler l'existence d'un nouveau champ, surnommé champ de Higgs >>

    Cette physique des particules ''tourne en rond'', va d'une difficulté contournée à une autre pire encore. Selon ma conception, la physique officiellement reconnue ne prend en considération que l'énergie (onde lumière) et se refuse à tenir suffisamment compte du magnétisme (onde transversale) qui lui est effectivement lié, mais qui a, en plus, la propriété fondamentale de ''structurer'' la matière.

    Dans la science officielle les nucléons, imaginés comme des petites sphères, ont inspirés plusieurs modèles de noyaux. La conception de chaque modèle doit répondre aux conditions minimum indispensables suivantes : stabilité du noyau, coexistence possibles de protons (+) qui devraient normalement se repousser, explication plausible de la force forte d'interaction et de la force électrofaible (désintégration béta). Deux modèles correspondent à ce minimum, je cite à nouveau Wikipédia :

    « Le modèle en couches est un modèle du noyau atomique fondé sur le principe d'exclusion de Pauli pour décrire la structure nucléaire en termes de niveaux d'énergie....Dans ce modèle, les couches nucléaires sont constituées de sous-couches redistribuées par couplage spin-orbite en niveaux d'énergie susceptibles d'expliquer l'origine des nombres magiques observés expérimentalement comme correspondant au nombre de nucléons saturant ces niveaux d'énergie, ce qui conférerait aux nucléides correspondants une stabilité accrue.......... Les sept nombres magiques vérifiés expérimentalement sont : 2, 8, 20, 28, 50, 82, 126.... En physique nucléaire, un nombre magique est un nombre de protons ou de neutrons pour lequel un noyau atomique est particulièrement stable ; dans le modèle en couches décrivant la structure nucléaire, cela correspond à un arrangement en couches complètes. »     ( c'est l'analogue de la structure électronique).

    « En physique nucléaire, le modèle de la goutte liquide est un modèle permettant de déterminer approximativement en une seule formule générale la distribution des énergies de liaison B en fonction du nombre de masse A, du nombre de protons Z et du nombre de neutrons N : (A = N + Z). L'idée est de traiter la matière nucléonique (nucléon = neutron ou proton) du noyau comme un liquide. Un peu comme l'eau d'une goutte de pluie, sauf qu'ici les forces de Van der Waals entre les molécules d'eau sont remplacées par l'interaction nucléaire forte entre les nucléons ("dilués" dans le volume du noyau). »

    Dans ces modèles, et en général pour la science officielle, lorsqu'il est question de structure nucléaire, on parle donc à nouveau d'énergie et non de disposition interne des nucléons. Quand on parle de structure de l'atome, la science parle de disposition des électrons sur les orbitales et de structure chimique. Cette dernière, de même que la structure moléculaire dépend, bien évidemment, des électrons et des forces électromagnétiques correspondantes. Mais je reste persuadé que le ''dessin'' final de la molécule est ''inscrit'' dans la ''maille élémentaire'' des noyaux qui la constituent, persuadé aussi que cette maille est structurellement géométrique, (de nombreux scientifiques le pensent). C'est pourquoi j'ai voulu montrer, au début de cette rubrique, les structures géométriques créées par les ondes. La matière est faite d'ondes, rien que des ondes (qui, par leur mouvement, conduisent l'énergie, c'est notre thèse).

    Je suis donc amené, maintenant, à conduire mon hypothèse jusqu'à son terme, c'est à dire jusqu’à la structure du noyau des atomes, jusqu'à la ''maille élémentaire'' qui structure la matière. Pour cela il faut repartir de la thèse du blog au N° 422 ''naissance des particules'', au N°423 ''les ondes de type magnéto-gravitationnel'', ondes de structure, et surtout au N° 424 ''le noyau''. Les particules, électrons et positrons, sont des ondes de la substance de l'espace qui naissent par paire dans le disque d'accrétion des étoiles naissantes Ce sont des ondes de type lumière, qui sont mis en mouvement tournant transversal par le ''champ'' magnétique qui règne dans le disque d'accrétion. Ce mouvement transversal les ''structurent'', il les fait tourner en sens inverse l'une de l'autre. Cela devient alors deux particules élémentaires de ''matière''. Les ondes de ''918 électrons'' et de ''918 positrons'' se ''marient'' pour former un neutron, ''masse'' stable dans un premier temps. Ainsi se constituent les deux ''brochettes'' élémentaires de ''matière''. A partir du neutron, un élément encore plus stable naît par détachement d'un électron, c'est l'atome d'hydrogène qui est constitué d'un noyau, le proton ( 917 électrons et 918 positrons) et d'un électron qui lui est relié (par la force électromagnétique). La stabilité augmente encore par la rencontre d'un noyau d'hydrogène (un proton) avec un neutron pour former un atome de deutérium qui possède un noyau, ''le deutéron'' formé d'un proton et d'un neutron, relié à un électron. On peut considérer ce deutéron comme le premier réel ''noyau'' de matière, c'est à dire comme la ''maille élémentaire'' que nous recherchons. Il est constitué de 4 ''brochettes'' tournantes ''mariées'' par leurs ondes, cela ressemble à un drone avec ses 4 moteurs et ses hélices assurant sa stabilité. Ce deutéron constitue un cube élémentaire, auquel peuvent s'associer (par les cotés), d'autres cubes (d'autres nucléons), à condition qu'ils respectent le sens de rotation de leurs brochettes (sinon ils sont repoussés).

    C'est donc ainsi que, dans les étoiles naissantes, se constituent tous les éléments chimiques. Avec l'hydrogène, l'autre élément de base de la constitution des étoiles est l'hélium dont le noyau est constitué de 2 ''cubes'' accolés (2 protons et 2 neutrons) (2x4 brochettes). Les neutrons viennent renforcer la stabilité des protons et la formation en cube rend le noyau très difficile à déstabiliser. Voici donc pourquoi les éléments dont les noyaux ont un nombre de protons pair sont insensibles à leur analyse par la RMN, (voir la fin du paragraphe N° 92) . Le noyau d'hélium (2 cubes), qui est ainsi très stable, n'est autre que la particule alpha qui accompagne les rayonnements gamma et béta lors de la décomposition radioactive de la matière. Ce noyau résiste même à l'explosion de l'atome puisque on le retrouve là, en sous produit, sous le nom de rayonnement alpha. 

    Un ''cube'' (1 proton+1 neutron) possède un pôle positif (dans un de ses coin ?), c'est à dire que les ondes émises par le positron supplémentaire de son proton sont en relation avec les ondes de l'électron qui lui correspond. Cette relation, entre les cubes ''accolés'' dans un noyau, et les électrons périphériques, est, je pense, à l'origine du caractère géométrique de la structure de l'atome entier, et, par extension, de la structure de la molécule. Cela pourrait expliquer notamment le caractère hexagonal de la molécule d'eau. J'ai trouvé sur internet de nombreuses spéculations qui rapprochent les divers polyèdres existants des structures moléculaires que les scientifiques découvrent dans les microscopes. J'y ai fait allusion aux chapitres N° 6 et 7.

    Il serait possible de poursuivre l'étude des structures atomiques et moléculaires des éléments chimiques dans plusieurs directions, en fonctions de leurs propriétés physiques, chimiques et électromagnétiques. La formation de ces éléments dans les étoiles est également un domaine d'étude étroitement lié à la structure interne des atomes. Sur ce dernier sujet je recommande au lecteur la thèse développée par Jean-Jack Micalef dans son site ''les nouveaux principes de physique et de cosmophysique'', livre 2 chapitre 3 ''l'auto-production des éléments par les étoiles''. Pour ma part, je considère avoir atteint le but que je m'était fixé, l'étude de l'onde de structure, de l'électron jusqu'au noyau atomique. J'ai ainsi ''étoffé'' la thèse exposée dans mon blog ''eklablog paulpb physique des ondes'', auquel cette nouvelle rubrique est liée. Je la présente sous mon nom ''Paul Bouchard''.

    Post-scriptum du 16/11/2014

    Philae vient de terminer sa mission principale sur Tchouri....Cette comète est probablement un des débris d'une planète non stabilisé, formée en même temps que le système solaire. Cette dernière planète aurait explosé (ou se serait décomposée) et pourrait être une des explication de la ''ceinture de Kuiper'' qui est un ensemble de débris tournant autour du soleil, suivant des orbites très elliptiques, au confins du système solaire ( à 30 à 50 Unités astronomiques). Une autre possibilité serait que la comète Tchouri... soit un des résidus de ''matière-noire'' non utilisé par le système solaire lors de sa formation. Si l'analyse de la matière faite par Philae pouvait prouver cette dernière hypothèse, ce serait une découverte extraordinaire.

    Rappelons que, suivant la thèse de J.J. Micalef, les planètes sont, à l'origine, des étoiles formées, en grappe, en même temps que l'étoile principal (le soleil), à l'orbite de laquelle elles se sont placées. J'invite mes lecteurs à se reporter à son site ''les nouveaux principes'' au livre (2) Cosmophysique, chapitre (9) ''Formation du système solaire'', où il analyse de nombreuses observations astronomiques. Il compare sa thèse avec la théorie standard des ''planétésimaux'' qui est l'explication officielle, constamment prise en défaut. Je le cite :

    « La théorie des planétésimaux qui justifie actuellement les modalités de constitutions de planètes, est dérivée très logiquement des théories du big-bang et de celle de l’effondrement gravitationnel. La matière issue du big-bang initial se constitue en étoiles par effondrement d’un nuage interstellaire. Or cet effondrement est très justement soumis à des conditions de masse. Celles-ci ne sont pas remplies pour les planètes et il faut nécessairement compliquer le modèle en inventant un procédé différent. » (La théorie de J.J.Micalef, elle, la simplifie considérablement.)

    « Comme nous l’avons écrit ici maintes et maintes fois, il est évident que l’astrophysique standard est prisonnière de son cadre théorique archaïque lui interdisant l’interprétation adéquate des phénomènes qu’elle observe. »

    J'ai étudié longuement la thèse cosmologique de Jean-Jack Micalef qui me semble très sérieuse et documentée, ( sans connaissance spéciale de la question, je pense pouvoir cependant juger de sa valeur). En plus elle s'accorde complètement aux bases de ma thèse. Je dois dire que l'influence de ce scientifique a été déterminante pour moi. Je sais, cependant, qu'il ne semble pas en accord avec mes idées concernant les ondes de la matière (l'électron, le noyau).

    Les analyses faites sur place par Philae vont, normalement, nous fournir des renseignements importants sur la nature des éléments constitutifs de la comète. Le problème se situe dans l'interprétation de ces analyses. Il serait très regrettable que les scientifiques qui en sont chargés se trouvent, en toute bonne foi, dans l'incapacité psychologique de pouvoir s'abstraire du ''carcan'' de la théorie standard.

    Quant à l'origine de la vie, dont il est question, je pense qu'il s'agit d'un domaine que la science ne peut aborder sans se compromettre. Je ne vois pas pourquoi la comète serait plus capable d'apporter la vie sur terre, que les volcans du fonds de l'océan Pacifique, ou que le doigt du Dieu de la chapelle Sixtine. Mais je ne parle pas ici des ''conditions'' qui, elles, sont essentielles à l'existence de la vie.