Les nouvelles méthodes du Machine Learning posent des questions sur la nature même de la réalité

Par Inés Urdaneta, physicienne et chercheuse à la Resonance Science Foundation

 

Le machine learning - ou apprentissage automatique - et l'intelligence artificielle occupent de plus en plus la scène, avec des implications philosophiques énormes. Nous avons déjà abordé cette question dans le précédent article  Du Modèle Holographique Généralisé à la Science des Data, où il était question du risque que les réseaux de neurones artificiels remplacent nos modèles scientifiques, et de la possibilité que la réalité soit une simulation numérique. D'une certaine manière, nous avions anticipé les travaux de Vitaly Vanchurin, de l'université du Minnesota à Duluth, qui proposait que nous vivions dans un réseau de neurones et affirmait que seuls les réseaux de neurones pouvaient nous permettre de trouver la théorie du Tout et la théorie de la grande unification. Notre deuxième article intitulé L'univers est-il un réseau de neurones ? abordait donc cette dernière possibilité

Quelques mois plus tard était publié dans Phys.org un article intitulé Les nouvelles méthodes d'apprentissage automatique soulèvent des questions sur la nature de la science. Il combine les questions soulevées par les deux articles de la RSF mais en diffère en ce que l'auteur de l'étude, le physicien Hong Qin (du Princeton Plasma Physics Laboratory du département américain de l'Énergie) a conçu un nouvel algorithme basé sur la théorie des champs discrets qui ne nécessite qu'une petite quantité d'échantillons de données et qui remplacerait les anciennes méthodes d'apprentissage automatique. En particulier l'algorithme des réseaux de neurones qui nécessite une formation approfondie avec d'énormes quantités de données afin d'atteindre une prédiction satisfaisante.  

Les résultats sont très impressionnants. Comme le dit le résumé de son article intitulé Machine Learning and Serving of Discrete Field Theories (Le machine learning et le service des théories des champs discrets), publié dans Nature : "L'efficacité de la méthode et des algorithmes développés est démontrée à l'aide des exemples des oscillations non linéaires et du problème de Kepler. En particulier, l'algorithme d'apprentissage apprend une théorie des champs discrets à partir d'un ensemble de données d'orbites planétaires similaires à ce que Kepler a hérité de Tycho Brahe en 1601, et l'algorithme de service prédit correctement d'autres orbites planétaires, y compris des orbites paraboliques et hyperboliques de fuite dans le système solaire, sans apprendre ou connaître les lois du mouvement et de la gravitation universelle de Newton. Les algorithmes proposés devraient être applicables lorsque les effets de la relativité restreinte et de la relativité générale sont importants.”

Cette réalisation remarquable est extrêmement utile et pourrait bientôt remplacer tous les modèles scientifiques, ce qui pose la question de la nature de la science elle-même, abordée dans l'article de Phys.org : "Les scientifiques ne veulent-ils pas élaborer des théories de physique qui expliquent le monde, au lieu de se contenter d'amasser des données ? Les théories ne sont-elles pas fondamentales pour la physique et nécessaires pour expliquer et comprendre les phénomènes naturels ?”

En réponse à cette question essentielle, Qin déclare : "Je dirais que le but ultime de tout scientifique est la prédiction. Vous n'avez pas nécessairement besoin d'une loi. Par exemple, si je peux parfaitement prédire une orbite planétaire". Un tel détachement de la science comme que je la conçois m'a vraiment surpris, et a soulevé une question plus profonde concernant non pas la nature de la science, mais la nature de la réalité. La science a évolué à partir de la philosophie naturelle. La manière d'enquêter et de remettre en question non seulement l'observation, mais aussi l'observateur, a ensuite été quantifiée par des équations, la reproductibilité du phénomène et le développement de technologies et de modèles sophistiqués. À un moment donné de son évolution, la science semble s'être complètement écartée de la philosophie, au point que les modèles pourraient n'avoir aucune signification. La majeure partie de ma résistance à me conformer à notre physique moderne actuelle est précisément due à l'absence de sens, ainsi qu'à une avalanche écrasante de mathématiques et de programmes complexes. Nos théories manquent d'enracinement et de lien, ce qui est une manière poétique de dire que la théorie du très petit (théorie quantique) et celle du très grand (relativité et gravité) sont essentiellement déconnectées. Si, pour comprendre la réalité en profondeur, l'humanité doit comprendre ces modèles... eh bien... alors nous serons très probablement condamnés. Notre échelle, l'échelle humaine, est orpheline.

 

 

Comme le dit la célèbre physicienne Sabine Hossenfelder dans son article : Les physiciens risquent de stagner s'ils continuent à traiter la philosophie des sciences comme une blague (voir aussi son blog). Bien sûr, on pourrait arguer que la science n'est pas censée traiter de la nature de la réalité, mais seulement de la nature de... la nature. Si tel était le cas, je me demande comment le thème de la conscience pourrait être abordé d'un point de vue purement physique. Et à ce stade, je me demande également ce que j'entends par physique

Je suppose que la position de Qin sur la question est en quelque sorte influencée par son inspiration sur l'expérience de pensée du philosophe d'Oxford Nick Bostrom, où l'univers est une simulation informatique (connue sous le nom de conjecture de la simulation). Si cela est vrai, les lois physiques fondamentales devraient révéler un univers constitué d'unités d'espace-temps, comme les pixels dans un jeu vidéo, ou même comme les PSU (Planck Spherical Units) dans le modèle holographique généralisé dérivé par Nassim Haramein pour résoudre la gravité quantique

En ce qui concerne le commentaire de Qin "Si nous vivons dans une simulation, notre monde doit être discret", il est partiellement correct. Si l'univers est une simulation numérique, les blocs de construction de départ doivent être des unités discrètes. Mais cela ne signifie pas que l’opposé est vraie, c'est-à-dire que si les points de départ sont des unités discrètes alors l'univers est une simulation numérique. C'est précisément ce que nous abordons en détail dans les deux anciens articles de RSF - 7.6.1 et 7.6.2. Il y a quelque chose de magnifique et non apprécié ici : dans notre réalité, nous échangeons des choses, donc nous avons besoin d'entiers, sinon, comment pourrions-nous échanger quoi que ce soit ? Comment puis-je vous donner une pomme sans bords, sans surface ? Ou donner une fleur sans limites ? Et pourtant, si nous entrions dans la pomme, nous pourrions atteindre l'échelle de Planck, qui est 34 ordres de grandeur plus petits que la pomme elle-même ! C'est comme si la pomme était infinie à l'intérieur !

Le caractère discret (par opposition au caractère continu) est nécessaire si nous avons un échange d'informations (ou d'énergie), et pour avoir un échange, nous avons besoin d'une différenciation entre les parties, c'est-à-dire d'un certain degré ou niveau de séparation. Si nous remontons à l'origine de la discrétisation de cet échange d'énergie, nous allons jusqu'au niveau le plus profond de la masse, nous atteignons l'échelle de Planck et la fameuse relation Einstein-Planck E = hf, où E est l'énergie, h est la constante de Planck, et f est la fréquence de la particule oscillante. Curieusement, l'échange d'énergie d'un tel oscillateur ne peut se faire que par quantités entières de hf, d'où le mot quantification, qui signifie que je compte les quantités entières de hf échangées. Il est ironique que ce soit précisément cette quantification (qui n'est pas propre à la matière mais à l'espace, comme le laisse entendre ce travail de Qin et celui de Haramein l'explique avec précision) qui puisse faire croire à la communauté scientifique que nous vivons dans une simulation numérique !

"Ce que je fais, c'est remplacer le modèle (les équations de physique) par une sorte de boîte noire qui peut faire des prédictions précises sans utiliser une théorie ou une loi traditionnelle." – Hong Qin.

Comme l'explique Qin, le résultat est que le réseau a appris les lois du mouvement planétaire après avoir vu très peu d'exemples. Son code "apprend" réellement les lois de la physique et, en ce sens, la technique pourrait également conduire au développement d'une théorie physique traditionnelle.

Le collaborateur de Qin, Palmerduca, déclare ici : "Si, dans un certain sens, cette méthode exclut la nécessité d'une telle théorie, elle peut aussi être considérée comme un moyen d'y parvenir. Lorsque vous essayez de déduire une théorie, vous aimeriez disposer d'autant de données que possible. Si vous disposez de certaines données, vous pouvez utiliser le machine learning pour combler les lacunes de ces données ou élargir l'ensemble des données."

Pendant ce temps, la proposition de Vanchurin applique les méthodes de la mécanique statistique pour étudier le comportement des réseaux neuronaux, et il a découvert que dans certaines limites, la dynamique d'apprentissage (ou de formation) des réseaux neuronaux est très similaire à la dynamique quantique. Il part d'un modèle précis de réseaux neuronaux pour étudier le comportement du réseau jusqu'à la limite d'un grand nombre de neurones qui imite en quelque sorte le passage d'un état de quasi-équilibre (un état quantique), à un état loin de l'équilibre (un état classique).  Et c'est précisément ainsi que le monde qui nous entoure semble fonctionner, et son modèle aussi. En outre, nous savons que l'échelle quantique fonctionne pour les très petites échelles, tandis que la relativité fonctionne pour les très grandes échelles, de sorte que son modèle pourrait également aborder cette question, en les reliant de manière "fluide".

En raison du succès de la physique quantique dans de nombreux cas et que le très grand est composé du très petit, la plupart des physiciens conviennent que la mécanique quantique est la théorie principale et que tout le reste en découle. Vanchurin envisage une approche différente : celle d'un réseau neuronal microscopique comme structure fondamentale et que tout le reste, c'est-à-dire la mécanique quantique, la relativité générale et les observateurs macroscopiques,en découle.  La principale raison en est que les réseaux neuronaux sont extrêmement efficaces pour obtenir des propriétés émergentes.

La manière dont les propriétés émergentes découleraient du modèle de Qin n'est pas claire. Il semble que les deux propositions pourraient se compléter et qu'une combinaison des deux pourrait donner naissance à la théorie dite de la grande unification, bien que cela puisse prendre un temps considérable pour atteindre ce stade. On ne voit pas non plus comment les deux modèles, celui de Qin et celui de Vanchurin, pourraient fournir une théorie d'unification cohérente et compréhensible reposant sur des équations physiques décrivant les mécanismes et les processus (comme nous en avons l'habitude dans la physique actuelle) s'ils sont tous deux des boîtes noires.  

La bonne nouvelle est qu'avec le modèle holographique généralisé, nous y sommes déjà !

 

La perspective de la RSF

En ce qui concerne l'exemple de la pomme en tant qu'objet fini échangeable, c'est ici que la magie entre en jeu ... l'espace entre les objets ou la séparation entre les objets peut être interprété comme une discontinuité de l'espace. Ces objets perturbent la continuité de l'espace, comme s'ils émergeaient d'une division de l'espace. De plus, même dans le vide, l'espace entre les objets n'est pas seulement une division, mais il est aussi une connexion puisqu'il est rempli d'oscillations électromagnétiques (les fluctuations quantiques du vide) dont nous savons qu'elles ont des effets macroscopiques, comme l'a prouvé tant de fois l'effet Casimir, tel que proposé ici.

Par conséquent, au lieu d'essayer de voir jusqu'où va la division dans la matière (comme faire entrer en collision des particules pour atteindre la particule la plus petite ou la plus fondamentale), l'intuition de Haramein dit que nous devrions plutôt chercher le modèle fondamental de division de l'espace. C'est ce qu'il réalise avec le rapport fondamental holographique surface-volume 𝜙. Cette solution à la gravité quantique qui nous a permis de calculer le rayon de charge du proton avec une précision expérimentale (alors que le modèle standard se trompe de 4 %) a d'autres implications en rapport avec la fractalisation de l'espace, l'émergence de la masse, des forces et des champs. Son article, intitulé Scale Invariant Unification of Forces, Fields and Particles, in a Quantum Vacuum Plasma (à paraître prochainement) nous fournira une théorie unificatrice significative, au lieu de la théorie de la boîte noire.

 

 Unified Science Course  Unified Science Course  
Partagez cet article avec vos amis !

 


Inscrivez-vous gratuitement au Cours de Science Unifiée en ligne !

 
Close

50% Complete

Two Step

Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua.