Principe de l'énergie libre

Un article de Wikipédia, l'encyclopédie libre.
Ceci est une version archivée de cette page, en date du 15 février 2021 à 04:08 et modifiée en dernier par FumeKnight2154 (discuter | contributions). Elle peut contenir des erreurs, des inexactitudes ou des contenus vandalisés non présents dans la version actuelle.

Le principe de l'énergie libre est un énoncé précis qui explique comment les systèmes biologiques (ou non) se maintiennent en état de non-équilibre quasi-stationnaire en se limitant à un nombre limité d'états[1]. Ce principe établit que les systèmes biologiques minimisent une fonction énergie libre de leurs états internes, qui impliquent des convictions sur des états cachés dans leur environnement. La minimisation implicite de l'énergie libre variationnelle est formellement liée aux méthodes bayésiennes variationnelles et a été introduite à l'origine par Karl Friston comme explication de la perception incarnée dans les neurosciences[2], où elle est aussi connue sous le nom d'inférence active.

En termes généraux, le principe de l'énergie libre est utilisé pour décrire un système tel que défini comme étant enfermé dans une couverture de Markov - essaie de minimiser la différence entre son modèle du monde et la perception de ses capteurs. Cette différence peut être qualifiée de « surprise » et minimisée par une mise à jour constante du modèle du monde. En tant que tel, le principe est basé sur l'idée bayésienne du cerveau comme « moteur d'inférence ». Friston a ajouté une deuxième voie à la minimisation : l'action. En changeant activement le monde dans l'état attendu, les systèmes peuvent aussi minimiser l'énergie libre du système. Friston suppose que c'est le principe de toute réaction biologique[3].

Friston considère que son principe s'applique aussi bien aux troubles mentaux qu'à l'intelligence artificielle. Les implémentations de l'IA basées sur le principe de l'inférence active ont montré des avantages par rapport à d'autres méthodes.

Contexte

L'idée que les systèmes biologiques auto-organisés - comme une cellule ou un cerveau - peuvent être compris comme minimisant l'énergie libre variationnelle est basée sur les observations de Helmholtz sur l'inférence inconsciente[4] et les traitements ultérieurs en psychologie[5] et en apprentissage automatique[6]. L'énergie libre variationnelle est fonction de certains résultats et d'une densité de probabilité sur leurs causes (cachées). Cette densité variationnelle est définie par rapport à un modèle probabiliste qui génère des résultats à partir des causes. Dans ce contexte, l'énergie libre fournit une approximation (limite supérieure) des données probantes du modèle bayésien[7]. Sa minimisation peut donc être utilisée pour expliquer l'inférence et l'apprentissage bayésiens. Lorsqu'un système échantillonne activement les résultats pour minimiser l'énergie libre, il effectue implicitement une inférence active et maximise les preuves pour son modèle (génératif).

Cependant, l'énergie libre est aussi une limite supérieure sur l'auto-information (ou surprise) des résultats, où la moyenne à long terme de la surprise est l'entropie. Cela signifie que si un système agit pour minimiser l'énergie libre, il placera implicitement une limite supérieure sur l'entropie des résultats - ou états sensoriels - qu'il échantillonne[8].

Relation avec d'autres théories

L'inférence active est étroitement liée au théorème du bon régulateur[9] et aux comptes-rendus connexes de l'auto-organisation[10],[11], tels que l'auto-assemblage, la formation de motifs, l'autopoïèse[12] et la practopoièse[13]. Elle aborde les thèmes de la cybernétique, la synergétique[14] et l'embodiment. Puisque l'énergie libre peut être exprimée comme l'énergie attendue (des résultats) sous la densité variationnelle moins son entropie, elle est également liée au principe d'entropie maximale[15]. Enfin, parce que la moyenne temporelle de l'énergie est l'action, le principe de l'énergie libre variationnelle minimale est un principe de moindre action.

Définition

Formulation continue

Ces schémas illustrent la partition des états en états internes et en états cachés ou externes séparés par une couverture de Markov - comprenant des états sensoriels et actifs. Le panneau inférieur montre cette partition telle qu'elle serait appliquée à l'action et à la perception dans le cerveau, où les états actifs et internes minimisent une énergie libre fonctionnelle des états sensoriels. L'auto-organisation des états internes qui s'ensuit correspond alors à la perception, tandis que l'action couple les états du cerveau aux états externes. Le panneau supérieur montre exactement les mêmes dépendances mais réarrangées de sorte que les états internes sont associés aux états intracellulaires d'une cellule, tandis que les états sensoriels deviennent les états de surface de la membrane cellulaire recouvrant les états actifs (par exemple, les filaments d'actine du cytosquelette).

L'inférence active repose sur le tuple ,

  • Un échantillon de l'espace – à partir de laquelle les fluctuations aléatoires sont tirées
  • États cachés ou externes – qui provoquent des états sensoriels et dépendent de l'action
  • États sensoriels – une cartographie probabiliste à partir de l'action et des états cachés
  • Action – qui dépend des états sensoriels et internes
  • États internes – qui provoquent l'action et dépendent des états sensoriels
  • Densité générative – sur des états sensoriels et cachés sous un modèle génératif
  • Densité variationnelle – sur des états cachés paramétrée par des états internes

Action et perception

L'objectif est de maximiser la preuve du modèle ou de minimiser la surprise . Il s'agit généralement d'une marginalisation insoluble sur les états cachés, donc la surprise est remplacée par une énergie libre variationnelle supérieure liée. Cependant, cela signifie que les états internes doivent également minimiser l'énergie libre, car l'énergie libre est une fonction des états sensoriels et internes :

Ceci induit une double minimisation par rapport à l'action et aux états internes qui correspondent respectivement à l'action et à la perception.

La minimisation de l'énergie libre

Minimisation de l'énergie libre et auto-organisation

La minimisation de l'énergie libre a été proposée comme caractéristique des systèmes auto-organisés, lorsqu'elle est présentée comme des systèmes dynamiques aléatoires[16]. Cette formulation repose sur une couverture de Markov (comprenant des états d'action et des états sensoriels) qui sépare les états internes et externes. Si les états internes et l'action minimisent l'énergie libre, alors ils placent une limite supérieure sur l'entropie des états sensoriels

En effet, dans les hypothèses ergodiques, la moyenne à long terme des surprises est l'entropie. Cette limite résiste à une tendance naturelle au désordre - du type associé à la deuxième loi de la thermodynamique et au théorème de fluctuation.

Minimisation de l'énergie libre et inférence bayésienne

Toutes les inférences bayésiennes peuvent être exprimées en termes de minimisation de l'énergie libre, par exemple[17] lorsque l'énergie libre est minimisée par rapport aux états internes, la divergence de Kullback-Leibler entre la densité variationnelle et la densité postérieure sur les états cachés est minimisée. Cela correspond à une inférence bayésienne approximative - lorsque la forme de la densité variationnelle est fixe - et à une inférence bayésienne exacte sinon. La minimisation de l'énergie libre fournit donc une description générique de l'inférence et du filtrage bayésiens (p. ex. filtre de Kalman). Elle est également utilisée dans la sélection de modèles bayésiens, où l'énergie libre peut être utilement décomposée en complexité et précision :

Les modèles avec un minimum d'énergie libre fournissent une explication précise des données, sous les coûts de complexité (c.f., le rasoir d'Ockham et les traitements plus formels des coûts de calcul)[18]). Ici, la complexité est la divergence entre la densité variationnelle et les croyances antérieures sur les états cachés (c'est-à-dire les degrés effectifs de liberté utilisés pour expliquer les données).

Minimisation de l'énergie libre et thermodynamique

L'énergie libre variationnelle est une information théorique fonctionnelle et se distingue de l'énergie libre thermodynamique (Helmholtz)[19]. Cependant, le terme de complexité de l'énergie libre variationnelle partage le même point fixe que l'énergie libre de Helmholtz (dans l'hypothèse où le système est fermé thermodynamiquement mais non isolé). En effet, si les perturbations sensorielles sont suspendues (pour une période de temps suffisamment longue), la complexité est minimisée (car la précision peut être négligée). À ce stade, le système est en équilibre et les états internes minimisent l'énergie libre de Helmholtz, par le principe de l'énergie minimale[20].

Minimisation de l'énergie libre et théorie de l'information

La minimisation de l'énergie libre équivaut à maximiser l'information mutuelle entre les états sensoriels et les états internes qui paramètrent la densité variationnelle (pour une densité variationnelle à entropie fixe). Ceci relie la minimisation de l'énergie libre au principe de la redondance minimale[21] et aux traitements connexes utilisant la théorie de l'information pour décrire le comportement optimal[22],[23].

Minimisation de l'énergie libre en neurosciences

La minimisation de l'énergie libre fournit un moyen utile de formuler des modèles normatifs (optimaux de Bayes) d'inférence neuronale et d'apprentissage sous incertitude [24] et souscrit donc à l'hypothèse bayésienne du cerveau[25]. Les processus neuronaux décrits par la minimisation de l'énergie libre dépendent de la nature des états cachés : qui peuvent comprendre des variables dépendantes du temps, des paramètres invariants dans le temps et la précision (variance inverse ou température) des fluctuations aléatoires. La minimisation des variables, des paramètres et de la précision correspond respectivement à l'inférence, à l'apprentissage et au codage de l'incertitude.

Inférence perceptuelle et catégorisation

La minimisation de l'énergie libre formalise la notion d'inférence inconsciente dans la perception et fournit une théorie normative (bayésienne) du traitement neuronal. La théorie des processus associés de la dynamique neuronale est basée sur la minimisation de l'énergie libre par la descente de gradient. Ceci correspond au filtrage bayésien généralisé (où ~ désigne une variable en coordonnées de mouvement généralisées et est un opérateur de matrice dérivée)[26] :

Habituellement, les modèles génératifs qui définissent l'énergie libre sont non linéaires et hiérarchiques (comme les hiérarchies corticales dans le cerveau). Parmi les cas particuliers de filtrage généralisé, on peut citer le filtrage de Kalman, qui est formellement équivalent au codage prédictif[27] – une métaphore populaire pour le message qui passe dans le cerveau. Dans les modèles hiérarchiques, le codage prédictif implique l'échange récurrent d'erreurs de prédiction ascendantes (bottom-up) et descendantes (top-down)[28] qui est compatible avec l'anatomie et la physiologie des systèmes sensoriel[29] et moteur[30].

Apprentissage perceptif et mémoire

Dans le codage prédictif, l'optimisation des paramètres du modèle par une montée en gradient sur l'intégrale temporelle de l'énergie libre (action libre) se réduit à une plasticité associative ou Hebbienne et est associée à une plasticité synaptique dans le cerveau.

Précision perceptuelle, attention et prépondérance

L'optimisation des paramètres de précision correspond à l'optimisation du gain des erreurs de prédiction (c.f. gain de Kalman). Dans les implémentations neuronalement plausibles du codage prédictif, cela correspond à l'optimisation de l'excitabilité des cellules pyramidales superficielles et a été interprété en termes de gain attentionnel[31].

Inférence active

Lorsque la descente en pente est appliquée à l'action le contrôle moteur peut être compris en termes d'arcs réflexes classiques qui sont engagés par des prédictions descendantes (corticospinales). Ceci fournit un formalisme qui généralise la solution du point d'équilibre - au problème des degrés de liberté[32] - aux trajectoires de mouvement.

Inférence et contrôle optimal

L'inférence active est liée au contrôle optimal en remplaçant les fonctions de valeur ou de coût à emporter par des croyances préalables sur les transitions d'état ou le débit[33]. Ceci exploite le lien étroit entre le filtrage bayésien et la solution à l'équation de Bellman. Cependant, l'inférence active commence par (prend le pas sur) le débit qui sont spécifiés par des fonctions de valeur scalaire et vectorielle de l'espace d'état (c.f. la décomposition de Helmholtz). Ici, est l'amplitude des fluctuations aléatoires et le coût est . Les antécédents de dépassement du flux induisent une priorité sur les états qui est la solution aux équations de Kolmogorov avancées appropriées[34]. En revanche, la régulation optimale optimise le débit, compte tenu d'une fonction de coût, en supposant que (c'est-à-dire que le débit n'est pas bouclé ou qu'il présente un bilan détaillé). Habituellement, il s'agit de résoudre les équations de Kolmogorov rétrogrades[35].

Inférence active et théorie (des jeux) de la décision optimale

Les problèmes de décision optimale (habituellement formulés comme des processus de décision de Markov partiellement observables) sont traités par inférence active en absorbant les fonctions d'utilité dans des croyances antérieures. Dans ce paramètre, les états qui ont une utilité élevée (faible coût) sont les états qu'un agent s'attend à occuper. En équipant le modèle générateur d'états cachés qui contrôlent le modèle, les politiques (séquences de contrôle) qui minimisent l'énergie libre variationnelle conduisent à des états d'utilité élevée[36].

Neurobiologiquement, les neuromodulateurs comme la dopamine sont considérés pour rapporter la précision des erreurs de prédiction en modulant le gain des cellules principales codant l'erreur de prédiction[37]. Cela est étroitement lié au rôle de la dopamine dans la déclaration des erreurs de prévision en soi, mais en est formellement distinct[38] et dans les comptes rendus informatiques connexes[39].

Inférence active et neurosciences cognitives

L'inférence active a été utilisée pour aborder un éventail de questions dans les neurosciences cognitives, la fonction cérébrale et la neuropsychiatrie, notamment l'observation de l'action[40], les neurones miroirs[41], les saccades et la recherche visuelle[42], les mouvements oculaires[43], le sommeil[44], les illusions[45], l'attention, la sélection des actions, l'hystérie[46] et la psychose[47].

Voir aussi

Références

  1. Ashby, W. R. (1962). Principles of the self-organizing system.in Principles of Self-Organization: Transactions of the University of Illinois Symposium, H. Von Foerster and G. W. Zopf, Jr. (eds.), Pergamon Press: London, UK, pp. 255–278.
  2. Friston, K., Kilner, J., & Harrison, L. (2006). A free energy principle for the brain. J Physiol Paris., 100 (1–3), 70–87.
  3. Shaun Raviv: The Genius Neuroscientist Who Might Hold the Key to True AI. In: Wired, 13. November 2018
  4. Helmholtz, H. (1866/1962). Concerning the perceptions in general. In Treatise on physiological optics (J. Southall, Trans., 3rd ed., Vol. III). New York: Dover.
  5. Gregory, R. L. (1980). Perceptions as hypotheses. Phil Trans R Soc Lond B., 290, 181–197.
  6. Dayan, P., Hinton, G. E., & Neal, R. (1995). The Helmholtz machine. Neural Computation, 7, 889–904.
  7. Beal, M. J. (2003). Variational Algorithms for Approximate Bayesian Inference. PhD. Thesis, University College London.
  8. Friston, K. (2012). A Free Energy Principle for Biological Systems. Entropy, 14, 2100–2121.
  9. Conant, R. C., & Ashby, R. W. (1970). Every Good Regulator of a system must be a model of that system. Int. J. Systems Sci., 1 (2), 89–97.
  10. Kauffman, S. (1993). The Origins of Order: Self-Organization and Selection in Evolution. Oxford: Oxford University Press.
  11. Nicolis, G., & Prigogine, I. (1977). Self-organization in non-equilibrium systems. New York: John Wiley.
  12. Maturana, H. R., & Varela, F. (1980). Autopoiesis: the organization of the living. In V. F. Maturana HR (Ed.), Autopoiesis and Cognition. Dordrecht, Netherlands: Reidel.
  13. Nikolić, D. (2015). Practopoiesis: Or how life fosters a mind. Journal of theoretical biology, 373, 40-61.
  14. Haken, H. (1983). Synergetics: An introduction. Non-equilibrium phase transition and self-organisation in physics, chemistry and biology (3rd ed.). Berlin: Springer Verlag.
  15. Jaynes, E. T. (1957). Information Theory and Statistical Mechanics. Physical Review Series II, 106 (4), 620–30.
  16. Crauel, H., & Flandoli, F. (1994). Attractors for random dynamical systems. Probab Theory Relat Fields, 100, 365–393.
  17. Roweis, S., & Ghahramani, Z. (1999). A unifying review of linear Gaussian models. Neural Computat., 11 (2), 305–45. DOI 10.1162/089976699300016674
  18. Ortega, P. A., & Braun, D. A. (2012). Thermodynamics as a theory of decision-making with information processing costs. Proceedings of the Royal Society A, vol. 469, no. 2153 (20120683).
  19. Evans, D. J. (2003). A non-equilibrium free energy theorem for deterministic systems. Molecular Physics, 101, 15551–4.
  20. Jarzynski, C. (1997). Nonequilibrium equality for free energy differences. Phys. Rev. Lett., 78, 2690.
  21. Barlow, H. (1961). Possible principles underlying the transformations of sensory messages. In W. Rosenblith (Ed.), Sensory Communication (pp. 217-34). Cambridge, MA: MIT Press.
  22. Linsker, R. (1990). Perceptual neural organization: some approaches based on network models and information theory. Annu Rev Neurosci., 13, 257–81.
  23. Bialek, W., Nemenman, I., & Tishby, N. (2001). Predictability, complexity, and learning. Neural Computat., 13 (11), 2409–63.
  24. Friston, K. (2010). The free-energy principle: a unified brain theory? Nat Rev Neurosci., 11 (2), 127–38.
  25. Knill, D. C., & Pouget, A. (2004). The Bayesian brain: the role of uncertainty in neural coding and computation. Trends Neurosci., 27 (12), 712–9.
  26. Friston, K., Stephan, K., Li, B., & Daunizeau, J. (2010). Generalised Filtering. Mathematical Problems in Engineering, vol., 2010, 621670
  27. Rao, R. P., & Ballard, D. H. (1999). Predictive coding in the visual cortex: a functional interpretation of some extra-classical receptive-field effects. Nat Neurosci., 2 (1), 79–87.
  28. Mumford, D. (1992). On the computational architecture of the neocortex. II. Biol. Cybern., 66, 241–51.
  29. Bastos, A. M., Usrey, W. M., Adams, R. A., Mangun, G. R., Fries, P., & Friston, K. J. (2012). Canonical microcircuits for predictive coding. Neuron, 76 (4), 695–711.
  30. Adams, R. A., Shipp, S., & Friston, K. J. (2013). Predictions not commands: active inference in the motor system. Brain Struct Funct., 218 (3), 611–43
  31. Feldman, H., & Friston, K. J. (2010). Attention, uncertainty, and free-energy. Frontiers in Human Neuroscience, 4, 215.
  32. Feldman, A. G., & Levin, M. F. (1995). The origin and use of positional frames of reference in motor control. Behav Brain Sci., 18, 723–806.
  33. Friston, K., (2011). What is optimal about motor control?. Neuron, 72(3), 488–98.
  34. Friston, K., & Ao, P. (2012). Free-energy, value and attractors. Computational and mathematical methods in medicine, 2012, 937860.
  35. Kappen, H., (2005). Path integrals and symmetry breaking for optimal control theory. Journal of Statistical Mechanics: Theory and Experiment, 11, p. P11011.
  36. Friston, K., Samothrakis, S. & Montague, R., (2012). Active inference and agency: optimal control without cost functions. Biol. Cybernetics, 106(8–9), 523–41.
  37. Friston, K. J. Shiner T, FitzGerald T, Galea JM, Adams R, Brown H, Dolan RJ, Moran R, Stephan KE, Bestmann S. (2012). Dopamine, affordance and active inference. PLoS Comput. Biol., 8(1), p. e1002327.
  38. Fiorillo, C. D., Tobler, P. N. & Schultz, W., (2003). Discrete coding of reward probability and uncertainty by dopamine neurons. Science, 299(5614), 1898–902.
  39. Frank, M. J., (2005). Dynamic dopamine modulation in the basal ganglia: a neurocomputational account of cognitive deficits in medicated and nonmedicated Parkinsonism. J Cogn Neurosci., Jan, 1, 51–72.
  40. Friston, K., Mattout, J. & Kilner, J., (2011). Action understanding and active inference. Biol Cybern., 104, 137–160.
  41. Kilner, J. M., Friston, K. J. & Frith, C. D., (2007). Predictive coding: an account of the mirror neuron system. Cogn Process., 8(3), pp. 159–66.
  42. Friston, K., Adams, R. A., Perrinet, L. & Breakspear, M., (2012). Perceptions as hypotheses: saccades as experiments. Front Psychol., 3, 151.
  43. Perrinet L, Adams R, Friston, K. Active inference, eye movements and oculomotor delays. Biological Cybernetics, 108(6):777-801, 2014.
  44. Hobson, J. A. & Friston, K. J., (2012). Waking and dreaming consciousness: Neurobiological and functional considerations. Prog Neurobiol, 98(1), pp. 82–98.
  45. Brown, H., & Friston, K. J. (2012). Free-energy and illusions: the cornsweet effect. Front Psychol, 3, 43.
  46. Edwards, M. J., Adams, R. A., Brown, H., Pareés, I., & Friston, K. J. (2012). A Bayesian account of 'hysteria'. Brain, 135(Pt 11):3495–512.
  47. Adams RA, Perrinet LU, Friston K. (2012). Smooth pursuit and visual occlusion: active inference and oculomotor control in schizophrenia. PLoS One., 12;7(10):e47502

Liens externes