Princípio da energia livre
O princípio da energia livre é uma declaração formal que explica como os sistemas vivos e não vivos permanecem em estados estacionários de não equilíbrio, restringindo-se a um número limitado de estados. Estabelece que os sistemas minimizam uma função de energia livre de seus estados internos (não deve ser confundida com energia livre termodinâmica), o que implica crenças sobre estados ocultos em seu ambiente. A minimização implícita da energia livre está formalmente relacionada aos métodos variacionais Bayesianos e foi originalmente introduzida por Karl Friston como uma explicação para a percepção incorporada na neurociência, [1] onde também é conhecida como inferência ativa.
O princípio da energia livre explica a existência de um determinado sistema modelando-o através de um Envoltório de Markov que tenta minimizar a diferença entre seu modelo de mundo e seu sentido e percepção associados. Essa diferença pode ser descrita como "surpresa" e é minimizada pela correção contínua do modelo de mundo do sistema. Como tal, o princípio é baseado na ideia bayesiana do cérebro como um “motor de inferência”. Friston adicionou um segundo caminho para a minimização: a ação. Ao mudar ativamente o mundo para o estado esperado, os sistemas também podem minimizar a energia livre do sistema. Friston assume que este é o princípio de toda reação biológica. [2] Friston também acredita que seu princípio se aplica tanto aos transtornos mentais quanto à inteligência artificial. Implementações de IA baseadas no princípio de inferência ativa mostraram vantagens sobre outros métodos. [2]
O princípio da energia livre tem sido criticado por ser muito difícil de entender, mesmo para especialistas, [3] e a consistência matemática da teoria tem sido questionada por estudos recentes. [4] [5] As discussões do princípio também foram criticadas por invocar suposições metafísicas muito distantes de uma previsão científica testável, tornando o princípio infalsificável. [6] Em uma entrevista de 2018, Friston reconheceu que o princípio da energia livre não é adequadamente falsificável: "o princípio da energia livre é o que é - um princípio. Como o princípio de ação estacionária de Hamilton, não pode ser falsificado. Não pode ser refutado. Na verdade, não há muito o que fazer com ele, a menos que você pergunte se os sistemas mensuráveis estão de acordo com o princípio." [7]
História
editarA noção de que sistemas biológicos auto-organizados – como uma célula ou cérebro – podem ser entendidos como minimizando a energia livre variacional é baseada no trabalho de Helmholtz sobre inferência inconsciente [8] e tratamentos subsequentes em psicologia [9] e aprendizado de máquina. [10] A energia livre variacional é uma função de observações e uma densidade de probabilidade sobre suas causas ocultas. Essa densidade variacional é definida em relação a um modelo probabilístico que gera observações previstas a partir de causas hipotéticas. Nesse cenário, a energia livre fornece uma aproximação à evidência do modelo Bayesiano. [11] Portanto, sua minimização pode ser vista como um processo de inferência bayesiana. Quando um sistema faz observações ativamente para minimizar a energia livre, ele implicitamente realiza inferência ativa e maximiza a evidência para seu modelo do mundo.
Relação com outras teorias
editarA inferência ativa está intimamente relacionada ao bom teorema do regulador [12] e teorias relacionadas de auto-organização, [13] [14] como auto-montagem, formação de padrões, autopoiese [15] e practopoiese. [16] Aborda os temas considerados em cibernética, sinergética [17] e cognição incorporada. Como a energia livre pode ser expressa como a energia esperada de observações sob a densidade variacional menos sua entropia, ela também está relacionada ao princípio da entropia máxima. [18] Finalmente, como a média temporal da energia é ação, o princípio da mínima energia livre variacional é um princípio da mínima ação.
Definição
editarDefinição (formulação contínua): A inferência ativa depende da sequência
- Um espaço amostral – a partir do qual flutuações aleatórias são tomadas
- Estados ocultos ou externos – que causam estados sensoriais e dependem da ação
- Estados sensoriais – um mapeamento probabilístico de ação e estados ocultos
- Ação – que depende de estados sensoriais e internos
- Estados internos – que causam ação e dependem de estados sensoriais
- Densidade generativa – sobre estados sensoriais e ocultos sob um modelo generativo
- Densidade variacional – sobre estados ocultos que é parametrizado por estados internos
Ação e percepção
editarO objetivo é maximizar a evidência do modelo ou minimizar a surpresa . [10] No entanto, isso significa que os estados internos também devem minimizar a energia livre, porque a energia livre é uma função dos estados sensoriais e internos:
Minimização de energia livre
editarMinimização de energia livre e teoria da informação
editarA minimização da energia livre equivale a maximizar a informação mútua entre os estados sensoriais e os estados internos que parametrizam a densidade variacional (para uma densidade variacional de entropia fixa). [19] Isso relaciona a minimização de energia livre ao princípio de redundância mínima [20] e tratamentos relacionados usando a teoria da informação para descrever o comportamento ideal. [21] [22]
Minimização de energia livre na neurociência
editarA minimização de energia livre fornece uma maneira útil de formular modelos normativos (óptimos de Bayes) de inferência neuronal e aprendizado sob incerteza [23] e, portanto, ela concorda com a hipótese do cérebro Bayesiano. [24] Os processos neuronais descritos pela minimização da energia livre dependem da natureza dos estados ocultos: , que podem incluir variáveis dependentes do tempo, parâmetros invariantes no tempo e a precisão (variância inversa ou temperatura) de flutuações aleatórias. Variáveis de minimização, parâmetros e precisão correspondem à inferência, aprendizado e codificação da incerteza, respectivamente.
Inferência perceptiva e categorização
editarA minimização da energia livre formaliza a noção de inferência inconsciente na percepção [8] [10] e fornece uma teoria normativa Bayesiana do processamento neuronal (onde ~ denota uma variável em coordenadas generalizadas de movimento e é um operador de matriz derivada): [25]
Referências
editar- ↑ Friston, Karl; Kilner, James; Harrison, Lee (2006). «A free energy principle for the brain» (PDF). Elsevier BV. Journal of Physiology-Paris. 100: 70–87. ISSN 0928-4257. PMID 17097864. doi:10.1016/j.jphysparis.2006.10.001
- ↑ a b Shaun Raviv: The Genius Neuroscientist Who Might Hold the Key to True AI. In: Wired, 13. November 2018
- ↑ Freed, Peter (2010). «Research Digest». Informa UK Limited. Neuropsychoanalysis. 12 (1): 103–106. ISSN 1529-4145. doi:10.1080/15294145.2010.10773634
- ↑ Aguilera, Miguel; Millidge, Beren; Tschantz, Alexander; Buckley, Christopher L (2021). «How particular is the physics of the free energy principle?». Physics of Life Reviews. doi:10.1016/j.plrev.2021.11.001
- ↑ Biehl, Martin; Pollock, Felix; Kanai, Ryota (2021). «A Technical Critique of Some Parts of the Free Energy Principle». Entropy. doi:10.3390/e23030293
- ↑ Colombo, Matteo; Wright, Cory (10 de setembro de 2018). «First principles in the life sciences: the free-energy principle, organicism, and mechanism». Springer Science and Business Media LLC. Synthese. 198: 3463–3488. ISSN 0039-7857. doi:10.1007/s11229-018-01932-w
- ↑ Friston, Karl (2018). «Of woodlice and men: A Bayesian account of cognition, life and consciousness. An interview with Karl Friston (by Martin Fortier & Daniel Friedman)». ALIUS Bulletin. 2: 17–43
- ↑ a b Helmholtz, H. (1866/1962). Concerning the perceptions in general. In Treatise on physiological optics (J. Southall, Trans., 3rd ed., Vol. III). New York: Dover. Available at https://web.archive.org/web/20180320133752/http://poseidon.sunyopt.edu/BackusLab/Helmholtz/
- ↑ Gregory, R. L. (8 de julho de 1980). «Perceptions as hypotheses». The Royal Society. Philosophical Transactions of the Royal Society of London. B, Biological Sciences. 290 (1038): 181–197. Bibcode:1980RSPTB.290..181G. ISSN 0080-4622. JSTOR 2395424. PMID 6106237. doi:10.1098/rstb.1980.0090
- ↑ a b c Dayan, Peter; Hinton, Geoffrey E.; Neal, Radford M.; Zemel, Richard S. (1995). «The Helmholtz Machine» (PDF). MIT Press - Journals. Neural Computation. 7 (5): 889–904. ISSN 0899-7667. PMID 7584891. doi:10.1162/neco.1995.7.5.889
|hdl-access=
requer|hdl=
(ajuda) - ↑ Beal, M. J. (2003). Variational Algorithms for Approximate Bayesian Inference. Ph.D. Thesis, University College London.
- ↑ Conant, R. C., & Ashby, R. W. (1970). Every Good Regulator of a system must be a model of that system. Int. J. Systems Sci., 1 (2), 89–97.
- ↑ Kauffman, S. (1993). The Origins of Order: Self-Organization and Selection in Evolution. Oxford: Oxford University Press.
- ↑ Nicolis, G., & Prigogine, I. (1977). Self-organization in non-equilibrium systems. New York: John Wiley.
- ↑ Maturana, H. R., & Varela, F. (1980). Autopoiesis: the organization of the living. In V. F. Maturana HR (Ed.), Autopoiesis and Cognition. Dordrecht, Netherlands: Reidel.
- ↑ Nikolić, D. (2015). Practopoiesis: Or how life fosters a mind. Journal of theoretical biology, 373, 40-61.
- ↑ Haken, H. (1983). Synergetics: An introduction. Non-equilibrium phase transition and self-organisation in physics, chemistry and biology (3rd ed.). Berlin: Springer Verlag.
- ↑ Jaynes, E. T. (1957). Information Theory and Statistical Mechanics. Physical Review Series II, 106 (4), 620–30.
- ↑ Karl, Friston (31 de outubro de 2012). «A Free Energy Principle for Biological Systems» (PDF). MDPI AG. Entropy. 14 (11): 2100–2121. Bibcode:2012Entrp..14.2100K. ISSN 1099-4300. PMC 3510653 . PMID 23204829. doi:10.3390/e14112100
- ↑ Barlow, H. (1961). Possible principles underlying the transformations of sensory messages Arquivado em 2012-06-03 no Wayback Machine. In W. Rosenblith (Ed.), Sensory Communication (pp. 217-34). Cambridge, MA: MIT Press.
- ↑ Linsker, R. (1990). Perceptual neural organization: some approaches based on network models and information theory. Annu Rev Neurosci., 13, 257–81.
- ↑ Bialek, W., Nemenman, I., & Tishby, N. (2001). Predictability, complexity, and learning. Neural Computat., 13 (11), 2409–63.
- ↑ Friston, K. (2010). The free-energy principle: a unified brain theory? Nat Rev Neurosci., 11 (2), 127–38.
- ↑ Knill, D. C., & Pouget, A. (2004). The Bayesian brain: the role of uncertainty in neural coding and computation. Trends Neurosci., 27 (12), 712–9.
- ↑ Friston, K., Stephan, K., Li, B., & Daunizeau, J. (2010). Generalised Filtering. Mathematical Problems in Engineering, vol., 2010, 621670