Abordagens bayesianas da função cerebral

As abordagens bayesianas da função cerebral investigam a capacidade do sistema nervoso de operar em situações de incerteza de uma forma próxima do ótimo prescrito pelas estatísticas bayesianas.[1][2] Este termo é usado em ciências comportamentais e neurociências, e estudos associados a ele geralmente se esforçam para explicar as habilidades cognitivas do cérebro com base em princípios estatísticos. É frequentemente assumido que o sistema nervoso mantém modelos probabilísticos internos que são atualizados pelo processamento neural de informações sensoriais usando métodos que se aproximam dos da probabilidade bayesiana.[3][4]

Origens

editar

Este campo de estudo tem suas raízes históricas em diversas disciplinas, incluindo aprendizado de máquina, psicologia experimental e estatística bayesiana. Já na década de 1860, com o trabalho de Hermann Helmholtz em psicologia experimental, a capacidade do cérebro de extrair informações perceptivas de dados sensoriais foi modelada em termos de estimativa probabilística.[5][6] A ideia básica é que o sistema nervoso precisa organizar dados sensoriais em um modelo interno preciso do mundo exterior.

A probabilidade bayesiana foi desenvolvida por muitos colaboradores importantes. Pierre-Simon Laplace, Thomas Bayes, Harold Jeffreys, Richard Cox e Edwin Jaynes desenvolveram técnicas e procedimentos matemáticos para tratar a probabilidade como o grau de plausibilidade que poderia ser atribuído a uma dada suposição ou hipótese com base nas evidências disponíveis.[7] Em 1988, Edwin Jaynes apresentou uma estrutura para usar a probabilidade bayesiana para modelar processos mentais. Assim, percebeu-se que a estrutura estatística bayesiana tem o potencial de levar a insights sobre a função do sistema nervoso.[8]

Esta ideia foi retomada em pesquisas sobre aprendizagem não supervisionada, em particular a abordagem de Análise por Síntese, ramo da aprendizagem de máquina.[9][10] Em 1983, Geoffrey Hinton e colegas propuseram que o cérebro poderia ser visto como uma máquina que toma decisões com base nas incertezas do mundo exterior.[11] Durante a década de 1990, pesquisadores como Peter Dayan, Geoffrey Hinton e Richard Zemel propuseram que o cérebro representa o conhecimento do mundo em termos de probabilidades e fizeram propostas específicas para processos neurais tratáveis que poderiam manifestar uma máquina de Helmholtz.[12][13][14]

Psicofísica

editar

Uma ampla gama de estudos interpreta os resultados de experimentos psicofísicos à luz de modelos perceptivos bayesianos. Muitos aspectos do comportamento perceptivo e motor humano podem ser modelados com estatísticas bayesianas. Essa abordagem, com ênfase em resultados comportamentais como as expressões máximas do processamento de informações neurais, também é conhecida por modelar decisões sensoriais e motoras usando a teoria de decisão bayesiana. Exemplos são os trabalhos de Landy,[15][16] Jacobs,[17][18] Jordan, Knill,[19][20] Kording e Wolpert,[21][22] e Goldreich.[23][24][25]

Codificação neural

editar

Muitos estudos teóricos questionam como o sistema nervoso poderia implementar algoritmos bayesianos. Exemplos são os trabalhos de Pouget, Zemel, Deneve, Latham, Hinton e Dayan. George e Hawkins publicaram um artigo que estabelece um modelo de processamento de informações corticais chamado memória temporal hierárquica, baseado na rede bayesiana de cadeias de Markov. Eles mapeiam ainda mais este modelo matemático para o conhecimento existente sobre a arquitetura do córtex e mostram como os neurônios podem reconhecer padrões por inferência bayesiana hierárquica.[26]

Codificação preditiva

editar

A codificação preditiva é um esquema neurobiologicamente plausível para inferir as causas da entrada sensorial com base na minimização do erro de previsão.[27] Esses esquemas estão relacionados formalmente à filtragem de Kalman e outros esquemas de atualização bayesiana.[28]

Energia livre

editar

Durante a década de 1990, alguns pesquisadores como Geoffrey Hinton e Karl Friston começaram a examinar o conceito de energia livre como uma medida calculável e tratável da discrepância entre as características reais do mundo e as representações dessas características capturadas pelos modelos de redes neurais.[29] Uma síntese foi tentada recentemente[30] por Karl Friston, na qual o cérebro bayesiano emerge de um princípio geral de minimização de energia livre.[31] Neste contexto, tanto a ação como a percepção são vistas como uma consequência da supressão da energia livre, levando à inferência perceptiva e ativa e a uma visão mais incorporada (enativa) do cérebro bayesiano. Usando métodos bayesianos variacionais, pode-se mostrar como modelos internos do mundo são atualizados por informações sensoriais para minimizar a energia livre ou a discrepância entre a entrada sensorial e as previsões dessa entrada. Isso pode ser expresso (em termos neurobiologicamente plausíveis) como codificação preditiva ou, mais genericamente, filtragem bayesiana.[32][33]

Segundo Friston:[34]

"A energia livre considerada aqui representa um limite na surpresa inerente a qualquer troca com o ambiente, sob expectativas codificadas por seu estado ou configuração. Um sistema pode minimizar a energia livre alterando sua configuração para alterar a maneira como ele amostra o ambiente, ou para alterar suas expectativas. Essas mudanças correspondem à ação e à percepção, respectivamente, e levam a uma troca adaptativa com o ambiente que é característica de sistemas biológicos. Esse tratamento implica que o estado e a estrutura do sistema codificam um modelo implícito e probabilístico do ambiente."[34]

Esta área de investigação foi resumida em termos compreensíveis para o leigo num artigo de 2008 na New Scientist que ofereceu uma teoria unificadora da função cerebral.[35] Friston faz as seguintes afirmações sobre o poder explicativo da teoria:

"Este modelo de função cerebral pode explicar uma ampla gama de aspectos anatômicos e fisiológicos dos sistemas cerebrais; por exemplo, a implantação hierárquica de áreas corticais, arquiteturas recorrentes usando conexões para frente e para trás e assimetrias funcionais nessas conexões. Em termos de fisiologia sináptica, ele prevê plasticidade associativa e, para modelos dinâmicos, plasticidade dependente do tempo de pico. Em termos de eletrofisiologia, ele considera efeitos de campo receptivo clássicos e extraclássicos e componentes endógenos ou de longa latência de respostas corticais evocadas. Ele prevê a atenuação de respostas que codificam erro de predição com aprendizagem perceptual e explica muitos fenômenos como supressão de repetição, potencial de disparidade e o P300 na eletroencefalografia. Em termos psicofísicos, ele considera os correlatos comportamentais desses fenômenos fisiológicos, por exemplo, pré-ativação e precedência global."[34]

"É bastante fácil mostrar que tanto a inferência perceptiva como a aprendizagem assentam na minimização da energia livre ou na supressão do erro de previsão."[34]

Ver também

editar

Referências

  1. Whatever next? Predictive brains, situated agents, and the future of cognitive science. (2013). Behavioral and Brain Sciences Behav Brain Sci, 36(03), 181-204. doi:10.1017/s0140525x12000477
  2. Sanders, Laura (13 de maio de 2016). «Bayesian reasoning implicated in some mental disorders». Science News. Consultado em 20 de julho de 2016 
  3. Kenji Doya (Editor), Shin Ishii (Editor), Alexandre Pouget (Editor), Rajesh P. N. Rao (Editor) (2007), Bayesian Brain: Probabilistic Approaches to Neural Coding, The MIT Press; 1 edition (Jan 1 2007)
  4. Knill David, Pouget Alexandre (2004), The Bayesian brain: the role of uncertainty in neural coding and computation, Trends in Neurosciences Vol.27 No.12
  5. Helmholtz, H. (1860/1962). Handbuch der physiologischen optik (Southall, J. P. C. (Ed.), trad. inglesa), Vol. 3. Nova Iorque: Dover.
  6. Westheimer, G. (2008) Was Helmholtz a Bayesian?" Perception 39, 642–50
  7. Jaynes, E. T., 1986, `Bayesian Methods: General Background,' in Maximum-Entropy and Bayesian Methods in Applied Statistics, J. H. Justice (ed.), Cambridge Univ. Press, Cambridge
  8. Jaynes, E. T., 1988, `How Does the Brain Do Plausible Reasoning?', in Maximum-Entropy and Bayesian Methods in Science and Engineering, 1, G. J. Erickson and C. R. Smith (eds.)
  9. Ghahramani, Z. (2004). Unsupervised learning. In O. Bousquet, G. Raetsch, & U. von Luxburg (Eds.), Advanced lectures on machine learning. Berlin: Springer-Verlag.
  10. Neisser, U., 1967. Cognitive Psychology. Appleton-Century-Crofts, New York.
  11. Fahlman, S.E., Hinton, G.E. and Sejnowski, T.J.(1983). Massively parallel architectures for A.I.: Netl, Thistle, and Boltzmann machines. Proceedings of the National Conference on Artificial Intelligence, Washington DC.
  12. Dayan, P., Hinton, G. E., & Neal, R. M. (1995). The Helmholtz machine. Neural Computation, 7, 889–904.
  13. Dayan, P. and Hinton, G. E. (1996), Varieties of Helmholtz machines, Neural Networks, 9 1385–1403.
  14. Hinton, G. E., Dayan, P., To, A.; Neal R. M. (1995), The Helmholtz machine through time., Fogelman-Soulie and R. Gallinari (editors) ICANN-95, 483–490
  15. Tassinari, Hadley; Hudson, Todd E.; Landy, Michael S. (2006). «Combining Priors and Noisy Visual Cues in a Rapid Pointing Task». Journal of Neuroscience (em inglês). 26 (40): 10154–10163. ISSN 0270-6474. PMC 6674625 . PMID 17021171. doi:10.1523/JNEUROSCI.2779-06.2006 
  16. Hudson, Todd E.; Maloney, Laurence T.; Landy, Michael S. (2008). «Optimal Compensation for Temporal Uncertainty in Movement Planning». PLOS Computational Biology (em inglês). 4 (7): e1000130. Bibcode:2008PLSCB...4E0130H. PMC 2442880 . PMID 18654619. doi:10.1371/journal.pcbi.1000130  
  17. Jacobs, Robert A. (outubro de 1999). «Optimal integration of texture and motion cues to depth». Vision Research. 39 (21): 3621–3629. PMID 10746132. doi:10.1016/S0042-6989(99)00088-7  
  18. Battaglia PW, Jacobs RA & Aslin RN (2003). Bayesian integration of visual and auditory signals for spatial localization. Journal of the Optical Society of America, 20(7), 1391–7.
  19. Knill DC (2005). Reaching for visual cues to depth: The brain combines depth cues differently for motor control and perception. Journal of Vision, 5(2), 103:15.
  20. Knill DC (2007). Learning Bayesian priors for depth perception Arquivado em 2008-11-21 no Wayback Machine. Journal of Vision, 7(8), 1–20.
  21. Körding, Konrad P.; Wolpert, Daniel M. (2004). «Bayesian integration in sensorimotor learning». Nature. 427 (6971): 244–247. Bibcode:2004Natur.427..244K. PMID 14724638. doi:10.1038/nature02169 
  22. Koerding KP, Ku S & Wolpert DM (2004). Bayesian integration in force estimation" Journal of Neurophysiology 92, 3161–5.
  23. Goldreich, D (28 de março de 2007). «A Bayesian perceptual model replicates the cutaneous rabbit and other tactile spatiotemporal illusions.». PLOS ONE. 2 (3): e333. Bibcode:2007PLoSO...2..333G. PMC 1828626 . PMID 17389923. doi:10.1371/journal.pone.0000333  
  24. Goldreich, Daniel; Tong, Jonathan (10 de maio de 2013). «Prediction, Postdiction, and Perceptual Length Contraction: A Bayesian Low-Speed Prior Captures the Cutaneous Rabbit and Related Illusions». Frontiers in Psychology. 4 (221). 221 páginas. PMC 3650428 . PMID 23675360. doi:10.3389/fpsyg.2013.00221  
  25. Goldreich, D; Peterson, MA (2012). «A Bayesian observer replicates convexity context effects in figure-ground perception.». Seeing and Perceiving. 25 (3–4): 365–95. PMID 22564398. doi:10.1163/187847612X634445 
  26. George D, Hawkins J, 2009 Towards a Mathematical Theory of Cortical Micro-circuits" PLoS Comput Biol 5(10) e1000532. doi:10.1371/journal.pcbi.1000532
  27. Rao RPN, Ballard DH. Predictive coding in the visual cortex: a functional interpretation of some extra-classical receptive-field effects. Nature Neuroscience. 1999. 2:79–87
  28. Czigler, Denham, Susan L.; Dura-Bernal, Salvador; Coath, Martin; Balaguer-Ballaster, Emili (2010). «Neurocomputational models of perceptual organization». In: Czigler, István; Winkler, István. Unconscious Memory Representations in Perception: Processes and Mechanisms in the Brain (em inglês). [S.l.]: John Benjamins Publishing 
  29. Hinton, G. E. and Zemel, R. S.(1994), Autoencoders, minimum description length, and Helmholtz free energy. Advances in Neural Information Processing Systems 6. J. D. Cowan, G. Tesauro and J. Alspector (Eds.), Morgan Kaufmann: San Mateo, CA.
  30. Friston K, The free-energy principle: A unified brain theory?, Nat Rev Neurosci. 2010. 11:127–38
  31. Friston K, Kilner J, Harrison L. A free energy principle for the brain, J Physiol Paris. 2006. 100:70–87
  32. Friston K, A theory of cortical responses, Philos Trans R Soc Lond B Biol Sci. 2005. 360:815–36.
  33. Friston KJ, Daunizeau J, Kilner J, Kiebel SJ. Action and behavior: A free-energy formulation, Biol Cybern. 2010. 102:227–60
  34. a b c d Friston K, Stephan KE., Free energy and the brain, Synthese. 2007. 159:417–458
  35. Huang Gregory (2008), "Is This a Unified Theory of the Brain?", New Scientist. May 23, 2008.