Inteligencias Paralelas
Puentes entre las Redes Neuronales Biológicas y las Redes Neuronales Computacionales
Resumen
La relación entre las redes neuronales biológicas y las redes neuronales artificiales constituye uno de los diálogos científicos más fértiles de la actualidad. Aunque surgieron en contextos distintos, ambos sistemas buscan comprender y modelar la inteligencia desde perspectivas complementarias: la biología mediante la exploración de sinapsis, plasticidad y circuitos funcionales, y la computación mediante arquitecturas matemáticas capaces de aprender a partir de datos. Este artículo examina los principios fundamentales de cada enfoque y analiza sus puentes conceptuales, evitando reducir uno al otro. Se abordan temas como la organización del conectoma, la dinámica sináptica, la evolución histórica de las redes artificiales y su capacidad para procesar información mediante optimización estadística. Asimismo, se exploran escenarios de convergencia como las interfaces cerebro–computador, la computación neuromórfica y las analogías emergentes entre el olvido biológico y los métodos de machine unlearning. A través de este análisis, se muestra que la interacción entre neurociencia e inteligencia artificial no persigue imitación estructural, sino inspiración funcional y expansión mutua. La comparación crítica entre ambos sistemas permite comprender mejor sus alcances, límites y posibilidades, y abre nuevas vías para el desarrollo de tecnologías que complementen, y no sustituyan, las capacidades humanas.
Citas
Bassett, D. S., & Sporns, O. (2017). Network neuroscience. Nature Neuroscience, 20(3), 353–364. https://doi.org/10.1038/nn.4502
Bliss, T. V. P., & Lømo, T. (1973). Long-lasting potentiation of synaptic transmission in the dentate area of the anaesthetized rabbit following stimulation of the perforant path. Journal of Physiology, 232(2), 331–356.
Cao, Y., & Yang, J. (2015). Towards making systems forget with machine unlearning. In 2015 IEEE Symposium on Security and Privacy (pp. 463–480). https://doi.org/10.1109/SP.2015.35
Davies, M., Srinivasa, N., Lin, T. H., Chinya, G., et al. (2018). Loihi: A neuromorphic manycore processor with on-chip learning. IEEE Micro, 38(1), 82–99.
Edelman, G. M. (1987). Neural Darwinism: The theory of neuronal group selection. Basic Books.
Edlow, B. L., & Menon, D. K. (2024). Brain network connectivity and consciousness. Critical Care Medicine, 52(9), 1414–1426.
Faisal, A. A., Selen, L. P., & Wolpert, D. M. (2008). Noise in the nervous system. Nature Reviews Neuroscience, 9(4), 292–303.
Fox, M. D. (2018). Mapping human brain networks. New England Journal of Medicine, 379(23), 2237–2245.
Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. MIT Press.
Isaacson, J. S., & Scanziani, M. (2011). How inhibition shapes cortical activity. Neuron, 72(2), 231–243.
Kandel, E. R., Schwartz, J. H., Jessell, T. M., Siegelbaum, S. A., & Hudspeth, A. J. (2013). Principles of neural science (5th ed.). McGraw-Hill.
Lake, B. M., Ullman, T., Tenenbaum, J. B., & Gershman, S. (2017). Building machines that learn and think like people. Behavioral and Brain Sciences, 40, e253.
LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436–444. https://doi.org/10.1038/nature14539
McCulloch, W. S., & Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical Biophysics, 5, 115–133. https://doi.org/10.1007/BF02478259
Mountcastle, V. (1997). The columnar organization of the neocortex. Brain, 120(4), 701–722.
Nayak, M., et al. (2022). Regional neuronal plasticity. Heliyon, 8(12), e12292.
Rosenblatt, F. (1958). The perceptron: A probabilistic model for information storage and organization in the brain. Psychological Review, 65(6), 386–408. https://doi.org/10.1037/h0042519
Rumelhart, D. E., Hinton, G. E., & Williams, R. J. (1986). Learning representations by back-propagating errors. Nature, 323(6088), 533–536.
Serruya, M. D., Hatsopoulos, N. G., Paninski, L., Fellows, M. R., & Donoghue, J. P. (2002). Instant neural control of a movement signal. Nature, 416(6877), 141–142.
Shenoy, K. V., & Carmena, J. M. (2014). Combining decoder design and neural adaptation in brain–machine interfaces. Neuron, 84(4), 665–680.
Sporns, O. (2011). Networks of the brain. MIT Press.
Vaswani, A., Shazeer, N., Parmar, N., et al. (2017). Attention is all you need. In Advances in Neural Information Processing Systems (Vol. 30).
Xu, X., Ren, K., Yu, Z., & Zhang, S. (2023). Machine unlearning: A survey. ACM Computing Surveys, 55(8), 1–37. https://doi.org/10.1145/3527448
Yuste, R., et al. (2017). Four ethical priorities for neurotechnologies and AI. Nature, 551(7679), 159–163.
