Traducir el pensamiento en acción: Interfaces cerebro-máquina y el problema ético de la agencia

Autores/as

  • Aníbal Monasterio Monasterio Astobiza Universidad del País Vasco
  • Txetxu Ausín Grupo de Ética Aplicada GEA, Instituto de Filosofía, CSIC.
  • Mario Toboso Departamento de Ciencia, Tecnología y Sociedad, Instituto de Filosofía, CSIC.
  • Ricardo Morte Vocal LI²FE (Laboratorio de Investigación e Intervención Filosófica y Ética).
  • Manuel Aparicio Departamento de Filosofía, Universidad de Murcia.
  • Daniel López Grupo de Ética Aplicada GEA, Instituto de Filosofía, CSIC.

DOI:

https://doi.org/10.1344/rbd2019.0.26862

Palabras clave:

Interfaces cerebro-máquina, neurotecnología, acción, pensamiento, intención, ética.

Resumen

En este artículo, nos proponemos dos objetivos: el primero, describir la teoría clásica de la agencia intencional y cómo la neurotecnología de las interfaces cerebro-máquina desafía los requisitos de la teoría clásica de la agencia y de la consciencia corporal. La neurotecnología de las interfaces cerebro-máquina funciona implantando electrodos directamente en el área de la corteza motora del cerebro que controla el movimiento, y está diseñada para detectar las señales neuronales asociadas con la intención de moverse, que son después decodificadas por un algoritmo en un computador en tiempo real. Así, una persona podría pensar en mover su pierna o su brazo y la máquina recibiría la información de su pensamiento para traducir el pensamiento en acción, mediante prótesis internas o exoesqueletos. Esto es posible y sus aplicaciones se proyectan tanto sobre la rehabilitación de la funcionalidad motora, como sobre la posibilidad de mejoramiento (enhancement) de las capacidades humanas. Ambas aplicaciones dan lugar a numerosas implicaciones éticas, pero destacamos principalmente una, que denominamos: el problema ético de la agencia. El segundo objetivo del artículo es explorar brevemente la ética algorítmica en el contexto de las interfaces cerebro-máquina y cómo se entienden en este ámbito la autonomía, la responsabilidad y la privacidad informacional. Finalmente, abogamos por la necesidad de un marco ético de principios que regule la neurotecnología, y en tal sentido apelamos a los nuevos neuroderechos.

Biografía del autor/a

Aníbal Monasterio Monasterio Astobiza, Universidad del País Vasco

Investigador posdoctoral Gobierno Vasco en el ILCLI, UPV/EHU, Visitante académico en el Oxford-Uehiro Centre for Practical Ethics, University of Oxford, visiting fellow in Global Health and Social Medicine, Harvard University y colaborador del IFS-CSIC.

Citas

ARLE J. y ALTERMAN R. 1999, “Surgical options in Parkinson's disease”. Med. Clin. North. Am. 83, pp. 483–98.

BOSTROM N. 2005, “In Defense of Posthuman Dignity”. Bioethics. 19, 3, pp. 202–214.

CASABONA C. M. 2013, “Consideraciones jurídicas sobre los procedimientos experimentales de mejora (enhancement) en neurociências”. Percurso Acadêmico, Belo Horizonte, v. 3, n. 5, pp 80-107.

CLAUSEN J. 2009, “Man, machine and in between”. Nature. 457, (7233): pp.1080–1.

DAVIDSON D. 1963, “Actions, reasons, and causes”. Journal of Philosophy 60 (23), pp. 685-700.

FLORIDI L. y TADDEO M. 2016, “What is data ethics?” Phil. Trans. R. Soc. A, vol. 374, no. 2083 20160360.

GIFFORD R. et al. 2008, “Speech recognition materials and ceiling effects: considerations for cochlear implant programs”. Audiol Neurootol. 13(3),pp. 193-205.

HAGGARD P. y TSAKIRIS M. 2009, “The Experience of Agency Feelings, Judgments, and Responsibility”. Current Directions in Psychological Science, 18(4), pp. 242–246.

HIL R. 2016, “What an algorithm is?” Philosophy and Technology 29, 1, pp. 35-59.

HOCHBERG. L. et al. 2006, “Neuronal ensemble control of prosthetic devices by a human with tetraplegia”. Nature, 442, 7099, pp. 164–71.

IENCA M. y ANDORNO R. 2017, “Towards new human rights in the age of neuroscience and neurotechnology”. Life Sci Soc Policy. 13, (1) 5.

LAAT P. 2018, “Algorithmic decision-making based on machine learning from Big Data: Can transparency restore accountability?” Philosophy & Technology 31, 4, pp 525–541.

LIPTON Z. 2018 “The mythos of model interpretability” Queue - Machine Learning 16 3 pp 1-27.

MASHAT M. , LI G. y ZHANG D. 2017, “Human-to-human closed-loop control based on brain-to-brain interface and muscle-to-muscle interface”. Scientific Reports. 7, 11001.

MELE A. 1987, “Intentional Action and Wayward Causal Chains: The Problem of Tertiary Waywardness”. Philosophical Studies. 51, 1,pp. 55-60.

MONASTERIO ASTOBIZA A. 2017, “Ética algorítmica: Implicaciones éticas de una sociedad cada vez más gobernada por algoritmos”. Dilemata, 24, pp. 185-217.

O´NEIL C. 2016, Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. New York. Crown Publishing Group.

PACHERIE E. 2007, “The sense of control and the sense of agency”. Psyche, 13(1), pp. 1–30.

PENALOZA C. y NISHIO S. 2018, “BMI control of a third arm for multitasking”. Science Robotics. 3, 20, eaat1228.

PIEDIMONTE A. et al. 2016, “From intention to perception: The case of anosognosia for hemiplegia”. Neuropsychologia. 1, 87, pp. 43-53.

PONCE P., MOLINA A., BALDERAS D. y GRAMMATIKOU D. 2014, “Brain Computer Interfaces for Cerebral Palsy” En Cerebral Palsy - Challenges for the Future (eds) Emira Svraka InTech.

RAO R. et al. 2014, “A Direct Brain-to-Brain Interface in Humans”. PLOS One. 5, https://doi.org/10.1371/journal.pone.0111332.

REAGLE J. (2019), Hacking Life: Systematized Living and Its Discontents. Cam. Mass. MIT Press.

SEARLE J. 1983, Intentionality: An Essay in the Philosophy of Mind. Cambridge: Cambridge University Press.

SCHERMER M. 2011, “Ethical issues in deep brain stimulation”. Front Integr Neurosci. 5: 17.

SNOW J. 2015, “Entering the Matrix: the Challenge of Regulating Radical Leveling Technologies” Tesis de Máster, Monterey, CA: Naval Postgraduate School.

SYNOFZIK M., VOSGERAU G. y NEWEN, A. 2008, “Beyond the comparator model: A multifactorial two-step account of agency”. Consciousness and Cognition, 17, pp. 219–239.

TRAPP N.T., XIONG W. y CONWAY C.R. 2018, “Neurostimulation Therapies”. En: Handbook of Experimental Pharmacology. Springer, Berlin, Heidelberg.

WEXLER A. 2017, “The Social Context of "Do-It-Yourself" Brain Stimulation: Neurohackers, Biohackers, and Lifehackers” Front Hum Neurosci. 10; 11:224.

WODLINGER B. et al. 2015, “Ten-dimensional anthropomorphic arm control in a human brain−machine interface: difficulties, solutions, and limitations,” Journal of Neural Engineering. 12, 1, 16011.

WOLKENSTEIN A., Jox R. y Friedrich O. 2018, “Brain–Computer Interfaces Lessons to Be Learned from the Ethics of Algorithms”. Cambridge Quarterly of Healthcare Ethics, 27, 4, pp. 635–646.

YOO S. et al. 2013, “Non-Invasive Brain-to-Brain Interface (BBI): Establishing Functional Links between Two Brains”. PLOS One https://doi.org/10.1371/journal.pone.0060410.

YUSTE R. et al. 2017, “Four ethical priorities for neurotechnologies and AI”. Nature. 551(7679), pp. 159–63.

Descargas

Publicado

2019-06-03

Cómo citar

Monasterio Astobiza, A. M., Ausín, T., Toboso, M., Morte, R., Aparicio, M., & López, D. (2019). Traducir el pensamiento en acción: Interfaces cerebro-máquina y el problema ético de la agencia. Revista De Bioética Y Derecho, (46), 29–46. https://doi.org/10.1344/rbd2019.0.26862

Artículos similares

1 2 > >> 

También puede {advancedSearchLink} para este artículo.