Popular Posts

domingo, 22 de mayo de 2016

Tu cerebro no es un computador

* * * *
Tu cerebro no procesa información ni recupera conocimientos ni almacena recuerdos. En pocas palabras: tu cerebro no es un computador.

No importa lo mucho que lo intenten, los neurocientíficos y psicólogos cognitivos nunca encontrarán una copia de la 5ª Sinfonía de Beethoven en el cerebro, ni copias de palabras, imágenes, reglas gramaticales o de cualquier otro tipo de estímulos ambientales. Por supuesto, el cerebro humano no está realmente vacío, pero tampoco contiene la mayoría de cosas que la gente piensa que tiene, ni siquiera las cosas más simples, como los "recuerdos".

Este lamentable pensar acerca del cerebro tiene profundas raíces históricas, pero la invención de las computadoras en la década de 1940 lo volvió especialmente confuso. Desde hace más de medio siglo, los psicólogos, lingüistas, neurólogos y otros expertos en el comportamiento humano han estado afirmando que el cerebro humano funciona como un ordenador.

Para ver cuán vacua es esta idea, consideremos los cerebros de los bebés. Gracias a la evolución, los neonatos humanos, igual que los recién nacidos de otras especies de mamíferos, entran en el mundo preparados para interactuar con él de manera efectiva. La visión de un bebé es borrosa, pero prestan especial atención a las caras, y es capaz de identificar rápidamente a su madre. Prefiere el sonido de voces a los no hablados, y puede distinguir el sonido básico de la voz de cualquier otro. Estamos, sin duda, construidos para crear conexiones sociales.

Un recién nacido sano también está equipado con más de una docena de reflejos, reacciones prefabricadas hacia ciertos estímulos que son importantes para su supervivencia. Gira la cabeza en la dirección de algo que roza su mejilla y luego chupa todo lo que entra en su boca. Contiene la respiración cuando se sumerge en el agua. Se agarra a las cosas colocadas en sus manos con tanta fuerza que casi puede soportar su propio peso. Y tal vez lo más importante, los recién nacidos están equipados con potentes mecanismos de aprendizaje que les permiten cambiar rápidamente para poder interactuar cada vez con más eficacia con el mundo, incluso si ese mundo es diferente al que se enfrentaron sus antepasados ​​lejanos.

Los sentidos, los reflejos y los mecanismos de aprendizaje, con esto es con lo que empezamos, y es mucho, cuando se piensa en ello. Si nos faltara alguna de estas capacidades al nacer, probablemente tendríamos problemas para sobrevivir.

He aquí con lo que no hemos nacido: información, datos, reglas, software, conocimientos, léxicos, representaciones, algoritmos, programas, modelos, recuerdos, imágenes, procesadores, subrutinas, codificadores, decodificadores, símbolos, o buffers, elementos de diseño que permiten comportarse a los computadores digitales de manera un tanto inteligente. No sólo no hemos nacido con este tipo de cosas, tampoco lo desarrollamos, nunca.

No almacenamos las palabras o las reglas que nos indican cómo manipularlas. No creamos representaciones de estímulos visuales, ni los almacenamos en un búfer de memoria a corto plazo, para luego transferir la representación a un dispositivo de memoria a largo plazo. No recuperamos la información, las imágenes ni las palabras de los registros de memoria. Las computadoras hacen todas estas cosas, pero los organismos no.

Los computadores, literalmente, procesan la información, números, letras, palabras, imágenes, fórmulas. La información tiene primero que ser codificada en un formato que el ordenador pueda utilizar, y ello significa unos patrones de unos y ceros ( "bits"), organizados en pequeños paquetes ( 'bytes'). En mi ordenador, cada byte contiene 8 bits, y un cierto patrón de esos bits indica la letra h, otro la letra o, y otro la letra y. Uno al lado del otro, los tres bytes forman la palabra hoy. Una sola imagen, por ejemplo, la fotografía de mi gato Henry en mi escritorio, está representado por un patrón muy concreto de un millón de estos bytes (‘un megabyte'), rodeado de algunos caracteres especiales que le dicen al computador que debe esperar una imagen, no una palabra.

Las computadoras trasladan, literalmente, estos patrones de un lugar a otro, grabandolos en diferentes áreas de almacenamiento físico de componentes electrónicos. A veces también copian estos patrones, y a veces los transforman de diversas formas, por ejemplo, cuando estamos corrigiendo errores en un manuscrito o cuando estamos tocando una fotografía. Los ordenadores siguen unas reglas para mover, copiar y operar con estos conjuntos de datos que también se almacenan dentro de la computadora. A todo ese conjunto de reglas se le llama "programa" o "algoritmo". El grupo de algoritmos que trabajan conjuntamente para ayudarnos a hacer algo (como comprar acciones o encontrar una fecha en internet) se denomina "aplicación", o lo que la mayoría de la gente ahora llaman una 'app'.

Perdón por esta introducción a la informática, pero veo necesario aclarar que, las computadoras sí operan realmente con representaciones simbólicas del mundo. Realmente almacenan y recuperan. Realmente procesan y, realmente, tienen memorias físicas. Y para todo lo que hacen se guían, sin excepción, por algoritmos.

Los seres humanos, por el contrario, no, nunca lo han hecho y nunca lo harán. Dada esta realidad, ¿por qué tantos científicos hablan de nuestra vida mental como si fuéramos los ordenadores?

En su libro “Our Own Image” (2015), el experto en inteligencia artificial, George Zarkadakis, describe seis diferentes metáforas que la gente ha empleado en los últimos 2.000 años para tratar de explicar la inteligencia humana.

La más antigua, se ha preservado del tiempo en la Biblia, los humanos se formaron a partir del barro o la tierra, que seguidamente un Dios inteligente impregnó de su espíritu. Ese espíritu 'explica' nuestra inteligencia, gramaticalmente, al menos.

La invención de la ingeniería hidráulica en el tercer siglo aC. conllevó la popularidad de un modelo hidráulico para la inteligencia humana, la idea entonces, fue que el flujo de diferentes fluidos del cuerpo, los "humores", representaban tanto nuestro funcionamiento físico como mental. La metáfora hidráulica continuó durante más de 1.600 años, dificultando la práctica médica durante todo ese tiempo.

Allá por 1500, los autómatas impulsados por resortes y engranajes que se idearon, inspiraron con el tiempo a los principales pensadores, como René Descartes, que llegaron a afirmar que los seres humanos son máquinas complejas. En 1600, el filósofo inglés, Thomas Hobbes, sugirió que el pensamiento surgía de pequeños movimientos mecánicos en el cerebro. En 1700, los descubrimientos sobre la electricidad y la química llevaron a nuevas teorías de la inteligencia humana, de nuevo, la gran metáfora de la naturaleza. A mediados de 1800, inspirado en los últimos avances en las comunicaciones, el físico alemán Hermann von Helmholtz comparó el cerebro con un telégrafo.

Cada metáfora refleja el pensamiento más avanzado de la época que lo generó. Como era de esperar, sólo unos pocos años después de los albores de la tecnología informática, en la década de 1940, se dijo que el cerebro podría funcionar como una computadora, con el cerebro en su papel de hardware físico y nuestros pensamientos que sirvían como software. Este hito puso en marcha lo que hoy se denomina, en general, "ciencia cognitiva", con la publicación de “Language and Communication” (1951) por el psicólogo George Miller. Miller propuso que el mundo mental podría ser estudiado rigurosamente usando conceptos de la teoría de la información, la computación y la lingüística.

Este tipo de pensamiento fue llevado a su máxima expresión en un pequeño libro “The Computer and the Brain” (1958), donde el matemático John von Neumann declaraba rotundamente que la función del sistema nervioso humano es "prima facie digital". Aunque reconoció que poco se sabe sobre el papel que juega el cerebro en el razonamiento humano y la memoria, dibujó paralelismos entre los componentes de las máquinas de computación y los componentes del cerebro humano.

Impulsado por los siguientes avances, tanto en tecnología informática como en investigación del cerebro, se fue desarrollando gradualmente un esfuerzo multidisciplinario ambicioso para entender la inteligencia humana, firmemente enraizado en la idea de que los seres humanos son, como los ordenadores, procesadores de información. Este esfuerzo ahora involucra a miles de investigadores, consume miles de millones de dólares en fondos, y ha generado una extensa literatura que consta de artículos técnicos y una corriente principal y de libros. El libro de Ray Kurzweil, “How to Create a Mind: The Secret of Human Thought Revealed” (2013), es un ejemplo de esta perspectiva, especulando sobre los "algoritmos" del cerebro, como que el cerebro ‘procesa los datos', e incluso que la forma de su superficie se parece a los circuitos integrados en su estructura.

La metáfora del ‘information processing’ (IP: procesamiento de información) de la inteligencia humana domina ahora el pensamiento humano, tanto en la calle como en las ciencias. No hay prácticamente ninguna forma de discurso sobre el comportamiento humano inteligente que no emplee esta metáfora, así como ninguna forma de discurso sobre el comportamiento humano inteligente pudo proceder en otras épocas y culturas sin hacer referencia a un espíritu o deidad. La validez de la metáfora del IP en el mundo actual se asume generalmente sin mediar duda alguna.

Pero la metáfora IP es, después de todo, sólo otra metáfora, una historia que contamos para dar sentido a algo que en realidad no entendemos. Y al igual que todas las metáforas que la han precedido, será abandonada en algún momento, ya sea sustituida por otra metáfora o sustituida por un conocimiento más real.

Hace poco más de un año, en una visita a uno de los centros de investigación más prestigiosos del mundo, desafié a los investigadores a que contaran de la conducta humana inteligente sin hacer referencia a cualquier aspecto de la metáfora IP. No pudieron hacerlo, y cuando cortésmente planteé la cuestión en correos electrónicos posteriores, tampoco tuvieron nada que ofrecer meses más tarde. Vieron el problema. Ellos no descartaron el reto como trivial, pero no podían ofrecer una alternativa. En otras palabras, la metáfora IP es "pegajosa". Entorpece nuestro pensamiento con un lenguaje e ideas tan poderosos que nos dificulta pensar lo que les nos rodea.

La incorrecta lógica de la metáfora IP es bastante fácil de declarar. Se basa en un silogismo defectuoso: dos premisas razonables y una conclusión defectuosa. Premisa razonable # 1: todos los computadores son capaces de comportarse de forma inteligente. Premisa razonable # 2: todos los computadores son procesadores de información. Conclusión errónea: todas las entidades que son capaces de comportarse de manera inteligente son procesadores de información.

Dejando a un lado el lenguaje formal, la idea de que los seres humanos deben ser procesadores de información sólo porque las computadoras son procesadores de información es, simplemente, una tontería, y cuando, algún día, la metáfora IP sea finalmente abandonada, casi seguro que se verá así por los historiadores, justo como ahora vemos la metáfora hidráulica y la mecánica, como tontas.

Si la metáfora IP es tan tonta, ¿por qué es tan pegajosa? Qué nos impide apartarla un lado, del mismo modo que podríamos apartar una rama que estaba bloqueando nuestro camino? ¿Hay una manera de entender la inteligencia humana sin apoyarse en una muleta intelectual tan débil? Y ¿qué precio tenemos que pagar por apoyarnos en gran medida en esta particular muleta, durante tanto tiempo? La metáfora IP, después de todo, ha estado guiando la escritura y el pensamiento de un gran número de investigadores en varios campos desde hace décadas. ¿A qué coste?

En un ejercicio de clase que he realizado muchas veces a lo largo de los años, comienzo por reclutar a un estudiante para que haga un dibujo detallado de un billete de un dólar, 'lo más detallado posible', digo, en la pizarra al frente de la sala. Cuando el estudiante ha terminado, cubro el dibujo con una hoja de papel, cogo el billete devolviéndolo a mi cartera, y pido al alumno que repita la tarea. Una vez que lo ha hecho, levanto la tapa del primer dibujo, y comentamos en clase sobre las diferencias.

Dado que es posible que nunca hayas visto una demostración de este tipo, o porque no puedas imaginar el resultado, le he pedido a Jinny Hyun, una de los estudiantes en prácticas del instituto donde llevo a cabo mi investigación, para que hiciera los dos dibujos. Aquí está su dibujo 'de memoria' (nótese la metáfora):
Y aquí el dibujo que posteriormente se hizo con un billete de un dólar presente:
Jinny estaba tan sorprendido por el resultado como usted, pero es normal. Como se puede ver, el dibujo realizado en ausencia del billete de un dólar es horrible comparado con el dibujo a partir del ejemplar, a pesar de que Jinny ha visto un billete de dólar miles de veces.

¿Cuál es el problema? ¿No tenemos una "representación" del billete de un dólar "almacenada" en un "registro de memoria” en nuestro cerebro? ¿No podemos 'recuperarlo' y utilizarlo para hacer nuestro dibujo?

Obviamente no, y mil años de neurociencia nunca localizará una representación de un billete de un dólar almacenado en el interior del cerebro humano, por la sencilla razón de que no está ahí para ser encontrado.

Una gran cantidad de estudios del cerebro nos dice que, de hecho, las múltiples y, a veces grandes áreas del cerebro, están implicadas, incluso en las tareas de memoria más mundanas. Cuando las emociones fuertes están involucradas, millones de neuronas se vuelven más activas. En un estudio de 2016 a supervivientes de un accidente aéreo, por el neuropsicólogo Brian Levine y otros, de la Universidad de Toronto, que al recordar el accidente se incrementó la actividad neuronal de “la amígdala, el lóbulo temporal medial, el anterior y posterior medial, y la corteza visual" de los pasajeros.

La idea, adelantada por varios científicos, de que los recuerdos concretos se almacenan de alguna manera en las neuronas individuales es ridícula; en todo caso, tal afirmación simplemente empuja el problema de la memoria a un nivel aún más difícil: ¿cómo y dónde se almacena la memoria en la célula?

Así pues, ¿qué está ocurriendo cuando Jinny dibuja el billete ausente de un dólar? Si Jinny nunca hubiera visto un billete de un dólar, su primer dibujo probablemente en nada se parecería al segundo dibujo en absoluto. Al haberlo visto antes, a ella le cambió de alguna manera. En concreto, su cerebro cambió de una manera que le permitió visualizar un billete de dólar, esto es, pudo volver a tener la experiencia de ver un billete de un dólar, al menos en cierta medida.

La diferencia entre los dos gráficos nos recuerda que visualizar algo (es decir, ver algo en su ausencia) es mucho menos preciso que ver algo en su presencia. Es por esto que somos mucho mejores en el reconocimiento que en el recuerdo. Cuando rememoramos algo (del latín re, 'otra vez', y memorari, 'consciente de'), tenemos que tratar de revivir una experiencia; pero cuando reconocemos algo, simplemente hay que ser consciente del hecho de que hemos tenido esa experiencia perceptiva antes.

Tal vez pueda objetarse a esta demostración que, Jinny había visto antes de billetes de un dólar, pero no había hecho el esfuerzo deliberado de 'memorizar' los detalles. De haberlo hecho, se podría argumentar, que presumiblemente podría haber dibujado la segunda imagen sin estar presente el billete. Incluso en este caso, tampoco tiene sentido que ninguna imagen del billete de un dólar haya sido 'almacenada' en el cerebro de Jinny. Ella, simplemente, está mejor preparada para dibujar con precisión, al igual que, a través de la práctica, un pianista se hace más experto para su interpretación en un concierto, sin que de ninguna manera haya grabado una copia de la partitura.

A partir de este sencillo ejercicio, podemos empezar a construir el marco de una teoría libre de metáforas del comportamiento humano inteligente, una en la que el cerebro no está completamente vacío, pero al menos esté vacío del bagaje de la metáfora IP.

Mientras navegamos a través del mundo, somos cambiados por una gran variedad de experiencias. Son de especial interés las experiencias de tres tipos: (1) observamos lo que está sucediendo a nuestro alrededor (el comportamiento de otras personas, los sonidos de la música, instrucciones dirigidas a nosotros, palabras en las páginas, imágenes en las pantallas); (2) estamos expuestos al emparejamiento de estímulos poco importantes (como sonidos de sirenas) con estímulos importantes (como la aparición de coches de policía); (3) somos castigados o recompensados ​​por comportarnos de cierta manera.

Llegamos a ser más efectivos en nuestras vidas si cambiamos la forma en que se hacen consistentes estas experiencias, si ahora podemos recitar un poema o cantar una canción, si somos capaces de seguir las instrucciones que se nos dan, si respondemos a los estímulos sin importancia más que a los estímulos importantes, si nos abstenemos de comportarnos para no ser castigados, si nos comportamos con mayor frecuencia de formas que seamos recompensados.

Pese a ello, los titulares son engañosos, en realidad nadie tiene la más mínima idea de cómo cambia el cerebro después de que haya aprendido a cantar una canción o recitar un poema. Pero ni la canción ni el poema han sido 'almacenados' en él. El cerebro simplemente ha cambiado su ordenación de manera que ahora nos permite cantar la canción o recitar el poema bajo ciertas condiciones. Cuando se quiere realizar, ni la canción ni el poema está, en ningún sentido, 'recuperados' desde ninguna parte del cerebro, al igual que el movimiento de mis dedos cuando toco en el escritorio tampoco están 'recuperados'. Simplemente cantan o recitan, sin necesidad de recuperación.

Hace algunos años, le pregunté al neurólogo Eric Kandel, de la Universidad de Columbia, ganador de un Premio Nobel por la identificación de algunos de los cambios químicos que tienen lugar en las sinapsis neuronales de la Aplysia (un caracol marino), después de aprender algo, ¿cuánto tiempo piensa que nos llevará entender cómo funciona la memoria humana? Rápidamente respondió: “Unos cien años", No le pregunté si pensaba que la metáfora IP estuviera entorpeciendo la neurociencia, pero algunos neurocientíficos ya empiezan a pensar, de hecho, en lo impensable, que la metáfora no es indispensable.

Unos cuantos científicos cognitivos, como Anthony Chemero, de la Universidad de Cincinnati, autor de “Radical Embodied Cognitive Science” (2009), rechazan ahora completamente la idea de que el cerebro humano funcione como una computadora. La opinión más extendida es que, como las computadoras, que dan sentido al mundo mediante la realización de cálculos de las representaciones mentales de la misma, pero Chemero y otros, describen otra forma de entender el comportamiento inteligente, como una interacción directa entre los organismos y su mundo.

Mi ejemplo favorito de la gran diferencia entre la perspectiva de la IP y lo que algunos ahora llaman la visión "anti-representacional” del funcionamiento humano, implica dos formas distintas de explicar cómo un jugador de béisbol logra atrapar un “fly ball” (pelota al vuelo), muy bien explicados por Michael McBeath, ahora en la Universidad Estatal de Arizona, y sus colegas, en un estudio de 1995 en Science. La perspectiva IP requiere que el jugador formule una estimación de las diferentes condiciones iniciales de vuelo de la pelota, la fuerza del impacto, el ángulo de la trayectoria, ese tipo de cosas, a continuación, crear y analizar un modelo interno de la trayectoria en la que es probable que se mueva la pelota, y luego use ese modelo para orientar y ajustar los movimientos motores de forma continua en el tiempo, con el fin de interceptar la pelota.

Todo eso está muy bien, si funcionáramos como las computadoras, pero McBeath y sus colegas nos dan un relato más simple: para atrapar la pelota, el jugador necesita, simplemente, seguir el movimiento que de alguna manera mantiene la pelota en una relación visual constante respecto a la base y el escenario circundante (técnicamente, en una "trayectoria óptica lineal"). Esto puede sonar complicado, pero en realidad es muy simple, y completamente libre de los cálculos, representaciones y algoritmos.

Dos profesores de psicología de la Universidad de Leeds Beckett en el Reino Unido, Andrew Wilson y Sabrina Golonka, incluyeron este ejemplo de béisbol entre muchos otros que se pueden consultar de forma sencilla y con sensatez fuera del marco IP. Ellos han estado bloggeando durante años acerca de lo que llaman un "enfoque más coherente y naturalizado del estudio científico del comportamiento humano ... en franco desacuerdo con el enfoque de la neurociencia cognitiva dominante". Esto está lejos aún de moverse, sin embargo; las ciencias cognitivas principales continúan acríticamente revolcándose en la metáfora IP, y algunos de los pensadores más influyentes del mundo han hecho grandes predicciones sobre el futuro de la humanidad que dependen de la validez de esta metáfora.

Una predicción, hecha por el futurista Kurzweil, el físico Stephen Hawking y el neurocientífico Randal Koene, entre otros, es que, debido a que la conciencia humana es, supuestamente, igual que los programas informáticos, pronto será posible descargar la mente humana en un ordenador, y en tales circuitos llegaremos a ser inmensamente poderosos intelectualmente y, muy posiblemente, inmortales. Este concepto llevó a la trama de la película distópica “Transcendence” (2014), protagonizada por Johnny Depp, como el científico Kurzweil cuyo pensamiento fue descargado a internet con resultados desastrosos para la humanidad.
“Transcendence” (2014), protagonizada por Johnny Depp
Afortunadamente, debido a que la metáfora IP no es válida ni siquiera un poco, nunca tendremos que preocuparnos porque una mente humana vaya fuera de control por el ciberespacio; por desgracia, nunca vamos a alcanzar la inmortalidad a través de la descarga. Esto no es sólo haya una ausencia de software de la conciencia en el cerebro, hay aquí un problema más profundo, vamos a llamarlo un único problema, el cual es a su vez fuente de inspiración y depresivo.

Dado que no existen ni los ‘bancos de memoria’ ni ‘representaciones’ de los estímulos en el cerebro, y ya que todo lo que se requiere para que podamos funcionar en el mundo es que el cerebro cambie de manera ordenada, como resultado de nuestras experiencias, no hay razones para creer que cualquiera de nosotros cambie de la misma manera por la misma experiencia. Si usted y yo asistimos a un mismo concierto, los cambios que se producen en mi cerebro cuando escucho la 5ª de Beethoven es casi seguro que será completamente diferente de los cambios que se producen en tu cerebro. Estos cambios, cualesquiera que sean, están basadas en una estructura neuronal única existente, y cada estructura se ha ido desarrollando durante toda una vida de experiencias únicas.

Es por esto que, tal como Sir Frederic Bartlett demostró en su libro “Remembering” (1932), no hay dos personas que puedan repetir una historia que han escuchado de la misma manera, y por eso, con el tiempo, sus recitaciones de la historia divergen cada vez más. No existe una "copia" de la historia; más bien, cada individuo, al escuchar la historia, cambia en cierto modo, lo suficiente para que cuando se le preguntó más adelante acerca de esa historia (en algunos casos, días, meses o incluso años después de que Bartlett les leyera la historia), ellos puedan volver a experimentar la audición de la historia, en cierta medida, aunque no muy bien (ver el primer dibujo del billete de un dólar, expuesto más arriba).

Esto es fuente de inspiración, supongo, porque significa que cada uno de nosotros es verdaderamente único, no sólo en nuestra composición genética, sino en la forma en que nuestro cerebro cambia con el tiempo. También es deprimente, ya que hace de la neurociencia una tarea de enormes proporciones, casi más allá de la imaginación. Para cualquier experiencia dada, el cambio ordenada podría implicar un millar de neuronas, un millón de neuronas o incluso todo el cerebro, con el correspondiente patrón de cambio diferente en cada cerebro.

Peor aún, incluso si tuviéramos la capacidad de tomar una instantánea del total de los 86 mil millones de neuronas del cerebro y luego poder simular el estado de tales neuronas en una computadora, ese vasto patrón no significaría nada fuera del cuerpo cerebral que lo produjo. He aquí, quizá, la forma más atroz en el que la metáfora IP ha distorsionado nuestro pensamiento sobre el funcionamiento humano. Mientras que las computadoras almacenan copias exactas de los datos (los ejemplares pueden persistir sin cambios durante largos períodos de tiempo, incluso si la alimentación se ha apagado), el cerebro mantiene nuestro intelecto sólo en tanto se mantiene vivo. No hay un interruptor de encendido-apagado. O bien el cerebro sigue funcionando, o desaparece. Es más, como el neurobiólogo Steven Rose señaló en “The Future of the Brain” (2005), una instantánea del estado actual del cerebro también podría no tener sentido a menos que supiéramos toda la historia vital del dueño de ese cerebro, e incluso sobre el contexto social en el cual se crió.

Pensemos lo difícil de este problema. Para entender hasta lo más básico de cómo el cerebro mantiene el intelecto humano, es posible que necesite saber no sólo el estado actual de todos los 86 mil millones de neuronas y sus 100 mil billones de interconexiones, no sólo la variedad de puntos fuertes con los que están conectados, no sólo con el estado particular de las más de 1.000 proteínas que existen en cada punto de conexión, sino de cómo la actividad de momento a momento del cerebro contribuye a la integridad del sistema. Añadir a esto el carácter único de cada cerebro, provocado en parte por la singularidad de la historia vital de cada persona ..., entonces la predicción de Kandel comienza a sonar demasiado optimista. (En un reciente artículo de opinión en The New York Times, el neurocientífico Kenneth Miller sugirió que llevará 'siglos' tan sólo averiguar la conectividad neuronal básica).

Entre tanto, se están gastando grandes sumas de dinero para la investigación del cerebro, basándose en algunos casos en ideas y promesas erróneas que no pueden mantenerse. El ejemplo más flagrante de la neurociencia que salió mal, documentado recientemente en un informe en Scientific American, se refiere a los 1,3 mil millones de dólares del Human Brain Project, puesto en marcha por la Unión Europea en 2013. Convencidos por el carismático Henry Markram de que se podía crear una simulación de todo el cerebro humano en un superordenador para el año 2023, y que tal modelo revolucionaría el tratamiento de la enfermedad de Alzheimer y otros trastornos, los funcionarios de la UE financiaron su proyecto con prácticamente ninguna restricción. Pasaron menos de dos años para que el proyecto se convirtiera en un "desecho de cerebros", y se pidió a Markram que renunciara.

Somos organismos, no computadoras. Supéralo. Vamos a seguir adelante con el asunto de tratar de comprendernos a nosotros mismos, pero sin vernos entorpecidos por el innecesario bagaje intelectual. La metáfora IP ha tenido una carrera de medio siglo, produciendo pocos, por no decir ninguno, puntos de vista en el camino. Ha llegado el momento de pulsar la tecla ‘Eliminar’.

#####
Artículo original en AEON.co, “The empty brain” .
Autor: Robert Epstein, es psicólogo investigador del Instituto Americano sobre Investigación y Tecnología del Comportamiento en California. Es autor de 15 libros, y ex-editor jefe de la revista Psychology Today.
Imagen: What’s in a brain? Photo by Gallery Stock
Imagen: Los cuatro humores o fluidos: la sangre, la bilis amarilla, la flema y la bilis negra.
Imagen: Andre Ethier atrapa una pelota al vuelo (fly ball).
Imagen: “Transcendence” (2014), protagonizada por Johnny Depp

No hay comentarios:

Publicar un comentario

Deshabilitado los comentarios. Contacto y comentarios en las redes sociales.

Nota: solo los miembros de este blog pueden publicar comentarios.