Latest Posts:

Mostrando las entradas con la etiqueta sinapsis. Mostrar todas las entradas
Mostrando las entradas con la etiqueta sinapsis. Mostrar todas las entradas

18 de mayo de 2015

Siete alternativas para hacer crecer nuevas células en el cerebro (y volvernos más inteligentes)

Hace algunos años se creía que el cerebro era un sistema relativamente estático —nuestras conexiones neurales podían desligarse y nuestras neuronas destruirse pero no transformarse, regenerarse o formar nuevas conexiones sinápticas. Esta creencia hizo que muchos creciéramos bajo un extraño paradigma en el que se nos decía que debíamos de atesorar nuestras neuronas —porque jamás podríamos recobrarlas— y en este sentido ingerir drogas era un acto severo, contranatural, digno de la más abyecta estupidez. Bajo esta impronta uno incluso podía experimentar una nostalgia por neuronas perdidas, una especie de efecto de miembro fantasma entre los tallos neurales de flores decapitadas.
Evidentemente el daño cerebral es una realidad —pero es una realidad dinámica y reversible. Por suerte para aquellos que exploraron quizás un poco demasiado las dimensiones psiconáuticas, también es una realidad la neuroplasticidad —la capacidad de transformarse estructuralmente que tiene el cerebro adulto—, y la neurogénesis —la capacidad que tiene el cerebro adulto de regenerar células o generar nuevas neuronas. El cerebro se comporta como un sistema abierto (por no decir holístico) que puede ser cincelado lo mismo por estímulos químicos que por estímulos emocionales o meméticos  y nuestras neuronas, particularmente las del hipocampo y la zona subventricular, son como salamandras que transmutan en el fuego electroquímico de la sinapsis.
Investigación científica reciente muestra que la neurogenésis y la neuroplasticidad podrían tener un papel importante en el aprendizaje y la memoria en el cerebro adulto, así como ser un factor vital en la reducción del estrés y en el tratamiento de la depresión. Un estudio incluso sugiere que nuestro estado de ánimo podría ser regulado por la plasticidad  —por el movimiento dinámico de nuestras neuroconexiones—– más que por la química.
Emerge un nuevo paradigma, un nuevo mapa —y el mapa no es el territorio porque el territorio se está moviendo siempre. La neuroplasticidad sugiere que las conexiones individuales en el cerebro están siempre recreándose, según cómo se usan. En inglés se dice “neurons that fire together, wire together”/”neurons that fire apart, wire apart” (las neuronas que disparan al mismo tiempo se conectan entre sí, las que disparan o se encienden por separado conectan aparte). Esto significa que constantemente están emergiendo nuevas relaciones sinápticas, nuevos mapas corticales —colectivos que desempeñan funciones específicas pero que pueden estar separados. La sinfonía cerebral actúa de manera global, continentes aparentemente inconexos llegan a sincronizarse para ejecutar operaciones complejas al unísono.
La capacidad neuroplástica del cerebro puede ejemplificarse en el desarrollo de la capacidad de ecolocación que algunas personas ciegas logran recableando su cerebro. Resonancias magnéticas muestran que estas personas adaptan áreas de procesamiento visual para esta nueva habilidad de ecolocación, en la que intervienen áreas de procesamiento auditivo.
De la neuroplasticidad y de la neurogénesis surge la posibilidad de tomar control de los procesos neurales y, como si nuestro cerebro fuera una etérea plastilina, esculpir estados mentales de diseño. Según Michael Merzenich, uno de los pioneros en el campo de la neuroplasticidad, los ejercicios mentales pueden ser tan útiles como las drogas para tratar padecimientos tan severos como la esquizofrenia (pero, ¿quizás la gimnasia mental podría curar no sólo enfermedades del cerebro sino de todo el organismo?). De este nuevo acercamiento se atisba toda una gama de posibilidades: la dirección de orquestas neurales, el self-hacking, la reingeniería de neuronas y la manipulación de mapas corticiales para el aumento de funciones específicas o, por supuesto, para la sanación de daño cerebral —así que nunca es demasiado tarde para hacer de tus neuronas, especialmente de los astrocitos, vitales en la neurogénesis, nuevas y brillantes constelaciones en tu propio firmamento.
1. Ejercicio físico
Un estudio realizado por el Dr. Kwok Fai So de la Universidad de Hong Kong mostró un correlación entre personas que solían correr frecuentemente y la neurogenésis. “Investigación ha demostrado que el ejercicio puede mejorar el estado de ánimo y la cognición y también se ha demostrado que un déficit en la neurogénesis adulta puede resultar en una depresión”. El estrés, especialmente la depresión, llegan a encoger el hipocampo —una de las zonas en la que ocurre la neurogénesis. Científicos creen que existe una relación entre el ejercicio, y en general aquello que reduce el estrés, con la neurogénesis.
 2. Meditación
Uno de los líderes en el campo de la investigación neurocientífica de la meditación, el Dr. Herbert Benson, de la Universidad de Harvard, ha estudiado lo que llama “la respuesta de relajación”, la cual induce una serie de cambio bioquímicos en el cerebro. Benson sugiere que la meditación renera células cerebrales, reduciendo de esta manera el estrés.
Un estudio realizado por investigadores de la Universidad de Oregon indica que la técnica de meditación conocida com IBMT (entrenamiento integral de mente cuerpo) puede facilitar la neurogenésis.
3. Comida /Antocianinas
Consumir antocianinas, pigmentos hidrosolubles que pueden encontrarse en las zarzamoras, arándanos, frambuesas y hasta en el vino, parece tener propiedades neuroregenerativas. Comer este tipo de moras silvestres es recomendado para prevenir el Alzheimer y podría tener un efecto positivo en la función del hipocampo.
Otros alimentos que se cree podrían fomentar la nuerogénesis son los alimentos ricos en Omega-3 o fitonutrientes como la oroxilina.
4. Reducción de calorías /ayuno
Un estudio publicado en el Journal of Molecular Science muestra que la restricción de calorías produce estados favorables para la neurogénesis: ratas a dieta desarrollaron nuevas neuronas en el hipocampo.
Diferentes tradiciones, particularmente en Oriente, hablan sobre la importancia de celebrar ayunos con cierta regularidad para restaurar las funciones corporales y cognitivas. Es posible que una ciencia del ayuno pueda llevar a la neurogénesis.
5. Tener (mucho) sexo
Como hemos visto la neurogénesis —y en general la salud— está ligada a la reducción del estrés y a promoción de la relajación —la salud es tranquilidad en movimiento. Evidentemente uno de los actos que mayor reduce el estrés —en diversas capas— es el sexo.
Un estudio científico realizado por la doctora Benedetta Leunemuestra que mientras el estrés reduce la neurogénesis adulta y restringe la arquitectura dendrítica en el hipocampo, la copulación tiene el efecto opuesto, promoviendo la generación de nuevas células cerebrales. Explica Leuner:
Ratas adultas fueron expuestas a una hembra sexualmente receptiva una vez (aguda) o una vez diariamente por 14 días (crónica) y se midieron sus niveles de circulación glucorticoide [...]. Los resultados mostraron que experiencias sexuales agudas incrementaron los niveles de circulación corticoide y el número de neuronas en el hipocampo. La experiencia sexual crónica dejó de producir un incremento en los niveles corticoides pero continuó promoviendo la neurogénesis y estimuló el crecimiento de la espinas dendríticas y la arquitectura dendrítica. La experiencia sexual crónica también redujo el comportamiento relacionado con la ansiedad.
6.  Fotoestimulación /casco de luz infrarroja
Uno de los campos de investigación más interesantes pero menos probados es el de la estimulación de ciertas zonas cerebrales a través de la luz o el magnetismo.  Las populares máquinas de luz y sonido —LEDs programados a cierta frecuencia para emular ondas cerebrales y sonidos binaurales— llegan a generar estados similares a la meditación, por lo cual podrían también inducir estados de neurogénesis. El incipiente campo de la medicina biomagnética, basada en los pares magnéticos descubiertos por el Dr. Isaac Goiz, es un novedoso tratamiento para diferentes enfermedades, incluyendo la depresión, y quizás podría estimular las células del cerebro a regenerarse.
Un casco desarrollado por  el Dr. Gordon Dougal, de la empresa Virulite, asegura revertir la demencia senil, regenerando neuronas  a través de la estimulación de luz infrraroja.

7. Ayahuasca/antidepresivos
Se sabe que algunos antidepresivos,  inhibidores selectivos de la recaptación de la serotonina,facilitan la neurogénesis. Sin embargo, producen numerosos efectos secundarios, entre ellos la falta de libido (lo cual resulta un tanto contradictorio). Una alternativa a esto parece ser la ayahuasca, el cada vez más popular brebaje medicinal psicoactivo del Amazonas, utilizado con particular efectividad en el tratamiento de adicciones pero que podría tener aplicaciones incluso en la cura de enfermedades como el cáncer.
A diferencia de los antidepresivos, la ayahuasca, una medicina que algunos llaman un psicointegrador, ofrece una experiencia integral en la que los beneficios químicos son complementados por beneficios emocionales y hasta espirituales que redondean el tratamiento y permiten una asimilación más profunda.
Estudios con personas que han tomado ayahuasca por un periodo sostenido de tiempo muestran una mayor recaptación de serotonina. Según la investigadora Jace Callaway, esto se podría deber a la tetrahidroharmina que contiene la ayahuasca. Luego de dosificarse con esta molécula por seis semanas y  realizarse una tomografía computarizada por emisión de fotones individuales, Callaway descubrió un incremento en su recapatación de serotonina, algo que disminuyó cuando la dejó de utilizar.
Otro estudio, realizado por  Stuckey y Echenhofer en el California institute of Integral Studies, mostró que la ayahusca incrementa la coherencia en la banda de ondas gamma. Según el Dr. Luis Eduardo Luna: “La coherencia es una medida de la similitud del electroencefalograma en dos sitios distintos y puede considerarse una medida de comunicación entre dos regiones del cerebro. Una hipercoherencia distribuida ampliamente parece razonable dado los intensos y sinestéticos fenómenos que suelen ocurrir durante una experiencia de toma de ayahuasca”. Esta misma alta actividad de coherencia gamma ha sido observada en monjes zen en estados profundos de meditación.
Fuente:

26 de agosto de 2014

El chip sináptico de IBM marca el paso hacia la computación neuronal


Después de seis años de intenso desarrollo el equipo de IBM que dirige el proyecto SyNAPSE ha comunicado el resultado de su trabajo: un chip que presta el diseño de nuestra red neuronal, siendo capaz de responder a los estímulos sensoriales y al reconocimiento de patrones.

La innovación de IBM asienta los fundamentos de una nueva generación de arquitectura computacional inspirada en la estructura cerebral, cuya capacidad de “pensar, actuar y percibir” acortará más la distancia entre el modelo de inteligencia artificial e inteligencia humana.

Reinventando el modelo John von Neumann

La divergencia entre el funcionamiento del cerebro y los ordenadores actuales siempre ha sido un aspecto intrigante que ha impulsado a los científicos de la computación a estudiar nuevas formas de mejorar los ‘cerebros’ de los ordenadores. El centro de investigación de IBM no ha querido perderse nada del gran viaje que cambiará el futuro de la tecnología actual así que se convirtió en una de las empresas pioneras en investigar los secretos de la capacidad cognitiva trasladada a las máquinas inteligentes.

En 2012 sus especialistas dieron un paso muy importante en este campo al presentar por la primera vez el superordenador Sequoia, considerado la más potente simulación cerebral realizada jamás ya que reunía la fuerza de 2.084 mil millones representaciones de núcleos neurosinápticos. Después de dos años, el mismo equipo da otro paso decisivo y en lugar de adaptar los algoritmos inspirados de la actividad cerebral a la computación tradicional inventan desde la base un chip que imita la actividad de las redes neuronales humanas.

Según el científico que lidera el proyecto, Dharmendra Modha, la idea ha surgido de la necesidad de replantear el sistema informático heredado de John von Neumann, un matemático que ha puesto las bases de la arquitectura computacional clásica. Modha está convencido de que los ordenadores actuales, además de cálculos matemáticos precisos se podrían mejorar al adaptarse a la inteligencia  adaptativa del cerebro humano:
“El cerebro evolucionó hace millones de años para solucionar los problemas básicos: conseguir comida, luchar, evitar los peligros, reproducirse y está destinado a manejar datos de baja resolución, ambiguos y simbólicos. Integra memoria (sinapsis) y computación (neuronas), tiene un procesamiento distribuido, gestiona los datos en paralelo, puede aprender, opera de forma asíncrona, es lento y por lo tanto no gasta energía y tampoco se sobrecalienta”.
IBM

Una arquitectura que imita la escalabilidad del cerebro humano

Para reducir la brecha entre el bajo consumo de energía de la actividad cerebral y los ordenadores actuales, los científicos de IBM han usado las técnicas de la nanotecnología y neurociencia para crear una arquitectura informática escalable y eficiente.
El chip llamado TrueNorth está formado por una red bidimensional de 4.096 núcleos neurosinápticos digitales, dónde cada núcleo integra memoria, procesamiento y comunicación y opera según un modo de computación paralela, dirigida por eventos y con tolerancia a fallos.

Igual que el modelo neuronal humano, la arquitectura del chip seguirá funcionando incluso si falla alguno de los núcleos individuales. Su escalabilidad le permitirá ampliar las conexiones entre los núcleos hasta formar un mosaico sin interrupciones, construyendo los pilares de una futura supercomputación neurosináptica.
“IBM ha sentado las bases de una computación inspirada en el el cerebro humano, en los términos de una arquitectura de computación radicalmente nueva, a una escala sin precedentes, una velocidad, eficiencia, energía y capacidad de adaptación incomparables”, comenta Modha.
aplicacioneschip

La tecnología del futuro ‘sentirá’ la realidad igual que nosotros

Con el fin de facilitar el trabajo de los futuros desarrolladores IBM ha creado un ecosistema completo que abarca un simulador del chip, un lenguaje de programación, una librería, algoritmos y aplicaciones. El ecosistema soporta todos los aspectos del ciclo de programación desde el diseño hasta el desarrollo, la depuración y el despliegue.
En cuanto a las futuras aplicaciones, Dharmendra Modha cree que su nuevo chip permitirá construir ordenadores igual de eficientes que el cerebro humano y que no consumen más que una bombilla (70 milivatios). Este piensa que la tecnología basada en el procesamiento neurosináptico podrá transformar la movilidad y el Internet de las cosas a través de la percepción sensorial:
“En el futuro estos chips se podrían convertir en la alternativa de energía eficiente para gafas que ayuden a navegar a las personas invidentes, ‘ojos’ que dejen ver a los robots y a los coches, sistemas médicos que monitoricen la tensión arterial, la temperatura y el nivel de oxígeno de las personas mayores y que envíen alertas antes de producirse algún problema o sistemas que midan el nivel de marea y velocidad del viento para predecir los tsunamis”.
Por último Modha espera que el futuro tecnológico esté destinado a una simbiosis entre los chips cognitivos y los tradicionales “para enfrentarse al contexto real de la misma manera que lo hacemos nosotros”.

Fuente:

TicBeat

12 de marzo de 2014

Generan un modelo matemático preciso de las células nerviosas del cerebro

Un modelo matemático capaz de describir con toda exactitud el complejo comportamiento de las células nerviosas del cerebro ha sido desarrollado por el matemático británico Ivan Tyukin. Su método permite la “copia” automática de neuronas simuladas a través circuitos artificiales y proporciona muestras electrónicas de comportamiento casi idéntico al de las neuronas vivas, creando así una nueva interfaz entre el tejido biológico y los sistemas mecánicos.


La dinámica de las células.

La dinámica de las células.
El matemático de la Universidad de Leicester, Ivan Tyukinn, en colaboración con científicos de Japón y de los Países Bajos, ha desarrollado una nueva técnica que permite generar modelos matemáticos que describen de manera precisa el verdadero comportamiento de las células nerviosas del cerebro, informa la mencionada universidad en un comunicado.

El desarrollo de estos modelos requiere de información detallada de la dinámica de los elementos responsables de la generación de pulsos (spike) en la célula. En neurociencia, basta un disparo de potencial de acción de duración entre 3 y 5 milisegundos (casi un pulso) a través de una brecha sináptica, para lograr excitar a la neurona post-sináptica.

La barrera principal entre los modelos matemáticos y la realidad es que la mayoría de las variables intrínsecas de las células vivas no puede observarse de manera directa. Un modelo matemático es una traducción de la realidad física para poder aplicar los instrumentos y técnicas de las teorías matemáticas para estudiar el comportamiento de sistemas complejos, y posteriormente hacer el camino inverso para traducir los resultados numéricos a la realidad física.

Generalmente, los modelos matemáticos introducen simplificaciones de realidad, especialmente en la modelización de la dinámica celular. Sin embargo, Ivan Tyukin y sus colegas han conseguido crear un método que permite reconstruir de forma automática las variables múltiples y todavía no conocidas que describen las dinámicas celulares, haciendo uso únicamente de los registros de la actividad eléctrica de respuesta de las células.

Variables múltiples

Una función biológica rara vez es el producto de una única macromolécula, sino que generalmente es el resultado de la interacción de un grupo de macromoléculas, como son los genes o las proteínas.

La comprensión de los complejos mecanismos de las células requiere una modelización de todas las interacciones entre macromoléculas que ha dado origen a una nueva ciencia transversal llamada biología de sistemas.

El trabajo de Tyukin y sus colegas forma parte de esta línea de investigación y representa un avance en la comprensión de los principios ocultos de los cálculos del cerebro biológico. Asimismo, explora vías alternativas de manipulación e incremento de las funciones cerebrales, según la mencionada Universidad.

Copia automática de neuronas

La “copia” automática de neuronas simuladas a través circuitos artificiales (y, potencialmente, a través de micro-chips) proporcionará muestras electrónicas de comportamiento casi idéntico al de las neuronas vivas, creando una nueva interfaz entre el tejido biológico y los sistemas mecánicos.

El Dr. Tyukin señala al respecto que “la técnica desarrollada permitirá la creación de nuevas interfaces cerebro-máquina. Las neuronas artificiales pueden conectarse fácil y electrónicamente con las máquinas. Por otro lado, al ser copias lo suficientemente parecidas a sus similares biológicas, podrán comunicarse con las células biológicas.”

“Por otro lado, añadió, la detección y el rastreo de los cambios instantáneos de las variables internas responsables de la generación de pulsos en las células, como una función derivada de la estimulación química externa, servirá para desarrollar técnicas matemáticas para el estudio sistemático de las señales extrasinápticas, que suponen más del 75% de las comunicaciones entre neuronas en algunas áreas del cerebro”.

La transmisión sináptica es una forma de comunicación en red entre neuronas que tradicionalmente se ha considerado el principal mecanismo para el procesamiento de información en el cerebro.

Mayor control del cerebro

Sin embargo, estudios recientes han señalado la importancia de la acción extrasinápitca de los transmisores químicos, que podría suponer una comprensión adicional de cómo las señales son transferidas y transformadas por éste.

Según Tyukin, la comprensión y los modelos matemáticos ajustados para este fenómeno permitirá progresar en el conocimiento de los principios físicos que subyacen a los cálculos del cerebro biológico.

Además, el conocimiento detallado de cómo puede variar la función del cerebro si modificamos los parámetros de difusión (por ejemplo, cambiando el volumen extra celular o añadiéndole algunas moléculas largas), permitirá un grado extra de control del cerebro que sería potencialmente importante para fines médicos, como cuando se quiera proteger la raíz de un foco de infarto con una barrera.

En este proyecto, además de Ivan Tyukin, del Departamento de Matemáticas de la Universidad de Leicester, en el Reino Unido, han participado el profesor Cees van Leeuwen, el profesor Alexey Semyanov y el doctor Inseon Song del RIKEN Brain Science Institute de Japón, que han proporcionado la experiencia neurofisiológica y los registros de actividad neuronal. Asimismo, ha participado también el profesor Nijmeijer y Eric Steur, de la Universidad Tecnológica de Eindhoven (en los Países Bajos), que actualmente trabajan en la realización electromecánica de los modelos, así como en el estudio de su sincronía.

Tomado de:

Tendencias21

7 de agosto de 2013

Nunca dejes de aprender… o empezarás a desaprender

Uno de los descubrimientos más revolucionarios y recientes de la neurociencia a propósito del aprendizaje es que, independientemente de la edad, nunca es tarde para aprender, y que ese aprendizaje influye profundamente en la configuración anatómica de nuestro cerebro. Aprender cosas nuevas, ejercitar nuestras capacidades cognitivas, nos cambia de un modo observable incluso en períodos de corta duración.

Hasta hace poco, pues, se consideraba que los 20 años era más o menos la edad en la que nuestro cerebro establecía conexiones neuronales más o menos fijas. Pero esto no parece ser así. Nuestro cerebro, si así lo queremos, puede cambiar hasta edades muy avanzadas.

Por ejemplo, practicar malabares durante tres meses produce un incremento de la sustancia gris de ambos hemisferios cerebrales, en la región temporal media y en el surco intraparietal posterior izquierdo (áreas asociadas al procesamiento y retención de información visual compleja del movimiento), aunque los practicantes ya sean adultos.

Incluso algo tan comúnmente considerado propio de edades infantiles como es la capacidad de aprender idiomas nuevos, sigue modificando la morfología cerebral en edades provectas, tal y como explica Maria Kunnikova en ¿Cómo pensar como Sherlock Holmes?:
A un grupo de adultos que asistieron a un curso intensivo de nueve meses de chino moderno, se les reorganizó progresivamente la sustancia blanca cerebral (según mediciones mensuales) en las áreas del lenguaje del hemisferio izquierdo y en las correspondientes del derecho, así como en el genu (extremo anterior) del cuerpo calloso, la red de fibras neuronales que conecta los dos hemisferios.

Si no usas tu cerebro, te atontas

Puede resultar muy prometedor descubrir que si ejercitamos nuestro cerebro, si nos enfrentamos a nuevos retos cognitivos, si no perdemos el anhelo de aprender, independientemente de nuestra edad, podremos cambiar nuestro cerebro a mejor. Pero ello tiene una contrapartida: si no lo hacemos, nuestro cerebro cambiará a peor.

Ignoro si ello tendrá relación con el hecho de que muchos conocidos, una vez abandonada la época universitaria, parecen cada vez menos brillantes e ingeniosos, como si hubieran puesto el piloto automático vital y se condujeran por la vida en modo zombi, en plan “me levanto, voy a trabajar en algo monótono y aburrido, recojo a los niños del colegio, veo un programa tonto en la tele, y a la cama”. Pero lo cierto es que nuestro cerebro desaprende si no lo empleamos con tanto ahínco, como un músculo que se atrofia.

Por ejemplo, en el anterior ejemplo de los practicantes de malabarismos, tras abandonar la práctica y transcurrir un tiempo, los escáneres revelaban que la sustancia gris, que tan pronunciada era durante el entrenamiento, había menguado drásticamente.

Todo aquel entrenamiento había empezado a esfumarse, no solo a nivel práctico, sino incluso a nivel neuronal. Es decir, que si no estamos reforzando conexiones neuronales, las estamos perdiendo.
Nosotros podemos poner punto final a nuestra educación, si así lo decidimos. El cerebro, nunca. Seguirá reaccionando al uso que queramos darle. La diferencia no está entre aprender o no, sino en qué y cómo. Podemos aprender a ser pasivos, a abandonarnos, en definitiva, a no aprender, como igualmente a ser curiosos, a buscar, a seguir aprendiendo cosas que igual ni siquiera sabíamos que necesitábamos saber.

Fuente:

Xakata Ciencia

19 de febrero de 2013

El mapa más detallado del cerebro humano

Escáner del cerebro

Con este proyecto los científicos esperan comprender cómo funciona la mente humana.

Un grupo de científicos se prepara para presentar los primeros resultados de un proyecto diseñado para crear el primer mapa detallado del cerebro humano.

Este proyecto podría ayudar, por ejemplo, a saber por qué algunas personas tienen más habilidades que otras para la ciencia, la música o el arte.

Las primeras imágenes de la investigación se dieron a conocer en la reunión de la Asociación Estadounidense para el Avance de la Ciencia celebrada en Boston.
 
Tuve la oportunidad de descubrir cómo los científicos están desarrollando nuevas técnicas para crear imágenes del cerebro sometiéndome yo mismo a un escáner.

Los científicos del Hospital General de Massachusetts están llevando hasta el límite la creación de imágenes cerebrales, utilizando escáneres construidos especialmente para este propósito que se encuentran entre los más potentes del mundo.

Los imanes de los escáneres necesitan 22MW de electricidad para funcionar, lo mismo que un submarino nuclear.

Antes de someterme al escáner, los investigadores me preguntaron si prefería el que dura 10 minutos o el de 45 minutos, que daría como resultado uno de los escáneres más detallados jamás realizados. Sólo se han llevado a cabo una cincuentena de ellos en todo el mundo.

Opté por el escáner de 45 minutos.

Fue una experiencia agradable estar atrapado entre los dos imanes gigantes, mientras los potentes y cambiantes campos magnéticos buscaban las pequeñas partículas de agua que viajan a través de las fibras nerviosas.

Siguiendo estas partículas, los científicos que se encontraban en la sala adyacente fueron capaces de detectar las principales conexiones de mi cerebro.

Imagen en 3D

Escáner del cerebro

Las imágenes revelan las conexiones más importantes del cerebro en vivos colores.

El resultado fue una imagen en 3D que reveló las conexiones más importantes de mi cerebro en vivos colores.

Uno de los científicos que encabeza el proyecto, me hizo un tour guiado por el interior de mi cabeza. 

Me enseñó la conexión que me ayuda a ver y otra que me ayuda a comprender el habla. Se podían ver los arcos gemelos que procesan mis emociones y la conexión entre el lado derecho e izquierdo de mi cerebro.

El profesor Wedeen utilizó un software de visualización que le permitió viajar entre las diferentes conexiones e incluso centrarse en los pequeños detalles.

Con este proyecto esperan comprender cómo funciona la mente humana y qué sucede cuando algo no va bien.

"Existen todos estos problemas de salud mental y nuestra forma de intentar comprenderlos no ha cambiado en casi 100 años", asegura Wedeen.

"No contamos con métodos de creación de imágenes como las del corazón para saber lo que no funciona en el cerebro. ¿No sería fantástico si pudiéramos meternos allí y verlo todo para poder aconsejar a la gente sobre los riesgos que tienen y cómo podemos ayudarles a superar esos problemas?", se pregunta el científico.

La tecnología de creación de imágenes del cerebro está siendo desarrollada para un proyecto encabezado por Estado Unidos llamado Proyecto de Conectoma Humano (HCP, por sus siglas en inglés).

Igual que con el Proyecto del Genoma Humano, los datos que se obtengan serán entregados a los científicos a medida que los escáneres sean procesados. Los primeros datos de entre 80 y 100 personas serán hechos públicos en unas semanas.

El HCP es un proyecto de cinco años financiado por los Institutos Nacionales de Salud de EE.UU. Su objetivo es mapear todo el sistema de conexiones neurológicas humanas escaneando el cerebro de unas 1.200 personas.

Los investigadores también recogerán información genética y de comportamiento de los sujetos para construir una imagen completa de los factores que influencian a la mente humana.

Cambios constantes

Escáner del cerebro

El diagrama del cableado del cerebro no es fijo.

El diagrama del cableado del cerebro no es como el de un aparato electrónico, que es fijo. Se cree que, tras cada experiencia, ocurren cambios, por lo que cada mapa cerebral es diferente en cada persona. Un registro en cambio permanente de lo que somos y lo que hemos hecho.

Según explica el doctor Tim Behrens, de la Universidad de Oxford, el HCP será capaz de comprobar la hipótesis de que las mentes difieren igual que las conexiones.

"Probablemente aprenderemos mucho sobre el comportamiento humano".

"Algunas de las conexiones entre las diferentes partes del cerebro pueden ser diferentes en gente con personalidades y habilidades diferentes. Por ejemplo, existe una conexión en las personas a las que les gusta asumir riesgos y otra en aquellas a las que les gusta jugar sobre seguro".

"Así que seremos capaces de decir a qué personas les gusta el paracaidismo y cuáles prefieren quedarse en casa viendo la televisión".

"Será una fuente increíble para la neurociencia, ya que ayudará a entender cómo funciona el cerebro", concluye Behrens.

El profesor Steve Petersen, quien trabaja para el HCP en la Universidad de Washignton, quiere identificar las diferentes partes del cerebro que tienen algo que ver en nuestra habilidad para solucionar problemas científicos, para concentrarnos y para guardar información en la memoria.

"La parte romántica de todo esto es que estamos adentrándonos en nuestro lado humano", asegura Petersen.
Fuente:
BBC Ciencia

10 de enero de 2013

El cerebro adulto no tiene problemas para aprender, sino para olvidar

recordarA medida que envejecemos, nos resulta más costoso aprender idiomas, memorizar datos... Un estudio del Medical College de Georgia (EE UU) sugiere que es debido a que el cerebro pierde la capacidad de filtrar solo lo relevante y de eliminar información vieja y obsoleta, más que a las dificultades para almacenar nuevos contenidos.

Según explica el neurocientífico Joe Z. Tsien en la revista Scientific Reports, este fenómeno guarda relación con el funcionamiento del receptor NMDA del hipocampo del cerebro, que se comporta como un interruptor para el aprendizaje y la memoria. Cuenta con dos subunidades: NR2B, que se expresa más en niños y permite a las neuronas comunicarse durante más tiempo; y NR2A, que empieza a aumentar su ratio a partir de la pubertad y va ganándole terreno al NR2B a medida que envejecemos. Simulando las proporciones propias de un adulto en ratones -es decir, más NR2A y menos NR2B-, los científicos comprobaron que los animales no eran capaces de debilitar selectivamente ciertas conexiones neuronales ya existentes (un proceso llamado "depresión a largo plazo"). Sin embargo, su cerebro conserva intacta la capacidad para establecer conexiones neuronales y formar recuerdos a corto plazo.

“Lo que vemos es que si en el cerebro solo se fortalecen sinapsis y nunca se liberan del ruido que crea la información que ha dejado de ser útil, surgen serios problemas”, aclara Tsien. Esto dejaría a las neuronas sin posibilidad de seguir “esculpiéndose” para almacenar información nueva. Y podría estar relacionado con el alzhéimer y la demencia senil.
 


Fuente:

Muy Interesante

1 de diciembre de 2012

IBM simula 500 mil millones de neuronas y 100 billones de sinapsis

En una simulación neuronal sin precedentes, IBM ha logrado simular 500 mil millones de neuronas y 100 billones de sinapsis. Para ello ha utilizado Sequoia, el segundo superordenador más grande del mundo con millón y medio de núcleos. Esto es una proeza computacional, pero tiene poco que ver con la neurociencia. Veamos por qué.

Neuronas

El departamento de Cognitive Computing de IBM en Almaden dirigido por Dharmendra S. Modha lleva unos años realizando asombrosas simulaciones en el contexto del proyecto DARPA SyNAPSE. Como parte de este proyecto, anunció la simulación a la escala del córtex de un ratón, luego de una rata y más tarde de un gato.

El objetivo de este programa es crear un chip neurosináptico que supone una ruptura con la arquitectura tradicional de los ordenadores. Esta arquitectura es la llamada Von Neumann que usan la totalidad de los ordenadores en la actualidad, incluidos móviles y tarjetas. En la arquitectura Von Neumann la memoria está separada del procesador, el hardware del software y los programas están separados de los datos. Ha sido muy exitosa mientras se cumplía la miniaturización de componentes expresada en la ley de Moore: cada dos años se duplica el número de transistores en un espacio dado. El problema es que estamos llegando a los límites del átomo y que la ley dejará de cumplirse.

Chip Neurosinaptico

El chip neurosináptico es una ruptura total con la arquitectura Von Neumann. Se basa en el diseño de las neuronas en las que no hay distinción entre hw y sw, programas y datos, memoria y procesador. El chip consiste en una matriz de neuronas y entre sus cruces se realizan las sinapsis. De este modo, cada sinapsis del chip es hw y sw, proceso y memoria, programa y datos. Dado que todo está distribuido, no es necesaria un miniaturización tan extrema y sobre todo, un reloj tan rápido. Frente a los actuales gigahercios de frecuencia, las neuronas se disparan a un hercio, y en el caso del chip a 8 hercios. Además, los procesadores son clock driven, es decir, actúan bajo la batuta del reloj mientras que las neuronas son event driven, actúan solo si hay actividad que realizar.

Uno de los objetivos es reducir el consumo eléctrico. Un cerebro consume lo que una bombilla pequeña, 20 vatios. Un superordenador consume cientos de megavatios. El nuevo chip tiene un consumo muy reducido. Estos chips están construidos con tecnología de silicio clásica CMOS.

La arquitectura de muchos chips neurosinápticos unidos se ha llamado TrueNorth. Ya existe en desarrollo un chip de 256 neuronas, 1024 axones, y 256×1024 sinapsis.

El chip sin embargo no está en producción masiva. Para seguir trabajando en paralelo al desarrollo, se ha realizado la prueba actual. Para ello se ha usado un simulador llamado Compass. Compass traduce el comportamiento de un chip neurosináptico (no Von Neumann) a un ordenador clásico (Von Neumann). Usando Compass se ha simulado (pdf) el comportamiento de 2.000.000.000 chips. Esto supone 500 mil millones de neuronas y 100 billones de sinapsis, cifras por completo astronómicas. El resultado de la simulación se ha ejecutado 1.542 veces más lento que en tiempo real.

Conexiones Macaco con Chip

Para realizar la simulación se ha usado el segundo superordenador más grande del mundo, Sequoia un Blue Gene/Q de 96 armarios con 1 millón y medio de núcleos y 1,5 petabytes de memoria. Uno de los objetivos de la simulación es ver el escalado. Un problema habitual es que que cuando añadimos más cores, el sistema no funciona proporcionalmente más rápido. En el extremo, añadir más cores no aumenta el rendimiento: el sistema escala mal. Imagina un camarero atendiendo detrás de la barra. Si hay un segundo camarero, irán más rápido, pero no el doble. Si sigues añadiendo camareros, llegará un momento en que no aumente la eficiencia, incluso se verá reducida. El sistema escala mal. Pues bien, en la simulación realizada el escalado ha sido casi perfecto lo que es muy satisfactorio computacionalmente.

¿Qué tiene esto que ver con la neurociencia y el cerebro? Bien poco. La simulación no imita ningún comportamiento animal ni cognitivo ni humano. Para simular el comportamiento del cerebro, necesitamos saber cómo funciona y eso está lejos de lograrse. Para cuando llegue ese conocimiento debemos tener preparados ordenadores que sean capaces de simularlo y en este contexto se enmarca la presente investigación. Aunque no solo; la idea de diseñar estos nuevos chips es ponerlos en producción en aplicaciones comerciales tradicionales dando una gran potencia con un bajo consumo. La simulación del cerebro deberá esperar aún alguna década.

Fuente:

ALT1040

5 de octubre de 2010

Somos nuestro "conectoma" (el mapa de nuestras conexiones neuronales)


Caenorhabditis elegans es una especie de nematodo rabdítido familia Rhabditidae que mide aproximadamente 1 mm de longitud, y vive en ambientes templados. Ha sido un importante modelo de estudio para la biología, muy especialmente la genética del desarrollo, a partir de los años 70.

¿Qué somos los seres humanos? ¿De qué están hechos nuestros pensamientos? ¿Dónde se almacenan nuestros recuerdos? Los lectores más avezados habrán escuchado hablar en los últimos meses del denominado proyecto Conectoma, un intento de diseñar un mapa preciso de las conexiones neuronales de nuestro cerebro. Igual que se desentrañó el Genoma, este grupo de científicos pretende desenredar esta inmensa madeja neuronal conexión a conexión en busca de una respuesta a todas estas cuestiones.

Pero el reto es complejo y difícil de explicar. Por eso esta charla de Sebastian Seung en los TED Talks tiene un valor divulgativo incalculable. Su viaje empieza con un nemátodo microscópico que apenas contiene 300 neuronas, continúa por una insignificante sinapsis en un cerebro de ratón y se abre a través del árbol de neuronas hasta mostrarnos a escala las dimensiones del bosque.

Hace algunas décadas los científicos consiguieron identificar cada una de las 300 neuronas de ese pequeño nemátodo llamado Caenorhabditis elegans y trazar el único mapa neuronal completo (o conectoma) hasta la fecha. Teniendo en cuenta que el nemátodo cuenta con apenas 7.000 conexiones, y que cada milímetro cúbico de nuestro córtex cerebral contiene aproximadamente 1.000 millones de sinapsis, ¿cuánto costaría trazar el mapa del cableado de nuestro cerebro? La aventura se antoja ambiciosa.

Como explica Seung, la base del proyecto se asienta sobre la vieja hipótesis de que nuestros recuerdos están “almacenados en la conexiones entre neuronas” y que “quizá otros rasgos de nuestra personalidad están codificados ahí”. Esto no quiere decir que estemos predeterminados por nuestras estructuras neuronales, puesto que la propia actividad neuronal modifica la red a cada momento y el mero hecho de mirar o pensar la altera y la hace única.

El laboratorio de Seung y otros como el suyo están escaneando cada milímetro del cerebro e identificando cada conexión mediante diferentes colores con la esperanza de obtener un mapa completo. “Algún día”, asegura, “una flota de microscopios capturará cada neurona y cada sinapsis en una inmensa base de datos de imágenes, y la inteligencia artificial de las supercomputadores analizará las imágenes para resumirlas en un conectoma.”

¿Conseguiremos entonces comprendernos mejor a nosotros mismos? ¿Tejeremos y destejeremos la estructura del cerebro a nuestro antojo y crearemos alguna inteligencia artificial que lo imite? ¿Viviremos para siempre conservando la estructura de nuestras conexiones? Sobre esto hay puntos de vista más y menos optimistas, pero no cabe duda de que pocos debates científicos son tan apasionantes y tienen tantas ramificaciones como éste.

Fuente:

Amazings

25 de abril de 2010

Descubren nueva forma de analizar las señales neuronales

Domingo, 25 de abril de 2010

Descubren nueva forma de analizar las señales neuronales

Los neurocientíficos descubren una nueva forma de determinar el contenido de la información que contienen los trenes de estímulos neuronales.

Uno de los grandes retos de la neurociencia moderna es entender cómo las neuronas transmiten y procesan la información. El problema es que nadie está de acuerdo realmente en cómo definir el contenido de información de una señal neuronal, una serie de señales eléctricas conocidas como tren de estímulos.

Un enfoque de esto es preguntarse el número de bits necesarios para reproducir exactamente el tren de estímulos. Esto nos da el contenido algorítmico de la señal. Pero está lejos de ser satisfactorio, porque los trenes de estímulos neuronales parecen contener grandes cantidades de ruido. Reproducirlos requiere un gran número de bits que son supuestamente irrelevantes en el más amplio sentido de la palabra.

Hoy, Robert Haslinger del Hospital General de Massachusetts en Charlestown y algunos de sus colegas proponen un nuevo método de describir las señales neuronales.

Su enfoque consiste en distinguir el contenido aleatorio de una señal neuronal, que no puede ser generado por un algoritmo, de su estructura estadística, que sí puede serlo. Posteriormente crean ese algoritmo.

Haslinger y sus colegas dicen que este nuevo enfoque da una medida de la complejidad de la señal neuronal, una manera útil de determinar la naturaleza de cualquier procesamiento de información que pueda estar ocurriendo.

La principal ventaja de este proceso sobre otras maneras de medir el contenido de información de las señales neuronales es que muestra claramente cuándo y cómo cambia la estructura de cálculo de la señal.

Haslinger y sus colegas ya han probado la técnica usando señales neuronales simuladas y datos reales de cerebros de ratas.

Este trabajo es otro pequeño avance de la gran máquina científica que los neurocientíficos están creando para terminar con el problema de la codificación neuronal. Y si bien estos esfuerzos son loables, es complicado observar su limitado progreso sin tener en cuenta que esta gente está pasando por alto una parte importante del problema.

Un aspecto que puede ser de ayuda es la cada vez más seria consideración del papel del entorno en el cómputo biológico. La idea es que sólo es posible dar sentido a los sistemas de procesamiento de información biológica considerando su interacción con el entorno y la información que éste contiene.

Un buen ejemplo del papel que desempeña el entorno en los cálculos es la gota de aceite “inteligente” que sabe recorrer su camino a través de un laberinto y que fue desarrollada por un equipo de la Universidad del Noroeste hace unos meses. Un vídeo de este proceso muestra la gota aparentemente reflexionando en las bifurcaciones del laberinto, haciendo diversos giros erróneos para volver luego sobre sus pasos y, finalmente, llegar al centro. Verdaderamente parece inteligente.

Sin embargo, no es nada de eso. El laberinto se encuentra inmerso en un líquido alcalino y se coloca en el centro una gota de gel ácido. El gradiente químico que esto crea cambia la tensión superficial sobre la gota que repele la superficie del líquido y esto genera una fuerza que empuja la gota hacia delante.

Por supuesto, la gota es completamente tonta. Cualquier estudio de su capacidad de procesar información y resolver laberintos sería inútil.

Aquí, toda la información está en el entorno y el comportamiento de la gota no tiene sentido sin él.

La importancia del entorno en la computación es una idea que algunos especialistas en robótica están empezando a abordar. Quieren usarlo para diseñar máquinas que utilicen la información contenida en el entorno en lugar de ignorarla. Y el éxito que están teniendo está poniendo de relieve cómo, obviamente, la evolución ha aprovechado este truco en particular durante eones.

Es un truco que tal vez los neurocientíficos puedan aprender también.

Fuente:

Ciencia Kanija

10 de septiembre de 2009

Nuestro cerebro funciona como una gran ciudad

Jueves, 10 de septiembre de 2009

Nuestro cerebro funciona como una gran ciudad


Autopista en Los Ángeles. El número de carreteras de una gran ciudad y el número de sinapsis neuronales es muy similar.

La organización de una gran urbe puede parecer caótica, pero de algún modo consigue que cada cosa llegue a donde se necesita y que el conjunto funcione sin incidencias la mayoría de los días. Lo mismo podría decirse de nuestro cerebro, según sugieren el neurobiólogo Mark Changizi y sus colegas en el último número de la revista Complexity. “La selección natural ha guiado la evolución del cerebro de los mamíferos del mismo modo que políticos y empresarios han dado forma a las pequeñas y grandes ciudades”, afirma Changizi. “Ambos necesitan determinada densidad de interconexiones para funcionar correctamente”.

Por ejemplo, si comparamos el cerebro de un perro y el de un humano, vemos que no este último no sólo ha crecido hasta duplicar en tamaño al primero. También ha desarrollado muchas más sinapsis, que conectan a más neuronas entre sí. En términos matemáticos, Changizi ha demostrado que la proporción entre la superficie que ocupan un cerebro o una ciudad y el número de conectores (neuronas y autopistas respectivamente) es sorprendentemente similar. Y que cuando la ciudad o el neocórtex (la zona de la corteza cerebral más “moderna” evolutivamente hablando) crecen, esta escala siempre se mantiene.

Por si esto fuera poco, analizando 60 ciudades norteamericanas Changizi y su equipo descubrieron que el número de autopistas de salida en una metrópolis y el número de sinapsis neuronales del neocórtex son muy parecidas. Prácticamente la única diferencia entre ambas redes de interconexiones, según los científicos, es que las neuronas conducen información, mientras que las autopistas y carreteras transportan personas y materiales.

Fuente:

Muy Interesante

12 de diciembre de 2008

El cerebro procesa tareas "en serie"

Especial: Aprendizaje

El cerebro procesa tareas "en serie"


Pero cuando hay que decidir dos cosas simultáneamente, la que se deja para después queda intacta





Mientras usted está leyendo este artículo, su cerebro se encuentra efectuando millones y millones de operaciones en paralelo para controlar y coordinar innumerables funciones vitales. Pero, curiosamente, si su mente tuviera que ejecutar rápidamente tan sólo dos instrucciones simultáneas se encontrará en problemas.

De hecho, el cerebro no puede procesar dos órdenes en el mismo instante, porque solamente dispone de un único "puente" entre el módulo que percibe el estímulo y el que lo ejecuta. En otras palabras, mientras la mente está ocupada tomando una decisión, las demás decisiones tienen que esperar.

No obstante, el cerebro resuelve este "cuello de botella" y, de acuerdo con los resultados de un trabajo científico publicado en la revista Plos ONE , parece que lo hace muy bien: "Cuando tenemos que decidir dos cosas al mismo tiempo, el cerebro las procesa en serie. Y el resultado crítico de nuestra investigación es que comprobamos que el proceso que queda para más tarde está intacto, es decir, se ejecuta exactamente de la misma manera que si no hubiera otro proceso interfiriendo", revela el doctor Mariano Sigman, investigador del Conicet en el Departamento de Física de la Facultad de Ciencias Exactas y Naturales de la Universidad de Buenos Aires.

Para arribar a esta conclusión, Sigman, junto con el físico Juan Kamienkowski, el otro autor del estudio, diseñaron un experimento de interferencia: sentaron frente a una computadora a 16 jóvenes de edades similares para que respondan, lo más rápidamente posible, a dos tipos de estímulos simultáneos: uno visual y otro auditivo.

En el primer caso, debían decidir si la cantidad de puntos que se les presentaba en la pantalla era mayor o menor que 20 y, de acuerdo con eso, apretar una u otra tecla con dos dedos de una mano. En el segundo caso, debían discriminar si un sonido era agudo o grave tocando otras dos teclas con los dedos de la otra mano.

"Observamos que, independientemente de cuál de los dos estímulos eligieron responder primero, una vez que el cerebro se comprometió con esa decisión, hay un tiempo de entre 200 y 300 milisegundos en que no puede tomar otra decisión.

"Ese es el lapso en que el puente que conecta la percepción con la acción está ocupado", explica Kamienkowski. Según el investigador, ése es un "tiempo de ambigüedad", porque en ese intervalo "no se puede saber a qué estímulo se responderá primero".

Para Sigman ese período refractario, en el cual el cerebro está ocupado y es incapaz de tomar otra decisión, es muy pequeño como para afectar situaciones de la vida cotidiana: "Sólo en algún caso muy extremo podría originar un accidente", tranquiliza.

En la actualidad, Sigman y Kamienkowski exploran la posibilidad de aplicar estos experimentos de interferencia al diagnóstico precoz de algunas enfermedades psiquiátricas y neurológicas.

"Por ejemplo, la esclerosis múltiple se ve como un problema motriz, pero hay una evidencia bastante reciente de que las personas afectadas por esta enfermedad tienen un déficit cognitivo sutil temprano, que podría ser detectado con estos experimentos", infiere Sigman.

Apasionado por los misterios de la mente, Sigman destaca la importancia de estudiar la organización del pensamiento con el rigor de la física: "Tratamos a la psicología con el mismo estatus conque uno trata a los materiales". E inmediatamente remarca: "Para mí, el pensamiento es un objeto, como el cerebro, y la pregunta difícil es ¿cuál es el puente entre esas dos cosas?".

Centro de Divulgación Científica de la Facultad de Ciencias Exactas y Naturales de la UBA

Fuente:

Diario La Nación - Argentina


Lea también:

Mario Sigmano: La imagen del cerebro es el cerebro mismo

El proceso cerebral de aprender y recordar es cosa de dos

Especial: Aprendizaje

El proceso cerebral de aprender y recordar es cosa de dos


La flexibilidad de las comunicaciones entre neuronas (sinapsis) es la que permite que nuestro cerebro recuerde la información importante y olvide la insignificante. Una nueva investigación ha descubierto que este proceso de selección de recuerdos es inesperadamente complejo, porque implica por igual tanto a receptores sinápticos como a los emisores neuronales. Eso significa que el tratamiento de la información que realiza el cerebro no es exclusivo de los receptores sinápticos, ya que los emisores neuronales emergen cuando el flujo de información se debilita, desempeñando un papel crucial en nuestra capacidad para aprender y recordar cosas.


Por Yaiza Martínez.



Sólo cuando los terminales de transmisión (células rojas) y de recepción (células verdes) se encuentran en la proporción adecuada con respecto unos a otros, se puede producir la comunicación neuronal. Fuente: Max Planck Institute. 
 
Hasta ahora, se creía que en la comunicación entre las neuronas, a la que se denomina sinapsis, el papel activo en la reorganización del cerebro para adaptarse a los estímulos del mundo exterior lo llevaban a cabo sólo los receptores sinápticos.

Sin embargo, ahora, científicos del Max Planck Institute of Neurobiology de Martinsried, en Alemania, aseguran que esta idea no es correcta. Al parecer, la parte transmisora de la sinapsis de las células nerviosas también sería altamente adaptable.

A grandes rasgos, la sinapsis es un proceso que implica descargas químico-eléctricas (generadas en las membranas celulares de las neuronas). Estas descargas liberan unas moléculas denominadas neurotransmisores, que viajan de una neurona a otra.

Este proceso de comunicación entre las células nerviosas de nuestro cerebro es lo que nos permite, por ejemplo, recordar las cosas importantes y olvidar las banalidades, entre otras aptitudes de nuestra conciencia humana.

Flexivilidad y capacidad de aprender

La comunicación neuronal es de hecho la base del funcionamiento de nuestro cerebro. Cada una de los cientos de miles de millones de células nerviosas que tenemos es experta en el intercambio de datos, y mantiene conexiones con miles de neuronas vecinas.

A través de ese punto de contacto que es la sinapsis, la información neuronal fluye por un canal de una única dirección. El cerebro es capaz de realizar todas las complejas tareas que realiza sólo si las neuronas logran intercambiar la información correctamente.

Según explican los científicos del Max Planck Institute en un comunicado , la versatilidad de las sinapsis es lo que posibilita, además, que nuestro cerebro tenga una gran adaptabilidad y flexibilidad.

La mayoría de los científicos coinciden en opinar que el intercambio flexible de información entre las neuronas es lo que nos permite aprender y recordar.

Estudio simultáneo de receptores y emisores

Las sinapsis requieren de un receptor (elemento postsináptico) y de un emisor (el elemento presináptico). Los elementos postsinápticos más comunes en las neuronas son las espinas dendríticas, que son unas protuberancias con forma de hongo que se extienden desde la superficie del axón neuronal.

Este punto de contacto receptor, las espinas, juegan un papel activo en el ensamblaje y rotura de las nuevas sinapsis. Cuanta más información se procese, mayor número de nuevas bases receptoras generarán las células nerviosas.

Las nuevas espinas crecen en dirección a sus neuronas vecinas para formar nuevas sinapsis. Si el flujo de información se debilita, las sinapsis desaparecen, y las espinas se retrotraen. En comparación, solía creerse que el otro lado de la sinapsis (el emisor), conocido como botón axonal, sólo jugaría un papel pasivo en la formación de las conexiones.

Pero no es así. Tal y como explican los científicos en la revista especializada Neuron , las últimas tecnologías para el registro de imágenes cerebrales les han permitido examinar los reajustes estructurales que se producen durante los procesos de sinapsis, en ambos extremos de éstas simultáneamente.

Estudios anteriores se habían centrado en revisar los cambios estructurales de las espinas dendríticas pero, en este caso, el estudio pudo analizar además los botones axonales de células nerviosas con depresión de larga duración (LTD).

Uso de nuevas tecnologías

La LTD, en neurofisiología, se refiere al debilitamiento de una sinapsis neuronal durante horas o días. Se cree que la LTD es el resultado de cambios en la densidad del receptor postsináptico.

Utilizando un microscopio láser de excitación de dos fotones , los investigadores registraron la morfología sináptica y la actividad, durante más de cinco horas, en cultivos del hipocampo de ratones.

Los datos recogidos indicaron que hubo una contribución presináptica sustancial en la plasticidad morfológica del cerebro dependiente de la actividad sináptica. Según los científicos, ésta sería la primera vez en que se observa con éxito al mismo tiempo tanto la parte receptora como la terminal transmisora de la sinapsis durante un periodo extenso de tiempo.

Para conseguirlo, se coloreó una serie de neuronas con un tinte rojo fluorescente y se etiquetaron las células conectadas en verde. El microscopio especializado permitió revelar los cambios en ambos extremos de la sinapsis, en varias secuencias.

Número constante de transmisores

En definitiva, el experimento permitió detectar claramente que la unidad transmisora de las sinapsis juega un papel mucho más activo de lo que se creía en el ensamblaje y desintegración de dichas sinapsis.

Lo realmente sorprendente del experimento, señaló su director, el profesor Valentin Nägerl, es que, con todo, el número de transmisores se mantiene siempre constante. Aunque el número de sinapsis se reduce cuando el flujo de información se debilita, nuevos terminales transmisores emergen en otros lugares de una manera aparentemente simétrica.

Los científicos concluyen, por tanto, que el procesamiento de la información en el cerebro no es exclusivo solamente de los receptores sinápticos, sino que las células transmisoras también reaccionarían activamente y que, por tanto, juegan un importante papel en nuestra capacidad cognitiva adaptable.

Fuente:

Tendencias 21

Las neuronas de Pavlov

Especial: Aprendizaje

Las neuronas de Pavlov


  • Las células nerviosas convergentes son las responsables del aprendizaje
  • Un estudio publicado en 'PNAS' ha logrado visualizarlas por primera vez



Imagen de una neurona convergente

CRISTINA DE MARTOS

MADRID.- Todo empezó por casualidad. La simple observación de las ‘secreciones psíquicas’, como llamó Ivan Petrovich Pavlov a la salivación de los perros en ausencia de comida, condujo a este Premio Nobel ruso a realizar un importante descubrimiento: el condicionamiento clásico. Hoy, un siglo después de sus trabajos, un equipo de científicos ha descubierto qué neuronas son las responsables de ese aprendizaje.

El experimento de Pavlov es mundialmente conocido. Un perro, cuando recibe comida (estímulo incondicionado), saliva. Sin embargo, cuando oye una campana (estímulo neutro), no. Pero si asociamos ese sonido con la comida (tocamos la campana unos segundos antes de darle el alimento) el perro, al cabo de unas cuantas repeticiones, salivará con el simple tañer, que pasa de ser neutro a un estímulo condicionado.

"Una cuestión central de la neurociencia del comportamiento es averiguar cómo la actividad neuronal media los cambios conductuales que intervienen en el aprendizaje", señalan los autores del estudio publicado en la revista 'Proceedings of the National Academy of Sciences'. Pero identificar qué neuronas están detrás de esos procesos ha sido una meta esquiva, dadas las limitaciones que tiene 'per se' el estudio del cerebro y a que los fenómenos de condicionamiento suceden en un tiempo muy concreto.

Estos investigadores emplearon una sofisticada y novedosa técnica de imagen (Arc catFISH) que mide la actividad celular basándose en la transcripción de genes en un periodo de tiempo y lugar determinados.

El experimento consistió en una forma clásica de aprendizaje asociativo llamada aversión gustativa condicionada. Varios ratones sedientos bebían una solución de sacarina (estímulo condicionado) durante cinco minutos. Después de 25 minutos se les inyectaba una solución de cloruro de litio (estímulo incondicionado), que provoca malestar y náuseas en los roedores.

Cinco minutos después, observaron su cerebro. Los primeros datos indicaban un aumento de la actividad en dos zonas del cerebro: el córtex insular y el núcleo basolateral de la amígdala. Finalmente, sólo este último demostró desempeñar un papel clave en el aprendizaje.

Centros de convergencia de la información

Allí, un 8,4% de las neuronas respondió al estímulo condicionado (la sacarina) y un 11,4% al incondicionado (el cloruro de litio). Pero una pequeña población, algo más del 4%, se activaba tanto con uno como con otro. Son las llamadas neuronas convergentes, que "combinan la información sobre ambos estímulos y son críticas para el aprendizaje y la memoria", ha explicado a elmundo.es Ilene Bernstein, profesora de psicología de la Universidad de Washington y directora del estudio.

Estas células, que nunca antes se habían visto, "finalmente existen y permiten la convergencia de información sólo en condiciones que implican aprendizaje", añade. Es decir, que si se cambia el orden en el que se aplican los estímulos, algo que no tiene utilidad para aprender, estas neuronas de convergencia apenas se activan, tal y como han demostrado Bernstein y sus colegas. Tampoco 'funcionan' en los individuos previamente expuestos a los estímulos.

Su identificación abre la puerta a un mejor entendimiento de estos procesos. "Ahora habrá que averiguar más cosas sobre estas neuronas –apunta Bernstein-; qué señales bioquímicas generan y hacia dónde se dirigen". Próximo paso: condicionamiento del miedo, siguiente capítulo en la historia del aprendizaje clásico, firmado esta vez por John B. Watson, que basó sus experimentos en los trabajos de Pavlov.

Fuente:

El Mundo - Salud

3 de marzo de 2008

Registran por primera vez las conexiones neuronales que crean recuerdos.

Un tipo de sinapsis es más importante para el aprendizaje y el proceso de la memoria que otros

La manipulación genética de ratones ha permitido rastrear en laboratorio el camino seguido por un neurotransmisor durante la formación de recuerdos en estos animales. Los ratones aprendieron a temer y a recordar una caja en la que sufrían descargas eléctricas, mientras los investigadores registraban su actividad cerebral. Pudieron definir así por primera vez el tipo de conexiones neuronales que posibilitan los recuerdos, al menos los relacionados con el miedo. El estudio descubrió que un tipo específico de sinapsis es más importante para el aprendizaje y el proceso de la memoria que otros, al menos en lo que se refiere al proceso de formación de recuerdos relacionados con el miedo.

Por Olga Castro-Perea.


El fluorescente en verde y neuronas en azul. Scripps Research Institute.

Una nueva rama de ratones genéticamente modificados ha permitido a un equipo de científicos del Scripps Research Institute de Estados Unidos señalar, por primera vez, las conexiones neuronales específicas que se establecen a medida que se crean los recuerdos.

Lo han conseguido rastreando una proteína que, gracias a dicha manipulación genética, brillaba en color verde fluorescente a medida que circulaba por las neuronas individuales de los animales, desde el cuerpo celular hacia fuera de éste, a través de las dendritas. Los científicos pudieron distinguir así con exactitud qué sinapsis se producían cuando el ratón aprendía a temer a un estímulo eléctrico que se le suministraba en un entorno determinado, según informa la revista Technology Review.

La sinapsis es el contacto que se establece entre las neuronas o células nerviosas del cerebro, mediante el intercambio de neurotransmisores entre dichas neuronas. Mark Mayford, director de la presente investigación y profesor de biología celular del Scripps Research Institute, afirmó en un comunicado del mencionado instituto, que su equipo está desarrollando técnicas que le permitan estudiar las áreas cerebrales que realmente varían durante el proceso del aprendizaje, cada vez con mayor resolución.

Estímulo para el recuerdo

Los neurocientíficos creen que para que un recuerdo se forme, las conexiones sinápticas individuales deben ser reforzadas en respuesta a un estímulo generador de memoria. Este refuerzo parece ser consecuencia del movimiento de un conjunto de proteínas específicas hacia la sinapsis, siguiendo un patrón coreografiado con precisión, pero aún sigue siendo un misterio cuales son las proteínas implicadas en el proceso y cómo son dirigidas hacia su destino.

El presente estudio, que ha aparecido publicado en la revista Science, es el primero que traza el recorrido de una proteína particular hacia una sinapsis concreta.

La proteína estudiada es un receptor de glutamato, es decir, un neurotransmisor previamente relacionado con la formación de memoria. Los investigadores modificaron genéticamente a los ratones para que sus receptores de glutamato brillaran en verde bajo condiciones muy específicas y manipulables. Posteriormente, estos ratones fueron entrenados para esperar un estímulo eléctrico doloroso en sus patas siempre que eran colocados en el interior de una caja concreta.

El miedo es “un recuerdo de muy larga duración, muy contundente”, señala Mayford. Presumiblemente, las neuronas que se activaron cuando los ratones aprendieron a temer la caja de los electro-shocks serían las responsables de la formación de recuerdos de rechazo hacia dicha caja.

Sinapsis especiales

El receptor de glutamato marcado con fluorescencia fue modificado para que las neuronas lo fabricaran sólo cuando estaban activas. Así, el grupo pudo identificar qué neuronas contribuyeron a la formación de los recuerdos siguiendo el brillo verde. Por otro lado, los investigadores “desconectaron” completamente el sistema de “etiquetado” de la proteína administrando doxicilina a los ratones a lo largo de toda su vida, salvo cuando estaban aprendiendo, de manera que los científicos pudieron seguir la formación de estos recuerdos concretos.

El equipo de Mayford siguió el brillo del receptor de glutamato a medida que éste se movía por las neuronas, atravesando el área del hipocampo examinando capas del cerebro en diversos puntos temporales después de la tarea de aprendizaje. Descubrieron así que, después de que la proteína fuera producida en el núcleo, se trasladó hacia fuera a través de muchas de las dendritas de la célula hasta las sinapsis.

Y, sorprendentemente, esta proteína se alojó en una clase concreta de sinapsis, las propiciadas por proyecciones citoplasmáticas con forma de hongo, lo que supondría que un tipo específico de sinapsis sería más importante para el aprendizaje y el proceso de la memoria que otros, al menos en lo que se refiere al proceso de formación de recuerdos relacionados con el miedo.

Pero quedan más misterios por resolver, como el porqué de que el receptor “marcado” desaparezca de las sinapsis después de 72 horas, aún cuando que los recuerdos persisten durante mucho más tiempo. Otras proteínas y otras áreas del cerebro estarían, casi con toda seguridad, implicadas en la formación y el mantenimiento de recuerdos.

Nuevas investigaciones

La amígdala en particular probablemente juegue un papel clave. Mientras el hipocampo es esencial para la codificación de información sobre el lugar –en este caso, la caja donde se administraban los estímulos eléctricos desagradables-, la amígdala parece vinculada a aquella información a la respuesta de miedo producida por las descargas eléctricas a los ratones, señalan los investigadores.

En estudios anteriores sobre la amígdala usando ratones modificados genéticamente de manera similar, el grupo de Mayford demostró que las mismas neuronas eran activadas tanto cuando los recuerdos son formados como cuando son recuperados posteriormente. En futuros estudios, estos científicos podrían aplicar esta nueva aproximación a escala para probar la formación de recuerdos en la amígdala.

Mayford espera asimismo usar la nueva técnica para dilucidar la estructura precisa de un recuerdo codificado por el hipocampo –en particular, un recuerdo de la caja-. Planea determinar si se puede enseñar a un ratón que nunca ha recibido estímulos eléctricos dentro de la caja a temerla de cualquier forma. Para hacerlo, activaría las neuronas del hipocampo que codifican la memoria de la caja, y luego le daría un electro-shock a los ratones.

Si el experimento resultase exitoso, podría ayudar a explicar cómo la caja está representada dentro del cerebro del ratón. Una de las grandes cuestiones de la neurociencia, según Mayford, es ¿cómo se forma una representación del entorno externo?

En general, uno de los rasgos más destacados del cerebro es su capacidad para asimilar y almacenar la información que aprendemos. En este proceso participan las neuronas estableciendo nuevos puntos de contacto entre ellas –las sinapsis- o inhabilitando puntos de contacto existentes. Un aumento en contactos sinápticos entre neuronas se atribuye a un proceso de aprendizaje, mientras que, la pérdida de tales puntos puede significar pérdida de información. Pero el número total de sinapsis varía constantemente, lo que supone que el cerebro posee una plasticidad sináptica que es uno de los mecanismos clave del proceso de aprendizaje.


Sábado 01 Marzo 2008
Olga Castro-Perea

Fuente:

Tendencias 21