Latest Posts:

Mostrando las entradas con la etiqueta pensamiento. Mostrar todas las entradas
Mostrando las entradas con la etiqueta pensamiento. Mostrar todas las entradas

2 de septiembre de 2018

¿En qué idioma piensa un sordo de nacimiento?


Cuando pensamos, nos oímos a nosotros mismos: es esto en realidad de lo único de lo que somos conscientes al pensar. El sordo de nacimiento se vería o se percibiría (sensaciones de manos, brazos y cara) a sí mismo haciendo esos signos manuales del lenguaje de signos que haya aprendido. El pensamiento es más bien inconsciente: está “detrás” del lenguaje, y es común a sordos, oyentes e incluso chinos.

Fuente:

QUO

4 de julio de 2018

El día en que las máquinas puedan elegir: la paradoja del libre albedrío en robots

Grandes filósofos como Rousseau o Kant, entendían la libertad como autonomía, es decir, como darse normas a uno mismo, siempre que esas normas fueran fruto de una decisión racional

Año 2043. Reino Unido es el último reducto de la WCC (Western Countries Confederation) en Europa, ante el imparable avance del DAESH. Un dron de exploración británico realiza un barrido por las orillas del Támesis. Con su sensor térmico detecta el avance de un grupo de soldados enemigos. Analiza y evalúa: diecisiete soldados, todos hombres (sabe eso debido a que analiza la forma de caminar, y la complexión y proporciones corporales), armados con armamento ligero y un lanzagranadas.

En milisegundos, manda las coordenadas del objetivo a otro dron, esta vez a un bombardero X-54, quien, de nuevo en otros pocos milisegundos, lanzará una lluvia de misiles sobre los desdichados soldados Sin embargo, los sensores del dron de exploración detectan nuevos enemigos. Entre las ruinas de lo que antes fue la abadía de Westminster, avanzan cuatro blindados autónomos de clase T-95. Son un objetivo estratégicamente muy jugoso (cada tanque de este tipo le cuesta al DAESH unos dos millones de dólares), mucho más interesante que el grupo de soldados.

Pero hay un problema. Los estrategas del DAESH descubrieron que había un tipo de blindaje para sus carros de combate, mucho más efectivo que el usual blindaje reactivo: el antiguo escudo humano. El objetivo era confundir la inteligencia artificial de las armas autónomas enemigas o, como mínimo, retrasar sus decisiones.

El cerebro positrónico de un dron de la WCC tomaba decisiones siguiendo a rajatabla la Convención de Massachusetts de 2036, en la que 136 países aprobaron un código ético mundial para armas autónomas, conocido popularmente como BH (el Bushido de HAL).

Según este código, un arma autónoma siempre evitará el mayor número de víctimas humanas posibles, por lo que a la hora de elegir el objetivo para un ataque, siempre elegirá a otra arma autónoma antes que a un grupo de soldados. La táctica del DAESH consistía en atar a unos cuantos prisioneros, si pueden ser civiles mejor, a lo largo de la carrocería de sus tanques.

Entonces el dron tenía dos opciones:
  1. Dirigir los misiles hacia el grupo de diecisiete soldados. Todo correcto a nivel ético y legal: se mata a personas pero son soldados enemigos ocupando territorio soberano.
  2. Dirigir los misiles hacia los T-95. Se ocasionarían víctimas humanas del propio bando, generando intencionalmente daños colaterales y, por lo tanto, violando claramente el BH. Sin embargo, eliminar esos carros enemigos supondría una ventaja decisiva en la batalla que, casi con total probabilidad, evitaría más muertes que ocasionaría.
¿Qué hacer? ¿Violar tu propio código ético, o ser práctico y ganar la batalla haciendo, quizá, un mal menor? El dron piensa y actúa: los blindados enemigos son destruidos. Los programadores de la empresa Deep Mind encargados de diseñar el cerebro computerizado de la máquina dejaron una puerta trasera mediante la que los compradores podían reprogramar la conducta de su arma a su antojo.

Los oficiales del ejército británico lo tuvieron claro: ganar la batalla era lo primero y unas cuantas bajas humanas, incluso de civiles, se justificaban en función de intereses estratégicos superiores.

El artículo completo en:

Xataka Ciencia

24 de junio de 2018

Logran, por primera vez, transferir la memoria de un ser vivo a otro

Científicos lograron que animales no entrenados se comportaran como los sí entrenados al inyectarles una fracción de material genético.

Un equipo de investigadores norteamericanos ha logrado, por primera vez, transferir la memoria de un ser viviente a otro. El trabajo arroja luz sobre una de las cuestiones más intrigantes de la biología: ¿Cómo se almacenan los recuerdos?

En un artículo publicado hace apenas unos días en la revista eNeuro, un equipo dirigido por David Glanzman, de la Universidad de California, explica cómo ha conseguido llevar a cabo este intrigante experimento, para el que se utilizaron caracoles marinos de la especie Aplysia californica.

Lo primero que hicieron los investigadores fue «entrenar» a varios de estos moluscos para que exhibieran un reflejo defensivo cuando sus colas eran estimuladas por una suave corriente eléctrica. Un segundo grupo de caracoles, no entrenados, no mostraba ese reflejo.

Más tarde, y una vez firmemente establecido el reflejo defensivo, los caracoles «entrenados» fueron sacrificados para extirparles los ganglios abdominales. Acto seguido, los científicos extrajeron el ARN de las muestras y las inyectaron en los caracoles no entrenados y que, por tanto, no exhibían la misma reacción ante la corriente eléctrica.

El resultado fue que los caracoles que recibieron el nuevo ARN mostraron los mismos actos reflejos como respuesta a la estimulación eléctrica, y ello a pesar de no haber recibido ningún entrenamiento.

Tras la pista del engrama

Estos resultados son importantes porque proporcionan pistas sobre la naturaleza de lo que se conoce como el «engrama», una palabra que funciona de forma parecida al término «materia oscura», ya que denota algo que se sabe que existe pero de lo que poco o nada se conoce.

Engrama, en efecto, es la palabra que los científicos utilizan para referirse a la estructura cerebral que almacena físicamente la memoria a largo plazo, una especie de «disco duro» capaz de almacenar datos (como los de las computadoras), pero que hasta la fecha nadie ha conseguido localizar de forma concluyente.

La teoría más aceptada por los neurocientíficos es que la memoria a largo plazo está codificada en las sinapsis, las interfaces funcionales a través de las que las neuronas intercambian señales eléctricas o químicas.

El experimento de Glanzman y sus colegas, sin embargo, apunta a una posibilidad muy diferente. La memoria, en realidad, se almacena en el interior de los cuerpos celulares de las propias neuronas. Lo cual plantea la posibilidad de que el ARN tenga un papel importante en la formación de la memoria, una idea ya apuntada en otros estudios y que los nuevos experimentos con caracoles parecen respaldar.

En su artículo, Glanzman y su equipo afirman que sus resultados suscitan muchas nuevas preguntas sobre la forma en que la memoria se almacena y sobre la auténtica naturaleza del engrama. Pero dejan claro que la forma de almacenamiento no tiene que ver con las sinapsis, como se pensaba hasta ahora.

Fuente:

ABC (Ciencia)

2 de mayo de 2018

Oratoria: hazte más inspirador con las claves de Obama

Obama es uno de los grandes oradores de la historia y todos podemos aplicar cuatro de sus claves para que nuestras presentaciones en público sean más inspiradoras y efectivas. 

Seguramente alguna vez habrás tenido que hacer alguna presentación en público. Puede que tengas que remontarte a la época del colegio o puede que sea más reciente, delante de compañeros o de alguien a quien quieres proponerle una idea. La capacidad de hablar en público se puede mejorar si se sabe cómo y para ello, te sugiero apoyarte en algunas de las claves que ha utilizado el presidente Obama, uno de los grandes oradores de los últimos tiempos. Veamos cuáles.

Habla en clave de nosotros (no solo yo, yo y solo yo)

Cuando presentas tienes dos opciones: decir a la audiencia que ellos pueden conseguirlo o bien, que tú vas a conseguirlo por ellos. Son dos estrategias diferentes y dos invitaciones distintas. En el primer caso, la audiencia toma un papel protagonista para movilizarse y para trabajar en equipo. En la segunda, tú quedas como salvador y el resto, espera. Obama optó por la primera y muy probablemente, en la mayor parte de las ocasiones, sea tu mejor estrategia: hacer sentir que quien te escucha puede cambiar, que está en sus manos. “Yes, we can” (“sí, nosotros podemos”) fue el mensaje que le hizo famoso y que ha sido de inspiración para más de uno. Y en su discurso de despedida trasladó la misma idea: “os pido que creáis, no en mi capacidad de hacer cambios, sino en vuestra propia capacidad”.

Por tanto, si quieres movilizar a las personas para un fin y para que trabajen en equipo, habla en términos de nosotros. Si te pones tú de ejemplo, podrán admirarte, podrán votarte (si aspiras a presidente de algo), pero ten por seguro, que también esperarán que seas tú quien le saques del problema… y la parte de las dificultades son más fáciles si se trabaja en equipo.

Convence con la razón y con la emoción.

Una buena presentación en público requiere de una buena presentación. Y las buenas preparaciones son aquellas que llegan al mayor número de personas posibles tanto a los analíticos como a los emocionales, como hemos hablado en otras ocasiones. Si solo das datos, datos… podrás llegar solo a los primeros y si lo que dices tiene sobre todo mucha carga emocional, los analíticos se mostrarán escépticos. Por ello, combina análisis y emoción sin renunciar a ninguna de las dos. Un ejemplo de Obama fue su discurso en Newtown (Connecticut) después de que un tirador asesinara a 20 niños en un colegio. Expresó con dureza su rechazo a las armas y al mismo tiempo, se conmovió en público.

Sorprende positivamente
 
Es poco habitual que un equipo esté entusiasmado a la hora de escuchar a alguien. Normalmente, quien habla tiene que ganarse al público, aunque sea a los compañeros que asisten por rutina a una reunión. Una manera de ganarte su atención es cuando les sorprendes positivamente, con una broma o con un guiño a su trabajo. Así hizo Obama cuando en su primer discurso en Cuba habló en español y mencionó a un poeta cubano; o cuando terminó su discurso en la iglesia histórica de Charleston (Carolina del Sur) con una canción que unió a todos los oyentes.

Convence con lo que eres, no solo con lo que dices

Y no olvides algo. Como demostró Albert Mehrabian, profesor de UCLA, en una charla solo recordamos el 7 por ciento de las palabras, mientras que el resto son emociones o lenguaje no verbal de quien habló. Por ello, para hacer una buena presentación es fundamental trabajar también los miedos personales. Los discursos de Obama no son solo palabras, sino su elegancia, su templanza a la hora de hablar y la confianza que genera. Y todo ello, puedes trabajarlo revisando hasta qué punto te sientes seguro con lo que estás diciendo, entrenando el texto de lo que vas a decir y revisando los puntos que no acabas de tener claro. Con un trabajo personal previo harás una presentación con mayor confianza en ti mismo y tendrás más impacto positivo en quien te escucha.

Fuente:

El País (España)

Cinco claves para hablar bien en público (y disfrutarlo)

Si quieres hablar bien en público, tendrás que pensar bien en privado.

Decía el escritor Mark Twain que hay dos tipos de oradores, los que se ponen nerviosos y los que mienten. Y los nervios van a variar dependiendo de lo que tengamos que contar o de quiénes nos escuchen. Muchas veces nos toca hablar en público en una reunión de trabajo, en la junta de vecinos o en el brindis de la boda de nuestro mejor amigo. Y aunque no nos lo enseñaran en el colegio o hayamos tenido una mala experiencia, hablar en público se puede entrenar si se sabe cómo. Mónica Galán, en su libro Método Bravo, nos enseña los cinco pasos para conseguirlo y aplicarlo en nuestro día a día.

El primer paso es la bienvenida. Necesitamos invertir tiempo para un buen comienzo. Deberíamos huir como la pólvora de expresiones típicas como “bueno”, “pues…” o dar una palmada, que solo demuestran que estamos hechos un flan. La propuesta de Mónica es comenzar con alguna de estas ideas: contar una historia que enganche a la audiencia, aportar un dato o un hecho sorprendente, o hacer una pregunta que despierte la atención, como por ejemplo: “¿Cuántos de nosotros querríamos ganar más dinero?”. Si empezamos haciendo una mención a todas las personalidades presentes (clásico de los discursos institucionales), las personas desconectan desde el primer minuto.

El reconocimiento es la segunda clave para una buena presentación y este ha de ser de varios tipos, el primero el reconocimiento a ti como orador. Si han leído previamente tu currículum quizá no haga falta, pero si no, puedes contar alguna experiencia derivada de tu trayectoria o tu experiencia. No obstante, hay que tener cuidado en este punto con no resultar excesivamente pretencioso (esta sugerencia no tendría sentido en Estados Unidos, puesto que son diametralmente opuestos a nosotros en esto). Otro reconocimiento que se ha de hacer es a la audiencia por su tiempo y su atención. Curiosamente, las gracias se han de dar después del punto anterior y no antes… aunque pensemos que somos descorteses.

La tercera clave que nos ayuda a hablar en público es la autoridad, y esta se consigue con las palabras y con el lenguaje no verbal. La mejor manera de reducir los nervios es estudiando lo que se va a explicar. Pero las emociones y nuestra personalidad se perciben cuando hablamos delante de otras personas. Nuestras inseguridades o dudas se expresan con gestos, de los cuales no siempre somos conscientes. Por eso, a la hora de prepararnos para algo importante, también necesitamos trabajar en la seguridad en nosotros mismos. Mónica Galán lo resume del siguiente modo: si quieres hablar bien en público, tendrás que pensar bien en privado.

El valor es otro de los elementos esenciales que necesitamos trabajar. Debemos aportar algo a las personas que nos escuchan, porque el tiempo es preciado pero la atención, mucho más. Para conseguir enganchar, una recomendación es narrar historias. Así aprendimos de pequeños y seguimos haciéndolo como adultos, o como dicen James Carville y Paul Begala, dos relaciones públicas de la Casa Blanca: “Si no comunicas con historias, no comunicas. Los hechos hablan, pero las historias vencen”.

Y por último, la ovación, que significa un cierre inolvidable. Aquí existen varias posibilidades: un cierre emocional con una historia en primera persona; una repetición de un primer mensaje como en el famoso discurso de Martin Luther King “I have a dream” (tengo un sueño). También podemos cerrar con un proverbio o una cita famosa… Es decir, necesitamos terminar con un mensaje que quede en la mente de quien lo escucha.

Hablar en público puede ser maravilloso si uno se siente preparado y pone en práctica varias herramientas. La buena noticia es que se puede entrenar y adaptar a la personalidad de cada uno, porque, como dijo Voltaire, “todos los estilos son buenos, menos el aburrido”.

Fuente:

El Páis (España)

26 de abril de 2018

Fake News: El nuevo opio del pueblo

Con las 'fake' no se busca sustituir los hechos por mentiras, sino mermar el juicio con el que tomamos una posición respecto al mundo.

Falsear deliberadamente los hechos no es distintivo de nuestra época. Su uso es tan viejo como los arcana imperii, concebidos como medios legítimos de ocultación de la “verdad” con un fin político. Y es algo que no conviene banalizar, pues como sostuvo Rafael del Águila, “la excepción señala el límite; y el límite está ahí aunque la excepción no aparezca”. Sin embargo, esta conciencia de un límite ha desaparecido, y con ella la reflexión sobre los efectos de la mentira en nuestra percepción del mundo y la democracia.

Lo anticipó Orwell en su distopía 1984 cuando Winston y Julia, sus protagonistas, hablan sobre las falsificaciones del régimen y el primero descubre que ella no se escandaliza: “Era como si no reparase en el abismo que se abría a sus pies cuando las mentiras se convertían en verdades”. De la pura violación sistemática de los hechos, dice el autor, acabamos desdeñando la magnitud del problema y abandonamos el interés por los acontecimientos públicos.

Algo así sucede con las fake news. Con 2.000 millones de usuarios, Facebook es la red social más popular del mundo, y solo en EE UU un 66% lo utiliza para consumir noticias. Abrazamos un mecanismo de información rehén de la lógica del negocio digital, pensada para lucrarse con nuestros datos, pero también para embobarnos durante el mayor tiempo posible. Es normal: a pesar del enternecedor compromiso con la verdad de Zuckerberg, él sabe que a más clics más dinero. Por eso las redes son el coladero perfecto para la propaganda política, viralizada gracias a las cámaras de eco selladas por algoritmos.

No se busca sustituir los hechos por mentiras, sino mermar el juicio con el que tomamos una posición respecto al mundo y debilitar la convicción de que la palabra veraz sostiene la relación pública. Cuando la farsa sistemática ocupa el centro de nuestra convivencia, aumenta el poder de los embusteros y disminuye el de quienes saben que, para cambiar cosas, tienen que convencer a una ciudadanía crecientemente incrédula. El nuevo poder reside en esa opacidad que nos pretende digitalmente analfabetos, incapaces de identificar la procedencia de los bulos o a qué intereses obedecen: las fake son el nuevo opio del pueblo.

Fuente:

El País (España)

15 de enero de 2018

Por qué el pesimismo nos parece inteligente y el optimismo, simplón

Contraponemos el ‘Hay que ver qué mal está todo’ frente al ‘Pues tampoco estamos tan mal’

De acuerdo. Los argumentos se cuentan por miles. Son tantos que mantener hoy una actitud positiva frente a la vida es toda una proeza. Por eso, el pesimismo resulta mucho más habitual. No hay más que poner la oreja en cualquier conversación ajena. En bares y restaurantes, en buses y metros. Da lo mismo.


La proporción de sentencias cargadas de escepticismo siempre será más elevada que la de frases ilusionantes. Y ya no tanto porque la realidad empuje a ello, sino porque el pesimismo vende. Envuelve al individuo con su pátina de inteligencia. De persona lista para pronunciar el a mí no me la dan. Porque lo contrario es de ilusos, de ingenuos. Pero, ¿realmente están bien definidos los dos papeles?

Antes de pensar en ello, conviene tratar de entender el porqué de ese halo de inteligencia desbordante vinculado al pesimismo. Decía el historiador Deirdre N. McCloskey que, por razones que nunca entenderá, “a la gente le gusta escuchar que el mundo se va al infierno”. Y es cierto que el optimismo se vincula en ocasiones a la inconsciencia, por un lado, o a la inacción, al entender que no es necesario hacer nada puesto que todo va ya lo suficientemente bien.

Lo mismo ocurre, por ejemplo, con los críticos culturales: el que arrastra por el suelo al texto o a la cinta suena más inteligente que el que afirma haber disfrutado. O con el dinero: Un inversor optimista suena inconsciente, mientras que uno pesimista se toma como perro viejo curtido en mil batallas.

Un error de concepto

“Efectivamente, optimismo suena a ingenuidad y al pesimista se le atribuye la capacidad de ver más allá. Y eso no es así”, asegura Lecina Fernández, psicóloga clínica y experta en ilusión.

“En realidad, sucede justo lo contrario", aclara la especialista. "El optimista es capaz de ver la parte positiva, claro, pero también la negativa. Y precisamente por ver el lado oscuro comienza a moverse, con ánimo, para sortearlo o superarlo”, explica. Por el contrario, continúa, el pesimista sólo atenderá a lo negativo y él mismo se frenará para no caer en errores, quedándose instalado en una realidad a medias.

Así que todo es fachada. El pesimista, afirma la psicóloga, no sólo no es más inteligente, sino que es mucho más autocomplaciente: “Cuando se topa con algo que va mal no busca necesariamente su cambio, sino que lo entiende como un refuerzo para sus ideas fatalistas”. Una suerte de ¿veis? que le conduce, directamente, a la apatía.

Pero, en el fondo y según la psicóloga, existe un arraigado error en los conceptos. “Incluso Schopenhauer, quizá el mayor adalid del pesimismo, escribía con la meta de que el público comprara y leyera sus textos”, subraya. Y esa ya era, por sí misma, una motivación.

Encontrar a un pesimista auténtico es prácticamente imposible, afirma, puesto que en nuestro ADN está impreso el motor para, al menos, sobrevivir. Y pensar que mañana quizá no nos despertemos sonará fatalista. Pero descansar esta noche para tener energía al despertar ya será, al menos, una aportación a la búsqueda, optimista, de estar vivos mañana.

Cuidado, que nos va la vida en ello

No es cuestión de acudir a los extremos. El optimismo mal entendido, el que peca quedándose únicamente con la mitad de la realidad, es igual de peligroso que el pesimismo. Textos como los de la activista americana Bárbara Ehrenreich, Sonríe o muere: La trampa del pensamiento positivo¸ ponen de relieve cómo pretender que solo se experimenten emociones positivas es tan absurdo como imposible.

Y otros autores, como el profesor de la Universidad de Oxford Roger Scruton, estudian los peligros de la falsa esperanza y tratan de determinar los usos correctos del pesimismo, entendido como motor de cambio y germen de avance.

Pero otros expertos, igual que la psicóloga Nabila Prieto, sí invitan a ser más tendentes al optimismo, olvidando su vinculación a la ingenuidad. Fundamentan sus consejos en estudios como el elaborado en la Universidad de Yale, desde donde se encuestó a los habitantes de un pequeño pueblo de Estados Unidos para, años después, registrar su salud cruzándola con su visión optimista o pesimista frente a la vida. La conclusión: aquellas personas que se habían mostrado más optimistas habían vivido, de media, siete años y medio más que los que se habían subido al carro de los negros nubarrones.

Casualidad, dirá usted, lector pesimista. Otro estudio que pretendió eliminar cualquier disparidad cultural o relacionada con la alimentación o el ambiente en el que se desenvolvían los voluntarios optó por realizar un análisis similar en el contexto de un convento. Monjas que comían lo mismo, compartían horarios y respiraban el mismo aire, y cuyos diarios fueron analizados para determinar, igualmente, que las hermanas optimistas vivieron unos 10 años más que las pesimistas.

En definitiva, y a tenor de los datos, el optimista será, primero, más feliz y, segundo, más longevo. Simplemente porque entenderá sus dificultades como retos y no como tragedias. Que las hay, y gordas. Pero más se perdió en Cuba.

Fuente:

El País (Buena Vida)

8 de enero de 2018

Innovación educativa: ¿Preparar trabajadores eficientes o ciudadanos libres?

La transformación de la enseñanza debe caminar hacia la inclusión de la tecnología en y el uso de metodologías activas sin olvidar el desarrollo del pensamiento crítico.



Derrochar energía o no reciclar son acciones que tienen consecuencias para todo el planeta. Esta es la lección que aprendieron los alumnos de infantil del CEIP San Agustín (Casas Ibáñez, Albacete) a través de un itinerario interactivo creado con Google Earth. La visita virtual al globo con esta herramienta les permitió conocer el deshielo de los polos o la desertificación en Marruecos. Con este trabajo, Cambio climáTICo, la maestra Cati Navarro buscó dar a sus alumnos una formación “acorde con la sociedad tecnológica en la que viven”. El aprendizaje por proyectos que emplea la docente combinado con tecnología impulsa, según cuenta, la digitalización, la creatividad y forma a los niños en competencias como el liderazgo o el trabajo en equipo, características cada vez más demandadas en el mercado laboral de la economía del conocimiento.
Es necesario dotar a los estudiantes de recursos que les ayuden a hacer su mundo pensativo
Laura Morillas, Intef
Pero la calidad educativa no queda ahí. El aterrizaje de las tabletas electrónicas en el aula acompañadas de nuevas metodologías debe poner el foco, en cuanto al contenido, sobre los cambios sociales, culturales o ecológicos que atraviesan el mundo del siglo XXI, según coinciden los expertos. En este punto, nace una corriente dentro del mundo educativo crítica con esta inclinación de la enseñanza hacia las demandas del mercado. “Hay que educar para vivir no para trabajar. Aunque las empresas son una parte importante de la vida, hay muchas más cosas a las que tendrá que enfrentarse un niño cuando crezca”, opina Andrés Dancausa, CEO de SofíaSquare, una startup que conecta profesores particulares y estudiantes.

Un punto de vista que comparte Laura Morillas, directora del Intef (Instituto Nacional de Tecnologías Educativas y de Formación del Profesorado dependiente del Ministerio de Educación). La experta destaca que la tecnología no debe entenderse como la protagonista de la educación, sino un medio para mejorarla. “La clave de la enseñanza sigue siendo el desarrollo del pensamiento crítico y esa es la labor esencial del profesor. El conocimiento es ahora accesible a todos en la red, pero el trabajo del docente es fomentar que el alumno piense por sí mismo y se haga preguntas”, reflexiona en un evento organizado por Xataka Live Citizen.

Aunque Remedios Zafra, escritora y teórica sobre la Cultura Digital, valora las mejoras innegables que aportan las nuevas herramientas tecnológicas a la educación, introduce una lanza a favor del pensamiento crítico ante las ansias de digitalización de todas las esferas de la vida. “Es necesario dotar a los estudiantes de recursos que les ayuden a hacer su mundo pensativo, a desarrollarse como ciudadanos libres capaces de elegir por sí mismos sus trabajos, sin que les predestinemos en función del género, la clase social o los empleos disponibles o visibilizados por el mercado”, reflexiona. Zafra considera que la libertad es el escalón que debería facilitar la educación para permitir a los jóvenes “cuestionar mundos y trabajos”. “Desde aquí se podría mejorarlos e imaginar otros, no cambiando unas verdades por otras, sino haciendo reflexivas las formas en que hoy se diseñan las verdades”, cuenta.

Lea el artículo completo en:

El País (Retina)

18 de diciembre de 2017

No nacemos creyentes: un estudio concluye que la religión no tiene que ver con el pensamiento intuitivo o racional


Un nuevo estudio de la Universidad de Oxford acaba de descartar que el sentimiento religioso esté relacionado con el pensamiento intuitivo. La conclusión echa por tierra no solo una convención de la psicología. Además descarta que la religiosidad sea algo con lo que nacemos.

Hasta ahora la psicología cognitiva explicaba el desarrollo del sentimiento religioso en el cerebro como un resultado del pensamiento intuitivo. En otras palabras, que las creencias religiosas surgen de manera intuitiva, y que las diferentes religiones canalizan una conclusión a la que las personas llegan de antemano siguiendo un proceso natural. Según esta hipótesis ampliamente aceptada, las personas creyentes son más intuitivas que analíticas.

Un equipo combinado de neurocientíficos, psicólogos y filósofos del Centro de Avances en Ciencias del Comportamiento en las Universidades de Coventry y Oxford ha examinado esa asunción realizando un estudio sobre un grupo de peregrinos del Camino de Santiago.

El estudio comenzaba entrevistando a los vountarios para determinar su grado de creencias religiosas y sobrenaturales. Después se les sometió a una larga batería de pruebas de lógica, matemáticas y probabilidad destinadas a analizar su grado de pensamiento intuitivo. Finalmente, se les sometió a un experimento no invasivo de electroestimulación sobre el gyrus frontal inferior, una zona del cerebro que se suponía estaba asociada a la inhibición de creencias sobrenaturales en personas ateas.

Ni uno solo de los experimentos permitió probar de manera concluyente la relación que se suponía entre sentimiento religioso y pensamiento intuitivo. Según el principal autor del estudio: Miguel Farías:
Qué nos impulsa a creer en dioses? ¿La intuición o la razón, el cerebro o el corazón? Existe un largo debate en torno a esta cuestión, pero nuestras conclusiones desafían la teoría de que las creencias religiosas estén determinadas por un pensamiento intuitivo o analítico. No creemos que las personas nazcan creyentes del mismo modo en que todas acaban aprendiendo de manera inevitable algún tipo de lenguaje.
Si no es intuitivo ni de nacimiento, ¿de dónde provienen los sentimientos religiosos? Farías apunta a factores sociales:
Los datos sociológicos e históricos de los que disponemos muestran que nuestras creencias se basan fundamentalmente en factores sociales y educativos, y no en diferencias cognitivas como la dicotomía entre pensamiento intuitivo o analítico. El sentimiento religioso se basa muy probablemente en la cultura de cada uno, no en algún tipo de intuición primitiva o corazonada.

Fuente:

Gizmodo
 

17 de noviembre de 2017

Así decide tu cerebro qué recuerdos guarda o elimina mientras duermes

La mente reactiva redes de memorias al dormir, consolidando solo las que están fuertemente asociadas.

El laboratorio de Lluís Fuentemilla en la Universidad de Barcelona se asemeja más a un centro de día que a un centro de investigaciones neurocientíficas. Sobre una mesa hay un juego de cartas con dibujos de animales, de instrumentos musicales y de vehículos. También tiene sillones reclinables, con sendas mantas y almohadas. Los sujetos de su último experimento son alumnos de la universidad, que acuden después de comer, listos para la siesta.

Fuentemilla y sus compañeros investigan el proceso mediante el cual se consolidan, al dormir, las memorias formadas durante el día. En un estudio publicado en la revista científica Journal of Neuroscience demuestran que el cerebro activa redes de recuerdos relacionados durante el sueño. Dependiendo de la fuerza con que estén asociadas las memorias, este proceso ayuda a fijarlas o, por el contrario, promueve su olvido. “Sería ineficiente si pudiéramos recordar todo”, dice Javiera Oyarzún, la autora principal del estudio. “Cada vez que la mente quisiera recuperar información concreta, tendría que inhibir todos los recuerdos irrelevantes, el ruido”.

Previamente, los científicos ya habían demostrado que la mente humana archiva algunos recuerdos mientras duerme, a la vez que elimina otros. Para que esto suceda, los recuerdos que se forman en el día deben ser reactivados durante el sueño. Aunque ocurre naturalmente, los investigadores pueden inducir el mismo proceso de forma artificial, asociando previamente un estímulo sensorial –como un olor o un sonido– al recuerdo. Si se percibe el estímulo durante las horas de sueño, la mente reactiva el recuerdo asociado y, además, toda una red de memorias relacionadas a ese recuerdo. Utilizando esta técnica, los investigadores han encontrado el mecanismo neuronal encargado de reforzar o debilitar memorias individuales en la red de recuerdos.

En el estudio, los voluntarios tenían que memorizar la localización de 15 parejas de cartas sobre una cuadrícula. Hicieron esto dos veces. La segunda vez, una carta de cada pareja cambió de lugar, pero la otra permaneció en el mismo sitio. Así, los participantes formaron dos conjuntos de memorias distintas pero relacionadas por un elemento común, la posición de una de las cartas de cada pareja: formaron una red de recuerdos sencilla. Además, durante el segundo ejercicio, los investigadores reprodujeron sonidos representativos de los dibujos de las cartas –grabaciones de animales, instrumentos y transportes– para poder inducir posteriormente el recuerdo de su posición durante la siesta.

Mientras los participantes dormían en el laboratorio, los científicos pusieron la mitad de los sonidos otra vez, elegidos al azar. Esto reactiva en la mente el recuerdo de la posición de las cartas del segundo ejercicio y, por asociación, las cartas equivalentes del primero. La fuerza de esta asociación determina qué memorias se conservan y cuáles se olvidan al despertar. Los investigadores pudieron manipular la fuerza de la asociación y contrastar sus efectos utilizando dos grupos de participantes. Un grupo aprendió ambas configuraciones de cartas consecutivamente, formando un vínculo fuerte entre los dos conjuntos de recuerdos, mientras que el otro esperó tres horas entre el primer ejercicio y el segundo, por lo que formaron una asociación débil.

Los participantes que memorizaron todas las parejas de seguido recordaron mejor la posición de las cartas del primer ejercicio relacionadas con aquellas que habían sido reactivadas durante el sueño. Ocurrió lo opuesto en el segundo grupo: las posiciones de las cartas del primer ejercicio asociadas a las cartas reactivadas durante el sueño precisamente fueron las que peor recordaron.

Esto quiere decir que los recuerdos reactivados durante el sueño ayudaban a consolidar las memorias estrechamente relacionadas. Sin embargo, el mismo proceso promovía activamente el olvido de las memorias asociadas débilmente. “La red, lo que te permite, al final, es predecir el mundo”, explica Oyarzún. Los autores sugieren que este mecanismo cerebral ha evolucionado para que podamos preservar a largo plazo solo la información que es consistente o que se repite predeciblemente, la que nos pueda ser útil en el futuro. “Al eliminar los recuerdos sobre nuestro entorno que son poco frecuentes o inconsistentes, se evitan interferencias de la memoria en el futuro”, explica Fuentemilla.

El neurocientífico Bryan Strange, un especialista en consolidación de memoria ajeno a esta investigación, de la Universidad Politécnica de Madrid, opina que “es un estudio muy meticuloso” y coincide con la teoría de que el olvido es un proceso activo y beneficioso: “Ya decía William James, el padre de la neuropsicología, que si nos acordásemos de todo seríamos tan desafortunados como si nos acordásemos de nada”. Strange añade que técnicas parecidas a las empleadas en este estudio podrían utilizarse para atenuar o eliminar memorias desagradables de forma terapéutica, algo que proponen los investigadores como un proyecto futuro.

Fuente:

9 de noviembre de 2017

Las diez claves de la neurociencia para mejorar el aprendizaje

Investigaciones recientes aportan procedimientos que sirven para elaborar propuestas prácticas para mejorar el rendimiento escolar.

Conocer Ciencia les ofree un conjunto de sugerencias de carácter práctico para mejorar el rendimiento académico de enseñantes y alumnos a corto y medio plazo. Son procedimientos avalados por la investigación reciente en neurociencia y psicobiología, que pueden tener su versión particular en cada nivel y contexto educativo.

1. Practicar regularmente deportes o actividades físicas

El ejercicio físico aeróbico beneficia las capacidades cerebrales tanto en el niño como en el adulto. Quienes tienen una actividad física semanal más intensa tienen también una mejor memoria y mayor flexibilidad y velocidad de procesamiento de información mental. Incluso 30 únicos minutos de marcha en bicicleta o carrera al día pueden ser suficientes para mejorar el tiempo de reacción y la velocidad de procesamiento de la información en el cerebro.

Ello es posible porque la actividad física genera BDNF, una proteína del cerebro que aumenta la plasticidad o capacidad de las neuronas para formar conexiones entre ellas, el número de las que nacen diariamente y la vascularización y aporte de sangre que reciben. La actividad física, en definitiva, genera una especie de lubricante que facilita el funcionamiento de la maquinaria cerebral para aprender, formar memorias y recordar.

2. Evitar el exceso de grasas en la alimentación

La alimentación adecuada para aprender debe evitar las dietas altas en grasas, pues son dietas que reducen la sensibilidad de los receptores NMDA, que son moléculas del cerebro que forman parte de los mecanismos de plasticidad neuronal que hacen posible la formación de la memoria en lugares como el hipocampo y la corteza cerebral. La experimentación actualmente en curso indica que la restricción calórica en la alimentación favorece la mayoría de procesos mentales.

3. Dormir lo necesario con regularidad

El sueño anticipado prepara al cerebro para aprender y, cuando ocurre tras el aprendizaje, potencia la formación y estabilización de las memorias. Es así porque las mismas neuronas que se activan para registrar la información cuando aprendemos vuelven a activarse cuando dormimos. Suelen hacerlo entonces a mayor velocidad dando preferencia a las que registraron los aprendizajes a los que se atribuyó mayor importancia o valor de futuro. El sueño es, por tanto, una forma cerebral de practicar y fortalecer lo aprendido durante el día.

4. Entrenar frecuentemente la memoria de trabajo

Esta memoria es la que utilizamos para pensar, razonar, planificar el futuro y tomar decisiones. Con ella retenemos en la mente, por ejemplo, las posibles jugadas a realizar en una partida de ajedrez o las diferentes opciones para tomar una decisión. Materias como la filosofía o las matemáticas promueven este tipo de memoria, muy ligada a la inteligencia fluida, que es la capacidad de razonar y resolver problemas nuevos con independencia del conocimiento previamente adquirido.

Lea el artícuo completo en:

El País (España)

6 de septiembre de 2016

David Perkins: «Es posible aprender a pensar mejor con estrategias sencillas»

David Perkins, Profesor de Educación en Harvard, propone que los colegios enseñen a pensar como si fuera una asignatura más.


«Debería advertirte sobre algo. Tengo la mala costumbre de pensar en las preguntas antes de responder». La advertencia que, en tono distendido, formula David Perkins, profesor senior de educación en Harvard y experto en aprendizaje, comprensión y creatividad, suena a guiño divertido a su área de especialización. Durante la charla, que transcurrió durante el reciente congreso ICOT de pensamiento e innovación, celebrado en Bilbao, son varios los momentos en los que, por sus meditaciones silenciosas, queda claro que no bromeaba.

El filósofo Robert Swartz asegura que el 90% de la gente no piensa bien. ¿Está de acuerdo?
–Es difícil calcular un porcentaje. No hay dudas de que la gente tiene muchos pensamientos buenos y muchos no tan buenos. Hay un amplio espacio en la vida para ir en direcciones erróneas: decisiones personales, posiciones políticas, relaciones humanas. La realidad es que el mundo es un lugar complejo. Si miras cómo razona la gente sobre distintos temas, a menudo no lo hacen muy bien. Están muy escorados, les falta perspectiva, una mirada más profunda para pensar en sucesos dentro de 20 años o que afecten a la próxima generación. ¿90%? Por qué no. No hay forma de dar una cifra exacta.

–¿Por qué no pensamos mejor?
–Tenemos que recordar que en muchas situaciones somos muy buenos pensadores. Donde tenemos mucho conocimiento podemos pensar muy bien. Al mismo tiempo,pensar es cognitivamente costoso. Requiere tiempo, tenemos una capacidad limitada. Los pensamientos del día a día suelen estar llenos de atajos. Funcionan bien el 90% del tiempo pero nos parecen correctos el 99%. Tendemos a quedarnos atrapados en ese 9% restante.

Usted propone "hackear" nuestras mentes para pensar mejor.
–Podemos «hackear» nuestras mentes con estrategias sencillas que mejoran las capacidades que ya tenemos. Es fácil para la gente aprender a «hackear»: mirar el otro lado de un asunto, contemplar otras opciones, pensar a largo plazo. Reglas muy simples que redirigen nuestro pensamiento hacia áreas que podíamos haber pasado por alto.

¿Por qué no lo hacemos más a menudo?
–Requiere energía, no podemos hacerlo todo el tiempo. A veces estamos bloqueados por prejuicios y por nuestro egocentrismo. A veces nos estancamos en algo porque es atractivoy no queremos ver más allá, y apostamos por lo bajo: «No importa, aunque cometa un error qué diferencia va a suponer». El truco consiste en decidir mejor dónde invertir más pensamiento y esfuerzo. Ahí es donde debes ser más inteligente.

El artículo completo en:

ABC (España)

25 de enero de 2016

John Carlin: "El estudiante eunuco"

Cuando se anunció el fin de la historia, tras la caida del muro, se cacareaba por todos los medios de una nueva época de libertad para toda la Humanidad. Ahora, 25 años después, vemos que la generación que creció en esta era de pax económica está practicando una especie de fascismo lite donde no se puede expresar lo que uno piensa o siente con libertad, pues el cargamontón mediático le viene a uno encima; donde desaparece el discurso político objetivo y multilateral por un discurso psicologista, subjetivo y unilaterla. Aquí les dejo un buen artículo (de octubre de 2015) sobre lo que pasa en la actualidad en las universidades anglosajonas. 




Un estudiante de Harvard, en su graduación. / B. SNYDER (REUTERS)
“No comparto lo que dices, pero defenderé hasta la muerte tu derecho a decirlo” (Voltaire)

Por cierto que la frase no es de Voltaire, es de Evelyn Beatrice Hall, que escribió una biografía de Voltaire.
ADVERTISEMENT
Hace unos días hubo un debate en la BBC entre el presidente del consejo de estudiantes de una universidad británica y un señor mayor que escribe columnas para The Times de Londres. El tema era la libertad de expresión. ¿Quién estaba en contra? ¿El columnista del Times, cuyo dueño es el reaccionario Rupert Murdoch? No. El líder estudiantil.

Algo raro está ocurriendo en las universidades de Reino Unido, y en las de Estados Unidos también. El estudiante que hablaba en la BBC es síntoma de una tendencia represiva en un sector de la sociedad donde uno suponía que se daba un alto valor al principio del pensamiento libre.

El motivo del debate entre el joven y el periodista, que por edad podría haber sido su abuelo, había sido una petición firmada por 3.000 estudiantes de la Universidad de Cardiff exigiendo que a Germaine Greer, antiguo icono de la revolución feminista, se le prohibiese dar una conferencia en su campus. Greer, como algunos o algunas recordarán, es la autora del influyente y provocador libro La mujer eunuco, publicado en 1970. El libro, tan irreverente como iconoclasta, exhortaba a las mujeres a desencadenarse de los estereotipos represivos de antaño.

El problema de los estudiantes de Cardiff con Greer, que hoy tiene 76 años, es que la consideran una “misógina”. Lo cual, a primera vista, es como llamar a Martin Luther King racista. ¿Cómo se explica? De la siguiente manera. Greer escribió un texto en 2009 en el que argumentó que a las transexuales no se les podía considerar mujeres. Tal afirmación fue considerada lo suficientemente ofensiva como para declararla persona non grata en el campus. Greer se rindió, pero no sin antes declarar en la radio: “Solo porque te cortas la polla y te pones un vestido no significa que te conviertas en mujer”.

El tema aquí no es si Greer tiene razón o no. El tema es que la censura de personas cuyas ideas no confluyen con las nuevas percepciones de lo que es o no aceptable se está extendiendo por las universidades anglosajonas. Algunos ejemplos.

La semana pasada un profesor de la universidad de Yale, en Estados Unidos, fue rodeado por un grupo de estudiantes que le gritaron, entre otros improperios, “¡cállate la puta boca!”. Su pecado: haber aconsejado a sus alumnos que si veían a alguien vistiendo un disfraz de Halloween “ofensivo” que no les hicieran ningún caso.

A finales de septiembre, la Universidad de Warwick, en Inglaterra, canceló una conferencia de una mujer nacida en Irán llamada Maryam Namazie. Esta es una marxista conocida por su virulento desprecio por la religión, empezando por la suya de nacimiento, el islam. La universidad explicó que su comparecencia en el campus incitaría “el odio”.

Y un ejemplo más entre miles: una profesora de Derecho en la Universidad de Harvard escribió un artículo el año pasado lamentando la presión que recibía del cuerpo estudiantil para que no diera clases sobre cómo la ley responde a casos de violación. La profesora, Jeannie Suk, comparó esta actitud con intentar enseñar cirugía a un estudiante de medicina sin exponerle a la angustia de ver sangre.

Según Suk, los organismos estudiantiles estaban en contra de clases sobre la ley y la violencia sexual porque temían que la experiencia podría resultar “traumática”. Y aquí, aparentemente, está el grano de la cuestión. Explicaba el líder universitario que habló en la BBC que el objetivo de la censura era siempre dar prioridad a “la seguridad” de los universitarios. Un reciente artículo escrito por dos académicos en la revista estadounidense The Atlantic profundizó en el tema. Explicó que para los que se apuntan a esta nueva corriente la meta final era proteger “el bienestar emocional” de los estudiantes, convirtiendo los campus en “lugares seguros” donde “jóvenes adultos están protegidos contra palabras e ideas que les hagan sentirse incómodos”. “Se está creando una cultura”, agregaba el artículo, “en la que todo el mundo debe pensar dos veces antes de abrir la boca”.

Alguien que ha optado por no abrir la boca nunca más en foros estudiantiles es el famoso cómico estadounidense Chris Rock, que ha construido una brillante carrera a base de ridiculizar tabúes raciales, sexuales y políticos. Rock, que es negro, dijo en una entrevista reciente que ya no comparece en las universidades porque son “demasiado conservadoras”. Su principal preocupación, estimó, es “no ofender nunca a nadie”.

¿A qué se debe tanta susceptibilidad entre los estudiantes del mundo anglosajón? En parte tendrá que ver con la presión conformista ejercida por la policía religiosa de las redes sociales, el miedo a la crucifixión verbal que padecerá cualquiera que discrepe de la ortodoxia de la manada. Pero, como también sugiere el artículo de la revista The Atlantic, la juventud de hoy, especialmente la que ha tenido la suerte de ir a la universidad, pertenece a una generación mimada. Es verdad que hoy los jóvenes lo tienen difícil para conseguir trabajo pero, al menos en los países ricos de Occidente, sus padres tuvieron la mejor y más pacífica calidad de vida que ha conocido la especie humana. Estos afortunados padres se han esforzado de una manera nunca vista para no herir los sentimientos de sus hijos, para protegerles de lo feo, lo duro y lo difícil de la vida.

La consecuencia ha sido la aparición de una generación de adolescentes y veinteañeros psicológicamente delicados que detectan ofensas donde sus padres —y más aún los padres de los padres, que vivieron guerras— no se las hubieran imaginado. Antes, cuando el columnista del Times era joven, los estudiantes censuraban a los que llamaban fascistas. Para bien o para mal, lo hacían a partir de un proceso de razonamiento político. Los militantes universitarios anglosajones de hoy censuran sobre la base de lo que sienten. Practicantes de una especie de fascismo lite, ellos son los que mandarán dentro de no mucho tiempo. Si la cosa no cambia, uno tiembla por la democracia.
Tomado de:

3 de diciembre de 2015

Cómo empezar a ser un Youtuber (desde cero)

¿Quieres saber cómo ser un Youtuber de verdad o triunfar con tu videomarketing? El salto cualitativo está en tu estrategia y tu posicionamiento. El paso de tener un canal de Youtube a ser considerado un Youtuber no es sencillo, pero siguiendo estos consejos te lo pondré un poco más fácil.
“Te hablaré de una estrategia de éxito que debes seguir si buscas crecer exponencialmente con tu canal”
Cómo Empezar a Ser Un Youtuber (Estrategia y Herramientas) 

Si sigues mi canal, sabrás que tengo otro vídeo en que te enseño las 10 claves para aprender cómo empezar un canal en Youtube desde cero paso a paso. Así que te dejo el enlace aquí por si no lo has visto, ya que te recomiendo tener dominadas esas técnicas antes de comenzar con esta nueva estrategia.

Y para este nuevo paso adelante, también te he preparado un vídeo así que si te gusta leer tienes este artículo, pero si prefieres verlo el vídeo es todo tuyo. Personalmente te recomiendo que veas el vídeo, porque es más fácil que veas directamente cómo navego y uso las herramientas que no explicado, pero la decisión es tuya.

El artículo completo en:

Whats News

1 de noviembre de 2015

Somos nuestras memorias (pero nuestras memorias están llenas de falsos recuerdos)

Somos, fundamentalmente, nuestras memorias, como las consecuencias de la enfermedad de Alzheimer nos recuerdan.

Pero incluso cuando nuestra memoria funciona a la perfección resulta que lejos de ser un notario fiable de nuestras vidas va haciendo un filtro de lo que guarda, y aún lo que guarda, por muy íntimamente convencidos que estemos de que es la verdad, a menudo ha sido modificado, cuando no es, directamente, un recuerdo falso, pues el cerebro se reinventa a sí mismo para almacenar nuestras memorias.

Y si no que se lo digan a Ann Meng y, en especial, a Julius E. Ruffin.


Luis Martínez Otero (@martinezlab) y Jordi Camí (@jordicami) hablan de este apasionante y sorprendente aspecto de nuestras memorias en Falsas memorias, y hasta hacen alguna demostración sobre la marcha.

Tomado de:

Microsiervos

27 de octubre de 2015

MIT: La inteligencia artificial mejora el diagnóstico de enfermedades mentales

Investigadores del MIT desarrollan un software capaz de detectar trastornos cognitivos a partir de dibujos.


En la imagen se muestran las diferencias en los dibujos según la enfermedad. La primera fila muestra dos relojes realizados por pacientes sanos. En la fila central, el paciente sufre de la enfermedad de Alzheimer y en la fila inferior, Parkinson.

Una de las pruebas más comunes para detectar trastornos cognitivos con diverso origen, como por el párkinson o el alzhéimer, es un simple test conocido como el “test del reloj”, en el que el paciente debe dibujar un reloj que debe marcar una determinada hora y, además, debe copiar otro ya dibujado. La observación de alteraciones en la manera de realizar estos dibujos permite a los médicos identificar síntomas de deterioro en el cerebro del paciente.

Muchos desórdenes neurológicos pueden estar presentes mucho antes de comenzar a tener un efecto apreciable en nuestras vidas. Por ejemplo, en el alzhéimer, los cambios en el cerebro pueden empezar a producirse diez o más años antes de que las alteraciones cognitivas sean apreciables. Sin embargo, la evaluación de estas pruebas es subjetiva, puesto que no es fácil llegar a conclusiones definitivas cuando los síntomas son muy leves. Contar con un método de diagnóstico más preciso y fiable podría permitir tratar a los enfermos mucho antes, retrasando el desarrollo de la enfermedad.

Con este objetivo, un grupo de científicos, liderados por investigadores del Laboratorio para la Inteligencia Artificial y Ciencias Computacionales del Instituto Tecnológico de Massachusetts (MIT), ha creado un programa informático capaz de detectar de manera mucho más precisa y automatizada estas alteraciones, ofreciendo un diagnóstico más fiable y precoz a partir de la misma prueba.

Para ello se han valido de los datos recogidos en el Lahey Hospital, un centro médico a las afueras de Boston (EE UU), que desde hace nueve años realiza el test del reloj utilizando un bolígrafo digital que captura en el ordenador los dibujos realizados por los pacientes, además de registrar el proceso de creación de los mismos con gran precisión. Este bolígrafo no fue creado expresamente para este fin, sino que se trata de un dispositivo comercial que incluso se puede comprar por internet. Sin embargo, ha venido como anillo al dedo para recoger la información necesaria de manera precisa y con un registro temporal, es decir, sabiendo en todo momento dónde está la punta del bolígrafo y, por tanto, si el paciente hace una pausa o duda a la hora de escribir.

En el alzhéimer, los cambios en el cerebro pueden empezar a producirse diez o más años antes de que las alteraciones cognitivas sean apreciables

Basandose en estos datos, el equipo, liderado por los investigadores Cynthia Rudin y William Souillard-Mandar del MIT, ha creado un programa informático capaz de interpretar y evaluar automáticamente el test del reloj, aumentando la precisión y eliminando la subjetividad de una evaluación realizada por humanos. “Hemos mejorado el análisis, de manera que es automático y objetivo” explica Rudin. “Con el equipamiento adecuado es posible obtener un resultado rápido y más preciso”. Los resultados se han sido aceptados para su publicación en la revista Machine Learning.

Para crear el programa, el equipo de Rudin y Souillard-Mandar ha utilizado una serie de casos ejemplares para enseñar a la máquina qué es lo que debe buscar. “Estos ejemplos ayudan a calibrar el poder predictivo de cada una de las partes del dibujo” ha explicado Souillard-Mandar.  “Gracias a ellos, hemos podido extraer miles de rasgos del proceso de dibujo que dan pistas acerca del estado cognitivo de cada sujeto, y nuestros algoritmos ayudan a determinar cuáles de ellos llevan a la predicción más fiable”.

Cuando la memoria está afectada, el periodo de reflexión se alarga

Los distintos desórdenes se revelan de diferente manera en el test del reloj. Por ejemplo, mientras que es normal que los adultos sanos pasen más tiempo pensando que dibujando, cuando la memoria está afectada, el periodo de reflexión se alarga. Por otra parte, en el caso del párkinson, los enfermos tienden a necesitar más tiempo para dibujar los relojes que, a su vez, tienden a ser más pequeños, sugiriendo que les está costando un mayor esfuerzo realizar la tarea. Estas consideraciones se podían pasar por alto en la prueba tradicional, ya que, en muchas ocasiones, el médico no ve en detalle cómo el paciente realiza el dibujo, sino tan solo el resultado final.

Este trabajo no sólo permite diagnosticar mejor una serie de patologías muy graves para quienes las sufren, sino que además ofrece un gran avance a la hora de automatizar procesos que pueden resultar tediosos y poco eficientes cuando se realizan por humanos. Una vez conseguido el propósito inicial de demostrar la eficacia de su método, el equipo científico ya se dispone a desarrollar un sistema sencillo que permita tanto a los neurólogos como a los no especialistas utilizar esta tecnología en los hospitales y centros de salud.
Fuente:
google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0