Latest Posts:

Mostrando las entradas con la etiqueta linguistica. Mostrar todas las entradas
Mostrando las entradas con la etiqueta linguistica. Mostrar todas las entradas

25 de febrero de 2011

Bilingüismo y Alzheimer

Si quieres protegerte contra los efectos del Alzheimer, unas de las mejores cosas que puedes hacer es aprender otro idioma. Al menos eso se desprende de un reciente estudio cerebral que muestra que los cerebros de las personas bilingües funcionan mejor y durante más tiempo, tras desarrollar la enfermedad.

El estudio lo realizó la psicóloga Ellen Biaslystok y sus colegas de la Universidad de York en Toronto (Canadá), que monitorizó los cerebros de 450 pacientes diagnosticados con Alzheimer mediante tomografía axial computarizada (CT). La mitad de estos pacientes eran bilingües, y la otra mitad solo hablaba un idioma.

Todos los pacientes tenían un nivel cultural similar. Los investigadores descubrieron que la media de edad a la que se diagnosticaba el mal a las personas bilingües era cuatro años superior a la de los monolingües.

Su hallazgo se publicó el 18 de febrero durante la reunión anual de la Asociación Americana para el Avance de la Ciencia.

Curiosamente, los CT mostraron que en pacientes que parecían atravesar el mismo grado de enfermedad, los bilingües mostraban un deterioro mental mayor que los que solo hablaban un idioma. No obstante, esta diferencia no era aparente desde el punto de vista del comportamiento del paciente, o en sus habilidades para operar. Las personas bilingües actuaban igual que los pacientes monolingües cuya enfermedad estaba menos avanzada.

Al parecer la explicación a este efecto protector podría tener que ver con cierta red cerebral llamada sistema de control ejecutivo que parece ser la base para nuestra habilidad de pensar en formas complejas, y que controla la atención y todo aquello que hace único al pensamiento humano.

Según esta teoría, las personas bilingües tienen que ejercitar constantemente este sistema cerebral para evitar que uno de los dos lenguajes que dominan interfiera con el otro. Sus cerebros deben hacer búsquedas a través de varias opciones (en ambas lenguas) para elegir cada palabra, lo cual confiere a sus cerebros un beneficio cognitivo.

Tal y como comentan los científicos, no es que el bilingüismo evite la enfermedad, sino que hace que un paciente se maneje con ella de forma más eficiente.

Esto no solo funciona con personas que viven en áreas bilingües como Quebec o Cataluña, sino que también es útil para aquellos que como yo, aprendimos un idioma extranjero siendo jóvenes.

Me enteré leyendo Livescience.

Fuente:

Maikelnais Blog

24 de febrero de 2011

El ser humano tiene quien le escriba: la máquina


Stats Monkey promete crónicas e informes a partir de datos, sin edición ni intervención humana.

El Filósofo Mecánico Universal, la máquina grande como una habitación capaz de producir una cantidad infinita de frases combinando las palabras que imaginó el escritor argentino Juan Rodolfo Wilcock, ya está aquí.

Conocer Ciencia les ofrece la obra completa de Wilcock "La sinagoga de los Iconoclastas", donde encontrará cuento "Absalon Amet" en la página 40. Este es el enlace.

Eso sí, no hace falta una habitación, basta una computadora, la tecnología de la inteligencia artificial pone el resto: programas capaces de hacer resúmenes inteligentes y hasta escribir crónicas periodísticas o informes económicos.

El revuelo causado por la supercomputadora Watson al ganar concurso de preguntas y respuestas de la televisión estadounidense Jeopardy no ha servido más que de recordatorio de que una máquina ya es capaz de aprender. Que piense como una persona parece algo cada vez más cercano.

Más allá de las conocidas herramientas de traducción de Google –que todavía están en un estadio relativamente primitivo–, dos ejemplos de avances son los de Topicmarks y Stats Monkey.

El primero promete "resúmenes inteligentes en minutos para no tener que leer textos extensos". El segundo asegura que, con pulsar un botón, es capaz de convertir una base de datos en una crónica o un informe. Es decir, le das las estadísticas de un juego deportivo y escribe la noticia, sin periodista, pero con titular y foto del jugador más destacado.

El problema de los matices

Hasta ahora las máquinas manejaban textos, en realidad datos, palabras concretas. Pero cada vez están más cerca de perfeccionarse en su capacidad para trabajar con significados, y de ahí a que puedan entender hay tan sólo un paso.

Algo que de momento se resiste es la traducción. Como explica la experta en tecnología de la BBC L. J. Rich, el problema de la tecnología que emplea Google Translator es que "de momento es demasiado literal y carece de los matices de alguien que habla la lengua".

De hecho, incluso Google reconoce que "puede pasar bastante tiempo hasta que alguien pueda ofrecer traducciones con calidad humana".

Eso para la traducción. No parece ocurrir lo mismo con el resumen, pues Topicmarks ofrece hacerlo de forma "inteligente en minutos". Su objetivo: que sea cosa del pasado el engorro de tener que leer textos extensos cuando no se quiere.

Con la declarada intención de revolucionar la lectura de la misma forma que la web lo hizo con la difusión de información, Topicmarks asegura que su software es capaz de "entender la esencia y retener cada uno de los hechos".

Según le explicó a BBC Mundo el presidente de Topicmarks, Roland Siebelink, en lo que trabajan ahora es "en mejorar la interface para hacerlo más amable al usuario del día a día".

Además, aunque de momento sólo está en inglés, según Siebelink, "ya está siendo usado por muchos hispanohablantes y de otros idimoas que se ven obligados a manejar documentos en inglés. Les facilita la labor mucho más que si fuera su lengua materna".

"En dos años, tal vez un año y medio, planeamos que esté disponible no solo en español, sino en alemán, japonés, coreano y tal vez en portugués", agregó.

¿Y hasta escribir crónicas?

Pero Topicmarks se limita a resumir. El Laboratorio de Información de la Universidad de Noroeste (EE.UU.) asegura que su tecnología redacta crónicas periodísticas e informes.

Comenzó con reportes de partidos de béisbol, a partir de la combinación de dos tecnologías: la primera toma modelos estadísticos y así se representa qué es lo noticioso analizando los cambios, los resultados y las probabilidades de victoria.

La segunda incluye una librería de giros narrativos para describir la dinámica del juego.

Así empezó, pero pronto traspasó las fronteras del deporte. Ahora es comercializado por la empresa estadounidense Narrative Sciencie, que asegura que es capaz de "transformar datos en contenido editorial de alta calidad".

"Nuestra tecnología genera piezas periodísticas, informes industriales, titulares y más, sin la intervención humana o edición. Las narraciones pueden ser creadas desde casi cualquier conjunto de datos, sea números o textos, estructurados o no", asegura la compañía.

Los autores del proyecto prometen que además es capaz de redactar un titular, seleccionar una foto del protagonista más destacado y hasta incluir citas y declaraciones, siempre que estén disponibles.

Un auténtico periodista robot, que tal vez con eso de "librería de giros narrativos" incurra en exceso a los tópicos, pero que al menos no comete faltas de ortografía.

Fuente:

BBC Ciencia & Tecnología

21 de febrero de 2011

El lenguaje ayuda a entender las Matemáticas

El lenguaje juega un papel importante en el aprendizaje del significado de los números, según revela un estudio conducido por la psicóloga Susan Goldin-Meadow, de la Universidad de Chicago (EE UU).


En una investigación con personas sordas de Nicaragua que no habían aprendido el lenguaje de signos "formal", Goldin comprobó que eran incapaces de entender el valor de números más allá del tres, debido a que no manejaban un lenguaje con los símbolos necesarios para contar. Por el contrario, las personas sordas que manejaban el lenguaje de signos desde la infancia sí podía aprender y entender el significado de grandes cifras. El estudio se ha publicado en el último número de la revista PNAS.

El estudio revela que el lenguaje da forma al modo en que los niños aprenden conceptos matemáticos. "No es sólo el vocabulario lo que importa, sino entender las relaciones que hay entre las palabras – el hecho de que ‘ocho’ es más que siete y menos ‘nueve’-" aclara Goldin-Meadow. "La investigación no determina qué aspectos del lenguaje están haciendo el trabajo, pero sugiere que el lenguaje desempeña un papel importante en la adquisición del número," añade su colega Betty Tuller, de la División de Comportamiento y Ciencias Cognitivas (DBCS) de la Fundación Nacional de Ciencia (NSF) en Estados Unidos, coautora del artículo.

Fuente:

Muy Interesante

30 de enero de 2011

El lenguaje informático Cobol revive medio siglo después

Mientras aumentan los idiomas binarios disminuyen los hablados - El código reservó dos dígitos para las fechas, lo que causó la alarma de 2000.

Cobol revive medio siglo después de su nacimiento. Se acaba de actualizar con Visual Cobol. Nacido en 1960, Cobol fue el primer lenguaje informático pensado para empresas.


Cuando se plantea la necesidad de desarrollar una nueva aplicación informática, una de las primeras decisiones críticas se refiere al lenguaje de programación que se va a utilizar. Y no es una decisión fácil. Existen nada menos que casi un millar de lenguajes diferentes (según Wikipedia, 769, más unas cuantas docenas de opciones, extintas o simplemente olvidadas).

Como comparación, el número de lenguas habladas es en torno a 6.900, según Ethnologue, pero en alarmante disminución. Los lingüistas más optimistas opinan que a final de siglo quedarán la mitad; según los pesimistas, apenas serán 600.

Los nombres de algunos lenguajes informáticos resultan incluso más familiares que los humanos. Alguien ha oído hablar de Basic o Java, pero nadie del bikya, idioma que habla -o hablaba- una persona de Camerún.

Cierto es que otras lenguas informáticas son ensaladas de siglas: SNUSP, Occam-Pi, Not Quite C... Y alguno hay que cuya sola mención -y no digamos su sintaxis- denota cierto nivel de freakismo. Por ejemplo, un invento angloaustraliano llamado SPL (Shakespeare Programing Language), que se caracteriza por manejar código fuente "hermoso". Parece el texto de una obra de teatro recién salido de la pluma del propio William.

Pero la mayor parte del trabajo comercial se desarrolla utilizando un puñado de lenguajes, establecidos como estándares. De un tiempo a esta parte han proliferado aquellos cuyo nombre empieza por "Visual...": Visual Basic, Visual C, Visual Java, Visual Objects... Curiosamente, entre ellos no figuraba ningún Visual Cobol. Hasta ahora en que se anuncia una nueva reencarnación de este producto (www.microfocus.com).

Las nuevas generaciones de programadores pueden considerar al Cobol una rareza arqueológica, puesto que su aparición se remonta a 1960. Fotran y Cobol fueron los primeros lenguajes de programación disponibles en lo que entonces era el exclusivo mundo de las grandes máquinas. Fotran iba dirigido a la comunidad de científicos y matemáticos; Cobol (Common Bussiness Oriented Language) estaba orientado a aplicaciones financieras y empresariales: nóminas, cálculos actuariales, gestión de ventas y aprovisionamientos, por ejemplo.

Estos lenguajes -y todos los que les siguieron- tenían el objetivo de simplificar las tareas de programación. Hasta entonces, ese era un trabajo lento, tedioso y muy propenso a errores, puesto que los programadores debían escribir en el único dialecto que la máquina comprendía: abreviaturas crípticas o interminables ristras de números.

Ha pasado medio siglo. Docenas de nuevos lenguajes han nacido y desaparecido, pero Cobol sigue presente, sobre todo en los sistemas informáticos de las grandes corporaciones. Se estima que en todo el mundo hay escritos unos 300.000 millones de líneas de código Cobol. Si las imprimiésemos producirían una montaña de papel de más de 600 kilómetros de altura.

Los programas Cobol están presentes de alguna manera en el 80% de sistemas empresariales. Gestionan cajas registradoras, contabilidades bancarias, nóminas de multinacionales, hospitales, sistemas logísticos o simples llamadas de telefonía celular. No hay actividad económica de cierto volumen que no dependa de estas aplicaciones.

Basta recordar la ola de aprensión que desencadenó hace años el famoso Efecto 2000. Tenía su causa en que el Cobol original, avaro con la escasa memoria disponible en los primeros equipos, había reservado sólo dos dígitos para guardar el año en todas las fechas.

Al "dar la vuelta al cuentakilómetros" de los años se corría el riesgo de que el "00" provocase un caos informático puesto que nadie sabía a ciencia cierta cuántos programas ejecutarían cálculos erróneos al confundir el 1900 con el 2000. Eso exigió una masiva campaña mundial de revisión de software (y una nueva versión de Cobol) antes de llegar a la fecha fatídica. Al final, los desastres vaticinados, desde aviones estrellados hasta nucleares fuera de control, nunca llegaron a ocurrir.

Con semejantes antecedentes, es comprensible que uno se lo piense dos veces antes de jubilar una aplicación que funciona sustituyéndola por otra escrita en lenguajes más modernos, por grandes que sean las ventajas que esta ofrezca.

El resultado es que muchas empresas siguen basando el núcleo de sus operaciones en código que fue escrito hace mucho tiempo. Algunos de sus autores llevan ya años jubilados, mientras las nuevas promociones de programadores Cobol -varios cientos de miles en todo el mundo- siguen adaptando esos venerables programas a las nuevas necesidades: entornos gráficos, Internet, almacenamiento en la nube...

Para ser un lenguaje que algunos califican de obsoleto, al año se siguen escribiendo 5.000 millones de líneas en Cobol, una actividad que para sí la quisieran las 500 lenguas en peligro de extinción.

Fuente:

El País Tecnologîa

Las palabras más largas son las más informativas

En cuestión de palabras, el tamaño sí importa. Eso es lo que asegura una investigación del Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés), en EEUU. El investigador Steven T. Pintadosi y su equipo creen que el factor más importante a la hora de predecir la longitud de una palabra es su carga informativa. Es decir, a mayor cantidad de matices, más sílabas, como por ejemplo en el caso de 'negro' y 'negruzco'. Este estudio supone una firme alternativa a la teoría tradicional, que sostiene que el tamaño de las palabras tiene más que ver con la frecuencia con que las utilizamos.



Hace más de 50 años, el lingüista de Harvard George Kinglsey Zipf argumentó que si una palabra es más corta que otra, lo más probable es que se deba a que también es más habitual. ¿El motivo? La búsqueda de la eficiencia comunicativa: decir más con menos. Sin embargo, la teoría de Zipf no tiene en cuenta el contexto que rodea a las palabras en una frase.

Para intentar suplir esta laguna, los investigadores del MIT han elaborado una teoría alternativa según la cual las palabras está más determinado por la cantidad de información que una palabra aporta dentro de su contexto que por su frecuencia de uso.

La nueva teoría

Los investigadores trabajaron con palabras de 11 idiomas distintos que encontraron en el buscador Google. Las lenguas objeto del estudio fueron inglés, alemán, holandés, checo, francés, italiano, polaco, portugués, rumano, español y sueco.

Como resultado de la investigación -y contradiciendo a Zipf- nuestro léxico no sería el más conciso de los posibles porque no acorta las palabras más informativas (poca eficiencia comunicativa). Asimismo, los investigadores también creen que las sílabas más informativas duran más porque el propio lenguaje se modula para evitar comunicar demasiado en poco tiempo.

Matemáticas para medir palabras

Los investigadores sostienen que la cantidad de información contenida en una palabra depende de su contexto y por eso para elaborar su teoría utilizaron dos variables que llamaron C (contexto) y W (‘word’, palabra en inglés). Esas dos variables se juntan en un punto P. Finalmente, se obtiene una ecuación que serviría para predecir la longitud de cada palabra.

Uno de los problemas metodológicos a los que los expertos tuvieron que hacer frente es que el contexto se compone de muchos factores, pero para acotar el experimento sólo tuvieron en cuenta palabras cercanas en el mismo discurso. Además, también hay diferentes maneras de medir la longitud de una palabra, pero los investigadores se limitaron a su longitud ortográfica porque suele coincidir con la fonética y con el tiempo que tardamos en pronunciarlas. En el caso del inglés, alemán y el holandés tomaron en cuenta el número de fonemas y de sílabas.

Partiendo de esta base, los investigadores del MIT calcularon para cada idioma la correlación entre contenido informativo y longitud, así como entre frecuencia y longitud con la ayuda del llamado coeficiente ente de correlación de Spearman -que relaciona dos variables aleatorias continuas-. Para ello, trabajaron con tres bloques de palabras, cada uno con vocablos más largas que el anterior y comprobaron que, a medida que las palabras aumentaban de tamaño, su cantidad de información también.

Para asegurarse de que los resultados del estudio no estaban condicionados por la base de datos de Google, los investigadores volvieron a hacer este estudio –esta vez sólo con el idioma inglés- utilizando el Corpus Nacional Británico (BNC, por sus siglas en inglés

Fuente:

El País Ciencia

26 de enero de 2011

Los astrónomos buscan la colaboración pública para la definición de galaxia

Nadie está seguro de cómo definir una galaxia. Por lo que los astrónomos están acudiendo a la inteligencia de las masas buscando ayuda.

Definir una galaxia parece simple. Todos sabemos qué es una galaxia, ¿no?. Sorprendentemente, no hay una definición universal, y las que normalmente se usan, dejan un gran espacio para la duda.

Todo esto se ha puesto de relieve en los últimos años gracias al descubrimiento de un creciente número de tenues objetos similares a galaxias que eran desconocidos hasta ahora. Estos objetos han recibido diversos nombres, tales como enanas ultra-compactas, galaxias esferoidales enanas ultra-tenues y galaxias elípticas enanas.

Pero no está nada claro si tienen más en común con las galaxias o con los cúmulos globulares, los cuales los astrónomos no creen que sean galaxias.

Esto hace que el problema de definir una galaxia sea una preocupación cada vez mayor.

Entonces, ¿qué hacer? Hoy, Duncan Forbes de la Universidad de Swinburne en Australia y Pavel Kroup de la Universidad de Bonn en Alemania proponen una novedosa solución. Esbozan varias características en las que piensan los astrónomos cuando clasifican galaxias.

Éstas incluyen factores tales como la presencia de estrellas, por lo que las nubes de gas no pueden definirse como galaxias; estar ligadas gravitatoriamente, por lo que el material que ha sido arrancado por otra galaxia no contaría; si el sistema es estable o no; si alberga una buena variedad de distintos tipos de estrellas, lo cual excluye a los cúmulos globulares que contienen sólo estrellas similares; y si se mantiene unida por la materia oscura, como parece suceder en muchas galaxias.

Hay otros factores, desde luego. (Aunque no incluyen la presencia de una agujero negro en el centro de la galaxia como una característica definitorio, lo cual es raro, dado el creciente interés por el vínculo entre la evolución galáctica y los agujeros negros).

Forbes y Kroup pasan a sugerir que la mejor forma de lograr un consenso es hacer una encuesta pública sobre el problema. En otras palabras, quieren usar la inteligencia de la masa para determinar qué factores son importantes y cuáles no.

Han creado un sitio web para solicitar opiniones a través de un estudio. Para tomar parte, simplemente lee su artículo y contesta a sus preguntas.

Puede ayudar a considerar las actuales definiciones de galaxia, que son sorprendentemente vagas.

Aquí tienes una definición de galaxia extraída del Diccionario Oxford de Inglés: “Alguno de los numerosos grandes grupos de estrellas y otra materia que existe en el espacio como sistemas independientes”.

Esto incluye distintos objetos que los astrónomos no creen que sean galaxias, tales como cúmulos globulares, los cuales no tienen una gran variedad de estrellas, u otros objetos tales como enanas ultra-compactas que no parecen situarse en una región de materia oscura, como nuestra galaxia.

La definición de Wikipedia es un poco más exhaustiva: “Una galaxia es un sistema masivo gravitatoriamente ligado que consta de estrellas y remanentes estelares, y un medio interestelar de gas y polvo, y un importante componente, aunque poco comprendido, conocido provisionalmente como materia oscura”.

Pero incluso así, se pasan por alto varias características que los astrónomos creen que son importantes, tales como dominar el entorno local, de la forma en que la Vía Láctea domina a los cúmulos globulares cercanos.

Haciendo una encuesta pública sobre la opinión, Forbes y Kroup esperan evitar la controversia que ha rodeado el cambio en la definición de planeta que adoptó la Unión Astronómica Internacional hace unos años, y que llevó consigo el degradado de Plutón. Dicen que esto ha sido muy impopular entre ciertos astrónomos y el público en general.

Si la popularidad es una buena medida del éxito de una definición, es un punto discutible. Pero será interesante ver qué tipo de definición surge a partir de esta aproximación.

Tomado de:

Ciencia Kanija

24 de enero de 2011

Los beneficios de ser bilingüe se aprecian desde los 2 años

Una investigación realizada por científicos canadienses y franceses revela que los niños de dos años de edad bilingües tienen importantes beneficios cognitivos "mucho antes de lo que habían mostrado estudios previos". Las conclusiones se publican en la revista Journal of Experimental Child Psychology.

En sus experimentos, Diane Poulin-Dubois y sus colegas analizaron la comprensión del inglés y el francés en un grupo de 63 niños de 24 meses de edad, para ver si aquellos que eran bilingües mostraban diferencias. Y comprobaron que a los 2 años "los niños bilingües ya habían adquirido un vocabulario en cada uno de sus dos idiomas, al tiempo que presentaban cierta destreza a la hora de cambiar de uno a otro".

Además, observaron que los niños bilingües superaban las pruebas cognitivas con mejores resultados que el resto, que en muchos casos "se mostraron distraídos". Según los autores, esta mayor atención de los niños bilingües podría deberse a que "están acostumbrados a escuchar y usar ambas lenguas".

Fuente:

Muy Interesante

19 de enero de 2011

Dime qué escribes en Twitter y te diré de dónde eres

Un equipo de investigadores de la Universidad Carnegie Mellon (EE UU) ha llegado a la conclusión de que analizando las palabras que emplean los usuarios de Twitter es posible averiguar dónde viven.

En su estudio, Jacob Eisenstein y sus colegas examinaron 380.000 mensajes de Twitter enviados desde Estados Unidos durante una semana. En total, examinaron 4,5 millones de palabras, que revelaron que la plataforma de microblogging está llena de localismos que denotan una zona geográfica concreta. Por ejemplo, la palabra "cool" (agradable) tiende a escribirse abreviada como "coo" en California del Sur, mientras sus vecinos del norte utilizan "koo". Y la palabra "suttin", como abreviación de "something" (algo), correspondía a mensajes procedentes de la ciudad de Nueva York. Por otra parte, para decir que están muy cansados, en California suelen escribir "hella tired", mientras los neoyorkinos optan por "deadass tired" y en Los Ángeles están, simplemente, "tired af".

Scott Kiesling, profesor adjunto de lingüística en la Universidad de Pittsburgh, subrayó que Twitter proporciona a los investigadores grandes cantidades de información de fácil acceso que permite explorar y examinar las tendencias de la comunicación entre las personas. Además, los investigadores advierten que es un error asumir que la mayor interconectividad de las personas gracias a las redes sociales hará que los lenguajes se homogenicen, ya que siguen existiendo círculos sociales geográficos.

Fuente:

Muy Interesante

7 de diciembre de 2010

El alfabeto como máquina de generar ideas nuevas


Creemos que las ideas surgen del simple runrún de nuestra cabeza. Sin embargo, hay elementos coadyuvantes tanto dentro como fuera de nuestra cabeza, estímulos que pueden permitirnos alcanzar ideas más nuevas de una forma inédita hasta el momento.

Según Eric Havelock, experto en lenguas clásicas, y David Olson, psicólogo, el alfabeto sería uno de estos elementos que estimularían nuestro magín. Su retadora hipótesis es que la eficacia del alfabeto griego condujo a una transformación sin parangón del pensamiento humano.

Al liberar a la gente de una tradición verbal, la eficacia del alfabeto nos permitió liberarnos también de restricciones como la memorización o las estrategias metacognitivas para conservar la cultura oral.

Tales estrategias, por impresionantes que fueran, tenían un coste. A veces de manera sutil, en ocasiones abiertamente, la dependencia del ritmo, la memoria, las fórmulas y la estrategia constreñían lo que podía decirse, recordarse y crearse.

Lea el artículo completo en:

22 de noviembre de 2010

Siete cosas que no sabías sobre los efectos de la música

1. Mejora el vocabulario. De acuerdo con una reciente revisión publicada en la revista Nature Reviews Neuroscience por Nina Kraus, de la Universidad Northwester (EE UU), durante el entrenamiento musical para tocar un instrumento se establecen conexiones neuronales que mejoran también otros aspectos de la comunicación humana. De ahí que los niños con formación musical tengan un mejor vocabulario y capacidad de lectura. También explica por qué los músicos son capaces de escuchar mejor una conversación cuando hay ruido de fondo que el común de los mortales.
2. ¿Música de fondo? Tanto si reproducimos una canción de Lady Gaga como si optamos por un disco de música clásica, escuchar música mientras desarrollamos una tarea cognitiva -como estudiar o redactar un informe- reduce el rendimiento, según un artículo publicado hace poco en Applied Cognitive Psychology. Lo mejor en estos casos, dicen sus autores, es el silencio.

3. Ritmo para hacer deporte. Científicos de la Universidad de Brunel demostraron en 2008 que escuchar cierto tipo de música, fundamentalmente de los géneros rock y pop, podemos aumentar nuestra resistencia al ejercicio físico intenso hasta un 15%. El estudio fue publicado en la revista Journal of Sport & Exercise Psychology.

4. La música, por la izquierda. Según un estudio realizado hace unos años en las universidades de California y Arizona (EE UU) y publicado en Science, el oído derecho recoge mejor los sonidos del habla, mientras que el izquierdo, responde mejor a la música. "Incluso al nacer, el oído está estructurado para distinguir entre los diferentes tipos de sonidos y enviarlo al lugar correcto en el cerebro", concluía una de las autoras del estudio, Barbara Cone-Wesson.

5. Música y alcohol. La música alta en los bares incita a beber más alcohol en menos tiempo, según una investigación francesa difundida en 2008 por la revista Alcoholism: Clinical & Experimental Research. Además, cuanto más alto es el volumen de la música más rápido se consume la bebida.

6. Buena para la circulación. Científicos del Centro Médico de la Universidad de Maryland han demostrado que escuchar música puede beneficiar al sistema cardiovascular tanto como hacer ejercicio o tomar ciertos medicamentos. Concretamente, analizando la respuesta de los vasos sanguíneos con ultrasonidos mientras escuchamos música, Michael Miller y sus colegas comprobaron que el diámetro de los vasos, medido en la parte alta del brazo, aumenta un 26% con nuestra música favorita. En contraste, la música que calificamos como estresante hace que los vasos se contraigan un 6%. Los experimentos mostraron también que escuchando canciones que invitan a reír los vasos sanguíneos se dilatan un 19%, mientras que la música relajante produce una expansión del 11%.

7. Con los ojos cerrados. Estudiando los cerebros de 15 sujetos con ayuda de resonancia magnética funcional, Yulia Lerner, de la Universidad de Tel Aviv, demostró el año pasado que cerrar los ojos aumenta el efecto emocional que nos produce la músca. Concretamente la doctora Lerner utilizó música de miedo del estilo de la empleada por Alfred Hitchcock en sus películas.Y comprobó así que la actividad de la amígdala, una zona del cerebro vinculada a la sensación de miedo, aumentaba mucho más con los ojos cerrados que si se mantenían abiertos.

Fuente:

17 de noviembre de 2010

Lectura fría en 13 pasos

El otro día estaba leyendo un artículo (más) sobre una prueba en el que las timopulseras volvían a demostrar que no tienen más efecto sobre el equilibrio y el rendimiento físico que un cromo de los que salen en los Bollycaos.

Al final de un párrafo de ese artículo, el autor deja caer lo siguiente:

I won’t speculate about how this device might work as I am in the Ray Hyman school that says let’s establish that it actually does work before trying to figure out how it works.

(No especularé acerca de cómo podría funcionar este dispositivo porque soy de la escuela de Ray Hyman que dice «vamos a averiguar si funciona antes de intentar averiguar cómo funciona».)


Además de que me parece una filosofía de lo más razonable, me puse a buscar quién era ese tal Ray Hyman. El hombre no decepciona: pertenece a ese grupo de magos que también son psicólogos (otro ejemplo lo tenemos en Richard Wiseman). Además de haber producido numerosas publicaciones académicas y divulgativas, destaca entre sus obras una guía para entender la lectura en frío en 13 cómodos pasos.

La lectura en frío, para los que todavía no conozcan la técnica, es el conjunto de técnicas empleadas por adivinos, echadores de cartas, lectores de mentes y demás farsantes para hacer ver que le están contando a su víctima cosas que ésta sabe pero no ha dicho a nadie: cómo se llamaba su abuelo, lo bonita que era la casa en la que vivían en el campo cuando era pequeña, que tiene preocupaciones monetarios y un largo, triste y lucrativo etcétera. El truco principal consiste en estudiar al sujeto sobre el cuál se quieren adivinar detalles y ver cómo va guiando inconscientemente al lector a través de numerosos detalles (principalmente, el lenguaje corporal y las expresiones faciales).

No es fácil engañar a alguien de esta forma, pero aquí están las 13 sugerencias de Hyman:

1. Recuerda que el paso principal para una lectura exitosa es la confianza. Que parezca que sabes lo que haces.

2. Haz un uso creativo de las últimas publicaciones estadísticas y encuestas. Por ejemplo, si eres capaz de averiguar el entorno social y religioso del sujeto a estudiar quizá puedas adivinar sus preferencias en asuntos políticos y su actitud hacia muchos otros temas.

3. Prepara el escenario. Que parezca que eres humilde en lo tocante a tu don. No realices afirmaciones excesivas.

4. Consigue la cooperación del sujeto antes de empezar. Pon énfasis en que el éxito de la lectura requiere cooperación por su parte; incide en que así va a aprender cosas nuevas sobre su ser.

5. Elabora algún montaje: cartas del Tarot, bolas de cristal, lectura de manos… Sirven para darle una atmósfera misteriosa a todo el evento y además permiten obtener tiempo para pensar en la siguiente pregunta o afirmación.

6. Ten una lista de frases listas para usar. También permiten ganar tiempo. Los manuales de Tarot y lectura de manos son una buena fuente de frases.

7. Mantén los ojos abiertos: cualquier detalle sobre el individuo (forma de vestir, forma de hablar, joyería) proporciona datos valiosos.

8. Usa la técnica de la pesca [nota: en el original, fishing, directamente. Quizá tenga otra traducción en el mundillo]. No es más que una técnica para conseguir que el sujeto hable de sí mismo. Luego se puede volver a decir eso con otras palabras para que parezca que el origen está en la lectura y no en él. Una forma de hacerlo es convertir las afirmaciones en preguntas y esperar a la respuesta.

9. Aprende a escuchar. El sujeto estará deseando hablar sobre esos eventos que están saliendo a la luz. La mayoría de las personas que buscan los servicios de uno de estos charlatanes muchas veces están deseando hablar de sus problemas.

10. Dramatiza la lectura. Haz que todo parezca mucho más importante de lo que en realidad es.

11. Da siempre la impresión de saber más de lo que estás contando. Una vez que hayas convencido al sujeto de que sabías algo que de ninguna manera podrías haber averiguado, podrás dar la impresión de que en realidad lo sabes todo.

12. No dudes en halagar al sujeto a la mínima oportunidad.

13. La Regla de Oro: dile siempre al sujeto lo que quiere oír.

Si no cobrasen unos precios desorbitados por sus servicios, esta primavera me iría al Retiro, me sentaría en las sillas de los diversos tarotistas que se sientan por allí esperando a que caiga algún incauto y empezaría a tachar elementos de la lista. Intuyo que quedarían pocos sin marcar.

Fuente:

3 de noviembre de 2010

Lectura tradicional o web 2.0 ¿sólo puede quedar una?

Dos noticias con las que nos hemos levantado estos días me hacen dudar del modelo que se está tomando. La primera de ellas hace referencia a Rupert Murdoch y su mensaje fallido. Los prestigiosos Times y Sunday Times están a punto de conseguir 200.000 suscriptores en sus ediciones digitales de pago, buena noticia, aunque la información la debemos ver desde otro prisma, más bien, Times ha perdido alrededor del 90% de sus lectores con su paso a la edición de pago. Tremendo y una malísima noticia para todo aquel que le guste leer buenos artículos. De 21 millones de usuarios únicos al mes ha pasado a 2,7 millones, aunque también vale decir, que sus ingresos se multiplican (claro que a costa de unos pocos). Muchos aún creen que, primero los blogs y luego las redes sociales (con Twitter a la cabeza) son la gota que está hundiendo al sector, idea totalmente equivocada y fuera de contexto.

La otra noticia tiene que ver con la lectura, la literatura de toda la vida y la llegada de las tabletas o eBooks y el uso que se hace de ellas a través de la web. En su momento, la entrada de estos soportes harían resurgir a la literatura en una segunda época dorada. Pues bien, desde la salida del iPad (sobre todo), Kindle y el resto de libros electrónicos, las ventas de libros (de cualquier temática) no sólo han bajado, sino que desde el mes de enero de este año hasta junio, las pérdidas ascienden a 400 millones. ¿Por qué? parte de culpa la tiene la piratería y software gratuito que existe en la red para descargar librerías con extensiones PDF, ePub, CBR o CBZ con cientos de libros, cómics o material educativo, y otra parte, suponemos, no saber cimentar o fomentar la lectura, de adaptarla. Aún así, el dato suena a apocalipsis.


Sumemos las dos noticias. En ambas Internet y su transformación a la web 2.0 aparece como el eje del mal de todos las pérdidas. ¿Puede ser Internet el verdugo de la lectura tradicional? Yo nunca lo pensé así, la tecnología debía adoptar las viejas costumbres y transformarlas en un nuevo negocio igual de lucrativo para todos (empresa y consumidor). Jamás pensaré que la web 2.0 es el principio del fin de un negocio que enriquece a la sociedad en todos los sentidos, simplemente, aún no ha llegado el modelo que triunfará y que aunará los dos mundos, analógico y digital. Ni los blogs, ni Twitter, ni siquiera Facebook son el arma contra el periodismo tradicional ni la web o las aplicaciones que habitan en ella lo son de la literatura de papel.

Pienso que tiene más que ver con ese período que aún no ha llegado y que todos llevamos un tiempo esperando. El problema ahora mismo, es que no acaba de despegar el trasvase del mundo analógico en el digital. El paso del medio tradicional a Internet está siendo más tortuoso de lo que se pensaba. Los lectores de libros, aunque aumentan en ventas, no consiguen despegar el formato digital y la literatura. La balanza cae por el lado de la piratería y la descarga de copias digitales quintuplica a la venta de cada libro. Por otro lado, en la situación actual y con la Ley en la mano, las operadoras podrían actuar para el bloqueo de la descarga pirata de libros, pero no lo harán (no les sale rentable).

En periodismo, la llegada de una herramienta tan potente como Twitter no ha sido entendida al principio. Todo lo contrario, se creía que era un grano para ejercer las labores periodísticas, o las de un corresponsal. Creo que por ahí anda el cambio. Twitter es el caso más claro de la transformación de la información hoy, la chispa con la que muchos inician y acaban el día y con la que se puede pensar o informar en 140 caracteres para que luego los profesionales desarrollen esta actualidad, porque la actualidad está en Twitter y sucedáneos o en el resto de la ventana digital antes que en ningún otro sitio. Muchos medios digitales gratuitos ya lo empiezan a aplicar como herramienta, y creo que es el camino. El modelo de Murdoch o el mismo Orbyt de El Mundo hacen bien en probar, pero debe ser otro tipo de periodismo. No debe ser necesariamente sobre la actualidad, más que cubierta en los gratuitos o en la blogosfera, sino elaborado y basado en una profunda investigación, ya que el enlace, compartir o difundir la información, clave en las herramientas sociales, no cabe en este modelo, y por lo tanto no se debe tratar igual.

Tomado de:

Bitelia

9 de septiembre de 2010

Los científicos ya pueden 'leer el pensamiento'


Un escàner cerebral para "leer los pensamientos"

Un equipo de científicos de la Universidad de Utah ha dado un paso insólito hacia el ideal de 'leer el pensamiento' de las personas con parálisis avanzada, en un estudio que muestra que es posible traducir las ondas cerebrales en palabras.

El estudio, publicado en la revista especializada Journal of Neuroscience y recogido hoy por varios medios estadounidenses, explica que este hallazgo que parece propio de una película de ciencia ficción fue posible gracias a la colocación de electrodos en el cerebro.

El equipo liderado por el bioingeniero Bradley Greger diseñó un delicado mecanismo que consistía en distribuir los electrodos en dos 'rejillas' del tamaño de un botón que colocaron en los centros del habla del cerebro de un paciente epiléptico.

Los científicos conectaron entonces el sistema de electrodos a un ordenador dispuesto para grabar señales cerebrales y presentaron al paciente 10 palabras que consideraron útiles para una persona paralizada: 'sí', 'no', 'calor', 'frío', 'hambriento', 'sediento', 'hola', 'adiós', 'más' y 'menos'.

A continuación, pidieron al paciente que tratara de repetir las palabras en voz alta, y comprobaron que, en una proporción del 76 al 90% de los casos, el ordenador mostraba las mismas señales cerebrales para cada palabra que las que había enseñado durante el experimento anterior. "No cabíamos en nosotros mismos de la emoción cuando vimos que funcionaba", dijo el profesor Greger.

Un avance en la comunicación

Greger no dudó en calificar el hallazgo de 'lectura del pensamiento' y expresó su esperanza de que "en dos o tres años esté disponible para su uso en pacientes paralizados".

La posibilidad de que pensar en una palabra produzca las mismas señales cerebrales que decirla conduce a Greger a creer que la creación de una máquina de traducción y de repetición de la palabra en cuestión no es nada disparatado.

Un tipo de paciente que podría resultar especialmente beneficiado es, según Greger, el que padece el síndrome de parálisis temporal tras sufrir un ataque. En ese estado, los pacientes suelen comunicarse con movimientos, como el guiño de un ojo, para escoger las palabras de un listado, pero la posibilidad de transmitir lo que piensan supondría un "gran avance" para su autonomía.

El descubrimiento, que de momento sólo ha sido ensayado en ese único paciente, también podría beneficiar a los afectados por la enfermedad de Lou Gehrig o el trauma profundo.

Hasta ahora, la posibilidad de colocar electrodos en la superficie del cerebro ha sido descartada en numerosas ocasiones por el temor a causar daños irreversibles, algo que, según Greger, no ocurre con su método, pues las pequeñas partidas de electrodos sólo se depositan en los centros de habla, "y no se implantan".

En su afán por 'refinar' la máquina de traducción del pensamiento, el equipo liderado por Greger ha aumentado el número de electrodos que se agrupan en la rejilla de 16 a 121 sensores, con el fin de aumentar la precisión de las lecturas.

Fuente:

El Mundo Ciencia

11 de agosto de 2010

Acentuar en español ¡con sólo dos reglas!

Ciertamente pueden parecer un poco embrolladas las normas de acentuación de la lengua castellana. Hay quienes nunca llegan a aplicarlas correctamente porque nunca llegaron a memorizarlas correctamente.

Y ahí radica precisamente su problema: en la memorización. Es mucho más fácil el aprendizaje cuando se comprende el porqué, cuando se ve la lógica del asunto.

El idioma castellano tiende a la simplificación, al mínimo esfuerzo para un máximo rendimiento, a una perfecta concordancia entre sonido y grafía. Y en esta filosofía encaja el sistema de acentuación, que tiene una función utilísima: saber cómo se pronuncia exactamente una palabra que leemos por vez primera y saber cómo se escribe un término que acabamos de escuchar también por primera vez. Y así poder otorgarle un significado preciso.

El método académico tradicional para la explicación de las normas parece demasiado engorroso. Obliga a clasificar las palabras en demasiados grupos (agudas acabadas en vocal, n o s; agudas no acabadas en vocal, n o s; llanas acabadas en vocal…) al que añadir acentos diacríticos y diptongos. Todo junto demasiado lío. Si se aprende bien, perfecto, pero si no se aprende bien…

¿No sería mucho mejor solamente dos normas y un poco de comprensión? Pues claro que sí.

Veamos. Las combinaciones de letras y sonidos en una lengua no son tantas como parece. Por ejemplo, son pocas las letras facultadas para situarse al final de una palabra: las cinco vocales y las consonantes n, s, r, l, d y z. Y entre estas consonantes gozan de mayor profusión la s, por los plurales, y la n, por las terminaciones verbales. (Algunas palabras terminan en otras letras, pero son escasísimas y generalmente se trata de extranjerismos).

Por otro lado, el idioma castellano es llano. La mayoría de palabras tienen su sílaba tónica en la penúltima sílaba.

Así pues, un grandioso porcentaje de términos castellanos son palabras llanas terminadas en vocal, n o s.

¿Y cuáles son las sencillas reglas de acentuación ortográfica?

A efectos de acentuación las palabras se concentran en dos grandes grupos exclusivamente:

1- Las que acaban en vocal, n o s, y que tienden a ser llanas.

2- Las que acaban en cualquier otra letra, y cuya tendencia natural es a ser agudas.

Una vez establecidos estos dos grupos, acentuaremos gráficamente las palabras que violen estas tendencias naturales. Consideraremos a la tilde como una especie de multa que paga la palabra por contravenir la costumbre de su grupo.

Y ya está: dos grupos y un signo de penalización. Eso es todo. Quien comprenda esto dejará de cometer faltas de ortografía.

¿Y qué pasa con las esdrújulas y sobresdrújulas? podría preguntarse alguien.

Las esdrújulas castellanas acaban todas en vocal, n o s, así que entran en el primer grupo. Y las esdrújulas del latín u otra lengua utilizadas en castellano (como déficit, áccesit…), entrarían en el segundo grupo. En ambos casos precisarían tilde.

¿Y qué pasa con los diptongos?

La tendencia natural de los diptongos es formar una sola sílaba, pues la tendencia del castellano es unir las vocales que van juntas. Si se pronuncian como dos deben llevar tilde para pagar penalización por salirse de la norma general.

Y ya está.

¿Y los acentos diacríticos? Que son aquellos utilizados en palabra monosilábicas y en otras para diferenciar palabras homófonas pero no sinónimas.

Pues no plantean ningún problema. Un poco de oído es suficiente.

Por ejemplo (y no colocaremos la tilde necesaria): Si lo se no vengo. Yo si se lo doy.

Aunque no hay acentos, seguro que se ha pronunciado con un golpe de voz más fuerte el segundo , afirmativo, que el primer si, condicional. Y también más fuerte el primer sé (forma verbal) que el segundo se (reflexivo). Y así con todos.

¿No resultan así más fáciles las normas de acentuación? ¿No son en realidad muy simples?

Nota sabionda: Los criterios para escoger los grupos se basan en la simplificación y la economía, como se apuntó anteriormente. Tomando como base el DRAE de 1992, las terminaciones en vocal suman 64.920 palabras sobre un total de 91.968 entradas, y si se les añaden las acabadas en n o s (sin añadir plurales ni terminaciones verbales) la cifra asciende a 72.504. Alrededor del 81% de palabras no necesitan tilde.

Nota sabionda: Los monosílabos con acento diacrítico apenas son 15. Poco trabajo para la memorización si así se prefiere.

Tomado de:

Saber Curioso

3 de agosto de 2010

Dime qué idioma hablas y te diré cómo eres

Uno de los avances clave en años recientes ha sido precisamente la demostración de este enlace causal. Resulta que si se cambia la forma en que la gente habla, también cambia cómo piensa.


Por Lera Boroditsky, Dow Jones

Los idiomas que hablamos moldean nuestra manera de pensar? ¿Simplemente expresan nuestros pensamientos, o las estructuras de las lenguas (sin nuestro conocimiento ni consentimiento) dan forma a los mismos pensamientos que deseamos expresar?

Por ejemplo, en el poema infantil de Rafael Pombo La pobre viejecita, una parte dice: "Nunca tuvo en qué sentarse…". Esta pequeña frase deja ver cuán diferente es un idioma del otro. En español e inglés tenemos que indicar el tiempo del verbo. En este caso decimos "tuvo" en lugar de "tiene". En indonesio no hay necesidad (de hecho, no se puede) cambiar el verbo para marcar el tiempo.

En ruso se tiene que señalar el tiempo y el género; en turco tendría que incluir en el verbo la forma en que adquirió la información. Por ejemplo, si vio a la viejecita con sus propios ojos, usaría una forma de verbo, pero si sólo leyó o escuchó sobre ella, usaría otra forma.

La pregunta es si quienes hablan español, inglés, ruso, indonesio y turco ponen atención, entienden y recuerdan sus experiencias de forma diferente simplemente porque hablan un idioma distinto.

Estas preguntas abordan todas las principales controversias en el estudio de la mente, con implicaciones importantes para la política, las leyes y la religión. Aun así, hasta hace poco no se habían hecho muchos trabajos empíricos al respecto. La idea de que el idioma puede moldear el pensamiento fue considerada por mucho tiempo algo que no se podía probar y a menudo simplemente loca y errónea. Ahora, una ola de nuevas investigaciones científicas del conocimiento muestra que, de hecho, el idioma influye profundamente en cómo vemos el mundo.

Claro, no sólo porque las personas hablen diferente, piensan diferente. En la última década, los científicos han empezado a medir no sólo cómo habla la gente, sino cómo piensa, preguntando si nuestra comprensión de incluso dominios de experiencias fundamentales como espacio, tiempo y causalidad puede ser construida por el idioma.

Por ejemplo, los lenguajes indígenas en Pormpuraaw, una comunidad remota en Australia, no tienen términos como "izquierda" o "derecha". En cambio, utilizan los puntos cardinales absolutos, lo que significa que alguien puede decir "tiene una hormiga en su pierna sudoeste".

Casi un tercio de los idiomas del mundo (unos 7,000) depende de direcciones absolutas para espacio. Como resultado, los que hablan estas lenguas son asombrosamente buenos en orientarse y ubicarse, incluso en lugares poco familiares. Realizan hazañas de navegación que los científicos pensaban estaban por encima de las capacidades humanas. Esta es una manera fundamentalmente distinta de conceptualizar espacio según el idioma.

Las diferencias en la forma en que la gente piensa sobre espacio no terminan allí. Las personas dependen del conocimiento espacial para construir muchas otras representaciones complejas o abstractas, incluyendo tiempo, cantidad, tono musical, relaciones familiares, moralidad y emociones. Así que si los habitantes de Pormpuraaw piensan diferente sobre el espacio, ¿también lo hacen sobre otras cosas, como el tiempo?

Para descubrirlo, mi colega Alice Gaby y yo viajamos a Pormpuraaw y les dimos a los residentes un juego de imágenes que mostraba progresiones temporales (por ejemplo, fotos de un hombre en diferentes edades, o una banana que está siendo comida). Su trabajo era arreglar en el piso las fotos en el orden temporal correcto. Cada persona repitió el ejercicio desde un punto cardinal diferente. Cuando se hizo la prueba con personas que hablan inglés, ordenaron las imágenes de izquierda a derecha. Los que hablan hebreo lo hicieron de derecha a izquierda (el hebreo se escribe de derecha a izquierda).

En Pormpuraaw, las personas arreglaron las imágenes según el punto cardinal que estaban mirando. Por ejemplo, si miraban al sur las ordenaron de oriente a occidente (izquierda a derecha). Cuando miraban hacia el norte, las imágenes quedaron de derecha a izquierda. Mirando al oriente, las fotos quedaron ordenadas hacia su cuerpo, y así sucesivamente. Nunca les dijimos hacia qué dirección estaban mirando, pero no sólo ya lo sabían, sino que usaron espontáneamente esa orientación espacial para construir su representación del tiempo. Y en los idiomas del mundo existen muchas otras formas de organizar el tiempo. En mandarín, el futuro puede estar debajo y el pasado arriba. En el aimara, que se habla en los Andes, el futuro está atrás y el pasado al frente.

Además de espacio y tiempo, los idiomas también configuran cómo entendemos la causalidad. Por ejemplo, en inglés, los eventos son descritos en términos de agentes haciendo cosas "John rompió el florero", incluso para describir accidentes. Los que hablan español o japonés seguro dirán "se rompió el florero". Diferencias como estas tienen consecuencias profundas en la forma de entender los hechos, construir nociones de causalidad y agente, en los recuerdos como testigos y en la forma de culpar y castigar a otros.

Los patrones idiomáticos también configuran muchos otros dominios del pensamiento. Quienes hablan ruso, que hace una distinción adicional entre el azul claro y el oscuro, tienden a visualizar mejor los tonos de azul. La tribu Piraha en el Amazonas brasileño, cuya lengua evita palabras para expresar números a cambio de términos como "poco" o "mucho", no puede registrar cantidades exactas.

Claro, los idiomas son creaciones humanas, herramientas que inventamos y afinamos para que se ajusten a nuestras necesidades. Mostrar simplemente que quienes hablan idiomas diferentes piensan diferente no nos dice si es el idioma el que moldea el pensamiento o a la inversa. Para demostrar el papel causal del idioma, se necesitan estudios que manipulen directamente el lenguaje y busquen sus efectos en la cognición.

Uno de los avances clave en años recientes ha sido precisamente la demostración de este enlace causal. Resulta que si se cambia la forma en que la gente habla, también cambia cómo piensa. Si una persona aprende otro idioma, también aprende una forma nueva de ver el mundo. Cuando alguien bilingüe cambia de un idioma a otro, empieza a pensar diferente. Y si quita la habilidad de las personas de usar el lenguaje en lo que podría ser una tarea simple no lingüística, su desempeño puede cambiar radicalmente, algunas veces haciendo que parezcan tan inteligentes como un bebé.

Las nuevas investigaciones indican que los idiomas que hablamos no sólo reflejan o expresan nuestros pensamientos, sino que también configuran las ideas que deseamos expresar. Las estructuras que existen en nuestros idiomas marcan profundamente la forma en la que construimos la realidad.

Fuente:

El Períódico

6 de junio de 2010

La lengua de la minoría s'aoch camboyana, bajo amenaza de extinción por el progreso

Domingo, 06 de junio de 2010

La lengua de la minoría s'aoch camboyana, bajo amenaza de extinción por el progreso


La lengua de la minoría s'aoch camboyana, bajo amenaza de extinción por el progreso  (Imagen: EFE/Jordi Calvet)
  • Sus hablantes cayeron en desgracia tras la instauración de la dictadura comunista de Pol Pot, que trastocó sus modos de vida y los diseminó.
  • Los últimos miembros de esta comunidad, unas 110 personas, viven perseguidos por la pobreza y el desprecio de casi toda la población.
La minoría s'aoch en Camboya cuenta para salvar su lengua con diez ancianos depositarios de la herencia cultural, porque la juventud está interesada en escapar de la marginación y parecerse a cualquier otro joven de la mayoría jemer.

"S'aoch" es un vocablo jemer que se traduce como "piel que pica" o "piel que escuece", un significado que delata la marginalidad de este colectivo en Camboya. "No utilizamos nuestro idioma porque nosotros, los s'aoch, somos 'taowk'(palabra jemer que significa 'sin valor')", explica Thy.

Los último miembros de esta comunidad, unas 110 personas, viven perseguidos por la pobreza y el desprecio de la población jemer en la aldea de Samrong Loeu, en la sureña provincia de Preah Sihanouk. "Los jóvenes desean motocicletas, teléfonos móviles, vestir de manera moderna. Ya no quieren ser s'aoch, sino como los demás jóvenes jemer", señala el lingüista Jean-Michel Filippi.

Filippi ha transcrito en los últimos nueve años unas 4.000 palabras de un lenguaje que pronto entrará a formar parte de las lenguas muertas, porque la mayoría de los s'aoch emplean el jemer para comunicarse entre ellos.

"Cuando hablan los mayores les entiendo, pero no sé hablar como ellos", contesta una joven del poblado Samrong Loeu. Aún hay gente en la aldea que habla s'aoch, pero solamente entre siete y diez personas tienen un conocimiento profundo del lenguaje, apunta Filippi.

"Han dejado de interesarles su lengua, sus tradiciones, para ellos han dejado de tener valor. Llegados a este punto, la transmisión de la lengua entre generaciones se interrumpe y se queda sin futuro", detalla el lingüista.

"En la escuela se enseña jemer. Nuestros vecinos son jemer. Entre nosotros ya hemos dejado de hablar s'aoch", reconoce Hau, uno de los ancianos de la comunidad. "Cuando vamos al mercado, a buscar trabajo, todo el mundo es jemer. Ya no hablamos s'aoch porque no nos sirve", añade Chhaet, uno de los más veteranos de la comunidad.

Encrucijada social

Esta encrucijada de los s'aoch, como tantas otras cosas en Camboya, tiene su origen en el tiempo que el Jemer Rojo gobernó los designios del país. La minoría contaba, a pesar de no ser más de 400 miembros, con un modelo de vida consolidado y autónomo basado en la pesca y el cultivo de arroz cuando Pol Pot entró victorioso en Phnom Penh con los planos de su particular revolución socialista.

El rey Sisowath les había concedido tierras a principios del siglo XX en la costa de Kampot, donde se encontraba su aldea histórica, Lon Le, incluso llegó a dispensarles una recepción en el Palacio Real de Phnom Penh.

"Cuando cayó el régimen no pudieron volver a su aldea. Se instalaron en Samrong Loeu, sin ser propietarios de la tierra y en un entorno, de mayoría jemer, socioeconómico desfavorable", relata Filippi.

El Jemer Rojo les prohibió hablar su lengua y practicar sus costumbres animistas, y fueron dispersados en campos de trabajo por todo el país.

La perdida de la tierra ancestral inició el declive cultural, porque se quedaron sin el punto de referencia de sus creencias animistas y el modelo de vida autosuficiente. El s'aoch encabeza la lista de 19 lenguas que se hablan en Camboya y que, según la UNESCO, corren el riesgo de desaparecer este siglo.

Fuente:

20 minutos

1 de junio de 2010

Política en EE. UU.: Cuestión de lenguaje

Martes, 01 de junio de 2010

Política en EE. UU.: Cuestión de lenguaje

Foto: White House

En política, el uso de la palabra es fundamental. No importa únicamente qué y cómo se dice algo, también el contexto. Pensamos mediante palabras. Términos que inevitablemente se localizan en un marco. El lingüista George Lakoff defiende que los republicanos descubrieron esta circunstancia mucho antes que los demócratas. Concretamente, hace unos cuarenta años.

Los think tanks se pusieron en marcha y comenzaron a crear marcos favorables a través de la difusión de ideas e iniciativas basadas en valores conservadores al tiempo que locutores y comentaristas republicanos fueron ocupando la pantalla del televisor. Hoy, la gran mayoría de los bustos parlantes son conservadores. En los últimos cuarenta años, sólo catorce han conocido un presidente demócrata.

Es por eso que la tarea de Barack Obama no está resultando sencilla. Cambiar de marco es duro. Más aún cuando se trata de uno tan arraigado como el creado por los republicanos. Cuando los hechos no encajan en los marcos, los marcos se mantienen y los hechos se ignoran, dice Lakoff.

Las posibilidades del Partido Demócrata en las elecciones de noviembre pasan, en parte, por cómo logre el equipo de Obama vender la reforma sanitaria. Los sondeos dicen que alrededor del 60% de la población desconocen cuál será la incidencia de la nueva ley en sus familias. Así que hay lugar para lograr ese cambio de marco deseado.

La estrategia de la Casa Blanca trabaja también en esa dirección con otros aspectos. Obama ha logrado encauzar el debate sobre la reforma financiera hacia un plebiscito sobre la responsabilidad de los que causaron la crisis. El tono de la política exterior cambia poco a poco gracias a decisiones como la de acabar con el concepto de guerra contra el terror. El desastre ecológico en el Golfo de México está afectando más a la imagen de BP que a Obama.

La Casa Blanca logra tomar ventaja una y otra vez sobre los republicanos a la hora de lanzar nuevos debates. La actitud reactiva del partido de la oposición no puede con un presidente a la ofensiva. El presidente Obama trabaja en la creación de marcos diferentes, con ideas y valores contrapuestos a los aún hoy dominantes en Estados Unidos. No obstante, no todo son victorias para el presidente norteamericano, cuyo nivel de popularidad es similar al que tenía antes de aprobar la ley de Sanidad. Los republicanos han tomado la delantera en el debate sobre la inmigración y, entretanto, Obama pierde el apoyo de los hispanos. Las elecciones de noviembre se juegan en el terreno del lenguaje.

Fuente:

Mirada Internacional

10 de mayo de 2010

Hablar solo no es de locos


Lunes, 10 de mayo de 2010

Hablar solo no es de locos

Conversar con uno mismo tiene muchas ventajas, según el psiquiatra Luis Rojas Marcos. Es un desahogo y rebaja la tensión emocional. Poner palabras a los sentimientos, con o sin público, ayuda a sacarlos de la cabeza.


Si a alguien le pillan hablando solo, lo más normal es que se invente una excusa. Por ejemplo, "estaba pensando en voz alta". Es raro que alguna persona reconozca que mantiene encendidos diálogos con el espejo del baño o que consigue resolver importantes cuestiones después de explicarse a sí mismo en voz alta una y otra vez el asunto en cuestión. Socialmente no está aceptado hablar solo. Todavía se asocia con algunos trastornos mentales como la esquizofrenia, patologías en las que los enfermos oyen voces en su cabeza y entablan hipotéticos diálogos con ellas.

Pero la gente sana que habla sola está muy cuerda. Al menos eso dice el psiquiatra Luis Rojas Marcos. En su último libro, Superar la adversidad. El poder de la resiliencia (Espasa Libros, 2010), apunta que "hablar con amigos, con una planta, con un gato o con uno mismo es uno de los factores que ayudan a superar una situación de crisis". Hablar con uno mismo en voz alta también es útil para pensar mejor y tomar decisiones. "Para mucha gente es una forma de rebajar la intensidad emocional, un desahogo. ¿Están locos? No creo, las ventajas son enormes", comenta el psiquiatra.

En foros protegidos por el anonimato como son los grupos de fans que se crean en la red social Facebook, el grupo Hablar Solo consiguió 5.999 seguidores en tiempo récord; el 70% eran mujeres. "¿Es que los hombres no hablan solos?", se preguntaba su creador. La razón más frecuente que aducían los miembros del grupo para juntarse desbordaba sentido común: "Soy la única que me entiendo perfectamente a mí misma". La versión en inglés de este grupo, Just Because I Talk to Myself doesn't Mean I Am Mad" (hablar solo no significa que esté loco), tenía una cantidad similar de seguidores con argumentos de la misma naturaleza.

Rojas Marcos afirma que "es bueno antropomorfizar a los animales y a las plantas, los efectos son similares a comunicarte con un ser humano". Para el psiquiatra, la gran ventaja de hablar, solo o con público, es que "al poner palabras a los sentimientos, los sacas de tu cabeza, haces tu versión de los hechos y cuentas tu historia". Este experto en estrés postraumático cree que es importante "teorizar" sobre lo que nos pasa. "Los sentimientos que no tienen palabras se acumulan en la memoria emocional. Por ejemplo, las imágenes y los olores de una situación de terror se quedan en la memoria emocional y sólo convirtiéndolas en palabras pasan a la memoria verbal. Lo más sano es pasar lo que se acumula de la memoria emocional a la verbal".

Hablar solo tampoco es un síntoma de soledad o de no tener amigos. Para mucha gente es una manera de organizar o aclarar las ideas. Cuanta más extravertida es la personalidad, los diálogos internos en voz alta son más frecuentes. En opinión de la psicóloga Isabel Larraburu, las personas que exteriorizan mucho sus ideas y estados de ánimo necesitan mayor cantidad de estímulos sensoriales para conseguir el equilibrio personal. "Si se ven forzados al aislamiento o la soledad, pueden llegar a construirse un ambiente a su medida hablando solos, con los animales o con las plantas". Todo lo contrario les pasa a los tímidos. "Un exceso de estímulos externos puede llegar a descompensarles. Están más a gusto con el silencio", explica la psicóloga.

La otra cara del diálogo sin fin con uno mismo es menos amable. "Es beneficioso hablar de cosas que han ocurrido en el presente, pero hablar compulsivamente y sin control de algo pasado no ayuda a pasar página", dice Rojas Marcos, que cuenta que a su consulta llegan pacientes con problemas de ansiedad cuyo origen está en un trauma de la infancia. Estos casos lo ponen en la disyuntiva de si es conveniente o no hablar del pasado para ayudar al paciente. "Remover o no remover, esa es la cuestión", ilustra el psiquiatra, y añade que hay que hablar del pasado sólo cuando es útil.

El psiquiatra Jesús de la Gándara también opina que no parar de hablar de algo pasado "aumenta la permanencia de los problemas en la conciencia, causa fatiga emocional e impide avanzar". La cháchara compulsiva sobre un tema contribuye al fenómeno que los psiquiatras llaman mood amplification, es decir, la amplificación de los estados de ánimo negativos. Una de las terapias psicológicas más de moda en Occidente, el mindfulness, que consiste en eliminar la dispersión mental y concentrarse en disfrutar el presente, aboga por poner en práctica "el olvido voluntario". Isabel Larraburu dice cómo hacerlo en su libro Atención plena (Temas de Hoy, 2009). Para conseguirlo conviene "dejar de recrear los malos recuerdos mediante conversaciones (...) de modo que vayan cayendo en desuso, y no rememorar los detalles para que no se fijen en la memoria a largo plazo". Esta terapeuta opina que "hablar no es terapéutico, reivindico el silencio para utilizar las palabras de forma más sabia. Esto implica equivocarse menos, y no soltar la palabrería para esconder sentimientos u ocupar los momentos de incomodidad".

Sin embargo, la gente sigue con necesidad de contar su vida. "Probablemente se hable mucho, pero no lo suficiente, de las cosas importantes", opina Rojas Marcos. En su web (www.luisrojasmarcos.com), personas desconocidas le dejan testimonios "desgarradores", le piden opinión sobre "intimidades y cosas serias". "Me sorprende que la gente tenga tanta necesidad de desahogo a través de un medio por el que sólo puedo dar consejos muy generales. Es como llamar al teléfono de la esperanza".

De niños o de adultos, todos tenemos soliloquios. Se estima que estas reflexiones en voz alta sin interlocutor suponen entre el 20% y el 60% de los comentarios que hacen los niños entre los cuatro y los 10 años. Cuando nos hacemos mayores, seguimos contándonos una receta mientras cocinamos, repetimos un número de teléfono para memorizarlo o nos animamos frente al espejo con esa conversación/discusión que tenemos que tener de una vez con el jefe.

¿Cuándo empieza a ser un problema?

Las fases agudas de algunas enfermedades mentales como las psicosis, la esquizofrenia y el trastorno bipolar se caracterizan por las alucinaciones auditivas. Los enfermos escuchan voces y contestan. Estas "voces" pueden transmitir ideas y pensamientos delirantes u órdenes absurdas o peligrosas.

Cuando no exista una explicación coherente al soliloquio o vaya acompañado de conductas extrañas, hay que empezar a sospechar. También debe consultarse al médico cuando hablar solo sea una conducta excesivamente frecuente que ocurra fuera de un contexto lógico.

Fuente:

El País Ciencia

24 de marzo de 2010

Monos y sintaxis

Miércoles, 24 de marzo de 2010

Monos y sintaxis

Un reciente estudio describe una especie de mono del Viejo Mundo que parece comunicarse usando reglas simples de gramática. Esto sugiere que la evolución del complejo sintaxis del lenguaje humano pudo haber originado con este tipo de vocalizaciones sofisticadas.

En una de las pocas selvas primarias intactas de África, en el Parque Nacional de Taï en la Costa de Marfil, los monos de la especie de Campbell (Cercopithecus campbelli) encadenan vocalizaciones y llamadas utilizando una rudimentaria estructura lingüística muy superior a la de otras especies.

Según el estudio publicado en The Proceedings of the National Academy of Sciences los miembros machos de esta especie son capaces de formar combinaciones de distintas llamadas y sonidos para alertar a sus compañeros y comunicar las decisiones del grupo.

Muchas especies utilizan mecanismos de comunicación grupal, desde insectos hasta ballenas, pero esta parece ser la primera vez que se observa la asignación de secuencias de vocalizaciones con una estructura definida, o sintaxis, para comunicar datos sobre la naturaleza de eventos específicos.

Una cuestión central es si existe algún tipo de intencionalidad de informar a sus compañeros sobre el evento que han experimentado, o si la reacción verbal es más bien el resultado de simples procesos psicológicos provocados por el evento en sí.

“La asunción por defecto es que los primates no tienen intención de informar a los demás con sus vocalizaciones”, explica Klaus Zuberbühler, de la Universidad de St. Andrew en Escocia, director del equipo que estudió a los monos de Campbell. “Sin embargo, hay varios estudios que discrepan de esta noción”.

El equipo de. Dr. Zuberbühler descubrió que los monos Campbell utilizan hasta seis diferentes tipos de vocalización, con 9 secuencias, dependiendo de la información que quieren comunicar, y que además intercambian los sonidos, y les agregan sufijos, para modificar el mensaje dependiendo de la situación. Es decir, que las combinaciones de sonidos siguen un orden específico.

Muchos estudios sugieren que el complejo sintaxis del lenguaje humano pudo haber originado con este tipo de vocalizaciones sofisticadas. En éste, los investigadores afirman que “podría tratarse del ejemplo más complejo de ‘proto-sintaxis’ en la comunicación animal conocido hasta la fecha”.

Entrevista: Dr. Klaus Zuberbühler

¿La capacidad del mono de Campbell para usar sintaxis y afijar (agregar sufijos) se debe a variables ambientales, culturales, o genéticas?

No sabemos lo que sucede en otras poblaciones, pero probablemente aquí se trata de un rasgo de la especie, es decir, se desarrolla bajo un control fuertemente genético.

¿Podría la evolución de la sintaxis ser más prevalente entre primates, o entre animales en general, de lo que se pensaba? ¿Se hallará más ejemplos de este tipo de evolución?

Sí, es muy posible. Los primates suelen producir secuencias de vocalizaciones, y a veces estas consisten de sonidos con variación acústica. En el pasado, los científicos no han prestado mucha atención a este fenómeno, así que es muy probable que emerjan más ejemplos.

¿Existe en este caso la conciencia del evento y la intencionalidad de comunicarlo a los demás, algo más que una simple respuesta aprendida?

La asunción por defecto es que los primates no tienen intención de informar a los demás con sus vocalizaciones. Sin embargo, hay varios estudios que discrepan de esta noción. Por ejemplo, los monos azules adultos machos hacen más llamadas de alarma cuando su grupo está cerca de lo que sospechan ser un águila que cuando están más lejos, sin importar su propia posición con respecto al depredador (Papworth et al. 2008; Biology Letters). Otro ejemplo es los efectos de su audiencia en chimpancés. Es decir, las víctimas de una agresión exageran sus gritos si hay miembros de alto rango a su alrededor que podrían ayudarle (Slocombe & Zuberbuhler 2007, PNAS). Estos y otros ejemplos sugieren que los primates tienen cierta conciencia de su audiencia cuando vocalizan.

Con señales gestuales la evidencia a favor de señalización intencional es aun más fuerte. Por ejemplo, los chimpancés se posicionan delante de un receptor antes de comenzar a hacer gestos.

¿La habilidad para combinar sonidos del mono de Campbell podría ser aun más extensa de lo que se ha observado?

Karim Ouattara permaneció mucho tiempo observando y grabando los monos de Campbell en la Selva Tai, así que sospecho que hemos descrito los principales patrones, es decir, 9 secuencias. Es cierto que se nos podría haber escapado algo. Sería interesante comparar el comportamiento visto en Tai con otras poblaciones, especialmente si viven en entornos diferentes.

El NY Times dice que el próximo paso será estudiar las reacciones de los monos de Campbell a vocalizaciones grabadas.

Sí. Estamos en proceso de montar un estudio de playback en el Parque Nacional Tai, Costa de Marfil, con los mismos grupos.

Fuente:

Cultura 3.0

google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0