Latest Posts:

Mostrando las entradas con la etiqueta linguistica. Mostrar todas las entradas
Mostrando las entradas con la etiqueta linguistica. Mostrar todas las entradas

17 de julio de 2018

¿Es cierto que las mujeres hablan más que los hombres?

Los expertos no se ponen de acuerdo en este asunto, aunque la impresión general es que sí, pero no por tanta diferencia como se suele pensar. Un estudio realizado por las Universidades de Texas y Arizona entre 1998 y 2004, y publicado en 2007 por la revista Science se encargó de registrar, transcribir y contar el número de palabras pronunciadas por una muestra de 396 estudiantes, la mitad hombres y la mitad mujeres. El resultado: ellas decían diariamente una media de 16.215 palabras, y ellos, 15.669, aunque dependía por supuesto de los individuos, pues aquí sí hay diferencias abismales. Los supercharlatanes, fueran del sexo que fueran, rebasaban los 47.000 vocablos, mientras que los más taciturnos apenas llegaban a 500.

Por su parte, la psiquiatra Louann Brizendine sostiene en su libro El cerebro femenino que la mujer no sólo cuenta con mayor empatía e inteligencia emocional, sino que es superior al hombre en capacidad lingüística y de comunicación. Ellas utilizan, dice, un vocabulario más amplio -hasta tres veces más palabras- y hablan mejor y más deprisa.

Fuente:

Muy Interesante

11 de diciembre de 2016

Esta infografía divide el mundo según los idiomas más hablados

En el mundo hay actualmente unos 7.000 millones de personas que utilizan 7.102 lenguas para comunicarse. Imposible hacerse una idea y visualizar cifras de tal magnitud. Acotemos un poco. De todos esos idiomas, 23 son los más hablados del mundo. Concretamente, al menos 50 millones de personas utilizan cada uno de ellos como lengua materna y, entre todos, alcanzan a 4.000 millones de personas. ¿Y si a estos datos les diéramos color y forma para visualizarlos? El resultado luce así. 


A world of languages es el nombre de la infografía creada por Alberto Lucas López, Director Gráfico en el South China Morning Post. En el gráfico, cada lenguaje puede verse acotado por líneas divisorias negras dentro de las cuales se indica el número (en millones) de las personas que utilizan ese idioma como lengua materna en cada país. Además, cada país recibe el color de la región en la que se encuentra, lo que permite apreciar cómo cada idioma ha penetrado en las diferentes partes del mundo.

Para realizar esta infografía, se ha utilizado como base muestral a 6.300 millones de personas. Además de la representación visual, se extraen otros datos como el número total de países en los que se habla cada idioma (31 en el caso del español) o cuáles son los lenguajes más estudiados del mundo: inglés (1.500 millones de estudiantes), francés (82), chino (30) y español (14,5).

Tomado de Traveler

24 de febrero de 2014

Matemáticos de Harvard aplican modelos evolutivos al lenguaje

Científicos de Harvard han elaborado una fórmula matemática para tratar de predecir la evolución lingüística del tiempo pasado. El estudio se basa en el análisis diacrónico de los verbos irregulares desde el inglés antiguo, pasando por el inglés medio hasta la actualidad. A partir de la aplicación de varias reglas que compiten entre sí, han creado una función matemática específica que predice pautas de regularización en la evolución de las conjugaciones. Han enunciado incluso una regla proporcional mediante la cual los verbos se regularizan a un ritmo inversamente proporcional a la raíz cuadrada de su frecuencia de uso. Una buena síntesis en español. Si te interesa el tema, sigue en la página ampliada. 
Esto es algo que conocían ya los lingüistas de forma más o menos intuitiva: los verbos irregulares se aprenden de memoria, no son fruto de la aplicación de una regla mental (como por ejemplo: "añádase la desinencia -ió"). Por ello, tanto en niños como en adultos, las formas irregulares menos frecuentes son las que peor se recuerdan, lo que activa la regla de regularización correspondiente, que había permanecido bloqueada mientras somos capaces de recordar la forma irregular (como en plugo->plació). Se sabe desde hace tiempo que muchos de estos «errores», seleccionados inconscientemente por la comunidad de hablantes, son los que han motivado cambios permanentes en las lenguas con el paso del tiempo (el inglés antiguo y el inglés medio tenían aproximadamente el doble de verbos irregulares que el inglés moderno), y es ese mecanismo el que estos matemáticos de Harvard han tratado de modelar matemáticamente.

Los verbos irregulares han sido también tradicional objeto de estudio sincrónico (no evolutivo) en la gramática generativa porque permiten comprender aspectos muy interesantes de las reglas de adquisición del lenguaje. Estas reglas y construcciones son en algunos casos muy complejas y difíciles de explicar y de abstraer (modelar) lo que no impide que un niño de tres años las maneje con total soltura y sin apenas errores (sus errores son, precisamente, con las irregularidades). 
Fuente:

16 de diciembre de 2013

El jaqaru, una lengua que hablan menos de 600 peruanos sobrevive en Yauyos (Lima)

La lingüista Yolanda Nieves repara en que hace falta ver cómo usar la tecnología para vitalizar la lengua que se habla en Yauyos, a cinco horas de Lima, capital del Perú.

A cinco horas de Lima Metropolitana, en la provincia de Yauyos, vive el jaqaru, una lengua milenaria que aún busca proyectarse al futuro. Según el censo del 2007, solo 590 personas se reconocen como hablantes de este idioma. Entre ellas, Yolanda Nieves.

Yolanda nació en Tupe, una comunidad enclavada en la bella serranía limeña, pero de difícil acceso. Tal vez eso ha permitido que los pobladores mantengan sus costumbres intactas; una hermosa vestimenta preínca y una lengua como el jaqaru, transmitida de generación en generación, de forma oral por las mujeres. Ella nos saluda con un “Amurutyatyi” (“¿Cómo estás?”) y luego nos regala otras palabras como ‘puruitxatyi’, ‘jilaki’, ‘maqcasua’, y es inevitable enamorarse del sonido.

¿En qué lugares se habla la lengua jaqaru?

En la provincia de Yauyos, en Lima, en los centros poblados de Aiza, Tupe y Colca.

Usted ha estudiado mucho el jaqaru. ¿En qué momento la lengua empezó a extinguirse?

No queremos hablar de extinción, preferimos hablar de vitalización. Hay que cuidar el lenguaje, hay que hacer que el mensaje llegue en positivo, pues si no los niños pueden decir: “Ay, está muerto, mejor ya no hablo esta lengua”. Además, la gente no concibe que se está perdiendo la lengua, pues seguimos hablando jaqaru. Aunque es cierto que la generación de niños no está siendo educada en nuestra lengua.

Entonces, ¿cuál es el problema para trabajar en la vitalización de esta lengua?

Esto es un problema que responde en parte a la introducción de las tecnologías, que les muestra a los niños otra cultura, otras cosas. Nos hace falta ver cómo usar la tecnología para vitalizar la lengua. Aunque el problema es mayor: no hay presupuesto para que se designe a un profesor especializado o a los sabios del lugar para que trabajen como acompañantes de los profesores. Además, la Unidad de Gestión Educativa (UGEL) y el Ministerio de Educación (Minedu) no cuentan con especialistas permanentes en lengua jaqaru. Las consultorías son específicas. Tampoco hay dentro del horario escolar un espacio para enseñar la lengua sistemáticamente.

Entonces, no se ha hecho oficial la enseñanza del jaqaru en los colegios de la zona.

No. En el 2006 y 2007 fui coordinadora del proceso de formación docente en la lengua jaqaru en el pedagógico de Catahuasi, en Yauyos, y desarrollaba las clases en jaqaru para docentes. Ellos adquirieron la lectoescritura en jaqaru y sí aplican la educación bilingüe, pero no de manera sistemática.

¿Quién supervisa la mecánica de esa aplicación?

Particularmente yo, porque además soy consultora del Minedu en la producción de textos en lengua jaqaru. Hemos tenido algunas reuniones con el Minedu y la UGEL, por eso el año pasado hicimos el manual de uso del alfabeto jaqaru y este año el manual de escritura, ambos para docentes. También hicimos dos textos: uno para inicial y otro para primer ciclo de primaria, y una lámina, como un banner del alfabeto.

¿Cuándo se oficializó el alfabeto jaqaru?

El alfabeto lo consensuamos en el 2007, pero la normalización del alfabeto se dio en el 2011. Ese fue un esfuerzo conjunto. Trabajamos muy duro, la población y las autoridades. Antes de esa fecha, el jaqaru estaba concebido como un dialecto, una variedad, cuando en realidad es una lengua. Y es de Lima. Al calificar una lengua como dialecto no se le da la importancia que merece, y este estigma lo arrastran muchas lenguas en nuestro país.

Cuéntenos, ¿cuáles son las principales diferencias entre el jaqaru y el castellano?

Nosotros diferenciamos femenino humano, masculino humano, femenino animal, masculino animal y así. Existe un género neutro. A pesar de estas especificaciones de género, no usamos artículos. Por eso, el jaqaru no tiene una traducción literal. Intentar hacer eso es romper una estructura mental. El jaqaru es una de las lenguas más antiguas del mundo andino que aún sigue vigente. Tenemos 36 consonantes y 3 vocales. Así tiene más sonidos que el quechua y el aimara juntos.

¿Cómo ayuda este taller del Ministerio de Cultura a trabajar en la preservación de las lenguas?

En este taller de traductores del Ministerio de Cultura hemos aprendido que es riquísimo poder reflexionar sobre cada lengua. Cada una tiene especificidades de acuerdo con su contexto, su vocabulario muestra su forma de ver el mundo. Imagínese si una lengua desaparece, se pierde toda esa riqueza de conocimientos distintos que cada pueblo recoge de sus antepasados.

YOLANDA NIEVES PAYANO ITURRIZAGA
Lingüista

Tengo 51 años. Nací en la comunidad de Aiza, poblado de Yauyos, en la región Lima. Soy lingüista de profesión. Estudié en la Universidad Mayor de San Andrés en La Paz, Bolivia, gracias a una beca. Soy consultora en lengua jaqaru para el Ministerio de Educación. Acabo de participar en el V Curso de Intérpretes organizado por el Ministerio de Cultura. Se capacitó a 30 representantes de lenguas indígenas, priorizando aquellas en peligro de extinción. Una de ellas es el jaqaru.

Tomado de:

El Comercio (Perú)

2 de octubre de 2013

Criptografía: Entre el lenguaje y las matemáticas



Durante los últimos años, se ha hablado mucho sobre la seguridad en Internet y los peligros que tiene enviar tus datos. La solución que nos ofrecen: encriptar. Las páginas de los bancos, o de comercio electrónico, vienen encriptadas (lo distinguiréis porque en la barra de la dirección, en vez del típico http, veréis https). Pero ¿Sabemos realmente qué es la encriptación?¿En qué consiste?
Teoría clásica de la comunicación y encriptación
Una visita a la wikipedia ya nos deja una definición bastante exacta: "Criptografía (del griego κρύπτω krypto, «oculto», y γράφως graphos, «escribir», literalmente «escritura oculta») tradicionalmente se ha definido como la parte de la criptología que se ocupa de las técnicas, bien sea aplicadas al arte o la ciencia, que alteran las representaciones lingüísticas de mensajes, mediante técnicas de cifrado y/o codificado, para hacerlos ininteligibles a intrusos (lectores no autorizados) que intercepten esos mensajes."
Para entender bien la definición, primero hay que entender como se produce la comunicación de un mensaje:

Como vemos, en todo mensaje hay un emisor (emite el mensaje), un receptor (quien lo recibe), un canal por el que se envía el mensaje y un código. El código es el sistema común que hace que el receptor entienda el mensaje. Un ejemplo clásico es el propio idioma, que es comprensible por aquellos que lo hablan. En el código es donde entra en marcha la criptografía. De hecho, cuando alguien habla en un idioma que desconocemos, en cierta manera están hablando de forma "cifrada" para nosotros. Este no es un hecho menor, dados casos como el del ejercito norteamericano, que usaron Indios Navajos como operadores de radio, para que los Japoneses no se enteraran de las conversaciones. Pero el objetivo de la criptografía es obtener un método genérico de encriptado, independiente del idioma. Hoy en día, este sistema no tendría mucho éxito, dada la cantidad de buenos traductores que hay por Internet.
Imaginemos un Capitán que quiera enviar información a un General que se encuentre lejos, y teme que al mensajero le atrapen las tropas enemigas. Si leyeran ese mensaje, sería fatal para ellos, pues podrían enterarse de sus planes. Así que lo mejor es escribirlo cifrado.
Los principios: el cifrado de "El Cesar"
Ya los antiguos y belicosos romanos se dieron cuenta, como bien decíamos antes, de lo importante que era que el enemigo no pudiera interceptar sus comunicaciones. Pero como ésto era inevitable, crearon el primer sistema de cifrado, conocido como el cifrado de "El Cesar", por ser las tropas del ejercito romano en usarlo. Aunque el nombre técnico sería el de "Cifrado por Trasposición".
Este sistema de cifrado seguía una lógica muy simple: elegías un coeficiente de trasposición (vamos, eliges un número), por ejemplo el 2. Así que lo añadías a las letras del abecedario. De tal manera que sustituías las letras originales, por la letra que se encontraba dos posiciones más adelante. Por ejemplo, sustituías la A por la C, la B por la D, etc...  Para ver un ejemplo, supongamos el siguiente mensaje: "Saludos a todos". Le aplicamos un coeficiente de trasposición 2, con lo que quedaría: "Tcnwfqt c vqfqt". Algo totalmente ilegible e incongruente para alguien que no conozca dicho coeficiente.
Vulnerabilidades
Este sistema de cifrado se mostró altamente eficiente para textos cortos, pero daba problemas con textos largos. Entonces era más fácil descifrarlos. Esto se debía a que realmente seguía manteniendo la estructura propia del lenguaje. Es decir, la palabra "Saludos" siempre se escribiría "Tcnwfqt " con un coeficiente de trasposición = 2. De tal manera que, si el texto estuviera en español, sabremos que la letra que aparece en mayor número de ocasiones es la 'A' (ver Wikipedia: Frecuencia de aparición de letras). Entonces si vemos que en un texto la letra que más aparece es la 'C',  podemos deducir el coeficiente de trasposición. A este método se le llama "Criptoanálisis Estadístico".
Mediante este método, cuanto más largo es un texto, más fácil es obtener una estadística fiable, que con un texto corto. Aún así, conociendo el método, solo es cuestión de paciencia.

Métodos con Claves: Critografía Simétrica y Asimétrica

Dada la importancia de controlar el tráfico de datos, el cifrado ha ido cogiendo gran importancia hasta nuestros días. De esta manera, se ha buscado formas de encriptar que, aunque sean públicos y conocidos, no permitan hacer un simple criptoanálisis estadístico para obtener el mensaje deseado.
La idea inicial del cifrado es el uso de una palabra clave conocida solamente por el emisor y el receptor (deseado, claro. El que reciba el mensaje va a ser un receptor, pero éste sólo será informativo si es capaz de decodificar la información que el mensaje contiene). De esta manera la palabra clave serviría para encriptar y desencriptar la información.
Una forma sencilla usada en el siglo XVII, fué una variante del método de trasposición. Asignemos un número a cada letra del abecedario, de tal manera que la A = 001, la B = 002, etc... Ahora cojamos el texto: "Saludos". Y elegimos como palabra clave ABETO. Si en vez de escribirlo con palabras, lo pasamos a números, el texto quedaría: '022001013024005018022' y la palabra clave sería '001002006023018'.
Ahora cogemos ambos códigos numéricos y los ponemos uno encima del otro, en grupos de tres, sumando el primer código de la primera letra del texto a la primera letra de la clave, y así, sucesivamente. En caso de que la clave no llegue a cubrir la longitud del texto, la repetimos, hasta donde haga falta...
022 001 013 024 005 018 022
+
001 002 006 023 018 001 002
======================
023 003 019 047 023 019 024

Como vemos la suma de la letra U, sumada a la letra T, se escapa del alcance del abecedario. Que tiene un total de 29 letras (Ver Método DIMQV, que se está tomando como base en este ejemplo, aunque pudiera no ser del todo exacto). En este caso, lo más sencillo es restarle 29 a 47, que daría 18. De tal manera que el texto cifrado quedaria: "TCPOTPU". Cuando se recepcionara el texto, solo tendríamos que hacer la operación inversa para obtener la clave final. Este ejemplo es muy sencillo, dado que hemos asignado simplemente números a las diferenes letras y hemos hecho una simple suma. Los sistemas actuales usan complejas ecuaciones para que el cifrado sea más efectivo.
Este sería un ejemplo de lo que se conoce como Criptografía Simétrica, o de una sola clave. La mayor parte de los sistemas de encriptación actuales están basados en sistemas de Criptografía Asímetrica, de llave pública y llave privada, en la que el programa crea una clave privada (de forma autónoma) que no es conocida más que por él (mediante sistemas matemáticos de cálculo) y el usuario introduce una clave alfanumérica (es decir, formada por números y letras, así como caracteres especiales, como la @ o la #) que puede dar a otras personas (llave pública).
En todos los programas informáticos que se usan actualmente (en webs o en Windows), las contraseñas van encriptadas con Criptografía Simétrica, en ficheros, que después son leídos para hacer la comparación pertinente. En sistemas Unix usan sistemas que llaman de "one way encription", encriptación de una sola vía, que se trata de sistemas de encriptación que no se pueden desencriptar.
Fuente:

1 de abril de 2013

El condicionamiento verbal de la conducta de los clientes en contextos terapéuticos

¿Puede usarse el condicionamiento verbal para manipular a una persona y modificar su conducta? ¿Hasta qué punto se puede llegar con las relaciones condicionadas?



Independientemente del modelo teórico que se utilice como referencia, es innegable que existen toda una serie de variables que condicionan la conducta, y que a su vez producen una gama de respuestas observables en el comportamiento.

Usar estas variables en terapia puede suponer un importante plus de efectividad. Tomando la perspectiva del condicionamiento, estas variables se pueden explicar cómo estímulos condicionados (EC) que actúan sobre la conducta del paciente, que sería la respuesta condicionada (RC). En lo que concierne al profesional, habría que tener una especial atención en la conducta verbal, ya que es uno de los factores que más influye al paciente durante la terapia; y puede dar lugar a una situación en la que el paciente se encuentre condicionado por la conducta verbal del psicólogo.

Desde la psicología clínica, es altamente esperable que las mencionadas respuestas observables sean manifestadas por el paciente durante la terapia, lo que permite acotar y definir una situación dada y ahondar en las variables que puedan haber causado el comportamiento. Cabe destacar el punto de vista del CBA (Clinical Behavior Analysis), que resalta dos variables que tienen influencia sobre la conducta posterior: la interacción entre doctor y paciente y los automensajes del paciente.

Cuando la problemática está relacionada con la interacción social, el primer punto gana importancia, ya que la relación doctor-paciente supone en sí una interacción mediante la cual el psicólogo puede reforzar las conductas prosociales. Sin embargo, los automensajes del paciente son el estímulo incondicionado (EI) determinante para la conducta. Si a un paciente con tendencia a la ansiedad se le presta más atención cuando se expresa con tranquilidad, es más probable que repita este comportamiento en otras ocasiones. Por otro lado, la interpretación que él de a la situación (con los consecuentes automensajes) será la clave que le suscite ansiedad o tranquilidad.

También se ha comprobado de cara al condicionamiento la importancia del contexto y de la saliencia del mensaje. Si en medio de clase, alguien gritara ¡GOOOL! la conducta sería recordada por todos con total seguridad. Esto tiene gracia, pero si pasamos el ejemplo a hablar de superioridad aria en la Alemania posterior a la Primera Guerra Mundial la pierde por completo.

Lea el artículo completo en:


Psicoteca Blog

17 de diciembre de 2012

20 nuevas palabras incorporadas al diccionario de la RAE en 2012

leer-shakespeareEn 2012 la Real Academia de la Lengua Española (RAE) incorporó a su diccionario más de mil términos y acepciones de uso habitual entre los hispanohablantes. Aquí tienes una pequeña muestra que deberías conocer:

Billonario: Que posee un billón de unidades monetarias, o más, o que es muy rico.
Bloguero, ra: Persona que crea o gestiona un blog.
Chat: (Del ingl. chat; propiamente 'charla') Intercambio de mensajes electrónicos a través de internet que permite establecer una conversación entre dos o varias personas.
Autonomismo: Tendencia o doctrina que propugna el autonomismo político.
Cuentacuentos: Persona que narra cuentos en público.
Clitoriano, na: Perteneciente o relativo al clítoris. Estimulación clitoriana.
Emplatar: Colocar (la comida) en el plato de cada comensal antes de presentarlo en la mesa.
Espanglish: Modalidad del habla de algunos grupos hispanos de los Estados Unidos, en la que se mezclan, deformándolos, elementos léxicos y gramaticales del español y del inglés.
Euroescepticismo: Desconfianza hacia los proyectos políticos de la Unión Europea.
Friki: Extravagante, raro o excéntrico.
Gayumbos: (en España, coloquial) Calzoncillos.
Gasístico, ca: Perteneciente o relativo al gas (combustible). Mercado gasístico
Gruista: Persona que maneja o conduce una grúa.
Isidril: Perteneciente o relativo a las fiestas patronales de San Isidro, en Madrid.
Manga: Género de cómic de origen japonés, de dibujos sencillos, en el que predominan los argumentos eróticos, violentos y fantásticos.
Okupar: Tomar (una vivienda o un local deshabitados) e instalarse (en ellos) sin el consentimiento de su propietario. Un centenar de personas okupó un edificio vacío. U. t. c. intr.
Paradón: En fútbol y otros deportes, parada del balón meritoria y generalmente espectacular.
Sociata: socialista. Gobierno sociata.
Sudoku: Pasatiempo que consiste en completar con números del 1 al 9 una cuadrícula, generalmente de 81 casillas y 9 subcuadrículas, de forma que cada número no se repita en la misma fila o columna ni en la misma subcuadrícula.
Teletrabajador, ra: Persona que realiza su labor en régimen de teletrabajo.


Fuente:

Muy Interesante

12 de diciembre de 2012

Las palabras del año 2012 son "socialismo" y "capitalismo"

manejar-internetLas palabras del año 2012, escogidas en base a las búsquedas de los internautas en la web del diccionario de la editorial estadounidense Merriam-Webster, son los antónimos “socialismo” y “capitalismo”. Desde hace una década, la editorial elige cada año las palabras más buscadas, que “despuntan y marcan tendencias”.

Esta es la primera edición en que dos vocablos ocupan simultáneamente la primera posición. En una entrevista concedida al canal televisivo CBS, el editor de Merriam-Webster, Peter Sokolowski, explicó que se optó por galardonar a ambas palabras al observar que, cuando los usuarios buscaban una de ellas en la versión on-line del diccionario, “inmediatamente después tendían a consultar el significado de la otra”. Los responsables de la editorial aseguran que estos dos antónimos fueron especialmente buscados tanto durante los debates sobre la reforma sanitaria en EE UU como en las semanas inmediatamente previas a las elecciones presidenciales.

El diccionario Merriam Webster define “socialismo” como “cualquiera de las teorías económicas y políticas que abogan por la propiedad y la administración colectiva o gubernamental de los medios de producción y de la distribución de los bienes”. Por otro lado, la definición para “capitalismo” es “un sistema económico caracterizado por la propiedad privada o corporativa del capital, las inversiones establecidas por decisiones privadas, y los precios, producción y distribución de los bienes fijados por la competencia en el libre mercado”.

En 2011, la Palabra del Año fue “pragmático” y en 2010, “austeridad”.
 

Fuente:

Muy Interesante



Lea en los archivos de Conocer Ciencia:

¿Cambio climático o Calentamiento global? Las palabras si importan

Las palabras más largas son las más informativas


9 de diciembre de 2012

El ADN sitúa el origen del éxodo gitano en India hace 1.500 años

Un estudio genético confirma lo que ya había adelantado la lingüística 



El éxodo gitano –la gran marcha que llevó a este pueblo hasta Europa- comenzó hace 1.500 años y tuvo como origen un lugar del norte o noroeste de India. Así lo concluye un estudio del ADN de 13 poblaciones de gitanos en Europa que han elaborado David Comas, de la Universidad Pompeu Fabra de Barcelona, y Manfred Kayser, de la Erasmus MC de Rotterdam (Holanda). El trabajo lo publica Cell.

El trabajo ha consistido en una comparación del material genético de individuos de la mayor minoría de Europa: los 11 millones de gitanos. Al compararlo con los habitantes de las zonas de India de donde se cree que proceden y ver qué mutaciones se han producido, se obtiene una especie de reloj biológico que permite datar el momento en que ambos grupos se diversificaron.

Más aún: al ver las diferencias entre los gitanos de distintas partes de Europa se determinó que la expansión en el continente empezó desde los Balcanes hace 900 años.

Las conclusiones son coherentes con las obtenidas estudiando el romaní, y sirve para rellenar los huecos de la historia de los gitanos, ya que este pueblo ha carecido de registros escritos, ha dicho Comas.

“Desde el punto de vista del genoma, los gitanos comparten una historia común única que consiste de dos elementos: las raíces en el noroeste de India y las mezclas con población no gitana de Europa, durante la que han acumulado diferentes mutaciones durante su emigración desde India”, ha dicho Kayser. “Nuestro estudio ilustra que comprender el legado genético de los gitanos es necesario para comprender las características genéticas de los europeos en su conjunto”.

Fuente:

El País Ciencia

28 de noviembre de 2012

Noam Chomsky. La lingüistica, la informática y el activismo


Avram Noam Chomsky, nacido el 7 de diciembre de 1928 en Filadelfia, Estados Unidos, es un profesor emérito de Lingüística en el Massachusetts Institute of Technology (MIT), y una de las figuras más destacadas de la lingüística del siglo XX, con grandes aportaciones en el campo de la informática.

Comenzó a estudiar lingüística siguiendo a su padre, especialista en la lingüística histórica del hebreo. Estudió en la Universidad de Pensilvania, donde se doctoró en 1955 con una tesis sobre el análisis transformacional, tras lo cual, pasó a formar parte del equipo docente del MIT, donde es profesor desde el año 1961.

Además de un lingüista excepcional, también es conocido por su faceta de comprometido activista político, siendo uno de los intelectuales estadounidenses más conocidos y mejor valorados en el exterior, si bien lo es menos en su propio país, donde sólo los integrantes de los círculos más liberales, situados en una izquierda no edulcorada, conocen este aspecto suyo.

Entre su contribución científica podemos destacar una aportación fundamental a la lingüística moderna, consistente en la formulación teórica y el desarrollo del concepto de gramática transformacional o generativa. Este concepto ya había sido apuntado a principios de los años 50, cuando Zellig Harris inició una serie de estudios que llevaron a la creación de técnicas para el análisis científico del significado, dando origen a una verdadera revolución en el campo de la lingüística. Chomsky, discípulo de Harris en ese momento, incorpora el concepto de transformación a la lingüística, apartándose del estructuralismo y del conductismo imperantes hasta entonces. Este nuevo concepto de transformación se convirtió en una  potente  herramienta descriptiva y analítica.

Por otra parte, apartándose de los métodos tradicionales, básicamente descriptivos, Chomsky también pretende conseguir que la lingüistica siga rigurosamente el método científico, con teorías y predicciones falsables, mediante la búsqueda de los principios explicativos de su evolución; y de esta forma pase a ser una ciencia con objetivos propios, y no meramente una técnica al servicio de otras disciplinas.

Para ello, parte de las similitudes entre lenguas, más que en las diferencias, centrándose inicialmente en unas pocas lenguas bien conocidas para explicar su funcionamiento, con el convencimiento de que lo que caracteriza a la ciencia es la búsqueda de soluciones y respuestas para los problemas.

Como resultado de todo ello, Chomsky sostiene la existencia de una gramática universal, integrada en el patrimonio genético de los seres humanos, que ya desde su nacimiento disponen de un patrón al que se adaptan las diferentes lenguas existentes. Este acerbo genético es propio de la especie humana, y queda evidenciado por el uso corriente del lenguaje. Prueba de ello es la habilidad con la que los niños aprenden una lengua aún poseyendo una escasa experiencia externa, y careciendo en el momento del aprendizaje de un marco de referencia en el cual basar su comprensión, lo que es un potente indicio de que estas capacidades son innatas.
Por su trabajo, obtuvo el doctorado en 1955. En su tesis doctoral desarrolló sus ideas en lingüística, que completó posteriormente en su libro “Estructuras sintácticas”, su trabajo más conocido en este campo. Sus planteamientos lingüísticos han revolucionado muchos puntos clave del estudio del lenguaje humano, que se han visto plasmados en la Teoría de la Gramática Transformacional y Generativa.

En esta teoría, sostiene que el análisis estructural se extiende más allá de la oración creando fórmulas, que denomina transformaciones, con el objeto de abarcar las relaciones lingüísticas sistemáticas de diferentes tipos de oraciones. La principal novedad consiste en distinguir dos niveles diferentes en el análisis de las oraciones. En primer lugar la «estructura profunda», conjunto de reglas de gran generalidad a partir de las cuales se «genera», mediante una serie de reglas de transformación; y la «estructura superficial» de la frase.

En cuanto a la relación de Chomsky con la informática proviene de sus enormes aportaciones a la Teoría de Autómatas y al estudio de los lenguajes formales, donde sus ideas se aplican a la perfección. Dichas aportaciones han resultado elementos indispensables para la construcción de compiladores y traductores que puedan servir de intérpretes válidos entre las órdenes que dan los seres humanos y su correcta recepción y aplicación por máquinas automáticas. Puede decirse que el papel desempeñado por Chomsky ha resultado crucial en este importante campo, pues fue imprescindible para dar el siguiente paso tras los primeros computadores, el ENIAC o el propio ACE de Turing, programados directamente en código binario, de forma que a mediados de 1954 ya influyó en la especificación del borrador The IBM Mathematical Formula Translating System, origen del lenguaje Fortran, y también John Backus adoptó sus reglas para describir la sintaxis de Algol, origen de la notación Backus-Naur.



De esta forma, la Jerarquía de Chomsky, establecida en 1956 en su obra “Three models for the description of language” se ha convertido en un importante elemento de la Informática Teórica. En ella podemos encontrar una clasificación de los lenguajes formales, más fáciles de estudiar que los naturales, puesto que no admiten excepciones de ningún tipo a las reglas constitutivas que los definen. Dicha clasificación divídía a estos lenguajes en tres niveles, posteriormente aumentados a cuatro, cada uno de ellos incluyendo a los anteriores, que son:
  1. Lenguajes regulares.
  2. Lenguajes independientes o libres del contexto.
  3. Lenguajes sensibles al contexto, que no aparecía en la jerarquía inicial.
  4. Lenguajes recursivamente enumerables.
Curiosamente, esta descripción encajaba con la de los dispositivos automáticos de cómputo existentes hasta la fecha, así, los lenguajes regulares corresponden al concepto de Autómata Finito, estudiado por Claude Shannon, los lenguajes libres del contexto al autómata dotado de una sencilla pila de memoria, mientras que el concepto de lenguaje recursivamente enumerable coincide exactamente con los lenguajes que pueden ser reconocidos por una Máquina de Turing. También el nivel de los lenguajes sensibles al contexto, que aparece posteriormente, tiene su dispositivo equivalente, que es una máquina de Turing con una cantidad de memoria acotada en función del tamaño de la palabra a reconocer. Al propio Chomsky se le debe la demostración de la equivalencia entre los lenguajes definidos por su gramática general con los lenguajes que pueden ser reconocidos por una Máquina de Turing, publicada en su artículo aparecido en la revista Information and Control On certain formal properties of grammars“, en el año 1959, con lo que se abría un nuevo horizonte de estudio no imaginado originalmente por Turing.

Dentro de la informática, los lenguajes regulares son los encargados de describir los componentes básicos de los programas, las palabras reservadas, los identificadores, y las expresiones en general, es decir los componentes léxicos del lenguaje. Por el contrario, los lenguejes libres del contexto, o más bien un subconjunto de ellos, son la base del análisis sintáctico, también de los programas, y la comprobación de que está libre de errores, así como del proceso de traducción a órdenes inteligibles por el computador. Finalmente, los lenguajes sensibles al contexto y recursivamente enumerables se estudian en la Teoría de la Computabilidad, donde se analizan las propiedades de los problemas resolubles de manera algorítmica.

Gramática de números binarios 
Para Chomsky, y así ha quedado en la Teoría Informática, una gramática formal es una estructura matemática, consistente en un conjunto de reglas que definen la forma de construir  todas y cada una de las cadenas de caracteres que componen un determinado lenguaje. A dichas cadenas formadas según las reglas de la gramática formal se les llama sentencias, y el conjunto de todas las sentencias constituye el lenguaje. Debemos notar que en este proceso no se describe el significado de dichas sentencias, sino únicamente su forma, de ahí el calificativo de “formal”. Además de este conjunto de reglas, la descripción de una gramática formal se completa con dos conjuntos de símbolos, denominados alfabetos, uno el de los caracteres que conforman las sentencias propias del lenguaje, denominado alfabeto terminal, y otro constituido por una serie de símbolos auxiliares, o variables, usados durante el proceso de cómputo y que no aparecen en las sentencias válidas del lenguaje, sino únicamente durante los pasos intermedios;. es por ello que a este alfabeto se le denomina no terminal. Para finalizar, al conjunto de reglas y a estos dos alfabetos se añade un símbolo especial, denominado axioma, que sirve para dar comienzo a la construcción de cualquier sentencia, y que pertenece al alfabeto no terminal. Estos cuatro componentes son los que describen toda gramática formal. En la ilustración se muestra un ejemplo de gramática que genera las cadenas binarias.

Además de por sus contribuciones científicas, tanto referentes a la lingüistica como a la Informática, Chomsky también es ampliamente conocido por sus tareas de activismo político, desarrolladas principalmente en los Estados Unidos, pero que afectan a casi todos los rincones del planeta.

Este activismo político se inició con la movilización popular contra la Guerra del Vietnam. En ella  analizó el papel del mundo académico en la implicación de Estados Unidos en la guerra, destacando el artículo “La responsabilidad de los intelectuales” publicado en 1967. Desde entonces ha sido muy conocido por sus ideas políticas, situadas en una izquierda política, más bien anarquista, y por su lucha por superar el déficit democrático existente, tanto en Estados Unidos como en el resto de los países autodenominados democráticos, y que se plasma en la enorme distancia existente entre las decisiones políticas y la opinión pública, así como en denunciar las ambiciones imperialistas del gobierno norteamericano en el resto del mundo.

 

Aún considerándose a sí mismo un anarquista, Chomsky no se opone a la política electoral, y como estrategia suele proponer el voto a los demócratas locales si existe riesgo de victoria republicana, mientras que suele apoyar candidaturas más a la izquierda como los verdes, bien cuando se descarta aquella, o en ocasiones en que es inevitable. En España ha mostrado su fuerte apoyo a los movimientos de indignados surgidos a partir del 15 de mayo de 2011, conocidos como movimiento 15-M, coincidiendo con sus demandas de una auténtica democracia real, por lo que ha escrito el prólogo del libro “Hay Alternativas“.

Siendo judío, se define a sí mismo como sionista, y ha declarado su admiración y adhesión al kibbutz como una forma social alternativa; si bien su concepto de sionismo es tan peculiar que le ha valido el ser admirado por los simpatizantes palestinos y a ser muy denostado por los israelíes, siendo calificado por estos como antisionista, pues señala que desde hace años la maquinaria militar israelí junto a EE.UU. vienen realizando sistemáticamente acciones violentas al margen de las leyes internacionales, llegando a calificar a ambos estados como terroristas.

Actualmente se le considera como una de las principales figuras de la política radical norteamericana, y además, junto a José Saramago, Eduardo Galeano o Leonardo Boff, uno de los referentes de la intelectualidad de la izquierda mundial, si bien en este ámbito, y al contrario de su actividad científica, sus aportaciones no han sido tan relevantes, no pudiendo ser catalogado como un teórico de la política, sino más bien como un científico bien informado que mantiene una actitud muy crítica con el poder.
En ese sentido, podríamos considerar que su mayor aportación en este terreno ha sido su análisis de los medios de comunicación, donde con carácter general aparecen enfoques sesgados, o incluso directamente engaños, y que existen detrás de su supuesta neutralidad, hasta en los medios más prestigiosos. Es por eso que ha acuñando la frase: “La propaganda es en la democracia lo que la porra en un estado totalitario”. En su libro de 1988  Manufacturing Consent: The Political Economy of the Mass Media explora esta situación de manera detallada, siendo un resumen de su contenido las 10 estrategias de la manipulación mediática, redactadas por Sylvain Timsit en 2002, y que compendian el pensamiento de Chomsky.

 

Así pues, su denuncia de la política exterior de Estados Unidos,  las deficiencias democráticas en su funcionamiento interno, y la manipulación de las corporaciones de los medios de  comunicación han hecho a este intelectual poner en cuestión los pilares donde descansa el fuerte nacionalismo norteamericano, lo que le ha llevado, a pesar de su gran prestigio internacional, tanto por su actividad científica como por sus ideas políticas, a ser un desconocido en su propio país, ignorado por los grandes medios de carácter general.
Fernando Cuartero

Una versión un poco más reducida de este artículo ha sido publicada en el Blog de El País dedicado a conmemorar el año de Turing.

Fuente:

Hablando de Ciencia

21 de septiembre de 2012

El genoma de 220 africanos ilumina el origen de la humanidad

Un trabajo confirma que los San son descendientes de los primeros hombres modernos.
El estudio identifica seis genes clave del cráneo y el cerebro.


Restos artísticos de los bosquimanos San en Suráfrica.

El genoma de 220 personas de 11 poblaciones subsaharianas —el mayor estudio africano hasta la fecha— confirma que los bosquimanos San descienden en línea directa de los primeros humanos modernos, que evolucionaron en el sur de África hace más de 100.000 años. El trabajo identifica los seis genes clave del desarrollo del cráneo y el cerebro que fueron objeto de selección darwiniana en aquella época, y que probablemente crearon la anatomía humana moderna en un plazo relativamente breve. Otros fenómenos genéticos posteriores subyacen a las adaptaciones de una población u otra al entorno, y afectan a la potencia muscular, la protección contra la radiación ultravioleta -el color de la piel- y la respuesta inmunológica contra nuevas infecciones.

Los bosquimanos hablan lenguajes-clic, en los que que las consonantes suenan como el chasquido que todos hacemos para indicar fastidio, o como el sonido de un beso. De hecho, el primer investigador en proponer que los San y otros bosquimanos representaban a la población ancestral de la humanidad moderna no fue un genetista, sino un lingüista: Joseph Greenberg, de la Universidad de Stanford, que propuso en los años sesenta que los lenguajes clic, hablados por pequeñas poblaciones de bosquimanos salpicadas por el sur y el este de África, formaban en realidad una sola familia lingüística, el khoisán.

Pero es la genética, y también la arqueología más reciente, la que ha rescatado la hipótesis de Greenberg de un olvido tenaz que, en realidad, se originó en el mismo momento de su formulación. El gran lingüista y antropólogo murió en 2001, mucho antes de poder saber lo acertadas que iban a resultar sus teorías.

La divergencia más profunda en el seno de toda la humanidad viviente ocurrió hace unos 100.000 años

El nuevo trabajo es producto de una colaboración entre biólogos evolutivos, antropólogos, neurocientíficos y genetistas médicos coordinados por Himla Soodyall, de la Universidad de Witwatersrand en Johannesburgo, y Mattias Jakobsson, de la de Uppsala, Suecia. Los resultados se adelantan en la edición electrónica de Science.

"Los San tienen algo especial que añadir al mundo tanto genética como cultural y éticamente", dice Jakobbson como justificación de su trabajo. "La importancia de nuestro estudio es que pone el patrimonio San en el sitio que le corresponde en la historia, y también aporta el telón de fondo genético para estudios futuros".

Los investigadores han analizado 2,3 millones de snips (acrónimo inglés para "single nucleotide polymorphisms", polimorfismos de un solo nucleótido), o variaciones de una sola letra en la secuencia del ADN (tcctgataag..., el genoma humano tiene 3.000 millones de letras). Y los han comparado en un promedio de 20 individuos de 11 poblaciones, de la mitad sur del continente, la mayoría de ellas hablantes de lenguajes clic, o khoisán. Esta es la mayor masa de información genética sobre las poblaciones subsaharianas obtenida hasta ahora.

"La divergencia más profunda en el seno de toda la humanidad viviente ocurrió hace unos 100.000 años", explica la primera firmante del trabajo, Carina Schlebusch, investigadora posdoctoral en Uppsala, en referencia a la separación genética entre los San y el resto de los pobladores del planeta, incluida la inmensa mayoría de la población africana. "Esa fecha es mucho antes de que los humanos modernos migraran fuera de África (hace unos 60.000 años), y el doble de antigüedad que el tiempo de divergencia de los pigmeos de África central y los cazadores-recolectores del Este".

Las poblaciones de bosquimanos han padecido en los últimos siglos
una extinción intensa y sostenida

Cuando dos poblaciones se han separado hace poco, como las de Oriente Próximo y el Mediterráneo occidental, sus genomas se parecen mucho, es decir, muestran una escasa divergencia. A mayor divergencia, mayor antigüedad de la separación entre ambas. Con muchos datos de este tipo, los genetistas han logrado reconstruir un mapa sorprendentemente detallado de la gran historia de las migraciones humanas. Y la mayor divergencia de todas -luego la separación más antigua- es la que se da entre los bosquimanos San y cualquier otra población del planeta. Es la forma que tienen los evolucionistas de reconstruir el pasado.

Soodyall, una de las codirectoras del estudio, que trabaja en el Laboratorio Nacional de Salud sudafricano, ha tenido una larguísima relación con los San y otros bosquimanos del sur del continente, y al igual que su colega Jakobsson hace una lectura histórica de los resultados del trabajo. Dice que son "un tributo fenomenal a los pueblos indígenas Khoe y San, a los que damos una oportunidad de reclamar su lugar en la historia del mundo". Soodyall, Jakobsson y otros autores del estudio tienen previsto visitar este mes a los grupos San del desierto de Kalahari para agradecerles su colaboración.

Las poblaciones de bosquimanos han padecido en los últimos siglos una extinción intensa y sostenida. El grupo más abundante en la actualidad son los hablantes de khoisán del sur de África, que cuenta con unos 250.000 hablantes.

Las sofisticadas matemáticas en que se basa la genómica actual han permitido a los investigadores enfocar su lupa sobre los genes que estaban experimentando procesos de selección evolutiva hace más de 100.000 años, antes de los bosquimanos empezaran a diverger del resto de la humanidad. Han encontrado seis variantes genéticas sujetas a una fuerte presión selectiva en la época, y que ahora son un patrimonio universal de la humanidad. Pueden ser los genes que hicieron evolucionar a nuestra especie desde un homínido más primitivo, piensan los autores.

Los nombres de los genes son ROR2 (implicado en el desarrollo del hueso y el cartílago), SPTLC1 (cuyas mutaciones se asocian a la neuropatía sensorial hereditaria), SULF2 (cuyas mutaciones subyacen a malformaciones esqueléticas y defectos en el desarrollo del cerebro), RUNX2 (que ya había sido asociado a la evolución de la anatomía humana moderna), SDCCAG8 (uno de los genes implicados en la microcefalia) y LRAT (asociado al alzhéimer).

Fuente:

El País Ciencia

22 de marzo de 2012

Palabramáticas: La revolución de la lingúistica

[foto de la noticia]
  • ¿Cuántas palabras tiene un idioma? ¿Cómo viven? ¿Cómo mueren? La solución, según Culturomics, en los números.

Diciembre de 2010. Google presenta 'Books ngram viewer', una herramienta que actúa como un buscador de palabras en los fondos de su biblioteca digitalizada 'Google books' y mide su frecuencia de aparición, año a año. Suena a juego divertido. Se pueden buscar palabrotas, nombres propios, topónimos... Un mes después, un grupo de 'científicos sociales' procedentes, en su mayoría, de la universidad de Berkeley, presentan en la revista 'Science' una línea de trabajo que se basa en el uso de esa herramienta. Su título/marca es 'Culturomics' y, como el asunto suena a 'freakonomics', sigue pareciendo divertido. Marzo de 2012. El equipo de trabajo de Culturomics lanza un nuevo 'paper' que, unido a su primera 'cosecha', ofrece conclusiones impresionantes para los ojos de un lector que no sea lingüista. Por ejemplo: el corpus de palabras empleadas por los hablantes de la lengua inglesa ronda el millón; tres veces más que las recogidas en el diccionario más extenso. Más de 8.000 voces nuevas se incorporan cada año al idioma. Las palabras, además, viven en un mundo competitivo, en el que tienen que pelear por su supervivencia contra sus sinónimos. Etcétera, etcétera.

"Nuestro conocimiento de las lenguas en este momento es equivalente al que tenia Galileo en el siglo XVI sobre el universo: él inventó el telescopio para poder hacer mejores observaciones. La tecnología mejoró la investigación en Física. Hasta que no ha habido una tecnología que ha permitido disponer de los datos sobre el lenguaje de manera manejable para los investigadores, es decir, hasta que no ha aparecido la tecnologia digital, nuestro conocimiento se ha basado en lo que podían captar nuestros sentidos, lo cual es muy limitado. La tecnología digital permite disponer de grandes bancos de datos textuales sobre los que podemos aplicar programas que nos permiten analizar como son las lenguas, cual es su estructura, etcétera. Y lo que es más, la tecnología de la imagen (resonancia magnética y tomografías de emisión de positrones) nos permite ver el cerebro en acción y observar su funcionamiento cuando realiza funciones cognitivas relacionadas con el lenguaje. Por primera vez se va a poder estudiar el lenguaje de manera integrada con la Neurociencia. La digitalización de la información ha sido realmente una revolución en las ciencias del lenguaje".

La que habla es María Antonia Martí, lingüista y profesora de la Universitat de Barcelona y directora del Centre de Llenguatge i Computació. Como ella, cuatro filólogos responden a ELMUNDO.es sobre el valor de experiencias como 'Culturomics'. En el correo de ida, cuatro preguntas más o menos sencillas: ¿qué tienen de nuevo trabajos como el de Culturomics? ¿Cuál es su valor? ¿Cuáles son sus límites? ¿Cuánto sabemos de las lenguas que hablamos?

María Antonia Martí

"Desde el momento en que se empieza a disponer de textos en soporte digital se ve la posibilidad de aplicar programas que realizan análisis cuantitativos de los textos. Esto tiene lugar en Estados Unidos en los años 50. El análisis cuantitativo permite averiguar de manera muy rápida las palabras más frecuentes, qué combinaciones de palabras son las que predominan, etcétera. Con estos datos, aunque son limitados, se puede afrontar el análisis cualitativo (del contenido) con mayor objetividad. Que conste que me centro en los 'métodos'; otra cosa distinta serían los 'modelos' matemáticos del lenguaje, pero esto es harina de otro costal".

"Estos métodos tienen la ventaja de ser fácilmente implementables, son independientes de la lengua y ponen a disposición del investigador los datos lingüísticos preprocesados, de manera que se facilita la investigación posterior. Además, como se ve en el artículo de Culturomics, el interés de la aplicación de estos métodos no és sólo lingüística, tiene un interés social, cultural... amplio y se pueden beneficiar de ello investigadores de diversas líneas de investigación. Actualmente se están desarrollando métodos estadísticos muy sofisticados para extraer información de grandes corpus. Por ejemplo se puede saber qué palabras están relacionadas. Ésta es una web muy simple de un programa que hemos desarrollado en nuestro grupo de investigación: en la casilla de arriba pones una palabra del español, la que sea, y verás como aparecen las palabras relacionadas sobre un fondo de color más o menos fuerte según el grado de conexión.

Carlos Subirats (catedrático en el Departamento de Filología Española de la Universidad Autonoma de Barcelona)

"Simplificando mucho (si me permites) podríamos decir que los métodos puramente estadísticos se han aplicado, en algunos casos con mucho éxito, desde la lingüística computacional. Esto sería el planteamiento clásico. Pero en la actualidad, lo que estamos haciendo es combinar las análisis desarrollados por lingüistas con los métodos estadísticos más sofisticados. Incluso en la actualidad hay sistemas de tratamiento automático que combinan los sistema de reglas (lingüísticas) con sistemas estadísticos dentro de una misma aplicación informática. En general el valor de los métodos estadísticos es su aplicabilidad para procesamiento automático del lenguaje".

"Los límites vienen dados por el hecho de que los métodos estadísticos (o numéricos) sólo tienen acceso al aspecto formal del lenguaje, es decir, tratan el lenguaje como simples concatenaciones de formas (palabras) y realizan cálculos sobre las palabras sus combinaciones, su probabilidad de aparición una junto a otra, etcétera. Con este tipo de análisis se pueden hacer muchas cosas, pero, como sabemos hoy, tanto los lingüistas como los hablantes, la información lingüística no está 'contenida' en las palabras, sino que el lenguaje es un sistema que nos permite evocar y recrear una realidad mucho más compleja. Es decir, las palabras no 'transportan' o 'contienen' el significado, sino que el significado se recrea en la mente del hablante o del oyente, mediante los procesos que desencadenan las palabras. Es decir, el significado no está en las palabras, sino en los procesos cognitivos que desencadenan las palabras. Por eso, en la actualidad se combinan los métodos estadísticos con planteamientos cognitivos".

"[De nuestros idiomas] sabemos muy poco. Pero si lo comparamos con lo que sabíamos en la época de Nebrija, creo que el balance es positivo y que ha habido un gran avance, especialmente, dentro de la lingüística cognitiva, que tiene antecedentes en tradiciones clásicas, como, por ejemplo, la gramática filosófica francesa. Pero es cierto que queda un gran camino por recorrer. El problema es que la lingüística es una disciplina que cubre un área tan extensa (psicologia, ciencia cognitiva, neurolingüística, neurocognitivismo, antropología, ciencias de la computación, etcétera), que complica evidentemente la realización de avances que tienen que integrar necesariamente todos estos aspectos para ser realmente consistentes".

Jaime Siles (catedrático de Filología Clásica en la Universidad de Valencia y presidente de la Sociedad Española de Estudios Clásicos)

"[En el estudio de la Literatura] desconfío no poco de estos métodos puramente cuantitativos que, si bien tienen la ventaja de facilitarnos el índice de frecuencia de determinados usos lingüísticos de un autor, no nos añaden demasiada información ni sobre una obra ni sobre el sistema de su mundo. A veces lo numérico intenta maquillar de cientifismo algo que dista mucho de ser científico en sí: el número de ventanas de un edificio nos informa de uno de los elementos de un edificio, pero no de su totalidad. Y las medidas del bastidor de un cuadro (que son un dato objetivo) difícilmente pueden confundirse con su carácter artístico".

"Sobre la lengua (y no digamos sobre el lenguaje) sabemos poco: la primera es sentida por la mayoría de la gente como un medio y un modo de comunicación; pero para los escritores es un modo y un medio de expresión y de creación; y para los filósofos, un modo y un medio de representación. Es todas esas cosas a la vez lo que nos da un poema: reducirlo a su composición (o descomposición, fónica, fonológica o silábica) nos aporta información sobre el verso, pero no sobre el poema. Por eso hay que aceptar las limitaciones de este método, que las tiene (como también sus ventajas) como todos. Una mezcla de entusiasmo, escepticismo y objetividad es lo recomendable".

Montse Alberte (traductora y lexicógrafa. Coeditora de 'El dardo en la academia')

"La aplicación de métodos matemáticos al estudio de la lengua corre paralela a la aparición de los ordenadores y, especialmente, a su desarrollo y el incremento de su capacidad y velocidad de procesamiento. Conforme han ido siendo más potentes, capaces de manejar más datos, esta aplicación se ha hecho más presente y ha permitido realizar más observaciones y llegar a más conclusiones. La reciente digitalización de textos, cada vez más en masa, ha supuesto la creación de una materia prima sobre la que aplicar esos métodos. Como cualquier análisis estadístico, proporciona una serie de datos cuantitativos sobre la lengua o, mejor dicho, sobre esa 'muestra' de la lengua (el corpus). La interpretación de esos datos es valiosa para la lingüística, para varios campos de la misma (la lexicometría, la semántica, la lexicografía, la gramática...). Poder rastrear una palabra en el tiempo, a través de textos, por ejemplo, permite conocer su 'vida', y poder rastrear muchas palabras permite tener el reflejo de una ideología, de una tendencia social, de una cultura...".

"No sé si sabemos mucho o poco [sobre nuestros lenguajes]. Hasta ahora sabíamos lo que sabíamos. A partir de ahora podremos saber más; está por ver cuánto más. Pero sí, sin duda, nos va a aportar conocimientos nuevos y muy interesantes. La lingüística como disciplina científica es joven aún".

Fuente:

El Mundo Ciencia

6 de abril de 2011

¿Tu letra indica algo de tu personalidad?


Lea primero esto:

En Conocer Ciencia estamos convencidos de que la grafología NO es una ciencia.

La grafología es una técnica proyectiva y descriptiva que pretende analizar la escritura con el fin de identificar o describir la personalidad de un individuo e intentar determinar características generales del carácter, acerca de su equilibrio mental (e incluso fisiológico), la naturaleza de sus emociones, su tipo de inteligencia y aptitudes profesionales y, según algunos grafólogos, serviría para diagnosticar el grado de salud o enfermedad física y mental.

Aunque sus defensores se apoyan evidencias anecdóticas, la mayoría de los estudios empíricos realizados no han sido capaces de confirmar la validez de sus afirmaciones. Por ello es generalmente considerada una pseudociencia (ver el apartado "juicio de la grafología").

No debe confundirse grafología con la caligrafía forense o, más apropiadamente, peritaje caligráfico, una disciplina utilizada en criminología con el propósito de comparar escritos y determinar, por ejemplo, si un documento fue firmado por la persona que se supone que lo hizo, de utilidad además de en criminología en derecho, como por ejemplo en los testamentos hológrafos o notas de suicidio. Entre las técnicas que utiliza están el análisis de tinta, papel o tipo de máquina de escribir. La caligrafía forense está aceptada judicialmente, con fines periciales de identificación de individuos.

Ahora, si los invito a leer el post de Papel en Blanco...


Cada uno de nosotros poseemos un cierto deje en nuestra forma de escribir, máxime en tiempos en que los ejercicios de caligrafía están arrumbados en el desván de las cosas que huelen a naftalina. Los hay que escriben diminuto, otros con grandes letras. También los hay que escriben como si dibujaran montañas redondeadas o jorobas de camello. Otros parece que imitan las volutas caligráficas de la gótica alemana.

Pero ¿la forma de nuestras letras manuscritos guarda alguna relación con la forma de nuestro cerebro y, en consecuencia, de cómo pensamos?

Algunos de los grandes pensadores de la historia han tratado de descifrar las complejidades de la personalidad humana mediante factores externos evidentes. Por ejemplo, Freud creía que se podía categorizar a las personas según el orificio corporal que les procuraba mayor placer. Francis Galton se fijaban en los bultos del cráneo, como quien estudia la orografía del terreno para comprender la personalidad de sus habitantes. Jung estaba convencido de que la personalidad la determinaba la posición de las estrellas en el momento del nacimiento.

Y de un tiempo a esta parte, junto con los polígrafos que dicen detectar si mentimos o decimos la verdad, ha aparecido un ejército de grafólogos que aseguran poder correlacionar el tipo de letra que tenemos y otros garabatos con algunos rasgos generales de nuestra personalidad, incluso nuestra inteligencia, nuestra salud e incluso nuestros instintos criminales.

Los grafólogos examinan lazos, las “i punteadas”, las “t cruzadas”, el espaciamiento de las letras, inclinaciones, alturas, movimientos de cierre, etc., pues creen que tales minucias de la escritura son manifestaciones físicas de funciones mentales inconscientes.

Muchos departamentos de personal se toman en serio estas afirmaciones: entre el 5 % y el 10 % de las empresas del Reino Unido y Estados Unidos usan de manera habitual la grafología para eliminar candidatos en sus procesos de contratación. (Me pregunto si luego les preguntan la fecha de nacimiento para confeccionarles la carta astral).

Los estudios sobre la utilidad de la grafología no son muy halagüeños. Por ejemplo, el investigador Geoffrey Dean recopiló 16 artículos académicos que estudiaban la grafología en el trabajo.

Comparó las predicciones de los grafólogos sobre el rendimiento de los empleados con las puntuaciones de los supervisores de dichos empleados durante el periodo de formación. Los resultados revelaron que había poca relación entre las predicciones de los grafólogos y el éxito laboral. De hecho, los grafólogos eran tan precisos como un grupo de control de profanos que no tenía ninguna experiencia en grafología.

Pero ¿y fuera del ámbito laboral? ¿Podría decirse, por ejemplo, que yo soy tímido porque mi letra es muy pequeña, casi minúscula? Dean comparó los intentos de los grafólogos para determinar el carácter de una persona con las puntuaciones de esa persona en tests de personalidad con validez científica. Tras revisar 53 artículos, la conclusión fue demoledora:

No sólo era escasa la precisión de los grafólogos, sino que obtenían la misma puntuación que los grupos de control con personas sin formación ni conocimientos para la evaluación de la personalidad a través de la escritura.

Esto me recuerda a aquella anécdota en la que se analizó el grado de aciertos de un adivino (del que omitiré el nombre, si bien es muy popular en España): una persona normal era capaz de alcanzar un grado de aciertos sobre el futuro mayor que el propio adivino.

26 de marzo de 2011

¿Cambio climático o calentamiento global?: Las palabras sí importan

Muchas personas son escépticas acerca de si el clima del planeta está cambiando, pero, al parecer, el grado de su escepticismo varía sistemáticamente dependiendo de cómo se llame a ese cambio. Según un estudio de la Universidad de Michigan (EE UU) que se publica en la próxima edición de la revista Public Opinion Quarterly hay más gente que cree en el "cambio climático" que en el "calentamiento global".

"Las palabras importan", afirma Jonathan Schuldt, autor principal del estudio. Para la investigación, Schuldt y sus colegas realizaron un experimento sobre la redacción de la pregunta en el American Life Panel, una encuesta que realiza RAND por medio de Internet, con una muestra de alcance nacional de 2.267 adultos estadounidenses. A los participantes se les pidió que indicaran si consideraban que el cambio del clima global era un problema grave. El 74 por ciento de los participantes opinó que el problema es real cuando se mencionaba como "cambio climático", pero sólo el 68 por ciento consideró que era real si se usaban las palabras "calentamiento global". "Mientras que al hablar de calentamiento global centramos la atención en los aumentos de las temperaturas, la expresión cambio climático hace referencia a cambios más generales", afirma Schuldt.

Como parte del estudio los investigadores también analizaron el uso de estos dos términos en las páginas web de los diferentes grupos políticos, y encontraron tendencias distintas entre liberales y conservadores. Los conservadores tienden a llamar el fenómeno “calentamiento global”, mientras los liberales lo denominan “cambio climático”.

Fuente:

Muy Interesante
google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0