Latest Posts:

Mostrando las entradas con la etiqueta sonido. Mostrar todas las entradas
Mostrando las entradas con la etiqueta sonido. Mostrar todas las entradas

20 de septiembre de 2013

Sabe usted... ¿Por qué nos crujen los nudillos?

Los nudillos son articulaciones, ¿qué articulaciones suelen crujir y por qué?
Las articulaciones que crujen son las que se conocen como diartrosis, que son dos huesos unidos entre sí por superficies cartilaginosas envueltas por una cápsula con una sustancia lubricante llamada fluido sinovial que reduce el desgaste por el rozamiento entre los cartílagos y huesos.

Está compuesto por nutrientes y una serie de gases disueltos como oxígeno o dióxido de carbono. 
El sonido que se produce al estirar o entrelazar los dedos se debe al líquido sinovial.

¿Por qué se debe al líquido sinovial y qué es lo que sucede?

1) Para estirar los dedos, es necesario se estira la cápsula con el líquido sinovial y que se reduzca su volumen.

2) Para que se produzca la reducción del volumen, es necesario que la presión de la disolución sea menor y, para esto, salen rápidamente los gases disueltos de la disolución en forma de burbujas.

3) Estas burbujas de gas liberado del líquido sinovial de la cápsula entre los dos huesos unidos estallan y es lo que provoca el sonido característico de crujirse los dedos.

Todavía no se conoce con exactitud como estas burbujas pueden provocar tanto sonido.
¿Por qué tenemos que esperar determinado tiempo para volver a crujirse los dedos?

Porque hay que esperar que las burbujas que se habían liberado de la disolución vuelvan a disolverse en el líquido sinovial y puedan liberarse como burbujas de nuevo.

¿Qué efectos negativos tiene el crujirse los dedos?

Crujirse los dedos se ha convertido en algo habitual y sus efectos son los siguientes:
  - Se había pensado que crujirse los dedos podría estar relacionado con artrosis, pero esta idea se ha desechado. De hecho, en el 2009 Donald L. Unger recibió el premio IG Nóbel de Medicina por haber estado durante 60 años crujiéndose los dedos de una mano y no de la otra. Al estudiar su grado de artritis en ambas manos, se observó que no tenía artritis en ninguna mano.
Es decir, parece demostrado que crujirse los dedos y la artrosis no están relacionados.
  - Lo que sí provoca es daños en las estructuras blandas de las articulaciones como los ligamentos.
  - Disminuye nuestra fuerza prensora, es decir, reduce la fuerza con la que podemos apretar la mano.
¡Intenta no crujirte los dedos!
Tomado de:

17 de septiembre de 2013

¿Cómo recoge un micrófono los sonidos?

Micrófonos de la BBC

Un micrófono convierte el sonido en una pequeña corriente eléctrica.

Las ondas sonoras golpean un diafragma que vibra, moviendo un imán cerca de una bobina. En algunos diseños, la bobina se mueve dentro de un imán.

Otros dispositivos, como los micrófonos condensadores (los que se utilizan en estudios de grabación), funcionan según el principio de la capacidad.

Los condensadores consisten en placas paralelas que almancenan la carga y se utilizan para suavizar las señales como variaciones de tensión en una fuente de alimentación.

En un micrófono condensador, el sonido entrante hace vibrar una placa de un condensador.

La capacidad variable es entonces convertida en la señal eléctrica correspondiente.

Fuente:

BBC Ciencia

Efemérides: El cassette cumple 50 años



(C) Philips

Philips creó el primer cassette compacto en 1962 y lo lanzó al mercado por primera vez en Europa en 1963.

Puede ser que el tope de su popularidad haya sido en los años ochenta, entre los dominios del vinilo y del CD, pero el cassette fue creado bastantes años antes, en 1962, donde posteriormente se presentó al público por primera vez en el Berlin Radio Show de 1963.

El cassette de Philips tenía un cuarto del tamaño de los cartuchos Fidelipac, por lo que se podía reproducir en dispositivos portátiles capaces de funcionar con la energía de una pequeña batería. En un comienzo podían grabar solo entre 30 y 45 minutos por lado.

900903-13-20-first-philips-cassette-recorder-1963-(Ph100,-147-4)-lrg

En la imagen superior se puede ver el primer cassette de Philips junto al primer reproductor, el EL-3300, que para funcionar requería de cinco pilas y pesaba 1,35 kilogramos.

Finalmente cabe agregar que la popularidad del cassette entre los fabricantes también se debe a que Philips aceptó no cobrar royalties por su invención, por lo que cualquier fabricante podía utilizar esta tecnología completamente gratis. Y quién sabe, algunos aseguran que el cassette está de vuelta como formato entre algunos músicos.

Link: Philips

Fuente:

FayerWayer

3 de septiembre de 2013

Terapia con tu propia banda sonora cerebral

¿Podemos usar la música como terapia? Es la pregunta que se han hecho los investigadores del Departamento estadounidense de Homeland Security's Science & Technology Directorate (S&T). Para averiguarlo han llevado a cabo un estudio de neuro-entrenamiento bautizado "música cerebral", que genera melodías a partir de las ondas cerebrales de cada sujeto para tratar enfermedades comunes como el insomnio, la fatiga y los dolores de cabeza.

En concreto, a partir de las señales cerebrales se crean dos únicas composiciones musicales, de 2 a 6 minutos de duración cada una, destinadas a activar la respuesta natural del cuerpo. Una de ellas promueve la relajación y reduce el estrés, mientras la otra potencia el estado de alerta, mejorando la concentración y la toma de decisiones. La melodía de relajación puede sonar como una "melódica y suave sonata de Chopin", mientras que la pista de alerta recuerda más a Mozart, asegura Robert Burns, coordinador del proyecto.

Después de haber traducido a música las ondas cerebrales, a cada persona se le asigna un horario específico de audición de su "banda sonora cerebral", personalizado para su entorno de trabajo y necesidades. Si se utiliza correctamente, aseguran sus creadores, la música puede aumentar la productividad y los niveles de energía, o potenciar una respuesta natural al estrés corporal. El primer grupo de profesionales en probar los efectos de la nueva terapia musical será un equipo de bomberos.

Fuente:

Muy Interesante

¿Por qué sentimos a veces un timbre en el oído?

Los sonidos muy fuertes -entre los que se incluyen la música, los fuegos artificiales y el que producen algunas máquinas- pueden dañar los receptores sensoriales del oído interno.

Estos receptores son los encargados de transformar el sonido en impulsos neuronales que viajan hasta el cerebro, y los sonidos muy fuertes rompen sus terminaciones.

Oído

Estas vuelven a crecer en 24 horas, pero, mientras están averiadas, envían señales falsas al cerebro.

Los acúfenos (como se les llama a los sonidos que oímos en estos casos) pueden también ser el resultado de infecciones en el oído, también de la pérdida gradual de audición causada por el envejecimiento o pueden ser provocados por algunos fármacos

Fuente:

BBC Ciencia

¿Pueden los ruidos afectar el sabor del alcohol?

Sí. Desde hace rato los dueños de los bares saben que cuanto más ruidoso es el ambiente, más tragos venden.

Investigaciones recientes en las que la gente debía puntuar el sabor de las bebidas en distintos ambientes mostraron que no solo uno bebe más porque el barullo hace imposible la conversación, sino que además el alcohol sabe más "dulce" en sitios ruidosos.

Como los seres humanos tenemos una preferencia innata por los dulces, bebemos más.

Fuente:

BBC Ciencia

Los auriculares pueden ser el peor enemigo de la memoria

audífonos

Los ruidos fuertes pueden afectar la memoria, según el estudio.

A muchos adolescentes les gusta escuchar música a todo volumen, incluso mientras estudian, una costumbre que ha sido criticada por padres durante generaciones.

Ahora científicos en Argentina demostraron que nuestros padres tenían razón: a través de un experimento utilizando ratas comprobaron que los ruidos fuertes pueden afectar la memoria y los mecanismos de aprendizaje en animales en desarrollo.
El trabajo, que fue publicado en la revista Brain Research, se realizó utilizando roedores de entre 15 y 30 días, una edad equivalente a chicos de entre 6 y 22 años.

"Usamos ratas porque tienen un sistema nervioso parecido al de los humanos", explicó a BBC Mundo Laura Guelman, coordinadora del proyecto e investigadora del Centro de Estudios Farmacológicos y Botánicos (Cefybo), de la Universidad de Buenos Aires (UBA).

Los científicos expusieron a los animales a ruidos con intensidades de entre 95 y 97 decibeles (dB), más altas que lo considerado un nivel seguro (70-80 dB) pero por debajo del sonido que produce un concierto de música (110 dB).

Y descubrieron algo novedoso: tras dos horas de exposición, las ratas sufrieron daño celular en el cerebro.

Las alteraciones se produjeron en la zona del hipocampo, una región asociada a la memoria y los procesos de aprendizaje.

"Esto sugiere que lo mismo podría ocurrir en humanos en etapa de desarrollo, aunque será difícil de comprobar debido a que no podemos exponer a niños a este tipo de experimentos", explicó la experta.

Lea el artículo compketo en:

BBC Ciencia

2 de septiembre de 2013

¿Por qué escuchar nueva música nos causa placer?

Chica escuchando música

El estudio determinó cómo se ilumina la zona del cerebro responsable de registrar las gratificaciones.

Escuchar música nueva es gratificante para el cerebro. Ésta es la conclusión de un estudio publicado en la revista Science

Con la ayuda de imágenes por resonancia magnética, un equipo de científicos canadienses descubrió que la zona del cerebro de recompensa se activa cuando la persona escucha por primera vez una melodía.
En la medida en que el oyente disfrutaba más de la música, más fuertes eran las conexiones en la región del cerebro conocida como núcleo accumbens.

"Sabemos que el núcleo accumbens tiene que ver con la recompensa", le dijo a la BBC el doctor Valorie Salimpoor, del Instituto de Investigación Rotman, en Toronto.

"Pero la música es abstracta. No es como si tuvieras hambre y estuvieses a punto de conseguir comida y te entusiasmaras porque vas a comer. Lo mismo que ocurre con el sexo o el dinero, que es cuando normalmente se ve actividad en el núcleo accumbens".

"Pero lo interesante es que te estás anticipando y emocionando por algo totalmente abstracto, y eso es el próximo sonido que se acerca", agregó.

Canciones nuevas

Para el estudio -realizado en el Centro Neurológico de Montreal de la Universidad McGill-, los científicos les tocaron 60 fragmentos de música nueva a 19 voluntarios, sobre la base de sus preferencias musicales.

Mientras escuchaban las pistas de 30 segundos, los participantes podían comprar en una tienda de música en línea ficticia la música que les gustaba.

Todo esto se llevó a cabo mientras los voluntarios estaban acostados en una máquina de resonancia magnética.

Escáner cerebral

Los especialistas monitorearon la actividad cerebral mientras los voluntarios escuchaban música.

Con este análisis, los científicos descubrieron cómo el núcleo accumbens se iluminaba. Y en función del nivel de actividad, los expertos pudieron predecir la probabilidad de que un participante "comprara" una canción.

"Cuando estaban escuchando la música, pudimos observar su actividad cerebral y averiguar cómo la apreciaban o disfrutaban antes incluso de que nos dijeran algo", dijo Salimpoor

"Y esto foma parte de la nueva dirección que está tomando la neurociencia; tratar de entender lo que piensa la gente, deducir sus pensamientos y motivaciones y, finalmente, su comportamiento a través de su actividad cerebral".

Los investigadores descubrieron que el núcleo accumbens también interactúa con otra región del cerebro conocida como las retenciones auditivas corticales.

Ésta es un área que almacena información de sonido en base a la música a la que con anterioridad han sido expuestas las personas.

"Esta parte del cerebro es única para cada individuo, debido a que todos hemos escuchado diferentes tipos de música en el pasado", explicó el Dr. Salimpoor.

Los investigadores quieren saber ahora cómo esto conduce nuestros gustos musicales, y si nuestra actividad cerebral puede explicar por qué las personas se sienten atraídas por los diferentes estilos de música.

Fuente:

BBC Ciencia

Música: ¿Qué es la 'muzak'?

¿Se ha parado alguna vez a pensar en la cantidad de música de fondo con la que nos bombardean a diario en las tiendas, en los restaurantes, en la empresa o al teléfono, y sobre la cuál no tenemos capacidad de elección? En el vocabulario musicológico, esta música ambiental recibe el nombre de "muzak".

El término muzak es, en realidad, el nombre comercial de una empresa creada en Estados Unidos en los años 20 por George Squires para ofrecer música por vía telefónica. Se conoce también como “música de ascensor”, porque al principio se usaba en los rascacielos, dentro de los ascensores, para calmar a sus ocupantes mientras subían o bajaban. En los años 40 se empezó a utilizar en fábricas y empresas con el fin de aumentar los índices de productividad de sus empleados. Para conseguir este objetivo los expertos aseguran que debían escogerse canciones que pudieran ser “oídas pero no escuchadas”, evitando las partes cantadas para que el texto no fuese motivo de distracción. Su volumen era moderado, y la música no se circunscribía a un género en particular, aunque se evitaban los grandes éxitos, así como las frecuencias muy altas o muy bajas.

Tomado de:

Muy Interesante

La música se juzga más por lo que ve más que por lo que se oye



Las personas pueden identificar con precisión a los ganadores de una competencia de música clásica basándose sólo en video sin sonido, según demostró un estudio.

Incluso músicos profesionales no pudieron reconocer a los ganadores sólo con el sonido.
Esto desafía la idea de que el sonido es el factor más importante a tener en cuenta cuando se juzga la música.

Los hallazgos, publicados en la revista Proceedings de la Academia Nacional de Ciencias de Estados Unidos (PNAS), sugieren que la visión es en verdad el sentido más dominante.

La investigación concluye que el mejor indicador de una interpretación musical ganadora es la pasión que muestra el músico, seguido de cerca por su originalidad y creatividad.

Chia-Jung Tsay, del University College de Londres (UCL), es autora del estudio y concertista de piano.

La investigadora estaba interesada en la forma en que se juzga la música y vio que incluso los músicos profesionales no eran conscientes de cuánto más estaban usando la información visual que la sonora.

"Me di cuenta de que dependiendo de si se juzgaba en base a grabaciones de audio o de video podía haber resultados muy diferentes. Esto me llevó a preguntarme sobre cuánta información visual impacta realmente en estas importantes decisiones".

Para el estudio, se entregaron muestras de audio, video sin sonido o video con sonido a más de 1.000 participantes, y se les pidió que eligieran los tres primeros finalistas de 10 competencias internacionales de música clásica.

Los auténticos ganadores de las competiciones fueron identificados correctamente sólo por aquellos que habían visto los videos sin sonido.

En el caso de los voluntarios que vieron los videos con sonido, el grado de exactitud volvió al mismo nivel de coincidencia de quienes sólo escucharon el audio.

Información visual vs sonora

Manos sobre las teclas de un piano

El estudio indagó en los juicios sutiles que intervienen a la hora de diferenciar intérpretes muy habilidosos.

Tsay dice que los resultados son bastante sorprendentes, especialmente porque tanto los músicos entrenados como el resto de los participantes dijeron que el sonido había sido lo más importante en su evaluación.

"Sin importar el grado de experiencia, nos basamos principalmente por información visual, incluso en el ámbito de la música".

"La enseñanza de música clásica a menudo se centra en mejorar la calidad del sonido, pero esta investigación intenta comprender qué es lo que realmente se evalúa en los niveles más altos de la interpretación competitiva".

"Debemos ser más conscientes de nuestra inclinación a depender de la información visual a expensas del contenido que realmente consideramos como más relevante para nuestras decisiones".

La investigadora añade que sus hallazgos tienen implicaciones para otras áreas que se basan en gran medida en indicios visuales, como la contratación de empleados o la elección de líderes políticos.

La BBC quiso conocer la opinión de Alexandra Lamont, una psicóloga musical de la universidad Keele, en Reino Unido, que no estuvo involucrada en el estudio.

Ella considera que el informe sigue la línea de otras investigaciones que muestran la influencia de lo que los espectadores ven durante las actuaciones musicales en vivo de pianistas talentosos.

"La actuación musical es mucho más que sólo sonido, y los aspectos visuales a menudo mejoran la calidad de la experiencia, ya sea ver a un joven virtuoso y energético en el escenario de la Competencia Menuhin como deslumbrarse por un show de luces durante la actuación de un DJ en Glastonbury".

"Lo interesante es que los participantes sintieron que el sonido sería el factor más influyente en la toma de decisiones sobre los intérpretes, así que esto sugiere que usamos el indicio dominante para juzgar incluso cuando no es muy útil".

Lamont agregó que el género y el origen étnico no tuvieron ningún efecto en las decisiones, "así que realmente se trata de cómo tocaron los intérpretes".

* Si vio el video y quiere saber si su criterio coincide con el del jurado de la competición internacional de piano Franz Liszt, le interesará saber que los pianistas que se ven en el video quedaron finalistas en este orden: 1. Yingdi Sun, 2. Anton Salnikov, 3. Christiaan Kuyvenhoven.

Fuente:

BBC Ciencia

30 de agosto de 2013

Esta es la canción de las estrellas

Vídeo: Science
Un equipo de científicos estadounidenses ha convertido las señales lumínicas que emiten estrellas distantes en sonidos. Según explican esta semana en la revista 'Science', analizando la cantidad de ruido pueden hacer estimaciones sobre la gravedad en su superficie y determinar en qué etapa evolutiva se encuentra, desde que son estrellas enanas a gigantes rojas.

La gravedad en la superficie de un objeto celeste es la aceleración gravitacional que experimenta en su superficie. Según recuerdan los autores de este estudio, es muy difícil medirla de una manera precisa. Gracias a esta propiedad, los astrofísicos pueden determinar si es una estrella enana, como el Sol, o gigante y más evolucionada.

Para realizar este estudio han aprovechado las mediciones que se habían realizado de las variaciones en el brillo de más de 150.000 estrellas. Así, gracias a los datos recabados por telescopio espacial 'Kepler' de la NASA, han desarrollado un método para determinar la gravedad superficial de las estrellas en pocos segundos.

Variaciones en el brillo

Las variaciones en el brillo de las estrellas similares al Sol están impulsadas por muchos factores, incluida la granulación, que es una consecuencia de la convección de calor por debajo de la fotosfera –la superficie luminosa que la delimita–.

Como la granulación está relacionada con la gravedad en la superficie estelar, ésta se podría medir observando las variaciones en el brillo de la estrella.

Un patrón del parpadeo de la estrella durante ocho horas sirve para determinar la gravedad de la superficie. Su procedimiento consigue una incertidumbre del 25% para estrellas enanas, similares al Sol.

"El 25% de incertidumbre está muy bien, ya que las otras técnicas que se utilizan normalmente tienen una incertidumbre mucho mayor, de hasta el 150%. Medir la gravedad de la superficie de una estrella es muy difícil y puede llevar horas o días de trabajo", declara a SINC Fabienne Bastien, coautora del estudio que publica la revista Nature e investigadora de la Universidad Vanderbilt (EEUU).

Se espera que el nuevo método desarrollado también servirá para ampliar el conocimiento sobre los exoplanetas (planetas fuera de nuestro Sistema Solar), de los cuales no se pueden medir masas ni dimensiones directamente, sino a partir de la información sobre de las estrellas que orbitan.

"Al mejorar la medida de la gravedad en la superficie estelar, que a su vez nos da el tamaño y la masa de la estrella, sabremos los tamaños y masas de los planetas que la orbitan con mucha más precisión", asegura Bastien.

Fuente:

El Mundo Ciencia

29 de agosto de 2013

¡Que te parta un rayo!, una maldición posible y probable

[foto de la noticia]
¡Que te parta un rayo!, popular maldición con invocación a los más grandes poderes de la naturaleza, no solo es posible, sino probable, sobre todo en verano, cuando las tormentas eléctricas descargan en la superficie terrestre la energía excedente del cielo.

El récord de rayos descargados sobre el territorio español se registró un 17 de agosto en 2003, con un total de 60.201 en una sola jornada; 16.548 en Castellón y 13.867 en Tarragona.

Y no es una cantidad imposible, si se toma en cuenta que cada rayo a los ojos humanos son cientos de descargas eléctricas para restablecer el desequilibrio de una nube con un potencial eléctrico desmesurado.

En días de mucho bochorno y calor, como los que se experimentan en agosto en estepas de pre montaña, la carga eléctrica de la superficie terrestre se convierte casi en un reclamo para las nubes de verano, las espectaculares cumuloninbus, nubes de evolución diurna y desarrollo vertical que se alimentan de las corrientes ascendentes de aire cálido y húmedo.

Francisco Martín León, meteorólogo de la Agencia Estatal de meteorología (Aemet) y jefe del área de Técnicas Análisis y Predicción, ha explicado a EFEverde la variabilidad espacial y estacional de los rayos, relámpagos o "centellas" a las que sigue el trueno. El sonido es siempre más lento que la luz.

La descarga eléctrica puede ser nube-Tierra o Tierra-nube, según la dirección inicial del rayo, que depende de la polaridad, negativa o positiva, respectivamente, de los dos extremos del canal ionizado o cargado eléctricamente que establece la "conexión".

Los rayos positivos (Tierra-nube) son de mayor intensidad y en forma de una única pulsación, mientras que los negativos que "salen" de la nube son múltiples descargas eléctricas que recorren la misma trayectoria inicial de la primera subcarga.

"Para descargar, la nube busca un punto próximo, y materiales conductores", precisa Martín, por lo que los objetos elevados, las áreas de altura, los pararrayos y hasta los árboles son potenciales receptores de rayos.

Lea el artículo completo en:

El Mundo Ciencia

1 de agosto de 2013

Los delfines se llaman por su nombre con silbidos

La especie humana no es la única en la que cada individuo tiene un nombre. Un estudio acaba de descubrir que los delfines nariz de botella emplean un silbido concreto para identificar a cada miembro de una comunidad. Así lo han comprobado científicos de la Universidad de St Andrews (Escocia) en un estudio publicado en 'Proceedings of the National Academy of Sciences' (PNAS).

Investigaciones anteriores ya habían revelado que los delfines responden y se comunican mediante un amplio repertorio de silbidos, pero nunca se había demostrado que utilizan un sonido específico que designa a cada animal del grupo.

El doctor Vincent Janik, de la Unidad de Investigación de mamíferos de la universidad explica que los delfines "viven en alta mar, en un entorno sin puntos de referencia, por lo que tienen que permanecer juntos como un grupo. Ese mismo entorno es el que hace que necesiten un sistema eficaz para mantenerse en contacto".

El estudio ha sido realizado con 200 delfines nariz de botella salvajes. Recogieron los sonidos que emitían y luego procedieron a reproducirlos mediante un altavoz bajo el agua. Los investigadores concluyeron que los animales solo respondían a sus propias llamadas, cuando oían el silbido que les designaba.

Se cree que esta forma de comunicación surgió para favorecer la unidad del grupo en su hábitat. Tal y como explica Janik, "la mayoría de las veces no pueden verse entre sí ni tampoco usar el olfato bajo el agua -elemento muy importante para los mamíferos a la hora de reconocerse-. Además tampoco tienden a permanecer en un solo lugar, por lo que no tienen nidos a los que volver".

Ya se habían encontrado indicios de que algunos tipos de loros emplean sonidos para diferenciar a otros de su grupo, pero, para Stephanie King, coautora del proyecto, "ésta es la primera evidencia real de la existencia de nombres y apelativos en el reino animal".

Para el Dr. Janik es interesante cómo esta práctica es desarrollada por comunidades de delfines de muy distintos grupos, y esto puede ayudar a comprender cómo se desarrolló la comunicación en los seres humanos.
Fuente:

28 de mayo de 2013

¿Cómo se mide el sonido?


Como-se-mide-el-sonido-3.jpg  

iStockphoto/Thinkstock
 
¿Sabes cómo se mide el sonido? -A diario escuchamos sobre decibelios, hertz, ondas... muchos conceptos entreverados que puede que no sepamos muy bien qué significan. No te preocupes, es más sencillo de lo que parece. Sigue leyendo para descubrir cómo se mide el sonido.

Cómo medir el sonido

En un mundo en que parece no haber silencio, los oídos son uno de los sentidos que más usamos, junto con la vista.

El sonido es una vibración del aire o del agua -nunca se puede producir en el vacío-, que llega a nuestra oreja, hace que esta vibre, y de esa forma escuchamos algo. Esta vibración se realiza en forma de ondas sonoras.

Cualidades del sonido

El sonido tiene distintas cualidades:
  • Altura: nos permite distinguir entre un sonido agudo y uno grave. Se mide en Hertz (Hz, frecuencia)
  • Timbre: nos permite reconocer las características de la fuente sonora (si es un instrumento de cuerda, de metal, una voz... cada uno tendrá sus características propias: el sonido puede ser más brillante, opaco, aterciopelado, metálico, etcétera)
  • Intensidad: Nos permite reconocer un sonido fuerte de uno débil o suave (comunmente lo conocemos como "volumen" en los equipos de sonido). Se mide en decibelios (dB)
Esas son las las tres principales, pues son propios de lo sonoro. Pero hay otros dos factores, que coinciden con la variable Tiempo y Espacio (que por cierto, rige a todas las cosas): Duración (podemos distinguir un sonido largo de uno corto) y Espacialidad (somos capaces de reconocer de dónde proviene un sonido, si de la izquierda, la derecha, arriba, abajo, cercano o lejano).

Por lo tanto, los sonidos pueden ser medidos de distintas formas. Algunos medidores nos pueden determinar la intensidad, mientras que otros nos permiten reconocer la altura, la duración, o muchas cualidades a la vez.

Cómo se miden las frecuencias del sonido

Los sonidos se pueden identificar por su espectro de frecuencias. El elemento fundamental de estas frecuencias es la onda sinusoidal, es decir, una superposición lineal de sinusoides.

Cada sinusoide se caracteriza por su amplitud, su frecuencia y su relación con la marca de tiempo cero. Los sonidos más graves tendrán ondas sonoras más alargadas (una frecuencia más baja), mientras que los sonidos más agudos serán representados por ondas de sonido más cortas (una frecuencia más alta y por lo tanto más Hertz).

Como-se-mide-el-sonido-1.jpg  

Ingram Publishing/Thinkstock

El sonido se mide por la amplitud de los componentes espectrales, mediante la colocación de un metro calibrado de sonido en el centro de la cabeza de un oyente potencial.

El oído humano es capaz de captar las ondas coprendidas entre los 20 Hertz y los 20.000 Hertz (aproximadamente). Las ondas que están por debajo de los 20 Hertz (aproximadamente) son sonidos tan graves que nuestro oido no es capaz de captarlas y las conocemos como Infrasonido. Por otra parte, las ondas más cortas (más agudas, mayores a los 20.000 Hz) las conocemos como Ultrasonido. Tampoco las podemos captar con nuestro oído, pero otros animales como los murciélagos las suelen utilizar para sus vuelos nocturnos.

Debemos tener en cuenta también que el oído humano no es igualmente sensible a los tonos diferentes en un mismo nivel de presión, ya que son diferentes frecuencias. A esto se le llama sonoridad. Para medir esto se utilizan las ondas isofónicas, que relacionan el tono de un sonido en dB con su nivel de sonoridad subjetiva (como dijimos, entre los 3 kHz y los 20kHz el oído es más sensible, por encima y por debajo de estos valores no).

Cómo se mide la intensidad del sonido

El primer medidor: el microPa

En un primer momento, el sonido se medía en microPa o Pa, el nivel de presión de la onda. El rango audible en los humanos iba de 20 microPa a 20 Pa -un nivel doloroso-. Sin embargo, como esta era una escala muy grande, se comenzaron a utilizar los decibelios (dB).

Los decibelios, la medida actual de intensidad sonora

En este nuevo rango, el esquema de audición humano iría de los 0 dB a 120-140 dB, en los que ya notamos dolor en los oídos. En 0 dB está el sonido más bajo que podemos escuchar, y significa casi silencio absoluto. Una conversación normal está aproximadamente en los 60 dB, un concierto de rock en los 120 dB, y un disparo de un arma en 140 dB.

A partir de los 85 dB podemos tener pérdidas auditivas: podemos identificar este nivel cuando para conversar tenemos que levantar la voz. Ocho horas al día con esta intensidad causa daños en los oídos.

Como-se-mide-el-sonido-2.jpg  

iStockphoto/Thinkstock

Por lo general, las mediciones de sonido siempre deben hacerse en dB, pero en caso de que estemos hablando de la audición humana, es importante hacerlo también relacionado a este valor subjetivo.

El daño auditivo depende del nivel del sonido y del tiempo de exposición al mismo. También debemos tener en cuenta que la distancia afecta la intensidad del sonido: si estamos lejos de él, la potencia disminuye.
Los dejo con una pregunta para reflexionar: si un árbol cae en un bosque, y no hay nadie para oírlo, ¿hay sonido?

Fuente:

Ojo Científico

2 de mayo de 2013

Recuperan la voz de Alexander Graham Bell

Bell hablando en una versión experimental del teléfono. | EOM

Bell hablando en una versión experimental del teléfono. | EOM
Nueve años después de hacer la primera llamada de teléfono, Alexander Graham Bell intentó otro experimento: grabó su voz en un disco de cartón cubierto de cera el 15 de abril de 1885, y le dio una firma de audio: "Escuchad mi voz - Alexander Graham Bell".

El frágil disco permaneció en silencio durante 138 años como parte de la colección de sonidos históricos grabados del Museo Smithsonian, hasta que las imágenes digitales, la informática, una transcripción escrita a mano y un poco de trabajo de investigación archivística lo confirmaron como la única grabación conocida de la voz de Bell.

Carlene Stephens, conservadora del Museo Nacional de Historia Americana del Smithsonian, vio por primera vez este disco y otros 400 artefactos de audio donados por Bell cuando ella llegó al museo en 1974, pero no se atrevió a reproducirlos.

"Su carácter experimental y frágil condición los hacen inadecuados para la reproducción", dijo Stephens. "Nos dimos cuenta de que estos materiales fueron significativos no solo para la historia temprana de la grabación de sonido, sino porque se les consideraba imposibles de reproducir, por lo que se les guardó a la espera de que la tecnología de reproducción pudiera algún día permitir conocer el contenido", escribió.

Ese día llegó en 2008, cuando Stephens se enteró de que los científicos del Laboratorio Nacional Lawrence Berkeley en California habían recuperado 10 segundos de la canción popular francesa 'Au Clair de la Lune' de una grabación de 1860 de las ondas de sonido que se garabatearon en un papel cubierto de hollín . Eso fue hace casi dos décadas antes de la grabación reproducible conocida más antigua de Thomas Edison, hecha en 1888.

Si los científicos de Berkeley podían conseguir sonido de un papel tiznado, Stephens calculó que tal vez se podrían descifrar esos registros silenciosos que había guardado durante décadas.

Se puso en contacto Carl Haber en Berkeley y con Peter Alyea, un especialista en conversión digital de la Biblioteca del Congreso. Escogieron seis grabaciones de la colección, incluyendo el que resultó ser el audio de Bell, e hizo imágenes en tres dimensiones y ultra-alta definición de los mismos.

El escáner de Berkeley capturó gigapixels de información, y no sólo de anchura y altura, sino de la profundidad de las ranuras, con mediciones a 100 nanómetros, o 250 veces más pequeño que el ancho de un cabello humano.

La profundidad es importante en estas viejas grabaciones, dijo Haber, porque una gran parte de la información acerca de la forma en que suena se almacena en las partes profundas de los surcos.
Haber y su colega Earl Cornell utilizaron un algoritmo para convertir esa imagen en sonido, sin tocar el delicado disco. El sistema es conocido como IRENE/3D, acrónimo de Imagen, Reconstruir, Borrar ruido.

La mayor parte de la grabación corresponde a la voz de Bell con acento escocés diciendo una serie de números, y luego cifras en dólares, como "tres dólares y medio", "siete dólares y 29 centavos", y por último, "$ 3,785.56". "Esto sugiere que Bell pensaba en una máquina para la grabación de negocios", dijo Stephens.

Las investigaciones de Bell le llevaron a intentar conseguir la patente del teléfono en Estados Unidos, obteniéndola en 1876, aunque el aparato ya había sido desarrollado anteriormente por el italiano Antonio Meucci, tal y como reconoció oficialmente la Cámara de Representantes de EEUU el 11 de junio de 2002.

Escuche la voz de Graham Bell aquí.
Tomado de:

1 de abril de 2013

¿Quién me empuja? El fundamento del principio de Huygens

Todos sabemos que el sonido dobla las esquinas: escuchamos chismorreos tras una puerta abierta, nos alertamos al escuchar una ambulancia que se acerca por una calle que aún no hemos visto o escuchamos el claxon de un coche que está a punto de salir de la cochera. Es una experiencia cotidiana cuya explicación se basa en el principio de Christian Huygens.

El sonido no es más que una propagación en forma de onda que está generado por la vibración de un cuerpo. Cuando un cuerpo vibra, mueve el aire ( u otro medio) que está a su alrededor produciendo una diferencia de presión que se va propagando a través de dicho medio.  El sonido es una onda longitudinal, es decir, que el medio se comprime y se descomprime en la dirección de la propagación, como si fuera un muelle.

i87b28a4446428197938c129a7577ffdb ¿Quién me empuja? El fundamento del principio de Huygens


Por ejemplo, cuando la membrana de un altavoz vibra hacia delante y atrás, y cuando se abomba hacia afuera comprime un poco el aire y en ese lugar aumenta la presión. Esta presión se propaga en todas direcciones porque, debido al empujón que les ha proporcionado la membrana, las moléculas de aire colisionan con sus vecinas y les transmite la energía recibida. La molécula en cuestión no llega muy lejos, lo justo para empujar a la siguiente y que la onda se propague.

20070924klpcnafyq 132.Ees.SCO ¿Quién me empuja? El fundamento del principio de Huygens


Según este planteamiento, de entrada una onda sonora se expande en forma de esfera alrededor de la fuente. Sin embargo, los choques entre las partículas de aire no se producen estrictamente en la dirección de propagación, sino aleatoriamente en todas las direcciones. Fue el físico neerlandés Christian Huygens quien ya descubrió en el siglo XVII que en realidad hay que ver en cada punto del frente de onda (el lugar geométrico en que los puntos del medio son alcanzados en un mismo instante por una determinada onda) un punto de partida de una nueva onda.

 ¿Quién me empuja? El fundamento del principio de Huygens




Las partículas no saben si el empuje lo han recibido directamente de la fuente sonora o si ya es el enésimo eslabón de una larga cadena de choques sucesivos.

¿Por qué suponer que cada punto de un frente de ondas actúa como fuente de ondas esféricas secundarias? Pues por algo muy sencillo:

Supongamos que el altavoz vibra y empuja a las partículas que están justo en contacto con él. Estas primeras partículas a las que llega la perturbación será el primer frente de ondas. Las partículas de este frente pasan el testigo a las siguientes y así sucesivamente. Pero ¿saben estas partículas si han sido empujadas por el altavoz o por otras partículas? Las partículas no saben si el empuje lo han recibido directamente de la fuente sonora o si ya es el enésimo eslabón de una larga cadena de choques sucesivos. Por tanto, cada partícula que forme parte de un frente de ondas y que haya sido perturbada actúa como una fuente de ondas.

Por tanto, el frente de ondas que llega al cruce de calles es a su vez fuente de nuevas ondas sonoras, de modo que los conductores que circulan por la calle transversal perciben el sonido.

 ¿Quién me empuja? El fundamento del principio de Huygens

Imagen extraída de bitacorasonora.org

Tomado de:

Ciencia Explicada

25 de marzo de 2013

¿Hacen ruido los cometas?


Cometa

En el espacio, una persona no oiría nada si un cometa le pasara cerca.


El famoso y escalofriante eslogan de la película Alien nos recuerda que "en el espacio nadie puede oír tus gritos".

Esto es verdad, ya que para que las ondas sonoras sean transmitidas y eventualmente registradas como sonido en nuestros oídos, necesitan un medio a través del cual viajar.

Ese medio puede ser cualquier material (sólido, líquido o gaseoso).

El espacio es casi un vacío perfecto, aunque no del todo. Y los cometas sí son silenciosos.

Fuente:

BBC Ciencia 

6 de marzo de 2013

Cerebro y sonidos: Resuelto el problema de la fiesta de cóctel

En un ambiente ruidoso, como el de una reunión social, somos capaces de escuchar lo que nos cuenta una sola persona. Científicos de EE UU han desentrañado los entresijos neuronales de este mecanismo de selección de señales auditivas. Para conseguirlo, las ondas cerebrales se centran en los sonidos provenientes de quien nos interesa y se reduce la importancia de los demás.




Está usted en una fiesta. La música suena a todo volumen, los hielos titilan en sus copas, se oyen risas y voces de decenas de invitados; sin embargo, usted solo tiene oídos para esa persona con quien está hablando. Desde la década de 1950, los científicos tratan de explicar cómo el cerebro filtra las señales sonoras que le importan. De hecho, en neurociencias se conoce como ‘el problema de la fiesta de cóctel’.

Ahora, investigadores estadounidenses han desvelado los mecanismos por los que el cerebro, sin que seamos conscientes de haber realizado un esfuerzo excesivo, consigue reducir todo el barullo que nos rodea y quedarse solo con lo que le interesa, una capacidad cognitiva de gran importancia social.

Los resultados han sido publicados hoy en la revista Neuron y desvelan que el proceso de filtrado de la información se produce en dos etapas. En la corteza auditiva primaria se modulan las señales –es decir, se sube el volumen de lo que interesa y se baja lo demás, pero todo está presente–. Al mismo tiempo, áreas destinadas a funciones superiores hacen una selección y eliminan ya totalmente lo que se quiere ignorar.

Los científicos registraron la actividad eléctrica del cerebro de seis personas con electrodos sobre la corteza cerebral.

El estudio requería el registro de la actividad eléctrica directamente sobre la corteza cerebral. Por eso se realizó, previo consentimiento, en seis pacientes con epilepsia aprovechando que, para identificar las zonas donde se originaban los ataques de epilepsia, se les iba a realizar una electrocorticografía. En esta intervención se aplican electrodos sobre la superficie expuesta del cerebro.

Los participantes observaron un vídeo con dos personas hablando simultáneamente y se les dio instrucciones de prestar atención solamente a uno de los discursos, ignorando el otro. Durante el experimento se midieron sus ondas cerebrales con electrodos. Observar la cara y gestos del hablante contribuye al procesamiento del discurso, lo que da lugar a pensar que algunos de los efectos observados en el estudio estén influenciados no solo con lo escuchado sino también con estímulos visuales.

En la corteza auditiva primaria se percibieron tanto las señales del discurso principal, como las que no interesaban; algo esperable, puesto que, como dice Charles Schroeder, científico de la Universidad de Columbia y uno de los autores principales del estudio, “no podemos cerrar los oídos”. Sin embargo, ya en este momento la señal correspondiente al discurso de interés se detectaba con una amplitud mayor que las demás.

Por otro lado y simultáneamente, se analizaron las ondas cerebrales de áreas dedicadas a funciones superiores, como el lenguaje o el control de la atención. Es en este punto cuando el cerebro selecciona específicamente lo que le interesa. La señal del discurso de interés era muy clara, pero las demás conversaciones no fueron detectadas.

“Esta es la primera evidencia clara de que hay zonas del cerebro donde solo se tiene en cuenta la conversación a la que se atiende, mientras las ignoradas se filtran y eliminan” declara Schroeder.

El cerebro predice los giros del discurso

Pero, además, a medida que la frase toma forma y significado, la señal se hace cada vez más definida. Esto parece ocurrir porque la forma en la que se estructura el discurso permite al cerebro predecir cuándo van a tener lugar ciertos eventos clave y así las propias neuronas se predisponen para encenderse con mayor facilidad en estos momentos.

Otras investigaciones para revelar las zonas del cerebro implicadas en focalizar la atención habían utilizado estímulos simples, como pitidos breves o frases cortas. Esta vez, se ha utilizado un discurso natural y completo, lo cual proporciona herramientas para alcanzar los objetivos del proyecto mundial de mapeo de la actividad cerebral –Brain Activity Map Project–.

Hasta ahora este tipo de estudios solamente se habían realizado en animales. Schroeder y sus colegas han demostrado que es posible aprovechar operaciones en pacientes con epilepsia para el estudio de capacidades puramente humanas, como el lenguaje o la música.

Referencia bibliográfica:

E. M. Z. Golumbic, N. Ding, S. Bickel, P. Lakatos, C. A. Schevon, G. M. McKhann, R. R. Goodman, R. Emerson, A. D. Mehta, J. Z. Simon, D. Poeppel “Mechanisms Underlying Selective Neuronal Tracking of Attended Speech at a “Cocktail Party” Neuron 77, 2013 doi: doi: 10.1016/j.neuron.2012.12.037


Fuente:

Agencia SINC


12 de febrero de 2013

Sonogramas. La caligrafía de los sonidos

Los sonogramas son la caligrafía del sonido. Es difícil describir una llamada por medio de palabras. Para ello sólo tenemos onomatopeyas y analogías: estridente, brillante, líquido, melódico... Poca definición para desmenuzar algo tan complejo. Por eso los bioacústicos utilizan estas representaciones gráficas, en las que, de manera intuitiva, se puede deducir cómo y a qué suena algo. Y, sobre todo, se puede medir, la gran pasión de cualquier científico.

En un sonograma el eje horizontal indica el tiempo; el vertical las frecuencias, los tonos, desde las más agudas, en la parte alta, a las más graves, abajo; la intensidad del trazo indica el volumen del sonido. En estos trazos, a veces brochazos, otras sutiles líneas a pincel, aparecen también las frecuencias asociadas a un sonido, lo que los músicos llaman la componente armónica. Sobretonos y armónicos en forma de esas bandas, más o menos paralelas, que se superponen por capas a la frecuencia fundamental y que determinan algo tan indefinido como la dulzura o la estridencia de una voz determinada: su timbre.

Pero en un sonograma hay algo más. Vemos las notas en frecuencia simple, como un trazo plano, o en frecuencia modulada, en formas curvas. Y aparecen, visualmente, y no por medio de signos o anotaciones, las inflexiones, los quiebros, las dobles voces, los entresijos de un canto. Vemos las repeticiones monótonas de una nota, de un motivo, o auténticas marañas indescifrables.

En este video hay un breve recorrido, desde la simpleza caligráfica del reclamo de un pinzón vulgar a la complejidad del canto del mirlo. La variedad de la canción de la naturaleza en unos cuantos trazos. 



Fuente:

El Mundo Ciencia


9 de enero de 2013

¿Por qué suena un silbido al acercar un micrófono a un altavoz?



¿Un silbido? Suena un pitido agudo y estridente muy molesto.

¿Y por qué pasa eso? ¿por qué castiga nuestros oídos un inocente micrófono?

Es bastante corriente que se dé esta situación cuando maneja el micrófono alquien que no está habituado a usarlo. Más pronto o más tarde se pone demasiado cerca del altavoz y un chirrido ensordecedor nos envuelve.

Si se da cuenta pronto de lo que sucede y lo aparta del altavoz, el sonido cesa; pero si no se apercibe del motivo de tan infernal aullido y no lo retira, más de uno se lo arrancaría de las manos.

Este fenómeno de amplificación recibe el nombre de retroacoplamiento positivo, ya que se produce una especie de bucle que se refuerza a sí mismo.

Ocurre lo siguiente: las ondas sonoras de la voz llegan al micrófono y salen amplificadas por el altavoz. Pero debido a la poca distancia entre ambos dispositivos, este sonido amplificado llega hasta el micrófono que lo vuelve a captar haciendo que el altavoz lo amplifique y así seguiríamos…

Cuanto menor sea la distancia entre el micrófono y el altavoz más agudo y estridente será el silbido. Y si lo alejanos lo suficiente el ruido cesará.

En el peor de los casos se produce la resonancia catastrófica, en el que las oscilaciones son tan fuertes que llegan a destruir el altavoz. Tal como se muestra al principio de Regreso al Futuro con la ocurrencia de Marty McFly (ver imagen).

¡Qué fuerte, Doc!


Fuente:

Saber Curioso
google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0