Latest Posts:

31 de mayo de 2013

El mito del "inventor solitario"

    Cabeza con cerebro de máquina

    ¿Quién se inventó internet?

    Para responder esta aparentemente simple pregunta hay básicamente dos opciones: pasarse horas explicando que cientos de personas e instituciones contribuyeron con avances cruciales a la forma en la que la web opera o sencillamente decir que fue Vint Cerf. O Leonard Kleinrock. O Tim Berners-Lee.

    El tema se ha discutido durante décadas. Algunos dicen que los protocolos -TCP/IP- que diseñó Vint Cerf son la piedra fundamental. Otros alegan que el momento del nacimiento de internet fue la teoría de colas (el estudio matemático de las líneas de espera dentro de un sistema) de Leonard Kleinrock. Hay quienes se burlan de la idea de mezclar la red con internet al sugerir a Tim Berners-Lee como su padre.

    La respuesta "correcta" de los exámenes escolares del futuro será determinada en los próximos 100 años y dependerá de cuál versión eligen los historiadores.

    La verdad es que la historia, como la innovación, es desordenada. Lo que empieza como una idea para un producto o un servicio o una institución depende de miles de fuerzas evidentes y escondidas, reconocidas y extrañas, históricas y contemporáneas.

    Al final, internet fue creada por miles de personas. Creerse una versión de la historia implica creer el mito del "inventor solitario": una tendencia a crear narrativas sencillas e incluso entretenidas pero que perjudica a las miles de personas que crearon el mundo moderno.

    Un caso ejemplar

    Quizás el caso más manifiesto de la perpetuación de ese mito es el del inventor serbio-estadounidense Nikola Tesla, el hombre que, se asevera, inventó todo: desde el radar hasta la radio, incluyendo el suministro de energía eléctrica doméstica.

    Nikola Tesla

    La popularidad de Nikola Tesla no es infundada, pero se corre el riesgo de exagerar. 

    El fanatismo que rodea a Tesla ha venido en crescendo, alimentado de películas, blogs y una iniciativa de alto perfil para fundar un museo dedicado a la memoria del legendario inventor.

    El subproducto de este esfuerzo de reposicionar a Tesla en el canon científico ha sido la creación de muchos más mitos sobre el hombre, mitos que perjudican nuestra comprensión de la historia y de la historia de la innovación.

    Considere un cómic publicado por el sitio web The Oatmeal, titulado "Por qué Nikola fue el geek más grande que ha vivido jamás" y compartido instantáneamente por miles de personas.

    La historieta, creada por Matthew Inman, es una mirada entretenida a la vida de Tesla y muestra las muchas maneras en las que él era quizás más listo, más altruista y mejor ser humano que sus contemporáneos.

    Sin embargo, a sólo un par de frases en el cómic, el mito empieza: "En el tiempo en el que la mayoría del mundo todavía estaba iluminado con velas, fue inventado un sistema eléctrico conocido como corriente alterna (CA) que hasta el día de hoy provee energía a todos los hogares del planeta. ¿A quién le debemos agradecer este invento que llevó a la humanidad a una segunda revolución industrial? Nikola Tesla".

    El problema con esta versión de la historia es que Tesla no fue la única persona que trabajó con la tecnología CA. Simultáneamente, a mediados del siglo XIX, un inventor italiano llamado Galileo Ferraris desarrolló un sistema similar. Además, el inventor estadounidense Charles Bradley obtuvo patentes por su trabajo con sistemas bi y trifásicos. Friedrich Haselwander trabajó en CA en Alemania y a veces es acreditado con el primer uso del sistema trifásico en 1887. Los ingenieros británicos William Stanley y Elihu Thomson contribuyeron inmensamente al trabajo de la tecnología de AC en esa época. Y la lista sigue y sigue.
    "Los fanáticos de Tesla quizás interpreten mi argumento como si estuviera diciendo que él no merece reconocimiento por su vital trabajo, pero nada puede estar más lejos de la realidad"
    El desarrollo de Tesla de CA es indudablemente importante en la evolución de nuestro mundo eléctrico moderno. Pero pretender que él sólo inventó ese sistema es absurdo.

    Lea el artículo completo en:

    BBC Ciencia

    El uso de pesticidas podría causar Parkinson

    Un hombre fumiga un bloque de apartamentos en Singapur.| Ed Wray | Ap

    Un hombre fumiga un bloque de apartamentos en Singapur.
    Los primeros datos en relacionar el uso de pesticidas con la aparición de Parkinson datan de los años 80. Desde entonces se han publicado numerosos estudios que sugieren que existe una relación causal; sin embargo, ninguno de ellos es concluyente al cien por cien. El problema, como vuelve a poner de manifiesto esta semana un trabajo en la revista 'Neurology', es que es difícil demostrar una relación causal directa.

    El estudio, realizado por los italianos Gianni Pezzoli y Emanuele Cereda (de la Fundación IRCCS de Milán), ha revisado 104 investigaciones sobre Parkinson y pesticidas publicados en diversas revistas médicas. Sus conclusiones admiten que existe un incremento del riesgo neurológico en personas expuestas a pesticidas, insecticidas y disolventes, aunque reconocen que es difícil ser claro a la hora de hablar de una relación causal.

    Como admiten Pezzoli y Cereda, muchos de los trabajos analizados son pequeños, muy heterogéneos entre sí, o no han controlado adecuadamente la vía de exposición (inhalada, por contacto...) o la dosis ingerida. Así, aunque los trabajos de mayor calidad metodológica sí perciben un riesgo de Parkinson relacionado con estos productos tóxicos (que oscila entre el 33% y el 80%, según la investigación), sigue siendo necesario todavía un estudio adecuadamente controlado y riguroso que permita sacar conclusiones.

    "Que los pesticidas aumentan el riesgo de Parkinson ya está claro; tanto como que el tabaco causa cáncer de pulmón", explica Francisco Pan-Montojo, un investigador español de la Universidad de Dresde (Alemania), especializado en este campo "Lo que nos faltan por conocer son los detalles. Igual que no sabemos porqué hay fumadores que no desarrollan cáncer, no sabemos todavía si hay algún tipo de característica genética que proteja frente a los daños neurológicos de los pesticidas, qué nivel de dosis es tóxica, si hay ciertos herbicidas más peligrosos que otros...".

    En 2010, el equipo que dirige Pan-Montojo en Alemania relacionó la exposición prolongada a la rotenona (un pesticida) en el intestino con la muerte de neuronas dopaminérgicas en el cerebro de ratas.

    "Posteriormente, otro equipo dirigido por Caroline Tanner demostró en la revista 'Environmental Health Perspectives' que sustancias como la rotenona y el paraquat, que inhiben la función de la mitocondria, duplicaban el riesgo de Parkinson en humanos", explica a ELMUNDO.es el científico gallego.

    Igual que en el trabajo italiano, en aquel experimento se observó mayor riesgo en personas expuestas a dosis mayores y durante periodos de tiempo más prolongados. Sin embargo, como reconocen los autores italianos, falta por demostrar adecuadamente qué papel juega la exposición a múltiples pesticidas simultáneamente (cómo pueden interaccionar estos en el organismo) y si la genética de cada individuo puede jugar un papel en esta cuestión.

    "El problema de muchos estudios de este tipo es que están basados en autocuestionarios sobre la exposición por parte del propio trabajador", reconoce Cereda en declaraciones a ELMUNDO.es; "no sabemos realmente cuál es la ruta de exposición o su llevaban protección". Aún así, añade, los estudios controlados con agricultores y trabajadores muy expuestos a estos productos han demostrado que el riesgo es mayor; "ahora que ya sabemos eso, falta un estudio más serio".

    En ese sentido, el propio doctor Cereda apunta que su metaanálisis no hace sino señalar esas cuestiones que siguen sin resolver alrededor de esta cuestión, pero con importantes implicaciones desde el punto de vista de salud pública. "La literatura apoya la hipótesis de que la exposición a pesticidas y disolventes es un factor de riesgo en el desarrollo de Parkinson. Sin embargo, son necesarios estudios prospectivos de calidad para sostener esta relación causal".
    Fuente:

    ¿Por qué las flores ahora huelen menos?

    Cuando nos preguntamos por qué, debemos preguntar casi siempre también ¿para qué? Los tomates son un fruto que antiguamente daba sabor a las ensaladas y a una multitud de guisos. Cuando los tomates los consumían los vecinos de las zonas en que se cultivaban, estos frutos no se mantenían lejos de la planta mas de unas horas.

    Hoy todos los ciudadanos, a cientos o miles de kilómetros de los cultivares, quieren sus tomates, y los quieren relucientes. Las empresas tienen que garantizar la tersura del tomate durante varios días o semanas. Las rosas de hace décadas se olían en los rosales. No duraban más de unas horas (lean los poemas del siglo de oro, por ejemplo). Hoy las rosas deben conservarse frescas y lozanas en viajes a través de continentes.

    Nos acercamos a Cosmocaixa, el museo de la ciencia de la Obra Social La Caixa; allí, el catedrático de Física Antonio Ruiz de Elvira nos explica por qué.

    El olor de las rosas es una estrategia para atraer a los insectos para su polinización. Pero si la rosa se poliniza, la flor ya no sirve de nada y la planta se deshace de ella. Si la rosa no huele, la polinización se retrasa, y la flor se mantiene. Si queremos rosas tersas durante días, tomates lustrosos durante semanas, tenemos que elegir, en la selección artificial, el camino opuesto al de la selección natural. Exactamente esto mismo se aplica a la sociedad y otros muchos sistemas naturales. La cantidad acaba con la calidad. Cuestión de selección.

    Fuente:

    El Mundo Ciencia

    La FAO recomienda comer medusas (Si no puedes contra ellas. ¡Cómetelas!)

    Mujer nadando con medusas

    La población de medusas ha aumentado por la pesca excesiva de sus predadores marinos.

    "Si no puedes contra ellas... cómetelas". Esa es la recomendación de la Organización de Naciones Unidas para la Alimentación y la Agricultura (FAO) respecto de las medusas. 

    Tal como hizo previamente con los insectos, la FAO recomienda incluir las medusas en la dieta para contrarrestar de alguna forma su proliferación en el mar.

    En un informe publicado el jueves, el organismo alerta que la especie gelatinosa se volvió una amenaza para los peces, ya que se alimentan de sus huevos, larvas y crías, además de competir por los crustáceos.

    La población de medusas ha aumentado considerablemente, dada la excesiva pesca de sus predadores marinos, por lo que la biodiversidad marina podría pasar de un océano de peces a uno de medusas, según el informe.

    Fuente:

    BBC Ciencia

    iPhone: 75 minutos al día; Android, 49

    Solo el 25% del uso del ‘smartphone’ es telefónico.



    El smartphone no es para hablar. O no solo. Sus propietarios lo emplean una hora al día de media, sin embargo, de ese tiempo solo 15 minutos se dedican a los servicios de voz, según un estudio de Experian Marketing Services Research entre consumidores norteamericanos.

    El estudio muestra el incremento de los usos del móvil para el ocio y el entretenimiento, al margen del telefónico. Tras el uso de los servicios de voz, esos 15 minutos al día, llega la mensajería instantánea con 12 minutos (20% de la actividad total), las redes sociales (16%) y la navegación (14%).

    Los adultos norteamericanos encuestados gastan casi tanto tiempo con el correo electrónico (9%) como con los juegos (8%). La cámara y el GPS son funciones menos utilizadas.

    Sin embargo, el comportamiento cambia dependiendo del smartphone que se tenga. De entrada, el dueño de un iPhone gasta más tiempo con su aparato que el dueño de un Android, 75 minutos contra 49. Y el uso que le dan es bastante diferente. El de Android habla más (28% del tiempo total) que el del iPhone (22%), navega más (16% contra 12%), pero utiliza menos la mensajería instantánea (16% frente al 22%) y consulta menos el correo (8% frente al 10%).

    Fuente:

    El País Ciencia

    30 de mayo de 2013

    Hipócrates y el código de conducta profesional

    El código ético atribuido a Hipócrates aún se utiliza en las ceremonias de graduación de los médicos.

    ¿Un código de conducta profesional?


    Una vez que los discípulos de Hipócrates se graduaban como médicos, se reunían bajo el plátano que les había proporcionado sombra durante muchas lecciones. Allí hacían el juramento hipocrático, un código ético atribuido al gran médico, que, con modificaciones, se sigue utilizando en las ceremonias de graduación de muchas facultades de medicina. El código incluye las siguientes promesas solemnes:

    Prescribiré el régimen de los enfermos atendiendo a su beneficio, según mi capacidad y juicio, y me abstendré de todo mal y de toda injusticia.

    A nadie daré veneno, aunque me lo pida, ni aceptaré ninguna sugestión en este sentido.


    Consideraré sagrados mi vida y mi arte.

    Cuando entre en la morada de un enfermo, lo haré siempre en beneficio suyo; me abstendré de toda acción injusta, y de corromper o seducir a mujeres o muchachos, libres o esclavos.

    De todo cuanto vea y oiga en el ejercicio de mi profesión, y aun fuera de ella, callaré cuantas cosas sea necesario que no se divulguen, considerando la discreción como un deber.

    Si cumplo fielmente este juramento, que me sea otorgado gozar felizmente de la vida y de mi arte y ser honrado siempre entre los hombres. Si lo violo y me hago perjuro, que me ocurra la contrario

    Fuente:

    Selecciones
     

    ¿Cómo llegaron los romanos a confiar en sus médicos?


    ¿Cómo llegaron los romanos a confiar en sus médicos?

    Durante los seis primeros siglos de su historia los romanos prescindieron de los médicos encomendándose a los dioses curadores de otras naciones, especialmente a Asclepio, cuyo culto llegó de Grecia en el año 293 aC. Cuando los médicos griegos comenzaron a emigrar a Roma en los siglos II y I aC, los romanos los tomaron por farsantes e impostores, y no iban muy descaminados: abundaban los matasanos y oportunistas, pues no había reglamentos y cualquiera podía llamarse médico.

    Una excepción a la regla fue el griego Arcágato, que llegó a Roma en el año 210 aC. Su sorprendente habilidad quirúrgica le permitió ganarse la confianza de los escépticos, siendo bien acogido por la sociedad romana. Pero su fama no duraría demasiado. Tras una serie de errores médicos y dolorosos tratamientos fue apodado carnifex, "el carnicero".

    La teoría atomística de la curación

    Asclepíades, que llegó a Roma en el siglo I aC, tuvo más éxito, y sus tratamientos moderados hicieron aumentar la estima de su profesión. Se opuso a las teorías generalmente aceptadas de Hipócrates, atribuyendo a los médicos, y no a la naturaleza, el poder de curar. Inusitadamente para su época, Asclepíades creía que las enfermedades debían tratarse ?de manera segura, rápida e indolora?, proponiendo tratamientos como el masaje, la dieta, los calmantes ?entre los que se incluía el vino? y el canto. Sus métodos se basaban en el solidismo, o teoría atomística, expuesta originalmente por Erasístrato en el siglo III aC. Esta extravagante teoría establecía que el cuerpo estaba formado por partículas sólidas (átomos) que fluían a través de él incesantemente. La enfermedad aparecía cuando los poros de la piel ?al estar demasiado tensos o demasiado relajados? entorpecían el movimiento fluido de los átomos.

    Themison y Thessalus, discípulos de Asclepíades, elaboraron posteriormente con estos principios un sistema de curación más formal, al que denominaron metodismo. Thessalus, sin embargo, rechazó la enseñanza de la medicina, afirmando que cualquier podía aprender todo sobre esta ciencia en tan sólo seis meses.

    La actitud de los romanos hacia los médicos fluctuó ostensiblemente a lo largo de los siglos, pero finalmente la desconfianza y el desprecio dieron paso a un respeto moderado.

    Fuente:

    Selecciones

    Es la evolución y no la religión la que determina los comportamientos

    Bonobo

    La moral tendría un origen más animal que divino.

    Ni Jesús ni Rousseau ni Hobbes. Más bien la mona chita, o Darwin, para los más letrados, tendrían que ver con la moral.

    La moral humana tiene un pasado evolutivo ligado al comportamiento social, no religioso ni filosófico. Así lo plantea el primatólogo y profesor Frans de Waal en su último libro "El bonobo y el ateo".
    "Muchos de los patrones que consideramos 'morales' vienen de la evolución de las especies", le explica De Waal a BBC Mundo.

    Basado en 40 años de observación de primates, De Waal asegura que lo que los seres humanos denominamos como "moral" está mucho más cerca del comportamiento social de los simios que a una imposición divina o una decisión filosófica.

    Para el científico, la moral no pasa por una decisión que se toma o que se impone desde arriba -filosofía, religión o incluso autoridad- sino que es innata al comportamiento social humano. No sólo eso: no es exclusiva, sino que viene como parte del "paquete social" que también puede encontrarse en otros animales como nuestros parientes primates.

    Según el autor, los dos pilares de la moral: reciprocidad y justicia, por un lado y empatía y compasión por el otro, están presentes en el comportamiento social de los simios, el cual es ampliamente retratado en el libro.

    Ética primate

    Portada del libro "El bonobo y el ateo"

    El bonobo y el ateo salió a la venta hace menos de un mes y ya causó polémica.

    Lo anterior está relacionado con los dos grados de moralidad que De Waal distingue en el comportamiento de estos animales. La primera, denominada moral "uno a uno", tiene que ver con cómo un individuo espera ser tratado.

    Los estudios de De Waal, así como los de otros investigadores, han comprobado que chimpancés y bonobos respetan el concepto de propiedad y tratan a sus pares según la escala de jerarquía.

    Sin embargo, muchas otras especies parecieran regirse por un sistema parecido. Entonces, ¿cuándo un comportamiento social se vuelve moral?

    La clave es que estos primates esperan que se les respeten sus "derechos" y ser tratados según su grado jerárquico. Como animales sociales, muestran gratitud e incluso pueden tomar venganza, dependiendo del comportamiento de otros hacia ellos.

    El segundo grado de moralidad se denomina "preocupación social" y tiene relación con un concepto más abstracto, que involucra el sentido de armonía de la comunidad o grupo como un todo. Aunque bastante rudimentario, los simios sí muestran ciertas formas de reconocimiento de este grado de moralidad al compartir su comida, tranquilizar a sus vecinos o incluso "intervenir" en peleas de terceros para evitar disturbios en la comunidad.

    En una charla TED dictada por De Waal previo al lanzamiento del libro, el autor explicó que una de las cosas que más le llamó la atención de los primates que estudió fue su afán por reconciliarse luego de una pelea. "El principio es que tienes relaciones valiosas que resultan dañadas por el conflicto, por lo que tienes que hacer algo al respecto", explicó en esa ocasión.

    Frans de Waal

    Frans de Waal lleva 40 años investigando a los primates.

    Todo, siempre en miras a la aceptación -y cooperación- social.

    Los humanos, tal como nuestros parientes simios, evolucionamos en pequeños grupos donde la cooperación se volvió fundamental. Tal como ellos, también, ser sensible a las necesidades, intenciones y ánimos de nuestros pares se volvió una necesidad vital. Y eso, según de Waal, no tiene nada que ver con una decisión o un mandato superior, sino con la básica supervivencia.

    "Los seres humanos tenemos todo tipo de intereses egoístas y conflictos individuales que necesitamos resolver para lograr una sociedad cooperativa. Por eso es que tenemos moral, y las abejas u hormigas no", señaló De Waal en una entrevista.

    Sin embargo, tampoco es que la moral provenga de una especie de Leviatán hobbesco.

    "El concepto de 'el hombre es un lobo para el hombre' es bastante injusto. Tanto para los lobos, que son animales bastante cooperativos, como para la humanidad que también es bastante más cooperativa y empática que lo que suele decirse", aseguró el científico en su charla TED.

    Polémica religiosa

    Ni dios ni la filosofía entonces habría influido en el desarrollo del comportamiento moral.

    Sin embargo las teorías de De Waal, basadas en sus descubrimientos, no caen muy bien entre filósofos, antropólogos e incluso economistas, según el mismo De Waal ha contado.

    "Ellos decidieron en su mente que la justicia es un concepto muy complejo y que los animales no pueden tenerlo. Hubo un filósofo incluso que nos escribió quejándose de que era imposible que los monos tuvieran un sentido de equidad, ya que la equidad era un concepto inventado durante la Revolución Francesa", relató el científico en su charla TED.

    Y hoy se ha visto envuelto en otra polémica. Esta vez con religiosos. O no religiosos, para ser exactos.

    "La religión no es irrelevante, pero no es la base de la moralidad", le dice De Waal a BBC Mundo.

    Originario de los Países Bajos, De Waal le cuenta a BBC Mundo que el libro es también una reacción a una sociedad como la estadounidense, donde la mayoría de las personas asocian directamente la moral con la religión.

    Bonobos

    Los bonobos y los chimpancés se reconcilian después de pelear con un par que consideran valioso.

    En su libro, el científico dedicó un capítulo completo al ateísmo. "Estoy por un rol reducido de la religión, con menos foco en Dios todopoderoso y más foco en la potencialidad humana", escribe. Pero eso parece no ser suficiente para los ateos.

    Prominentes representantes del ateísmo como PZ Myers y AC Grayling han criticado duramente el libro, molestos no sólo porque De Waal es un científico que no "demoniza" la religión, sino que además critica al ateísmo, advirtiendo sobre los peligros de convertirlo en un dogma tan fuerte como la propia religión.

    "Creo que deberían calmarse un poco", le dice De Waal a BBC Mundo, poniendo paños fríos a la discusión.

    "Si dios existe es una pregunta interesante, pero no es la pregunta de mi libro y tampoco es una pregunta que un científico va a poder contestar", concluye.

    Fuente:

    BBC Ciencia

    Lea también:

    El dilema del prisionero al estilo chimpanbcé

    Los chimpancés reconocen palabras incompletas

     Niños y chimpancés imitan el comportamiento de la mayoría


    Estas son las baldosas inteligentes ¡que generan electricidad!

    Recuerdan el video de los ochentas de Billie Jean, donde Michael Jackson circula pór una vereda y a medida que camina va iluminado el piso...



    Pues bien esata utopía ahora esto YA es realidad:


    Instalación de las baldosas inteligentes en Londres 2012. | Pavegen 
    Instalación de las baldosas inteligentes en Londres 2012. | Pavegen
    Un día cualquiera en la estación londinense de Victoria. Más de 15.000 personas en una hora. Caminando a todo tren y pisando con fuerza sobre las baldosas. ¡Tiene que haber una forma de capturar esa energía y convertirla en electricidad!


    Laurence Kemball-Cook. | C. F.

    Laurence Kemball-Cook. | C. F.

    Toda gran idea tiene su momento eureka, y el de Laurence Kemball-Cook ocurrió cuando estaba aún estudiando diseño industrial en la Universidad de Loughborough. Su paso por una compañía eléctrica le sirvió para familiarizarse con las limitaciones de la energía solar y eólica en la iluminación urbana, y para comprender mejor los secretos de la eficiencia. Pero la lámpara se le encendió un día de la manera más prosaica, mientras contemplaba el trasiego incesante de la estación.

    Y así, con 50 libras y un ordenador portátil, comenzó en 2009 la odisea de Pavegen, a la búsqueda de la baldosa inteligente, que se hunde apenas cinco milímetros, suficiente para generar ocho vatios de energía con cada pisada gracias al uso de materiales piezoeléctricos.

    Iluminar las calles a nuestro paso

    A sus 26 años, con jornadas extenuantes de 22 horas y 25 descargas eléctricas hasta llegar al prototipo, Kemball-Cook se ha convertido en un referente mundial en la captura de la energía cinética. "Nuestra meta es producir electricidad allá donde se necesita", asegura el fundador de Pavegen en la sede londinense de la compañía, junto a la estación de King's Cross. "En unos años seremos capaces de iluminar las calles a nuestro paso, o lograr que un estadio de fútbol sea autosuficiente, o comprobar la salida de nuestro tren en un tablero electrónico alimentado por nuestras propias pisadas".

    De momento, unas 176 baldosas de Pavegen alfombraron recientemente el maratón de París, con el objetivo de llegar a los siete kilovatios/hora. En los accesos al Parque Olímpico de Londres se capturaron el pasado verano más de 12 millones de pisadas que produjeron 72 millones de julios (suficientes para cargar 10.000 teléfonos móviles durante una hora). Durante la Hora de la Tierra de este año, más de 40 baldosas inteligentes iluminaron el mayor escenario flotante en la Marina Bay de Singapur. El sistema ha estado también provisionalmente instalado en la estación de West Ham en Londres. En varias escuelas británicas y en las primeras oficinas se ha probado ya el potencial de la tecnología limpia en zonas de tránsito. "Nuestro auténtico reto ahora es reducir el precio de la baldosa para posibilitar su implantación a gran escala y poder llevarla a las ciudades de todo el mundo", recalca Kemball-Cook, que aún recuerda su paso por Madrid en el Keep Walking Project de Johnnie Walker, en una instalación provisional en el edificio de Telefónica.

    Los eventos forman parte de la fase divulgativa de Pavegen, que sin embargo calienta motores para el gran salto cualitativo. La inversión de más de 230 millones de euros a través de Renaissance Capital Partners y London Business Angels ha dado alas a la start up británica, que ha tendido las redes a EEUU y planea su expansión por Europa.

    Las icónicas baldosas de Pavegen, con una luminaria central que se enciende con el 5% de la energía generada por la pisada, han dejado paso a una versión menos llamativa y más resistente, capaz de adaptarse a todo tipo de suelo. Aunque el interior de la baldosa sigue siendo "secreto industrial", Kemball-Cook asegura que la base son los neumáticos de camiones y el hormigón polímero, y que más del 60% de los materiales son reciclados. "Somos una tecnología limpia en todos los sentidos", sostiene el joven emprendedor. "Y nuestra visión encaja con el concepto de la ciudad inteligente y baja en carbono del futuro: la electricidad se generará donde se necesite y se valorará más que nunca la eficiencia".

    "Lo que estamos viendo no es más que la punta del iceberg", asegura Kemball-Cook, entusiasmado por el interés creciente de los inversores y de la instituciones. "El futuro de las ciudades está en los coches eléctricos, y el rodamiento de los neumáticos se convertirá con el tiempo en un generador de energía". De momento, nos quedamos con las pisadas, unas 4.000 por cabeza y por día.
    Tomado de:

    Así se diagnosticabna las enfermedades en el Antiguo Egipto

    Un antiguo manual egipcio describe el tratamiento de las fracturas, dislocaciones, tumores y otras afecciones quirúrgicas.
    ¿Cómo se diagnosticaba y trataba la enfermedad en el antiguo Egipto?

    "Instrucciones para curar una herida abierta en la cabeza que ha atravesado el hueso golpeando el cráneo y dejando el cerebro al descubierto". Así comienza el ejemplo número seis del Libro de las heridas. Este antiguo manual egipcio, escrito hacia el 1600 aC, describe el tratamiento de las fracturas, dislocaciones, tumores y otras afecciones quirúrgicas. El historiador griego Herodoto, que vivió en el siglo V aC, se maravilló de la gran cantidad de médicos que había en Egipto, así como de su grado de especialización. "Cada médico se ocupa de una enfermedad y no de varias", escribió, "y el país entero está lleno de médicos; pues hay médicos de los ojos, de la cabeza, de los dientes, del estómago y de las enfermedades raras".

    El respeto hacia la medicina comenzaba en la propia corte. Uno de los personajes más influyentes del reino era el médico superior, y había incluso un especialista muy importante que se encargaba de regular los intestinos del faraón.

    Los médicos acudían a unas academias especiales, donde aprendían la anatomía y el uso de las hierbas. También aprendían a leer y escribir, gracias a lo cual redactaron diversos manuales que han llegado hasta nuestros días.

    Mens sana in corpore sano

    El Libro de las heridas, por ejemplo, enseña a los médicos a aprovechar al máximo el sentido del tacto, a palpar las heridas con las manos y a diagnosticar tumores comparándolos con la textura de la fruta. Los manuales también exponían algunos principios modernos de diagnóstico, contemplando la relación existente entre los estados de ánimo y el bienestar físico. Un médico, por ejemplo, señala que su paciente está "demasiado deprimido para comer", en tanto que otro, al observar el abatimiento de su paciente, anota que "tiene cara de haber llorado".

    Los médicos egipcios comparaban el funcionamiento interno del cuerpo con el sistema de canales de riego que sostenía la agricultura. Consideraban que la estructura corporal dependía de un sistema de vasos, o metu, que, partiendo del corazón, distribuían por todo el cuerpo los líquidos necesarios para la buena salud. Del mismo modo que el bloqueo de los canales de riego producía malas cosechas, la obstrucción del metu originaba un deterioro de la salud. Los antiguos egipcios no aprendieron los rudimentos de la anatomía y la fisiología por medio de la disección ?que estaba prohibida?, sino observando atentamente la extracción de órganos durante el proceso previo al embalsamamiento y la momificación.

    Sangre de murciélago

    Los médicos egipcios acudían a atender a sus pacientes provistos de toda una serie de pociones y remedios, con ingredientes tan extraños como pezuña de asno calcinada o grasa de serpiente. Muchos medicamentos eran de origen animal ?para elaborarlos se empleaban con frecuencia sesos de cerdo, bazo o hígado de buey, y grasa de hipopótamo?, en tanto que otros eran de procedencia más exótica. La sangre de murciélago, la vejiga de tortuga y el hígado de golondrina eran algunos de los ingredientes indicados para el tratamiento de las enfermedades oculares, bastante frecuentes en el antiguo Egipto.

    Las drogas se clasificaban por sus efectos y no por sus ingredientes. Los tarros se etiquetaban, por ejemplo, "Para oír mejor" o "Para curar el dolor de tripa". Las instrucciones de uso "siempre presentes" eran muy estrictas. Algunas drogas se mezclaban con vino, otras se usaban para hacer bizcochos, y todas las dosis se calculaban con la mayor precisión. La medicación combinada era frecuente en el antiguo Egipto: en muchos tratamientos se prescribían ungüentos y supositorios además de medicamentos por vía oral.

    Señales y símbolo 

    Un dibujo médico tradicional señala algunos de los 700 puntos en los que se pueden clavar agujas de acupuntura. Los puntos están situados a lo largo de 14 canales de energía (los meridianos), 12 de los cuales están vinculados a órganos específicos. Para que no haya enfermedades, el flujo de energía a través de los meridianos debe ser armónico. Un antiguo objeto decorativo de laca (arriba) muestra el símbolo del yin y el yang, las dos fuerzas opuestas.

    Tomado de:

    Selecciones

    ¿Cómo explicó Galeno el funcionamiento del cuerpo humano?

    Galeno, el gran médico de la antigüedad, era famoso tanto por su arrogancia como por su talento.

    ¿Cómo explicó Galeno el funcionamiento del cuerpo humano?

    Galeno, el gran médico de la antigüedad, era famoso tanto por su arrogancia como por su talento. ?Nunca me he equivocado, ni en el tratamiento ni en el pronóstico, como les ha sucedido a tantos médicos de prestigio. Si alguien quiere hacerse famoso, lo único que tiene que hacer es aceptar lo que yo ya he sido capaz de establecer.?

    Galeno nació en el 129 dC en Pérgamo. Estudió medicina durante 12 años, comenzando a la edad de 16. Cuando tenía 21 años había escrito seis tratados médicos y empezado a practicar lo que se convertiría en su especialidad: la vivisección de animales.

    En tiempos de Galeno, la disección de seres humanos con el fin de realizar investigaciones médicas era considerada poco ética, por lo que se vio obligado a utilizar animales para ampliar sus conocimientos de anatomía. También aprendió muchas cosas sobre el cuerpo humano y la manera de curar las heridas cuando fue nombrado médico de los gladiadores en su ciudad natal.

    Odiado por los médicos

    En el año 161, cuando contaba 32, Galeno se trasladó a Roma, a donde llegó precedido de una enorme fama. Aunque hizo crecer su reputación tratando con éxito a algunos pacientes dados por incurables, se enemistó con sus colegas al acusarlos de ignorancia y codicia. Pero sus pacientes, algunos de ellos muy influyentes, lo adoraban y Galeno se abrió paso entre lo más selecto de la sociedad romana.

    Durante su estancia en Roma, Galeno realizó la mayoría de sus descubrimientos anatómicos. Amplió sus conocimientos diseccionando más animales, sobre todo macacos, porque creía que estaban constituidos de manera muy similar a los seres humanos. Uno de sus principales logros consistió en identificar siete pares de nervios que tenían su origen en el cerebro, y demostró sin lugar a dudas que las arterias contenían sangre, y no aire, como se había pensado durante 400 años.

    Se puede diseccionar a un mono e identificar todos y cada uno de sus huesos... Para ello hay que seleccionar los monos que más se parecen a los hombres? en estos monos, que también corren y caminan sobre dos patas, encontraremos los mismos órganos que en el hombre.

    Sin embargo, Galeno no siempre estuvo en lo cierto al suponer que los descubrimientos realizados diseccionando animales podían aplicarse a los seres humanos. Tampoco llegó a comprender el funcionamiento del corazón, y no advirtió que la sangre circula por todo el cuerpo. Ante todo, su doctrina médica permaneció anclada en la teoría de los humores, concebida por los médicos griegos. Pero la seguridad de Galeno y sus teorías clínicas hacían creer a muchas personas que conocía todas las respuestas.

    Fluidos que causaban enfermedades

    La costumbre de "leer" el carácter de un paciente para tratarlo en consecuencia quedó establecida en la "teoría de los humores". Esta teoría aceptada por los antiguos griegos sostenía que la salud física y mental estaba determinada por cuatro fluidos o humores corporales: la sangre, la flema o "mucosidad", la bilis vitelina y la bilis negra o atrabilis. La buena salud era resultado del equilibrio de estos humores: la enfermedad aparecía cuando uno de ellos se hacía predominante.

    En busca del equilibrio

    Una vez diagnosticada la enfermedad atendiendo a los humores, había que intentar restablecer su equilibrio. Cuando la afección de un paciente se atribuía a una complexión demasiado sanguínea, se le practicaba una sangría, mientras que a los pacientes introvertidos o irritables se les recomendaba que sudasen para eliminar la atrabilis causante de su estado de ánimo.

    Pero no siempre era fácil alcanzar el equilibrio de los humores. Se creía que la flema tendía a acumularse durante el invierno frío y oscuro, produciendo resfriados y afecciones de garganta, mientras que la sangre predominaba en primavera y verano, causando vómitos y mareos. Se daba mucha importancia a la alimentación.

    En el siglo II dC Galeno reforzó esta teoría, afirmando que cada uno de los cuatro humores condicionaba el temperamento de las personas.

    Fuente:

    Selecciones
     

    29 de mayo de 2013

    Girobuses: cuando recargaban autobuses "dándoles cuerda"

    Hay muchas formas de almacenar energía, aunque la más común es en forma química o electroquímica. Son las usadas en el combustible de los vehículos de combustión interna o en las baterías del móvil, por ejemplo. Otros tipos de almacenamiento son la energía potencial (en centrales hidroeléctricas), energía elástica (los muelles de un reloj de cuerda), etc.

    A lo largo de la historia ha habido alternativas de lo más curiosas para intentar mover nuestros vehículos de forma económica y sostenible explotando distintas fuentes de energía, como en el ejemplo que os traigo hoy: autobuses que andan con energía cinética guardada en un volante de inercia.

    ¿Qué es un volante de inercia? Es tan simple como una rueda diseñada para girar con el mínimo rozamiento posible. El tipo de energía que almacena es del tipo cinético: se recarga empujándola de alguna forma para que gire cada vez más rápido. Como la energía cinética rotacional es:



    se ve que a mayor velocidad (ω) mayor la energía almacenada. El otro parámetro (Ix) depende de la forma física que tenga el volante.

    Uno de los diseños más fáciles de entender consiste en un motor eléctrico acoplado al disco del volante de inercia. Aplicando electricidad se recarga el volante al hacerlo girar cada vez más rápido. Al desconectar la alimentación, el mismo motor puede actuar de generador y vuelve a convertir el movimiento del volante en corriente eléctrica, frenando más al disco cuanta más corriente se extraiga.

    Os dejo un vídeo de un sistema inercial casero que demuestra este concepto, reutilizando un motor (brushless) de un ventilador de PC. Primero se aplica tensión para almacenar la energía y luego se extrae para dar alimentación a un LED:



     En la práctica, el límite de este tipo de "baterías cinéticas" está limitado por cuestiones de seguridad por un lado (¿te fiarías de llevar en tu coche un pesado disco girando a alta velocidad?) y por tiempo de almacenamiento, ya que cualquier rozamiento por pequeño que sea va disipando la valiosa energía en inútil calor.

    Prototipos desarollados por la NASA han alcanzado 41.000rpm (es decir, ¡unas 683 vueltas por segundo!), pero incluso con suspensión magnética del rotor para limitar el rozamiento dentro de un compartimento al vacío, a las pocas horas se acaba disipando gran parte de la energía en forma de calor. En un vehículo real se tendría el inconveniente adicional de que el movimiento provocaría un rozamiento extra, debido al efecto giroscópico.




    Lea el artículo completo en:

    Ciencia Explicada

    Juegos de lógica: Armando rascacielos


    Skyscrapers es una especie de Sudoku en el que las pistas están fuera del tablero. Hay que imaginar que la matriz es como una ciudad, y en cada casilla hay un rascacielos de cierta altura: la flecha indica cuántos rascacielos se ven en línea recta desde esa posición teniendo en cuenta que los más altos no dejan ver a los más pequeños. Aparte de eso no pueden repetirse los números en las filas o columnas.


    Cada problema puede resolverse usando pura lógica. Explicado así parece fácil, y de hecho los primeros módulos son fáciles, pero cuando la matriz aumenta de tamaño y las pistas son más complicadas el asunto deja de ser trivial.

    Tomado de:

    Microsiervos

    China se robotiza así...

    Algo está cambiando en el gigante asiático. China ya es el principal productor mundial gracias a su disponibilidad de mano de obra barata, pero desde hace unos años se observa un crecimiento imparable en la automatización en su industria: sale aún más barato emplear robots.

    Y no sólo ocurre en las industrias clásicas cómo en la del automóvil o el ensamblaje electrónico... Cui Runguan, dueño de un restaurante en Beijing, se dio cuenta el año pasado del tiempo que se perdía en todos los restaurantes chinos pelando fideos (noodles) así que inventó y fabricó en serie un curioso robot humanoide para realizar esta pesada y repetitiva tarea:



    Un chico pelando fideos suele costarle a un restaurante unos 40.000 yuanes (4.900€) al año, mientras que el robot se vende por 10.000 yuanes (1.200€). Runguan, que ha protegido su robot con cuatro patentes, ya ha vendido más de 3.000 unidades... lo que quiere decir que 3.000 restaurantes tienen a uno de estos robots en sus cocinas:



     Según un empresario de la industria robótica china, Tan Xueke, las compañías del país "empiezan a pensarse el reemplazar un trabajador por un robot cuando su salario supera los 50.000 yuanes (6.200€) al año".

    Como un ejemplo famoso de automatización en China tenemos a Foxconn, fabricante de componentes electrónicos y ensamblador para Apple, Dell y otros gigantes de la tecnología. Tras una oleada de suicidios en sus plantas, está en pleno proceso de reemplazar 500.000 trabajadores humanos por 1.000.000 de robots.

    Se podría pensar que estos son casos aislados, pero los datos estadísticos de la International Federation of Robotics (IFR) confirman que Asia ya es, y seguirá siéndolo, el mayor mercado mundial en robótica industrial.

    La siguiente gráfica muestra cómo los pedidos de robots en Asia dejan en nada a los del resto del mundo industrializado:

    Pedidos de robots industriales por áreas. Clic para ampliar. (Fuente: IFR)

    Lea el artículo completo en:Ciencia Explicada

    28 de mayo de 2013

    ¿Cómo se descubrió la célula?


    Como-se-descubrio-la-celula.jpg  

    iStockphoto/Thinkstock

    A raíz del post sobre la clonación "terapéutica" se me ocurrió escribir sobre las célukas y su descubrimiento. Disfrútenlo:

    La vida se organiza a partir de la existencia de una unidad estructural mínima: la célula. Por ello, el descubrimiento de la célula, por parte del gran científico Robert Hooke, fue uno de los más importantes y emblemáticos de la historia. Su hallazgo influyó e hizo posible significativos avances en las ciencias, en años posteriores y hoy, mucho le debemos a sus numerosos trabajos. Te invito a conocer cómo se descubrió la célula.

    Robert Hooke y el descubrimiento de las células

    Como-se-descubrio-la-celula-1.jpg  

    iStockphoto/Thinkstock

    Aunque fue el prolífico científico inglés Robert Hooke a quien correctamente se le atribuye el descubrimiento de la célula, ciertas nociones de su existencia ya eran mencionadas mucho antes, en la antigüedad. Así es como personalidades como, por ejemplo, el filósofo y matemático griego Demócrito (460 - 370 a.C.) mencionaba que todas las cosas estaban compuestas de diminutas, indestructibles e invisibles partículas de materia pura; Leonardo da Vinci (1452 - 1519) destacaba que el uso de lentes era sumamente importante para el estudio de la materia y de todas las cosas, ya que poseían elementos vitales que no podían verse a simple vista y gracias Zacharias Jansen (1588 - 1638), que inventó el microscopio compuesto, muchos descubrimientos despertaron conceptos relacionados a la existencia de la célula.
    La invención del microscopio fue fundamental en este descubrimiento, pues entre otras cosas, Robert Hooke pudo construir el suyo propio: un microscopio compuesto de 50 aumentos que le permitió descubrir la célula. La primera vez en la historia en la que se nombra la palabra célula es en el año 1665, cuando Hooke publica su libro Micrographia. En dicho trabajo, el autor deja registro de numerosas observaciones realizadas con su microscopio sobre diversos tejidos vegetales, entre ellos, tejidos de corcho. Para el descubrimiento, Hooke cortó un pequeñísimo trozo de corcho y lo colocó en su microscopio compuesto de lentes convexos.

    De esta manera pudo observar una serie figuras cual pequeños cuadrados a los que llamó celdas, nombre desde el que luego derivó el término “célula”. Lo que el señor Hooke estaba presenciando eran células vegetales muertas, con su característica forma poligonal. Éste fue el primer gran paso en el descubrimiento de las células, sin embargo, es muy importante señalar que lo que en realidad descubrió fueron células muertas, siendo incapaz de desarrollar más detalles que el simple descubrimiento de estas estructuras.

    Anton van Leeuwenhoek: las primeras células al microscopio

     

    Como-se-descubrio-la-celula-2.jpg © 

    Getty Images/Hemera Technologies/PhotoObjects.net/Thinkstock

    Por supuesto, el hallazgo abrió el camino a las más diversas especulaciones y mejor aún, investigaciones. Unos años más tarde, en la década de los años 1670, el holandés Anton van Leeuwenhoek, un renombrado fabricante de microscopios, construyó uno de los mejores tipos de microscopios de la época.

    Gracias a su invento, un microscopio de 200 aumentos, Leeuwenhoek fue el primero en observar, dibujar y también describir una célula viva. Con sus trabajos, van Leeuwenhoek pudo describir una gran variedad de microorganismos, entre ellos, bacterias, protozoos, glóbulos de sangre e incluso espermatozoides, los cuales descubrió de una forma muy peculiar.

    Anton era un muchacho muy curioso, colocó su propio semen en su propio invento y en el año 1677, describió a la Real Academia una “multitud de animalillos vivientes con el tamaño de un millón de veces menor que el de un grano de arena”.

    El tiempo trajo desarrollos aún más intensos, algunos de los avances más significativos en el estudio de la célula tuvieron lugar en el siglo XIX, con el desarrollo y perfeccionamiento de los microscopios ópticos, ya que permitieron observar todo con más detalle, incluyendo el interior de las células.

    El botánico alemán Matthias Jakob Schleiden y el zoólogo alemán Theodor Schwann formaron un equipo de trabajo que tras varias investigaciones les permitió reconocer las similitudes fundamentales entre las células animales y vegetales.

    En 1839 presentaron la revolucionaria idea de que todos los organismos vivos están formados por una o más células y que por lo tanto estas son la unidad estructural de los seres vivos. La totalidad de los postulados, conocimientos y desarrollos del estudio celular, se manifiesta firmemente en la llamada teoría celular.

    Fuente:

    Ojo Científico

    Lea también:

    Leeuwenhoek: ¿Cuánta gente cabe en la Tierra?

    Un microscopio para observar virus vivos

    Cómo se suicidan las células 

    Biografías de la Ciencia: Leeuwenhoek (incluye un power point)

    Cómo crear vida multiucelular en 40 días

    ¿Cómo se mide el sonido?


    Como-se-mide-el-sonido-3.jpg  

    iStockphoto/Thinkstock
     
    ¿Sabes cómo se mide el sonido? -A diario escuchamos sobre decibelios, hertz, ondas... muchos conceptos entreverados que puede que no sepamos muy bien qué significan. No te preocupes, es más sencillo de lo que parece. Sigue leyendo para descubrir cómo se mide el sonido.

    Cómo medir el sonido

    En un mundo en que parece no haber silencio, los oídos son uno de los sentidos que más usamos, junto con la vista.

    El sonido es una vibración del aire o del agua -nunca se puede producir en el vacío-, que llega a nuestra oreja, hace que esta vibre, y de esa forma escuchamos algo. Esta vibración se realiza en forma de ondas sonoras.

    Cualidades del sonido

    El sonido tiene distintas cualidades:
    • Altura: nos permite distinguir entre un sonido agudo y uno grave. Se mide en Hertz (Hz, frecuencia)
    • Timbre: nos permite reconocer las características de la fuente sonora (si es un instrumento de cuerda, de metal, una voz... cada uno tendrá sus características propias: el sonido puede ser más brillante, opaco, aterciopelado, metálico, etcétera)
    • Intensidad: Nos permite reconocer un sonido fuerte de uno débil o suave (comunmente lo conocemos como "volumen" en los equipos de sonido). Se mide en decibelios (dB)
    Esas son las las tres principales, pues son propios de lo sonoro. Pero hay otros dos factores, que coinciden con la variable Tiempo y Espacio (que por cierto, rige a todas las cosas): Duración (podemos distinguir un sonido largo de uno corto) y Espacialidad (somos capaces de reconocer de dónde proviene un sonido, si de la izquierda, la derecha, arriba, abajo, cercano o lejano).

    Por lo tanto, los sonidos pueden ser medidos de distintas formas. Algunos medidores nos pueden determinar la intensidad, mientras que otros nos permiten reconocer la altura, la duración, o muchas cualidades a la vez.

    Cómo se miden las frecuencias del sonido

    Los sonidos se pueden identificar por su espectro de frecuencias. El elemento fundamental de estas frecuencias es la onda sinusoidal, es decir, una superposición lineal de sinusoides.

    Cada sinusoide se caracteriza por su amplitud, su frecuencia y su relación con la marca de tiempo cero. Los sonidos más graves tendrán ondas sonoras más alargadas (una frecuencia más baja), mientras que los sonidos más agudos serán representados por ondas de sonido más cortas (una frecuencia más alta y por lo tanto más Hertz).

    Como-se-mide-el-sonido-1.jpg  

    Ingram Publishing/Thinkstock

    El sonido se mide por la amplitud de los componentes espectrales, mediante la colocación de un metro calibrado de sonido en el centro de la cabeza de un oyente potencial.

    El oído humano es capaz de captar las ondas coprendidas entre los 20 Hertz y los 20.000 Hertz (aproximadamente). Las ondas que están por debajo de los 20 Hertz (aproximadamente) son sonidos tan graves que nuestro oido no es capaz de captarlas y las conocemos como Infrasonido. Por otra parte, las ondas más cortas (más agudas, mayores a los 20.000 Hz) las conocemos como Ultrasonido. Tampoco las podemos captar con nuestro oído, pero otros animales como los murciélagos las suelen utilizar para sus vuelos nocturnos.

    Debemos tener en cuenta también que el oído humano no es igualmente sensible a los tonos diferentes en un mismo nivel de presión, ya que son diferentes frecuencias. A esto se le llama sonoridad. Para medir esto se utilizan las ondas isofónicas, que relacionan el tono de un sonido en dB con su nivel de sonoridad subjetiva (como dijimos, entre los 3 kHz y los 20kHz el oído es más sensible, por encima y por debajo de estos valores no).

    Cómo se mide la intensidad del sonido

    El primer medidor: el microPa

    En un primer momento, el sonido se medía en microPa o Pa, el nivel de presión de la onda. El rango audible en los humanos iba de 20 microPa a 20 Pa -un nivel doloroso-. Sin embargo, como esta era una escala muy grande, se comenzaron a utilizar los decibelios (dB).

    Los decibelios, la medida actual de intensidad sonora

    En este nuevo rango, el esquema de audición humano iría de los 0 dB a 120-140 dB, en los que ya notamos dolor en los oídos. En 0 dB está el sonido más bajo que podemos escuchar, y significa casi silencio absoluto. Una conversación normal está aproximadamente en los 60 dB, un concierto de rock en los 120 dB, y un disparo de un arma en 140 dB.

    A partir de los 85 dB podemos tener pérdidas auditivas: podemos identificar este nivel cuando para conversar tenemos que levantar la voz. Ocho horas al día con esta intensidad causa daños en los oídos.

    Como-se-mide-el-sonido-2.jpg  

    iStockphoto/Thinkstock

    Por lo general, las mediciones de sonido siempre deben hacerse en dB, pero en caso de que estemos hablando de la audición humana, es importante hacerlo también relacionado a este valor subjetivo.

    El daño auditivo depende del nivel del sonido y del tiempo de exposición al mismo. También debemos tener en cuenta que la distancia afecta la intensidad del sonido: si estamos lejos de él, la potencia disminuye.
    Los dejo con una pregunta para reflexionar: si un árbol cae en un bosque, y no hay nadie para oírlo, ¿hay sonido?

    Fuente:

    Ojo Científico
    google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0