Latest Posts:

Mostrando las entradas con la etiqueta ecuaciones. Mostrar todas las entradas
Mostrando las entradas con la etiqueta ecuaciones. Mostrar todas las entradas

17 de febrero de 2020

Matemáticas para conseguir a la novia (o el novio) de tus sueños


Primero, algo de historia. En 1961, el astrónomo estadounidense Frank Drake presentó su ecuación al mundo con la que podemos estimar con cuántas civilizaciones extraterrestres nos podemos comunicar mediante ondas de radio, aunque ya imagino que estás pensando: ¿para qué me sirve saber esto último?, ¿esto me va a ayudar a tener mi pareja soñada? Pues, la verdad es que no, pero no te desesperes, hay una razón para esta mención.

Ecuación de Drake:

N = R*fp*ne*fl*fi*fc* L

Luego, el economista Peter Backus cambió la ecuación de Drake para saber cuántas mujeres, con las características que él requería, podían ser potencialmente su novia y que, además, ellas lo encontraran atractivo, lo cual reducía aún más sus posibilidades. Aunque tenemos que resaltar que él es realista y no se quedó con los brazos cruzados. Puedes consultar su informe aquí.

Así, Backus estimó que existían 26 mujeres en todo Londres que cumplían con las características que él propuso. Finalmente, después de varios intentos logró estar con alguien y además casarse; ¡sí, casarse! Así que levanta la cara, no te rindas, amigo(a), que aún tienes oportunidades para dejar de estar solo(a), si es eso lo que quieres.

Ecuación de Drake adaptada por Peter Backus:

N = R*fw*fl*fa*fu*fb

Tranquilo, joven, no huya o se desespere. Lo pondré más fácil apto para dummies y con datos actuales según censo de Perú en 2017. Puedes consultar los resultados aquí.

Un ejemplo

Vayamos a lo práctico: La chica ideal de Christian debería de vivir en Lima, Perú. Además, debe de tener entre 25 a 29 años y contar con estudios universitarios. Entonces, comencemos con la magia y reemplacemos por datos reales:

R = población en Perú en 2017 = 29’381,884

fw = porcentaje de mujeres que viven en Perú = 50.8% = 0.508 (consultar pag 37)

fl = porcentaje de mujeres en Perú que viven en Lima = 51.2% = 0.512 (consultar pag 41)

fa = porcentaje de mujeres en Lima que tienen entre 25 y 29 años = 4.17% = 0.417 (dividir los valores de las pag 38/pag 21)

fu = porcentaje de mujeres entre 25 y 29 años en Lima con educación universitaria = 25.2%*0.4836 = 12.2% = 0.122 (revisar pag 111, valor de 0.4836 para mujeres y 0.5164 para hombres)

fb = porcentaje de mujeres que encuentro atractivas entre 25 y 29 años en Lima con educación universitaria= 3.33% = 0.033 (esto ya depende de cada uno, a medida de ejercicio digamos que es 1 de cada 30. Es decir, tenemos que dividir 1/30 y obtenemos 3.33%)

N = 29’381,884*0.508*0.512*0.417*0.122*0.033 = 1,296

Esto quiere decir que existen alrededor de 1,296 mujeres que serían parejas potenciales para Christian. Sin embargo, este resultado no toma en cuenta que tan atractivo eres para las otras personas, ni si ellas están solteras o si le puedes caer bien para iniciar o continuar alguna conversación.

Entonces, para ser más realistas, ajustaremos aún más el resultado. Tomando en cuenta los datos anteriores:

fs = porcentaje de mujeres solteras en Perú = 47.6% = 0.476 (revisar la pag.57)

fb’ = porcentaje de mujeres que me consideran atractivo = 2.85% = 0.029 (con este dato tienes que ser realista también, él piensa que es atractivo para una de cada 35 mujeres)

fe = porcentaje de mujeres a las que puedo caerles bien = 60% = 0.6 (6 de cada 10)
Finalmente tenemos: N’ = 1,296*0.476*0.029*0.6 = 11


Con este resultado podemos estimar que existen alrededor de 11 potenciales parejas para Christian y que además ellas gustan de una conversación con él. Por supuesto si queremos obtener un resultado aún más realista debemos de poner más condiciones y luego jugar con los datos que nos ofrece el informe del censo.



El artículo completo en: El Comercio (Perú)

 

10 de octubre de 2018

Modelos matemáticos para entender el funcionamiento del sistema inmunológico

Las ecuaciones diferenciales son claves en los modelos de poblaciones empleados para estudiar y comprender los procesos de enfermedades autoinmunes.

Los linfocitos T son células que forman parte del sistema inmune del cuerpo humano. Sus procesos de creación y maduración son especialmente delicados, ya que cualquier fallo puede derivar en problemas graves para el individuo, como leucemias y otras enfermedades autoinmunes. En los últimos años, las ecuaciones diferenciales han resultado ser la clave de los modelos matemáticos de poblaciones empleados para estudiar y comprender estos procesos.

Los linfocitos T participan en la respuesta inmune adaptativa, la segunda etapa de acción del sistema inmunológico para proteger al organismo de las infecciones causadas por virus, bacterias y toda clase de patógenos. Se crean en la médula ósea, a partir de células madre hematopoyéticas. Estas células se convierten en precursoras de los linfocitos T mediante la selección tímica, un proceso de diferenciación celular que dura aproximadamente tres semanas y tiene lugar en el timo.


En cada instante del proceso, cada una de las células puede (1) morirse, (2) dividirse y dar lugar a dos células hijas, o (3) diferenciarse y dar origen a una célula diferente. Es muy importante entender dónde y cuándo recibe cada timocito una señal que le indica la opción que ha de seguir. Estas señales dependen tanto de las células epiteliales del timo, en particular del tipo de moléculas (antígenos) que tengan en su membrana celular, como del tipo de receptor T que el timocito muestre en su superficie. Es precisamente la interacción entre los receptores T de un timocito y los antígenos de las células epiteliales lo que determina su futuro.

Si la interacción es de gran afinidad bioquímica, el timocito ha de morir por apoptosis (muerte celular programada); si la afinidad es muy pequeña o nula, la muerte es por ``negligencia”; en el caso de afinidades intermedias, el timocito sufre un proceso de diferenciación y continúa la maduración. Para cuantificar la cinética de la selección tímica se introducen tasas de muerte (la frecuencia con la que un timocito recibe una señal de muerte) y tasas de diferenciación o proliferación (la frecuencia con la que recibe una señal de diferenciación o de división celular). Conocer estas tasas permitiría predecir, por ejemplo, el tiempo medio que un timocito pasa en cada fase del proceso de maduración tímica.

Sin embargo, no es posible determinar de manera experimental estos parámetros, ya que requeriría observar la trayectoria de cada pre-linfocito T en el timo del individuo estudiado, y las técnicas de microscopía actuales solamente permiten hacerlo durante una hora como máximo, lo que es un periodo muy inferior a las escalas de tiempo del proceso tímico.

Las matemáticas brindan herramientas precisas para describir poblaciones de células y sus cambios en el tiempo, mediante modelos deterministas de poblaciones. En esencia, estos modelos describen la evolución temporal de la población. Si se supone que a tiempo inicial la población consta de un cierto número de individuos, la ecuación describe cuántos habrá un poco después, si la población cambia por migración, por muerte o por nacimiento de nuevos individuos. Cada modelo de población depende de lo que se suponga como mecanismos de migración (por ejemplo, un flujo constante o no de individuos), de muerte y de nacimiento.

Lea el artículo completo en: El País (España)

21 de agosto de 2018

No busquéis más, estamos solos en el Universo

Un equipo de científicos británicos llega a la conclusión de que somos la única civilización inteligente.

Anders Sandberg, Eric Drexler y Toby Ord, investigadores de la Universidad de Oxford, acaban de publicar en arxiv.org un demoledor artículo en el que reinterpretan con rigor matemático dos de los pilares de la astrobiología: la Paradoja de Fermi y la Ecuación de Drake. Y sus conclusiones son que, por mucho que las busquemos, jamás encontraremos otras civilizaciones inteligentes. ¿Por qué? Porque, sencillamente, no existen.

La mayor parte de los astrofísicos y cosmólogos de la actualidad están convencidos de que "ahí arriba", en alguna parte, deben existir formas de vida inteligente. Es la conclusión lógica de pensar en la enormidad del Universo: miles de millones de galaxias, con cientos de miles de millones de estrellas cada una y billones de planetas orbitando alrededor de esas estrellas.

Lo abultado de estas cifras, consideran esos científicos, convertiría en una auténtica "perversión estadística" la mera idea de que la inteligencia hubiera surgido solo una vez en un sistema de tales proporciones. ¿Pero qué pasaría si la posibilidad más inverosimil resultara ser la correcta y resultara que, a pesar de todo, estamos completamente solos?

Según los tres investigadores de Oxford, los cálculos hechos hasta ahora sobre la probabilidad de que exista vida inteligente fuera de la Tierra se basan en incertidumbres y suposiciones, lo que lleva a que sus resultados tengan márgenes de error de "múltiples órdenes de magnitud" y, por lo tanto, inaceptables.

Por eso, Sandberg, Drexer y Ord han tratado de reducir al máximo ese enorme grado de incertidumbre, ciñéndose a los mecanismos químicos y genéticos plausibles. Y el resultado, afirman, es que "hay una probabilidad sustancial de que estemos completamente solos".

Lea el artículo completo en:

ABC (España)

4 de julio de 2018

Évariste Galois, el adolescente que revolucionó las matemáticas

Siempre que hablamos de una aportación esencial en cualquier campo, la calificamos de “revolucionaria”. Tal vez abusamos tanto de este término que llega a perder parte de su significado. Pero en la Francia de comienzos del siglo XIX, ser un revolucionario tenía un carácter más literal, y por tanto más arriesgado. Évariste Galois (25 de octubre de 1811 – 31 de mayo de 1832) lo fue en dos campos, la política y las matemáticas, y desde muy joven; tal vez demasiado para disfrutar de una larga vida. Falleció trágicamente a los 20 años, aunque no por la política ni las matemáticas, sino por el motivo que forja la leyenda de todo genio romántico.

La política le venía de familia. Su padre, el republicano Nicolas-Gabriel Galois, fue alcalde de la localidad de Bourg-la-Reine, cercana a París. Su madre, Adélaïde-Marie Demante, de amplia cultura clásica, se ocupó de educar a Évariste en casa durante su primera infancia. Cuando a los 12 años el niño comenzó a asistir al colegio, su carácter revolucionario afloró en una Francia de grandes tensiones políticas, regida por una monarquía constitucional de la que muchos recelaban.

En el colegio, Galois se enamoró de las matemáticas, ajenas a su tradición familiar. Su nivel era muy superior al de sus compañeros: devoró los Elementos de geometría de Legendre como si fuera una novela, y pronto dejó de lado los libros de texto para dedicarse a estudiar los trabajos originales de Lagrange. Su gran ambición le llevó en 1828 a intentar un ingreso prematuro en la École Polytechnique. Suspendió; pese a su inteligencia, aún no contaba con la formación necesaria.

Para Galois, la École Polytechnique no era sólo la mejor institución de matemáticas del país. La escuela era sede de un activo movimiento republicano que tendría un papel destacado en el derrocamiento en 1830 del rey Carlos X, el último Borbón de Francia. Cuando Galois suspendió el ingreso por segunda vez –según cuenta la leyenda, tras arrojar un borrador a un examinador incompetente–, tuvo que conformarse con la más modesta École Normale. Mientras la revolución prendía en las calles, Galois y el resto de alumnos de esta escuela quedaron encerrados bajo llave, y su queja posterior en una carta a la prensa motivó su expulsión.

Mientras, su carrera en matemáticas avanzaba a trompicones. Aunque publicó varios trabajos en vida, su mayor aportación se quedó bloqueada a las puertas de la Academia Francesa, primero por Cauchy y después por Fourier, cuya muerte resultó en la pérdida del manuscrito de Galois. Aquel trabajo resolvía un problema centenario, la demostración de las condiciones necesarias y suficientes para resolver ecuaciones polinómicas por raíces. Y sin embargo, su principal logro no vería la luz hasta después de su muerte.

El artículo completo en:

Open Mind

5 de mayo de 2016

University College London: La ecuación matemática de la felicidad

¿Cuál es el secreto de la felicidad? ¿De qué depende? Una nueva investigación de la University College London (Reino Unido) parece haber descifrado la fórmula de la felicidad mediante una ecuación matemática.

Para el estudio, que ha sido publicado en la revista Proceedings of the National Academy of Sciences (PNAS), los investigadores realizaron resonancias magnéticas cerebrales a 26 voluntarios, con múltiples pruebas de recompensa y pérdida, que tenían que ser constantemente valoradas por su nivel de felicidad. Los científicos observaron que la actividad en dos áreas concretas del cerebro (el núcleo estriado ventral y la ínsula) se correspondía con el nivel de felicidad. Con estos datos diseñaron la fórmula de la felicidad.

Los científicos quisieron poner a prueba entonces su ecuación matemática. Para ello, analizaron los datos de una encuesta incluida en una aplicación para móviles “The Great Brain Experiment” en la que participaron 18.000 personas y los sometieron a la ecuación en cuestión para predecir exactamente cuán feliz se sentían dichas personas.

“Nuestra ecuación hizo un buen trabajo explicando la felicidad. Incluso con este amplio espectro de participantes, hay una relación sorprendentemente consistente entre satisfacción, expectativas y felicidad. Las expectativas también afectan a la felicidad, incluso antes de aprender el resultado de una decisión. Si tienes planes de reunirte con un amigo en tu restaurante favorito, esas expectativas positivas pueden aumentar la felicidad tan pronto como realices el plan. La nueva ecuación captura estos diferentes efectos de las expectativas y permite predecir la felicidad sobre la base de los efectos combinados de muchos acontecimientos del pasado”, afirma Robb Rutledge, líder del estudio.

Así pues, según el estudio, la felicidad no sólo depende de la satisfacción del individuo, sino también de sus expectativas. A pesar de que la fórmula no indica cómo ser feliz, sí plantea una interesante herramienta para estudiar la felicidad y los trastornos emocionales a escala masiva.

Fuente:

Muy Interesante

26 de noviembre de 2015

Diez preguntas para entender la teoría de la relatividad de Einstein





El 25 de noviembre de 1915, el físico presentó la formulación definitiva de su pensamiento. Algunos interrogantes y sus respuestas para comprenderlo.


1. ¿Qué conmemoramos exactamente este 25 de noviembre de 2015?
Se cumplen justo 100 años del día en que Albert Einstein explicó en una conferencia ante la Academia Prusiana de Ciencias, en Berlín, las ecuaciones definitivas de su teoría general de la relatividad. Tras casi una década de tortuosos intentos de compatibilizar la fuerza gravitatoria con su teoría especial de la relatividad (1905), y con el matemático David Hilbert pisándole los talones, por fin dio forma precisa y definitiva a la que se considera una de las cimas intelectuales de la humanidad. Su presentación se publicó aquel mismo día, 25 de noviembre de 1915, en las actas (Proceedings o Sitzungsberichte) de la academia.

2. ¿Einstein presentó ese mismo día la ecuación que hoy se conoce?
En realidad es un sistema de diez ecuaciones, pero se pueden escribir de manera unificada, utilizando una sola vez el signo “=”, y resumirlas en una sola: Rμν -1/2 gμν R = 8πG Tμν. En la forma original en la que la escribió Einstein en su artículo, la notación (por ejemplo usaba índices latinos en lugar de griegos) y la distribución de los términos era ligeramente distinta, pero aún así, es totalmente equivalente a esta.

3. ¿Y qué significa Rμν -1/2 gμν R = 8πG Tμν en un lenguaje que todos podamos comprender?
En lenguaje común, la nueva ecuación de Einstein relaciona dos aspectos: curvatura del espacio-tiempo ↔ Masa (energía). Por ponerlo en contexto, anteriormente la teoría de la gravedad de Newton, el mayor éxito de la revolución científica del siglo XVII, aportaba dos leyes que podemos visualizar así:
Masa → Gravedad; y
Fuerza de gravedad → Movimiento de cuerpos masivos,
donde “→” podemos leerlo como “crea”.

Es decir, una masa –por ejemplo, la Tierra– crea un campo gravitatorio, que a su vez ejerce una fuerza que controla el movimiento de otras masas, como una manzana o la Luna. Con la aportación de Einstein, la teoría de Newton se veía ahora desbancada por otra que la incluía como una aproximación solo válida para masas y velocidades relativamente pequeñas. Pero la teoría de Einstein era mucho más que un refinamiento de la de Newton: cambiaba completamente el concepto de qué es y cómo actúa la gravedad.

4. ¿Qué diferencias hay entre la visión clásica del mundo de Newton y la relativista de Einstein?
Hay dos esenciales. Por una parte, en la formulación de Einstein desaparece la noción de gravedad, que ha sido sustituida por algo más misterioso y sugerente: la curvatura del espacio-tiempo. Y, por otra, unifica en una sola ecuación las dos leyes básicas de la teoría newtoniana. Es decir, ambas “→” quedan aunadas en una sola “↔”. Sin duda alguna, la eliminación de la gravedad como una fuerza ‘real’ y su interpretación como un ‘efecto aparente’ de la curvatura del espacio-tiempo es el elemento más revolucionario de la teoría. De esta manera, Einstein explicaba con una simplicidad pasmosa la observación de Galileo de que, en ausencia de fricción, todos los cuerpos caen al mismo ritmo: los objetos se mueven en un mismo espacio-tiempo que, al estar curvado, produce la impresión de movimiento bajo una fuerza que actúe sobre ellos.

5. ¿Podemos visualizar el concepto de la curvatura del espacio-tiempo?
Es habitual representar sus efectos como el movimiento de canicas en una cama elástica deformada por el peso de una masa mayor. Aunque ilustrativa, esta analogía no consigue transmitir el hecho esencial de que la curvatura del espacio-tiempo apenas afecta las direcciones espaciales de la cama elástica, sino que se produce mayoritariamente en la dirección del tiempo. La teoría es demasiado rica y sutil como para dejarse capturar completamente por analogías e imágenes simplificadas.

6. Entonces, ¿no hay forma de representar con una imagen sencilla la teoría de la relatividad?
Habría que utilizar distintas imágenes para ilustrar diferentes aspectos de la teoría, pero no hay una que lo capture todo correctamente. Lo de la cama elástica está bien, pero tiene limitaciones serias. Por ejemplo, no sirve para ilustrar ni medianamente bien lo que es un agujero negro, y da lugar a confusiones: ¿Cómo es que decimos que la curvatura es tan pequeña que no la notamos habitualmente y, sin embargo, es suficientemente grande como para que un proyectil, o la Luna, sigan una trayectoria curva en lugar de recta? Habría que explayarse mucho para explicar que nos movemos mucho más en el tiempo que en el espacio, y lo que eso conlleva.

7. ¿Qué relaciona la relatividad general con los agujeros negros?
Todo comienza en aquel mismo año 1915. En una carta fechada el 22 de diciembre, ¡nada menos que desde el frente de guerra ruso!, el astrónomo alemán Karl Schwarzschild comunicaba a un –imaginamos– atónito Einstein que había encontrado una solución extremadamente simple a sus ecuaciones. En concreto, para el caso de la curvatura (o gravedad) que crean los cuerpos masivos como el Sol, la Tierra, las estrellas y de unos objetos que ninguno de los dos vivirían para reconocer: los agujeros negros. Son pozos insondables y absolutos, más fantásticos que la más delirante creación de la imaginación humana.

8. ¿Einstein creyó en los agujeros negros?
La predicción de la existencia de los agujeros negros que implicaba la teoría fue tan radical –aún más que la expansión del universo– que ni siquiera Einstein fue capaz de entenderla. Fue uno de sus principales errores. Solo se aceptó después, tras un largo y arduo proceso completado en los años 60, dando así un magnífico ejemplo de que las mejores teorías de la física son a menudo ‘más listas’ que sus propios creadores. Hoy en día sabemos que los agujeros negros son reales. Recientemente en la película Interstellar hemos podido ver una de las mejores representaciones de lo que las ecuaciones de Einstein pueden llegar a contener.

9. ¿Por qué los agujeros negros también ‘enfrentan’ a la relatividad y la física cuántica?
Imagina que se te cae tu móvil o tableta a un agujero negro. ¿Hay alguna posibilidad, por muy remota que sea, de que recuperemos la información que había en ellos? La teoría de Einstein nos dice que no: cuando algo ha cruzado el horizonte del agujero negro, ya no es posible recibir ninguna señal suya. Sin embargo, la mecánica cuántica nos dice que la información nunca se puede perder: se puede embrollar muchísimo (como sucede si quemamos la tableta), pero en principio siempre ha de ser posible extraerla de nuevo. Esta contradicción entre ambas teorías se conoce como la paradoja de la pérdida de información en los agujeros negros. Esperamos que los esfuerzos en intentar resolver esta cuestión nos ayuden a entender cómo unificar ambas teorías.

10. ¿Tiene alguna aplicación práctica la relatividad general?
Si todavía alguien no está suficientemente impresionado por la nueva visión del mundo que la teoría de Einstein proporciona, y pide una utilidad práctica, basta con que se deje guiar por un navegador GPS. Si este no tuviese en cuenta el efecto, pequeñísimo pero medible, que la curvatura del espacio-tiempo tiene sobre la señal que el aparato recibe de los satélites, nuestros coches acabarían en pocos minutos en la carretera equivocada. Así que la próxima vez que su navegador le diga “ha llegado a su destino” y no se encuentre en el fondo de un barranco o empotrado contra un muro, piense por un instante que eso de la curvatura del espacio-tiempo debe de tener algo de cierto. Agradezca a Einstein los años de intenso trabajo que dedicó a entenderlo, y celebre su culminación en una teoría tan magnífica.

Tomado de:

El Espectador


17 de octubre de 2015

Maxwell y sus ecuaciones

En 1865, el físico escocés James Clerk Maxwell formuló la teoría clásica del electromagnetismo deduciendo así que la luz está hecha de campos eléctricos y magnéticos que se propagan por el espacio, teoría que llevó a la predicción de la existencia de las ondas de radio y a las radiocomunicaciones.



Las ecuaciones de Maxwell

Un investigador precoz

Según la famosa expresión atribuida a Newton, todos los científicos trabajan aupados 'a hombros de gigantes', es decir, construyen sus teorías sobre los conocimientos logrados por las generaciones anteriores a lo largo de siglos de estudios y experiencias. Esa elevación a gran altura les permite mirar más lejos y progresar en las ideas. Esto es particularmente cierto en el caso de Maxwell quien supo combinar todo el conocimiento existente hace 150 años sobre su tema de trabajo llegando a la forma más bella y sucinta de expresar los principios sobre la electricidad, el magnetismo, la óptica y su interrelación física.

Nacido en Edimburgo en 1831, en el seno de una familia de clase media, Maxwell manifestó una peculiar curiosidad desde su temprana infancia. A los 8 años recitaba versos de Milton y largos salmos, y a los 14 ya había escrito un paper (artículo científico) en el que describía métodos mecánicos para trazar curvas.

Estudió en las universidades de Edimburgo y de Cambridge donde asombró a alumnos y profesores por su capacidad para resolver problemas de matemáticas y de física. A los 23 años se diplomó en matemáticas por el Trinity College, y dos años más tarde obtuvo una plaza de profesor de filosofía natural en el Marischal College de Aberdeen donde permanecería 4 años. En 1860 obtuvo un puesto similar pero en el prestigioso King's College de Londres. Ahí comenzó la época más fructífera de su carrera. Ingresó en la Royal Society en el 1861, publicó la teoría electromagnética de la luz en 1865, regresó entonces con su familia a la casa de sus padres en Escocia, y fue nombrado director del Cavendish Laboratory de Cambridge en 1871. Allí, en Cambridge, murió de cáncer abdominal en 1879, a la edad de 48 años.

La esencia electromagnética

En 1865, Maxwell publicó un artículo titulado 'Una teoría dinámica del campo electromagnético' en el que aparecieron por primera vez las ecuaciones hoy mundialmente famosas y conocidas como 'ecuaciones de Maxwell'. Estas ecuaciones expresan de una manera concisa y elegante todas las leyes fenomenológicas sobre electricidad y magnetismo que se habían formulado desde el siglo XVIII, entre ellas las leyes de Ampère, de Faraday y de Lenz. La notación vectorial que se utiliza hoy fue introducida en 1884 por Heaviside y Gibbs.




La naturaleza electromagnética de la luz

El valor de las ecuaciones de Maxwell no solo reside en la síntesis de todas las ideas anteriores, que revelaba la íntima interrelación entre electricidad y magnetismo. De sus ecuaciones, Maxwell también dedujo otra ('la ecuación de ondas') que le llevó a predecir la existencia de ondas de naturaleza electromagnética capaces de propagarse a la velocidad de la luz. En efecto, Maxwell concluyó que '...luz y magnetismo son aspectos de la misma substancia, y la luz es una perturbación electromagnética...'. De esta forma, su trabajo de síntesis también consiguió unificar la óptica al electromagnetismo y reveló la esencia electromagnética de la luz.

La teoría de Maxwell predecía la generación de ondas electromagnéticas en el laboratorio. Esta posibilidad fue llevada a cabo por el físico alemán Heinrich Hertz en 1887, ocho años después del fallecimiento de Maxwell, mediante la construcción de un oscilador como emisor y de un resonador como receptor. La capacidad para producir tales ondas y de recibirlas en un lugar distante conduciría a un ingeniero italiano, Guillermo Marconi, mediante sucesivos perfeccionamientos de la técnica, a una gran revolución tecnológica: las comunicaciones por radio. Y sobre esta tecnología reposan hoy algunos de los elementos cotidianos más útiles y más utilizados, como los teléfonos móviles.

El artículo completo en:

El Mundo

12 de julio de 2015

¿Los algoritmos lo saben todo o deben ayudarles los humanos?

La nueva ciencia de datos se cuestiona cuándo hace falta que una persona supervise una decisión automatizada como un diagnóstico médico o la concesión de un préstamo.



Hay ejércitos formados por las mentes más brillantes de la informática que se han dedicado a incrementar las probabilidades de conseguir una venta. La abundancia de datos y programas inteligentes de la era de Internet ha abierto la puerta al marketing a medida, los anuncios personalizados y las recomendaciones de productos.
Niéguenlo si quieren, pero no es un hecho sin importancia. No hay más que fijarse en la gran restructuración, propiciada por la tecnología, de los sectores de la publicidad, los medios de comunicación y la venta minorista.
Esta toma de decisiones automatizada está pensada para eliminar a los humanos de la ecuación, pero el impulso de querer que alguien supervise los resultados que vomita el ordenador es muy humano. Muchos expertos en datos matemáticos consideran que el marketinges una placa de Petri con pocos riesgos —y, sí, lucrativa— en la que poner a punto las herramientas de una nueva ciencia. “¿Qué pasa si mi algoritmo se equivoca? Que alguien ve el anuncio erróneo”, comenta Claudia Perlich, una especialista en datos que trabaja para una empresa de nueva creación que se dedica a la publicidad personalizada. “¿Qué daño puede hacer? No es un falso positivo de un cáncer de mama”.
Pero el riesgo aumenta a medida que la economía y la sociedad se empapan de los métodos y la mentalidad de la ciencia de los datos. Las grandes empresas y las de nueva creación empiezan a utilizar la tecnología para tomar decisiones relacionadas con el diagnóstico médico, la prevención de la delincuencia y la concesión de préstamos. En estos ámbitos, la aplicación de la ciencia de los datos plantea dudas sobre cuándo hace falta que una persona supervise atentamente los resultados de un algoritmo.

Los macrodatos pueden y deben aportarnos a todos más seguridad, oportunidades económicas y comodidad”
Estas dudas están dando pie a una rama de los estudios académicos conocida como responsabilidad algorítmica. Las organizaciones que velan por el interés público y los derechos civiles están examinando detenidamente las repercusiones que tiene la ciencia de los datos, tanto por sus errores como por sus posibilidades. En el prólogo de un informe del pasado mes de septiembre, Derechos civiles, macrodatos y nuestro futuro algorítmico, Wade Henderson, presidente de la Conferencia por el Liderazgo en Derechos Humanos y Civiles, escribía: “Los macrodatos pueden y deben aportarnos a todos más seguridad, oportunidades económicas y comodidad”.
Fíjense en los préstamos para el consumo, un mercado en el que hay varias empresas de nueva creación especializadas en macrodatos. Sus métodos representan la versión digital del principio más elemental de la banca: conozca a sus clientes. Estas nuevas entidades crediticias especializadas en datos aseguran que, al recopilar datos de fuentes como los contactos de las redes sociales, o incluso observar el modo en que un solicitante rellena un formulario de Internet, pueden conocer a los prestatarios mejor que nunca y predecir si devolverán el préstamo mejor que si se limitasen a estudiar el historial crediticio de alguien.
Lo que prometen es una financiación y una valoración más eficaces de los préstamos, lo que ahorrará a la gente miles de millones de dólares. Pero los préstamos basados en macrodatos dependen de unos algoritmos informáticos que analizan minuciosamente montones de datos y van aprendiendo durante el proceso. Es un sistema muy complejo y automatizado (y hasta sus defensores tienen dudas).

Toman una decisión sobre usted, sin que usted tenga ni idea de por qué la han tomado”
“Toman una decisión sobre usted, sin que usted tenga ni idea de por qué la han tomado”, explica Rajeev Date, que invierte en entidades crediticias que emplean la ciencia de los datos y ha sido director adjunto de la Oficina de Protección Financiera del Consumidor. “Eso es inquietante”.
La preocupación es similar también en otros ámbitos. Desde que su ordenador Watson venciese a los ganadores del concurso televisivoJeopardy! hace cuatro años, IBM ha llevado la tecnología de la inteligencia artificial basada en datos mucho más allá de los juegos de ingenio. La asistencia sanitaria ha sido uno de los grandes proyectos. La historia del uso de la tecnología “especializada” para contribuir a la toma de decisiones médicas ha sido decepcionante; los sistemas no han sido lo bastante inteligentes ni lo bastante rápidos para ayudar de verdad a los médicos en la práctica cotidiana.

Servicio médico

Pero los científicos de IBM, en colaboración con investigadores de algunos grupos médicos destacados —entre ellos la Clínica Cleveland, la Clínica Mayo y el Centro Oncológico Memorial Sloan Kettering—, están consiguiendo avances. Watson es capaz de leer documentos médicos a una velocidad a la que resultarían incomprensibles para los humanos: miles de ellos por segundo, en busca de indicios, correlaciones e ideas importantes.
Se ha usado el programa para formar a los estudiantes de Medicina y está empezando a emplearse en entornos clínicos oncológicos para proporcionar diagnósticos y recomendaciones de tratamiento, como si fuera un ayudante digital ingenioso.
IBM también ha creado un programa informático llamado Watson Paths, una herramienta visual que permite al médico ver las pruebas y las deducciones en las que Watson se ha basado para hacer una recomendación.
“No basta con dar una respuesta sin más”, afirma Eric Brown, responsable en IBM de la tecnología relacionada con Watson.
Watson Paths apunta a la necesidad de que haya alguna clase de traducción máquina-humano a medida que la ciencia de los datos progrese. Como dice Danny Hillis, experto en inteligencia artificial: “La clave que hará que funcione y resulte aceptable a ojos de la sociedad será la historia que cuente”. No una narración exactamente, sino más bien una información de seguimiento que explique el modo en que se ha tomado una decisión automatizada. “¿Cómo nos afecta?”, pregunta Hillis. “¿Hasta qué punto es una decisión de la máquina y hasta qué punto es humana?”, añade.
Uno de los planteamientos es que el humano siga formando parte del proceso. Los datos y los programas informáticos dan vida a las nuevas entidades crediticias que emplean la ciencia de los datos. Pero, en San Francisco, una de estas empresas de nueva creación, Earnest, hace que al menos uno de sus empleados revise las recomendaciones predictivas del programa, aunque es raro que rechace lo que dictan los algoritmos. “Pensamos que el factor humano siempre será una parte importante del proceso, ya que nos permite asegurarnos de que no nos equivocamos”, dice Louis Beryl, cofundador y consejero delegado de Earnest.
Pero esa postura, opinan otros, no es más que una ilusión reconfortante; puede que sea buen marketing, pero no necesariamente buena ciencia de los datos. Afirman que el hecho de concederle a un humano capacidad de veto dentro de un sistema algorítmico introduce un sesgo humano. Al fin y al cabo, lo que promete la toma de decisiones fundamentada en los macrodatos es que las decisiones basadas en los datos y el análisis —más ciencia, menos intuición y menos arbitrariedad— proporcionarán mejores resultados.
No obstante, aunque el optimismo esté justificado, hay un reto importante, dada la complejidad y la opacidad de la ciencia de los datos. ¿Podrá una tecnología que promete grandes beneficios medios proteger lo suficiente al individuo de una decisión misteriosa y caprichosa que podría tener un efecto duradero en la vida de una persona?
Una posible solución, según Gary King, director del Instituto de Ciencias Sociales Cuantitativas de Harvard, sería que los creadores de los algoritmos que otorgan puntuaciones los retoquen no para obtener el máximo beneficio o rentabilidad, sino para que el valor que conceden a la persona sea algo mayor, lo que reduciría el riesgo de equivocarse.
En el sector bancario, por ejemplo, se podría ajustar un algoritmo para que redujese la probabilidad de catalogar erróneamente de aprovechado al solicitante de un préstamo, aunque ello conlleve que la entidad crediticia acabe concediendo más préstamos incobrables.
“El objetivo”, dice King, “no es necesariamente que un humano supervise el resultado a posteriori, sino mejorar la calidad de la clasificación de los individuos”.
En cierto sentido, un modelo matemático equivale a una metáfora, una simplificación descriptiva. Filtra, pero también distorsiona un poco. Por eso, a veces, un ayudante humano puede aportar esa dosis de datos matizados que se le escapa al autómata algorítmico. “A menudo, los dos juntos pueden funcionar mucho mejor que el algoritmo por sí solo”, afirma King.
Steve Lohr, columnista de New York Times especializado en tecnología, es el autor deData-ism.
Fuente:

4 de agosto de 2014

Razonamiento diagramático en problemas de factorización

En este post voy a comentar sobre el método de reagrupamiento para factorizar una ecuación cuadrática y su correspondiente solución diagramática. Ilustro con un caso particular de toda

Una familia de problemas cuadráticos

En una ecuación cuadrática, si se puede factorizar entonces se puede representar como rectángulo --con uno de sus factores la base y el otro la altura.

Consideremos el problema de factorizar la ecuación cuadrática


ax2+(a+b)x+b=0

(donde a,b son enteros positivos).

Este problema es, en realidad, toda una familia de problemas, uno para cada par de números enteros positivos a,b. Por ejemplo, si a=2011,b=1, se tiene el problema 1A del concurso estatal OMM Tamaulipas 2012 

Por esa razón, puede ser de alguna utilidad como generador de problemas cuadráticos para los profesores de matemáticas de bachillerato. Discutamos ahora su

Solución

El método de reagrupamiento nos lleva a la siguiente ecuación equivalente:

ax2+ax+bx+b=0

Y se logra ver que es posible factorizar la ecuación como


ax(x+1)+b(x+1)=(ax+b)(x+1)=0

Y esa factorización se puede representar como un rectángulo de base x+b y altura x+1
(Nota: por el teorema del residuo, es también relativamente fácil darse cuenta que x=1 satisface la ecuación --y lo que sigue es dividir entre x+1 para obtener el otro factor.)

Discusión

La pregunta ahora es ¿es posible factorizar una cuadrática de manera diagramática? Y, bueno, uno podría decir: sí, si es de la forma antes mencionada.

Y ¿cómo se reconoce una ecuación de la forma antes mencionada? Bueno, debería ser claro que el truco es que todos sus coeficientes sean positivos y que la diferencia entre el coeficiente de la x y el de la x2 sea igual al término independiente.

Consideremos el caso de la ecuación 5x2+7x+2. Es claro que esta ecuación satisface los dos requisitos mencionados. Y, bueno, uno entonces podría explicar a sus estudiantes:
Vean que si tomamos este rectángulo de base 5x y altura x su área es 5x2. Pero como 7x=5x+2x entonces agregando este otro rectángulo de base 5x y altura 1, y este otro --a la derecha-- de base 2 y altura x, ya tenemos el segundo término representado en estos rectángulos. Y como este otro rectángulo de la esquina arriba a la derecha es de base 2 y altura 1, entonces ya tenemos el término independiente. ¿OK? Y ahora ¿cuáles son las dimensiones de este rectángulo que hemos formado con los términos de la ecuación cuadrática? Piénsenlo un rato y me lo dicen. Etcétera, etcétera.

Esta exposición didáctica de la factorización de este tipo de ecuaciones cuadráticas es efectista. De hecho no aporta nada que no esté ya en el método de reagrupamiento.

Pero tiene la ventaja --posiblemente-- de dejar al aprendiz intrigado, y posiblemente asombrado... (se preguntará acaso sobre la forma en que los términos se acomodaron tan perfectamente en un rectángulo). Y si llega a descubrir el truco entonces la exposición fue un éxito. (Claramente, para el indiferente cualquier tipo de exposición es igualmente aburrida...)

Los saluda
jmd


Tomado de:

Mate Tam

25 de septiembre de 2013

La idea matemática que hizo volar al Voyager



Michael Minovitch

Michael Minovitch solucionó el "problema de los tres cuerpos" en 1961, e impulsó la misión del Voyager.

La sonda espacial Voyager ha cautivado al mundo con su proeza en los confines del Sistema Solar, pero su lanzamiento en 1977 sólo fue posible gracias a las ideas matemáticas y la persistencia de un estudiante de doctorado que descubrió cómo catapultar sondas al espacio.

En 1942, por primera vez en la historia un objeto creado por el hombre cruzó la invisible línea de Karman, que marca el borde del espacio. Sólo 70 años después, otra nave espacial viaja hasta la última frontera del Sistema Solar.

La sonda Voyager 1, 35 años después de haber despegado, está a 18.400 millones de kilómetros de la Tierra y a punto de cruzar el límite que marca el alcance de la influencia del sol, donde el viento solar se encuentra con el espacio interestelar.
Así contado parece fácil, pero la puerta al más allá del Sistema Solar permaneció cerrada durante los primeros 20 años de la carrera espacial.

El problema de los tres cuerpos

Computadora IBM

Minovitch utilizó la computadora más potente del momento. 

Desde 1957, cuando el Sputnik 1 se convirtió en la primera obra de ingeniería que pudo orbitar sobre la Tierra, la ciencia comenzó a mirar cada vez más allá en el cosmos.

Se enviaron naves a la Luna, a Venus y a Marte. Pero un factor crucial impedía alcanzar distancias más lejanas.

Para viajar a los planetas exteriores hace falta escapar de la fuerza gravitacional que ejerce el Sol, y para eso es necesaria una nave espacial muy grande.

El viaje hasta Neptuno, por ejemplo, a 2.500 millones de kilómetros, podría llevar fácilmente 30 o 40 años debido a esa fuerza.

En su momento, la Nasa no podía asegurar la vida útil de una sonda por más tiempo que unos meses, así que los planetas lejanos no estaban dentro de las posibilidades.

Hasta que un joven de 25 años llamado Michael Minovitch, entusiasmado por la nueva computadora IBM 7090, la más rápida en 1961, resolvió el problema más difícil de la ciencia mecánica celeste: el de "los tres cuerpos".

Se refiere al Sol, un planeta y un tercer objeto que puede ser un asteroide o un cometa viajando por el espacio con sus respectivas fuerzas de gravedad actuando entre ellos. La solución establece con exactitud cómo afectan la gravedad del Sol y la del planeta a la trayectoria del tercer objeto.

Sin amilanarse por el hecho de que las mentes más brillantes de la historia -la de Isaac Newton entre ellas- no lograron resolver esta incógnita, Minovitch se concentró en despejarla. Su intención era usar la computadora para buscar la solución a través de un método de repetición.

Verano de 1961

Planeta lejano

Los cálculos de Minovitch permitieron la exploración de los planetas del Sistema Solar más lejanos.

En su tiempo libre, mientras estudiaba un doctorado en el verano de 1961, se puso a programar series de ecuaciones para aplicar al problema.

Minovitch llenó su modelo con datos de las órbitas planetarias, y durante una pasantía en el laboratorio de propulsión de la Nasa (Jet Propulsion Lab) obtuvo información más exacta sobre las posiciones de los planetas.

El joven estudiante demostró así que si una nave pasa cerca de un planeta que orbita alrededor del Sol puede apropiarse de parte de la velocidad orbital de ese astro y acelerar en dirección opuesta al Sol sin utilizar el combustible de propulsión de la nave.

Sin financiamiento para continuar con sus pruebas en la computadora, y en un intento por convencer a la Nasa de la importancia de su descubrimiento, dibujó a mano cientos de trayectorias de misiones teóricas al espacio exterior. Entre ellas había una ruta de vuelo específica que se convirtió en la trayectoria de las sondas Voyager.

Pero en 1962 el Jet Propulsion Lab estaba ocupado con el Proyecto Apolo, y nadie hizo mucho caso al hallazgo de Minovitch.

Lea el artículo completo en:

BBC Ciencia
google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0