El tamaño de las partículas es ínfimo y de plásticos muy comunes, como polietileno y acrílico. Se detectaron trazas de micropartículas de plástico en 6 de cada 10 muestras de semen de
hombres sanos ...
Un informe cuantifica los límites climáticos, naturales
y de contaminantes que aseguran el mantenimiento seguro y justo de la
civilización.Un amplio grupo de científicos identificó en 2009 nueve lí...
Aquí van las razones
geográficas y socioeconómicas por las que el río más largo y caudaloso
del mundo nunca tendrá una estructura que sirva para cruzar de orilla a
orilla.Cuando vemos en algún doc...
El 43,7% de loretanos no tiene acceso al servicio de agua potable o
tratada. Es el mayor déficit en todo el país, según el INEI, y afecta
principalmente a la niñez de las zonas rurales de la región...
Perú se ubica en la
escala de desigualdad por encima de México. El informe señala que el 1%
de la población más rica del mundo concentra entre el 25% y 30% de los
ingresos totales de su país...
15 Oct 2022 undefined comments comments comments comments comments comments
Al principio de su historia, el planeta rojo habría
sido probablemente habitable para los metanógenos, microbios que viven
en hábitats extremos de la Tierra.El Marte noáquino habría sido un hábitat...
La astrofísica del Centro de Astrofísica Harvard &
Smithsonian en Cambridge, detalló que se trata de un fenómeno
completamente nuevo ya que “estamos observando la evolución estelar en
tiempo r...
El dispositivo podría suministrar energía
constante a una amplia variedad de aparatos electrónicos alimentándose
de la transpiración humana.Investigadores de la Universidad de Massachusetts Amherst...
Desde hace algunos años se habla mucho de una de las ramas de la matemática: la teoría de categorías que ha ganado bastante popularidad dentro de la comunidad matemática. Pero, ¿qué es esta rama de las matemáticas y por qué está de moda?
Algunas personas llaman a la teoría de categorías
“las matemáticas de las matemáticas”, ya que se sitúa por encima de
muchas disciplinas matemáticas, conectándolas. Fue propuesta en 1945
como una herramienta para trasladar problemas matemáticos de un campo a
otro, en el que se pudieran resolver con mayor facilidad. Por ejemplo,
sabemos que en cualquier momento debe haber un punto en la superficie de
la Tierra donde la velocidad del viento es cero. Pero para demostrar
este precioso resultado lo debemos traducir a una afirmación algebraica,
para lo que es útil emplear una pizca de teoría de categorías.
Habitualmente, resultados más complejos requieren más teoría de
categorías. La demostración del último teorema de Fermat, por ejemplo,
se basa en una gran cantidad de matemáticas del s. XX y la teoría de
categorías jugó allí también su papel.
Desafortunadamente, este alto nivel de abstracción
superó incluso el grado de tolerancia de los propios matemáticos y,
durante años, muchos de ellos han considerado esta teoría como un
“sinsentido abstracto” y se han limitado a usarla cuando era totalmente
necesario para su trabajo. Sin embargo, otros sí aceptaron con los
brazos abiertos la belleza y el poder de esta disciplina, lo que hizo
que su influencia fuese extendiéndose de forma gradual no solo en las
matemáticas, sino también en otras ciencias. A partir de la década de
1990 comenzó a infiltrarse en las ciencias de la computación: nuevos
lenguajes de programación como Haskell y Scla, por ejemplo, empleaban
ideas de la teoría de categorías. Actualmente aparecen nuevas
aplicaciones de esta teoría a la química, la ingeniería eléctrica o
¡incluso para diseñar frenos de los coches! La teoría de categorías aplicada, que en otra época hubiese sido considerada un oxímoron, se está convirtiendo en un tema de investigación real.
Si estás buscando trabajo, parte de la evaluación de tu perfil podría
no estar a cargo de un ser humano. Entre los sectores en fase de
transformación por los efectos de la revolución tecnológica actual,
también está el de la selección de personal. Mientras aumentan las empresas que experimentan soluciones de inteligencia artificial
para mejorar su capacidad de encontrar talento, expertos y
profesionales de los recursos humanos debaten sobre hasta qué punto
pueden ser eficaces estos sistemas. Entre los especialistas entrevistados para este reportaje, nadie pone
en duda la necesidad de que la captación de talento sea liderada por
profesionales humanos a través de pasos como las entrevistas cara a cara
o por teléfono. Pero muchos destacan los beneficios potenciales de algoritmos y software en las fases más automatizadas del proceso. La inteligencia artificial ayuda a optimizar el rastreo de grandes
volúmenes de candidaturas, coinciden los operadores consultados por
Xataka. Y así permite agilizar el trabajo de los equipos de recursos humanos
a la hora de profundizar en el análisis de un perfil en concreto y
evaluar aspectos más sujetivos como la creatividad, la capacidad de
interacción social o de liderazgo, añaden. Además, en muchos casos con
estos sistemas se ahorran tiempo y dinero. ¿Pero qué pasa si el
algoritmo falla y descarta un perfil válido? ¿Qué hacen las empresas
para evitarlo? Lea el artículo completo en: Xakata Ciencia
¿Crees que lo sabes todo sobre el universo de Star Wars? Este software te dejará asombrado.
Empleando un innovador software,
un equipo de investigadores de la Escuela Politécnica Federal de
Lausana (Suiza) ha descubierto una visión poco común dentro del universo
de Star Wars o
La Guerra de las Galaxias, la franquicia de ópera espacial épica,
creada por el guionista y director estadounidense George Lucas y que cuenta con millones de fans en todo el mundo desde que se inició la saga en 1977.
Gracias al nuevo algoritmo -desarrollado en el Laboratorio de Procesamiento de Señal 2 (LTS2)- que aprovecha los principios de la teoría de grafos y los cálculos matemáticos llevados a cabo por un ordenador,
los expertos pusieron a prueba el software con centenares de webs en la
red dedicadas exclusivamente a la exitosa saga que ha trascendido la
gran pantalla (libros, juegos, etc...).
Los resultados han revelado datos interesantes: Star Wars integra más de 20.000 personajes repartidos entre 640 comunidades durante un período de 36.000 años:
“Los fans se sorprenderán al saber, por ejemplo, que contabilizamos más
de 20.000 personajes; entre ellos, 7.500 juegan un papel importante”,
explica Kirell Benzi, líder del trabajo.
Además, la eterna rivalidad de los Sith y Jedi también ofrece sus estadísticas: existen 1.367 Jedi y 724 Sith.
Pese a la multitud de razas y especies que conviven en la galaxia como
los nautolanos o los toydarianos (antes de la República, en la Antigua
República, durante el Imperio, la rebelión, la Nueva República o la
Orden Jedi), casi el 80% de la población es humana.
“Para poner un poco de
orden en este bosque masivo de datos, hemos basado nuestro enfoque en
el análisis de redes. En otras palabras, todas las conexiones que tiene
un personaje con el resto de ellos. Usando estas referencias cruzadas, hemos sido capaces de determinar con precisión el período de tiempo del personaje casi sin excepción, a pesar de que esta información no se proporciona directamente en los libros o las películas”, afirma Xavier Bresson, coautor del estudio.
El logro de este programa informático es que traza conexiones en la masa de datos no organizados disponibles en Internet
y los algoritmos desarrollados por los investigadores de LTS2 ofrecen
datos muy precisos que pueden ser cuantificados, ordenados y, por
supuesto, sencillos de leer.
Según los
expertos, “este método podría ser útil para llenar los vacíos de
conocimiento que permanecen en la investigación histórica y sociológica y
en numerosos campos científicos también”.
La leyenda de los Beatles es tan grande que hasta tiene sus propios
misterios. Uno de los más tenaces es la respuesta a esta pregunta:
¿Quién compuso la canción In My Life? Un matemático llamado Jason Brown ha recurrido a una herramienta poco habitual para averiguarlo: el análisis estadístico.
La cuestión alrededor de In My Life es que no se sabe con
seguridad quién es su autor. Los Beatles no acostumbraban a firmar sus
canciones de manera muy específica o detallada. A menudo los expertos en
música y los entusiastas de la banda de Liverpool asumen que la autoría
de un tema suele recaer en el Beatle que interpreta la canción, pero
esto no siempre es así, e In My Life es el ejemplo más claro.
Hasta
1980 se asumía que había sido John Lennon el autor de la letra y música
de In My Life, pero el Beatle negó de manera bastante abrupta ser el
autor durante una entrevista a la revista Playboy. Lennon aseguraba que
la canción pertenecía a Paul McCartney. Efectivamente, McCartney declaró más tarde que él era el autor de In
My Life, pero solo a medias. Él solo había compuesto la música y
aseguraba que fue Lennon el que había escrito la letra.
Las matemáticas hacen sospechar que ambos mienten. Jason
Brown ha analizado la obra de los Beatles aplicando análisis
estadístico de conjuntos a los giros musicales de cada Beatle. El
resultado es un poco como las nubes de etiquetas que definen cuál es la
temática de una determinada web o cuáles son las tendencias en Twitter,
pero aplicado a la música. Resulta que cada miembro de la banda tenía
sus propios trucos a la hora de componer y de hilar unas partes de la
canción con otras. Esos trucos son muy característicos y permiten
identificar quién es el autor de cada tema de la banda con mucha
porecisión. En el caso de In My Life, la estadística no
miente. La canción es solo un 0,18% McArtney. La música está compuesta
por Lennon casi con toda seguridad, lo que significa que, si hacemos
caso a las tibias declaraciones de McArtney en las que atribuye la letra
a Lennon, toda la canción es suya. No es un misterio tan fascinante
como saber si Paul McArtney murió y el actual Paul es un doble, pero por
algo se empieza. Tomado de: Gizmodo
Las ecuaciones diferenciales son claves en los modelos de poblaciones empleados para estudiar y comprender los procesos de enfermedades autoinmunes. Los linfocitos T son células que forman parte del sistema inmune del
cuerpo humano. Sus procesos de creación y maduración son especialmente
delicados, ya que cualquier fallo puede derivar en problemas graves para
el individuo, como leucemias y otras enfermedades autoinmunes. En los
últimos años, las ecuaciones diferenciales han resultado ser la clave de
los modelos matemáticos de poblaciones empleados para estudiar y
comprender estos procesos. Los linfocitos T participan en la respuesta inmune adaptativa,
la segunda etapa de acción del sistema inmunológico para proteger al
organismo de las infecciones causadas por virus, bacterias y toda clase
de patógenos. Se crean en la médula ósea, a partir de células madre
hematopoyéticas. Estas células se convierten en precursoras de los
linfocitos T mediante la selección tímica, un proceso de diferenciación celular que dura aproximadamente tres semanas y tiene lugar en el timo.
En cada instante del proceso, cada una de las células puede (1)
morirse, (2) dividirse y dar lugar a dos células hijas, o (3)
diferenciarse y dar origen a una célula diferente. Es muy importante
entender dónde y cuándo recibe cada timocito una señal que le indica la
opción que ha de seguir. Estas señales dependen tanto de las células
epiteliales del timo, en particular del tipo de moléculas (antígenos)
que tengan en su membrana celular, como del tipo de receptor T
que el timocito muestre en su superficie. Es precisamente la interacción
entre los receptores T de un timocito y los antígenos de las células
epiteliales lo que determina su futuro. Si la interacción es de gran afinidad bioquímica, el timocito ha de
morir por apoptosis (muerte celular programada); si la afinidad es muy
pequeña o nula, la muerte es por ``negligencia”; en el caso de
afinidades intermedias, el timocito sufre un proceso de diferenciación y
continúa la maduración. Para cuantificar la cinética de la selección
tímica se introducen tasas de muerte (la frecuencia con la que un
timocito recibe una señal de muerte) y tasas de diferenciación o
proliferación (la frecuencia con la que recibe una señal de
diferenciación o de división celular). Conocer estas tasas permitiría
predecir, por ejemplo, el tiempo medio que un timocito pasa en cada fase
del proceso de maduración tímica.
Sin embargo, no es posible determinar de manera experimental estos
parámetros, ya que requeriría observar la trayectoria de cada
pre-linfocito T en el timo del individuo estudiado, y las técnicas de
microscopía actuales solamente permiten hacerlo durante una hora como
máximo, lo que es un periodo muy inferior a las escalas de tiempo del
proceso tímico. Las matemáticas brindan herramientas precisas para describir poblaciones de células y sus cambios en el tiempo, mediante modelos deterministas de poblaciones.
En esencia, estos modelos describen la evolución temporal de la
población. Si se supone que a tiempo inicial la población consta de un
cierto número de individuos, la ecuación describe cuántos habrá un poco
después, si la población cambia por migración, por muerte o por
nacimiento de nuevos individuos. Cada modelo de población depende de lo
que se suponga como mecanismos de migración (por ejemplo, un flujo
constante o no de individuos), de muerte y de nacimiento. Lea el artículo completo en: El País (España)
Si has visto Avengers: Infinity War sabrás que Thanos es el villano más bestia
que ha aparecido en una producción de Marvel en la gran pantalla. Ahora
bien, ¿hasta dónde llegaría esa fuerza? Esto es precisamente lo que ha
averiguado un científico de la Universidad Northeastern, y es bastante impresionante.
El
hombre que se embarcó en el proyecto fue Steven Cranford, profesor de
ingeniería de la universidad, quién calculó hasta dónde llegaría la
fuerza de Thanos. Para llegar a ese calculo el investigador realizó
modelos moleculares reales del cubo ficticio Teseracto. Su trabajo se acaba de publicar (y revisar) en Extreme Mechanics Letters. Para
los profanos, el Teseracto en el mundo de Marvel es una gema en forma
de cubo de un poder incomparable que una vez perteneció a Odín, una
brillante caja azul que Thanos aplasta como si nada. Cranford, un
aficionado a las películas de Marvel y científico de los materiales, vio
en la escena una fórmula perfecta para adivinar la fuerza real del
personaje. Cuando Thanos demolió el cubo, Cranford activó un programa de
dinámica molecular para descubrir cómo sería una caja tetradimensional.
Si descifraba la geometría del cubo, podría calcular su fuerza material.
Y si conocía la fuerza del cubo, podría calcular lo poderoso que debía
ser Thanos para aplastarlo.
Se da la casualidad de que los
teseractos no son solo imaginación del universo de Marvel, también
existen en las páginas de libros de texto de geometría.
De hecho, su definición es la de una figura formada por ocho cubos
tridimensionales ubicados en un espacio donde existe un cuarto eje
dimensional (considerando al primero longitud, el segundo altura y el
tercero profundidad). Básicamente, en un espacio tetradimensional, el
teseracto es un cubo de cuatro dimensiones espaciales. Dicho
de otra forma, es algo así como un cubo más pequeño suspendido
perfectamente en el centro de un cubo más grande. Utilizando el software
de modelado, Cranford comenzó a construir teseractos moleculares,
uniendo átomos de carbono a átomos de carbono.
Si deseas leer el artículo mcompleto puedes hacer click AQUÍ. Pero si deseas la respuesta a la pregunta inicial aquí la tienes: Conclusión final El investigador concluyó que exprimir un cubo Teseracto hasta dejarlo en polvo
requería una fuerza equivalente a 42.000 toneladas, o la fuerza de
agarre combinada de 750.000 hombres promedio de Estados Unidos. ¿El
resultado final? Suponiendo una relación proporcional entre la fuerza
de agarre y lo que puede levantar un estadounidense promedio, las
matemáticas del científico sugieren que Thanos podría arrojar 54
millones de kilogramos, 4.5 millones de kilogramos más que el peso de el
Titanic. Una auténtica barbaridad.
Una página permite que eliminemos mitos sobre la dimensión de los países. Su clave está en una proyección cartográfica vigente desde hace siglos.
Su nombre es The True Size
y se vale de un mapa interactivo para revelar cuánta área cubrirían los
países si los ubicamos en otras latitudes. Para realizar estas
comparaciones solo es necesario ingresar a la página, seleccionar el
país y arrastrar su silueta por los diferentes lugares del mundo.
Por ejemplo, los 1'285,2016 kilómetros de área del Perú
podrían tapar, entre parcial y totalmente, hasta diez países europeos.
En Asia, la silueta del país cubre Corea del Norte y Corea del Sur,
además de varias zonas de Japón. Sobre China, de 9'572,900 kilómetros
cuadrados, el Perú no se ve tan pequeño como se creería. En Oriente
Medio, podría cubrir Siria, Líbano, Israel, Jordania e incluso parte de
Irak y Arabia Saudí.
La Proyección Mercator. El mapa
desarrollado por los estadounidenses James Talmage y Damon Maneice se
inspira en la creación de alguien que falleció hace siglos: el geógrafo
belga Geert de Kremer.
Conocido en Latinoamérica como
Gerardus Mercator, tuvo un papel destacado en la Historia al calcular
sobre un plano el tamaño de los continentes dentro de la superficie
esférica del planeta Tierra. Por supuesto, su proyección cartográfica no
fue exacta, pero sirvió de base para otros estudios.
El
principal descubrimiento de la Proyección Mercator, presentada por su
autor en 1569, es que las dimensiones de los países se distorsionan de
acuerdo a la distancia que tengan de la línea ecuatorial. Este principio
se utiliza hasta hoy en aplicaciones como Google Maps.
Gran parte del marketing se
basa en que las empresas envíen mensajes concretos a los clientes para
influir en sus compras y consumo. No extraña entonces que los
principales anunciantes del mundo sean empresas como Procter &
Gamble, Nestlé y Unilever. Las tres venden productos de consumo que se
compran y gastan de manera habitual y constante. El objetivo de las
decenas de miles de millones de dólares que invierten en publicidad es
recordar a los consumidores que necesitan comprar detergente, sopa,
café, yogur o alimento para mascotas durante su próxima visita a la
tienda. Pero dentro de pocos años, este modelo de marketing, publicidad y compras estará obsoleto. Los comienzos de este cambio ya son evidentes en avances como los botones Dash de Amazon que convierten las compras rutinarias en más simples y rutinarias si cabe. No pasará mucho tiempo hasta que Amazon y otros minoristas puedan
conocer tan bien los hábitos de sus clientes como para enviarles (de
manera convencional o por dron) los aproximadamente 200 productos que se
consumen de manera habitual. Los algoritmos de las empresas estimarán cuándo es apropiado reponerlos. Poco
después, los armarios y las neveras inteligentes de cada hogar
elaborarán sus propios pedidos. Liberarán al consumidor de tener que
escribir listas de la compra, recordar qué necesitan o enfrentarse al
tedio de las compras repetitivas. Los productos que necesiten llegarán
hasta los domicilios como la luz y el agua. Para muchos productos, será
un bot el que se encargue de la compra. Los clientes sólo tendrán que
consumir. ¿Cómo será pues el marketing en un mundo en el que las máquinas hablan con otras máquinas? Primero, en un mundo conectado, gastar miles de millones para
recordar a los consumidores que han de comprar su marca parecería
desmesuradamente despilfarrador. En su lugar, el gasto en publicidad se redirigirá a construir mejores relaciones,
competir con los líderes del mercado, aumentar la tasa de consumo e
intentar condicionar el diseño y a los propietarios de los
algoritmos. Influir en los algoritmos –por ejemplo, al convertirse en
una marca nativa o por defecto dentro de las opciones preinstaladas de
software– será altamente valioso. Sabemos que el 90% de los compradores de smartphones y ordenadores no cambian la mayoría de las configuraciones de fábrica. Supone
una gran ventaja para las aplicaciones y servicios instalados por
defecto. En consecuencia, las empresas líderes se beneficiarán de unas
barreras de entrada más altas. Quien aspire a entrar en el mercado,
sobre todo en los productos básicos, tendrá que romper no sólo la
inercia de los consumidores, sino también la de los bots ya programados,
una mucho más difícil de superar. Segundo, la fidelidad con una marca se redefinirá.
Los equipos de marketing necesitarán diferenciar con mucha más claridad
entre la mera recompra y la lealtad real. Tendrán que preguntarse, sobre
todo en las marcas líderes, si el "leal" es el algoritmo o es el
consumidor. Para las nuevos actores la pregunta crítica será qué
necesitan para lograr que los consumidores reconfiguren sus algoritmos. En tercer lugar, gran parte de la estrategias de marketing actuales
se basa en la idea de que los consumidores son intérpretes imperfectos
de los mensajes publicitarios. Las personas están sujetas a sesgos
cognitivos como la atención selectiva y su capacidad para retener
información. Los estudios sobre publicidad, por ejemplo, se centran en
mejorar las probabilidades de que los consumidores hagan lo que dictan
los anuncios. Buscan aumentar la eficacia de los anuncios al mejorar
su tasa de conversión (el ratio entre las personas que compran un
producto y las que han visto su anuncio). Pero si esas decisiones las toman bots en vez de humanos, los anunciantes deberán dirigirse a ellos.
Y los bots suelen hacer lo que se les mande, sin sesgos cognitivos. Así
que las investigaciones se centrarán en entender cómo influir sobre las
decisiones de los bots: ¿Cuáles son sus fuentes de información? ¿Qué
criterios están programados para optimizar? ¿Cuáles son sus algoritmos
de aprendizaje? Las investigaciones sobre los consumidores se centrarán
en temas estratégicos como los patrones de consumo y la fidelización de
la marca. Por último,los efectos de las máquinas conectadas no se limitarán a las compras básicas. Muchas de las interacciones entre la empresa y el consumidor se producirán directamente entre la empresa y el producto. Por
ejemplo, los coches que se retiren por problemas de seguridad o
reparaciones imprevistas podrán dirigirse de manera autónoma al taller
cuando no los utilicen sus propietarios. Los lavavajillas y aspiradoras
actualizarán su software directamente desde la nube. Los botes de
medicamentos no se abrirán expirada su fecha de caducidad. De las
interacciones no placenteras se ocuparán los bots. Los clientes hartos
de hablar con una máquina cuando llaman a su compañía
telefónica pedirán a su bot que llame al bot de la compañía. La robotización de las compras y el marketing cambiará cómo
interactúan las empresas con los consumidores. Eliminar de la ecuación
la imprevisibilidad de los consumidores aumentará la eficiencia del
marketing; sólo los ahorros en publicidad sumarían miles de millones de
dólares. Pero la oportunidad real se encuentra en la redefinición de la relación con el cliente, no en la reducción de costes. Pongan a sus máquinas a pensar en eso.
Un algoritmo recrea el origen de la ola para predecir su evolución
En caso de tsunami, la información es el mejor salvavidas. Los
actuales sistemas de alerta permiten avisar con cierto grado de
antelación a la población en riesgo una vez que los sensores instalados
en el océano detectan movimientos anormales como consecuencia de un
terremoto. En cambio, no se puede predecir con precisión qué cantidad de agua va a golpear la costa tiempo después ni con qué grado de violencia.
La situación se complica cuando el comportamiento del tsunami en
cuestión no encaja en ninguno de los patrones preestablecidos: entonces
su desarrollo se vuelve imprevisible y se multiplican las posibilidades
de perder vidas humanas; 8.000 al año, según la Oficina de Naciones
Unidas para la Reducción del Riesgo de Desastres.
Para poner fin a esta situación, científicos de la Universidad
Nacional de Australia están desarrollando un modelo matemático que se
sirve de los datos ofrecidos por los sensores y boyas ubicados en los
océanos para recrear cómo es la primera ola que se origina después de un terremoto bajo el agua.
Con esa información y conocido el relieve del fondo del mar y sus
movimientos, los investigadores podrán hacer mejores predicciones sobre
lo que puede suceder cuando el agua alcance la costa.
La base teórica del trabajo reside en el hecho de que los procesos
físicos de los que depende la propagación de las ondas no cambian si al
tiempo se le da la vuelta y se coloca primero la información recibida
por los últimos sensores en detectar la gran ola, y así hacia atrás.
"Hacemos esto en 20 puntos de observación repartidos por todo el océano.
Este proceso da lugar a una imagen enfocada del tsunami en el punto de origen, en el espacio y el tiempo",
explica a EL MUNDO Jan Dettmer, sismólogo de la Universidad Nacional de
Australia. Gracias a eso, es posible asignar el punto de origen a una
perturbación del agua.
Los grandes ecosistemas del planeta repiten el mismo patrón que relaciona la biomasa de depredadores y presas.
Las matemáticas son una abstracción humana, pero gobiernan la vida salvaje del planeta.
Ya sea en la sabana o en las profundidades del mar, los ecosistemas
muestran siempre los mismos patrones matemáticos que relacionan la
biomasa de depredadores con el de presas. Un monumental estudio con
miles de especies demuestra cómo el aumento de comida disponible
(presas) no lleva aparejado un aumento igual del número de depredadores.
Y el patrón se reproduce casi de manera universal.
En la Tierra hay una gran variedad de ecosistemas marinos,
terrestres, lacustres, de montaña, selváticos o desérticos. Unos están
integrados por unas pocas especies, como en las cumbres alpinas o las
fumarolas de las simas atlánticas. Otros son exuberantes, como la
Amazonia brasileña o la reserva del Ngorongoro, en Tanzania. A pesar de
tanta diversidad, todos pueden representarse en forma de pirámide, con
una base, generalmente biomasa vegetal, y sucesivas capas que se
alimentan de la precedente, como los herbívoros de aquella base y los
grandes depredadores felinos de estos últimos.
La lógica y buena parte de las investigaciones en ecología dicen que a
más biomasa en la base, más cantidad de energía en forma de comida para
los de arriba: si hay más pasto en la sabana, habrá más gacelas y ñus, y
si hay más gacelas y ñus, habrá más leones. Es decir, el tamaño de la
pirámide puede aumentar, pero no cambia su forma. Sin embargo, no es
así. La relación no es lineal, sigue en realidad una ley de potencia que
es sublineal: a más gacelas y ñus, habrá 0,74 (o 3/4) más de leones. Y
se ha comprobado en todos los ecosistemas donde ambos conviven. Desde el
secarral del desierto del Kalahari hasta el rico cráter del Ngorongoro,
pasando por el delta del Okavango o la reserva Kruger, siempre se
repite esa ley de potencia.
"Una ley de potencia es una función matemática simple", dice el
investigador de la Universidad McGill (Canadá) y principal autor del
estudio, Ian Hatton. En ecología, se asumía que el exponente de esa ley
de potencia era 1, lo que significa que cuando se dobla las presas [en
número o densidad], también se dobla el de los depredadores. "Sin
embargo, hemos comprobado un exponente cercano a los 3/4, lo que es
menos que 1", añade el científico canadiense. Esto supone que si
aumentan las gacelas, también lo harán los leones pero no en la misma
proporción.
Lo que han descubierto Hatton y sus colegas es que esta ratio no es
solo cosa de los leones. En el caso de las hienas y sus presas es de
0,74. En el de los tigres del sudeste asiático, también del 0,74. De los
lobos de norteamericana, del 0,72... y así hasta una treintena de
grandes depredadores y los centenares de especies de las que se
alimentan. Tal y como muestran en un artículo publicado en Science, allí donde aumenta la biomasa de presas, la ratio depredador-presas disminuye.
El fenómeno, además, no es exclusivo de los grandes depredadores. Los
investigadores repasaron más de 1.000 estudios sobre poblaciones
ecológicas, densidad de especies, número de ejemplares, relaciones entre
depredadores y presas... En total obtuvieron datos de 2.260 ecosistemas
y unas 1.500 áreas geográficas. Hay estudios sobre grandes mamíferos,
invertebrados, zooplancton que depreda el fitoplancton, invertebrados y
plantas... En la práctica totalidad, a excepción de algunas comunidades
de peces y protistas, la relación entre depredadores y presas siempre
sigue esa ley de potencia elevado a 3/4.
"Estamos impresionados. Se trata de un patrón asombroso", dice en una
nota el investigador de la Universidad de Guelph, Kevin McCanny,
coautor del artículo. Sea el ecosistema que sea el observado, la
cantidad relativa de biomasa de presas y depredadores puede ser predicha
"por una simple función matemática", comenta.
Pero aquí no acaba la relación de la naturaleza con las matemáticas. El artículo completo en:
Un estudio reveló que las paredes de hielo se erosionan a mayor velocidad debido a las corrientes de agua salada.
Los glaciares en Groenlandia se están derritiendo más rápido de lo esperado.
La NASA reveló este martes
que los glaciares de esta isla se encuentran en un nivel más bajo en el
oceano, lo que permite que la corriente erosione sus paredes con más
facilidad y aumente el nivel del mar. Las mediciones fueron tomadas durante tres años consecutivos y
después analizadas para descubrir el nivel de salinidad, profundidad y
temperatura del agua que se introduce en los glaciares.
"Es difícil obtener mediciones debajo de cientos de metros de agua
marina en fiordos infestados de hielo", comentó Erick Rignot, quien
trabaja en la universidad de California y en la agencia espacial.
Sin embargo, pese a los obstáculos, el estudio descubrió que los
glaciares con protección del agua marina aun la mantienen, aunque otros
se encuentran profundamente erosionados a nivel subacuático y podrían
derretirse en menos tiempo del que se creía.
"Los modelos de cálculo numérico de hielo no toma en cuenta estas
interacciones (con el agua marina) y subestima lo rápido que responden
los glaciares al calentamiento global", aseguró Rignot.Los glaciares en Groenlandia se están derritiendo más rápido de lo esperado. La NASA reveló este martes
que los glaciares de esta isla se encuentran en un nivel más bajo en el
oceano, lo que permite que la corriente erosione sus paredes con más
facilidad y aumente el nivel del mar.
Las mediciones fueron tomadas durante tres años consecutivos y
después analizadas para descubrir el nivel de salinidad, profundidad y
temperatura del agua que se introduce en los glaciares.
"Es difícil obtener mediciones debajo de cientos de metros de agua
marina en fiordos infestados de hielo", comentó Erick Rignot, quien
trabaja en la universidad de California y en la agencia espacial.
Sin embargo, pese a los obstáculos, el estudio descubrió que los
glaciares con protección del agua marina aun la mantienen, aunque otros
se encuentran profundamente erosionados a nivel subacuático y podrían
derretirse en menos tiempo del que se creía.
"Los modelos de cálculo numérico de hielo no toma en cuenta estas
interacciones (con el agua marina) y subestima lo rápido que responden
los glaciares al calentamiento global", aseguró Rignot.
Aquellos que hayan visitado un campus universitario no habrán tenido
mucha dificultad para encontrar estudiantes pasando el rato jugando a
los malabares. Otra cosa fácil de encontrar en una universidad es
empollones de todo tipo. En algunas ocasiones incluso ambos personajes
resultan ser el mismo: un empollón malabarista. Y un empollón
malabarista es precisamente lo que era Paul Klimek, que además de tener
gran habilidad con las bolas era matemático en la Universidad de
California en Santa Cruz. Klimek, y posteriormente otros matemáticos, desarrollaron una
notación numérica para trucos de malabares conocida como notación
Siteswap (también llamada a veces Quantum Juggling o Cambridge
Notation), que además de simple es bastante bonita. La idea consiste en registrar la acción de cada mano en una secuencia
temporal, como si las manos actuasen por turnos (izquierda, derecha,
izquierda, derecha, …). Se visualiza mejor mediante un diagrama como
este, en el que se supone que el tiempo “fluye” de arriba a abajo:
Ilustración via Wikicommons
Las acciones posibles son mano vacía, mano con bola, o lanzar bola (a diferentes alturas y cambiando o no de mano). Cada acción se puede codificar con un número entero, contando para
ello el número de pasos durante los cuales la bola se mantendrá en el
aire. Lo mejor es verlo en un ejemplo:
El tiempo corre de arriba abajo. Así, este truco es equivalente a la secuencia 5314530…
Cuando aparece un número par, la bola se recogerá con la misma mano con la que es lanzada.
Si es impar, la bola cambiará de mano.
El número tiene que ver con el tiempo que pasa volando la bola, y por tanto con la altura a la que se lanza
Un 0 representa una mano sin bola, y un 2 una mano que sostiene una bola sin lanzarla.
Hay que aclarar que normalmente los trucos no son tan complicados
como el de este ejemplo. Habitualmente son secuencias muy cortas, como
por ejemplo 333 o 40, y se da por hecho que se repiten periódicamente. El artículo completo en: Cultura Científica
El razonamiento diagramático (también llamado razonamiento gráfico o conceptografía) es el que se lleva adelante haciendo uso de representaciones visuales de los conceptos. En esta técnica, los diagramas y los gráficos son más importantes que las palabras y las expresiones matemáticas. A estos diagramas también se les conoce como diagramas ontológicos; en un lñenguaje más preciso los diagramas ontol+ogicos son aquellos diagramas que muestran entes ("elementos") y las definiciones que a ellos se les ha aplicado ("conjuntos").
El origen de esta forma de razonamiento debe buscarse en los grafos de Llul y Leibniz, las líneas de Leibniz y los diagramas de Euler. Sin embargo, una expresión equivalente a "razonamiento diagramático" —aunque aplicada específicamente a una notación de dos dimensiones— recién aparece en 1879 con la publicación del libro Begriffsschrift de Gottlob Frege, que ha sido traducido al castellano como Conceptografía. La historia del razonamiento diagramático incluye también la creación por parte de Peirce del sistema de gráficos existenciales, una notación geométrica-topológica-lógica que Gardner consideraba "el más ambicioso sistema de lógica geométrica que se haya construido jamás".
En síntesis podemos decir que el razonamiento diagramático tiene tres campos: a) los diagramas ontológicos, b) los diagramas topológicos y c) los grafos.
a) Diagramas ontológicos
Los diagramas
ontológicos son los que muestran las definiciones de los conjuntos por
enumeración. En ellos, además de la relación entre las definiciones, se ve a los
elementos (entes). De ahí su nombre.1
Los diagramas de Leibniz son líneas abiertas que indican la
posición relativa de los conjuntos.
diagrama de Leibniz
Las regiones de superposición corresponden a las
intersecciones.
Los diagramas de Euler son construcciones gráficas con líneas
cerradas (circunferencias, elipses) que delimitan colecciones de elementos y
muestran su posición relativa. (Leibniz también usó círculos, pero prefería las
líneas abiertas porque encontró que los primeros requerían en ciertos casos
símbolos complementarios.)
diagrama de Euler
Cada región del diagrama contiene al menos un elemento. Los elementos
pueden pertenecer a una sola colección o ser comunes a dos o
más.
En los diagramas de Venn, todas las regiones posibles para
una cantidad de definiciones dada aparecen representadas. Las regiones pueden
estar vacías y en tal caso se las distingue sombreándolas.
diagrama de Venn
Todos los conjuntos están incluidos en otro (el universo
U, marco de
referencia).
En los diagramas de Luetich se representa otra región, la del
Todo, cuya interpretación se dio en el "Glosario de ontología". En el Todo excepto U se encuentran los elementos no
definidos o no considerados, es decir, aquellos que están escondidos en la oscuridad. El todo no es un
conjunto.
diagrama de Luetich (2D)
Los diagramas de Luetich sirven para resolver problemas como el
que Humpty Dumpty le planteó a Alicia en la obra "A través del espejo" de
Lewis Carroll.
Estos cuatro tipos de diagramas de conjuntos corresponden a la categoría "diagramas
ontológicos".
Son los diagramas que muestran la posición relativa de los conjuntos,
pero no los elementos. La forma, el tamaño y la posición de las líneas
cerradas no tienen importancia.
Regiones posibles
En los diagramas de conjuntos de Euler y de Venn se pone énfasis en
indicar las regiones posibles. En los diagramas de Euler, solamente son
representadas las regiones en las que puede haber elementos. En los
diagramas de Venn, a las regiones que no contienen elementos se las
anula sombreándolas.
diagrama de Euler
diagrama de Venn
En estos ejemplos se muestra que no hay elementos que pertenezcan a A y C que no sean también de B, ni tampoco elementos que pertenezcan exclusivamente a C. En el diagrama de Venn de conjuntos cada región sombreada es —para usar una expresión de Leibniz— una combinatio impossibilis. Se trata entonces de diagramas topológicos.28
Topología flexible
En un intento por flexibilizar la topología de los sistemas, Peirce
introdujo en los diagramas de Venn la notación lógica correspondiente a
la disyunción. Con ello creó los diagramas de topología flexible. A esta
extensión de Peirce siguieron otras dos (Venn-I y Venn-II), propuestas
por Shin.29
Extensión de Peirce
Charles Sanders Peirce (1839–1914), lógico americano considerado el padre de la semiótica moderna
La extensión de Peirce de los diagramas de Euler-Venn introduce tres símbolos:
"o" para reemplazar al sombreado,
"x" para indicar importación existencial, y
"–" (línea) para unir los dos anteriores e indicar disyunción.29
Así, por ejemplo, el siguiente diagrama representa la proposición: «Todo elemento de B es de A o algunos elementos de B son de A».
extensión de Peirce
Esta proposición topológica no se podría representar con un diagrama
de Euler: sería necesario usar dos y buscar alguna manera de indicar la
disyunción.
«Todo elemento de B es de A»
«Algunos elementos de B son de A»
Las ventajas de la notación de Peirce, en este caso, son grandes. Sin
embargo, cuando las proposiciones son más complejas, la lectura del
diagrama se torna dificultosa.29
Primera extensión de Shin (Venn-I)
Esta extensión tiene las siguientes características:
vuelve al sombreado de regiones para indicar que éstas no pueden ser ocupadas,
usa el símbolo "x" de Peirce, y
usa el símbolo "–", introducido por Peirce.
diagrama de Shin (Venn-I)
diagrama de Peirce
En estos diagramas (equivalentes), las dos premisas son:
«Ningún elemento es sólo de B», y
«B tiene algún elemento».
La conclusión, por lo tanto, es: «Algún elemento pertenece simultáneamente a B y A».
Segunda extensión de Shin (Venn-II)
Esta extensión tiene las mismas características que el anterior, pero
agrega la posibilidad de conectar dos diagramas —que en este caso
tienen representado el conjunto universal— con una línea de disyunción.
diagrama de Shin (Venn-II)
diagrama de Peirce
La proposición, en este caso, es: «O todo elemento de A es elemento de B y algún elemento de A es de B, o ningún elemento de A es de B y algún elemento de B no es de A». El diagrama simple de Peirce es de lectura más difícil que el correspondiente diagrama doble de Shin.
Arañas
Los diagramas con arañas son una extensión de los diagramas de Euler,
y por lo tanto en ellos hay información topológica. Se los obtiene
introduciendo restricciones de dos tipos: agregando "arañas" (secuencias
x de Peirce generalizadas) y sombreando regiones. La presencia de una
araña indica la existencia de un elemento en su "hábitat" (la región
donde se encuentra). Una región sombreada es la que no contiene más
elementos que los que indican las arañas correspondientes. Si una región
sombreada no tiene arañas, está vacía. Dos arañas unidas por una línea
indican la existencia de por lo menos un elemento en las regiones
involucradas. El nombre "araña" se ha elegido porque en diagramas
complejos muchas líneas pueden salir de cada punto, como los hilos de un
nodo de una telaraña.
diagrama con arañas
El diagrama de la figura indica que:
C está contenido en B;
A – B tiene exactamente dos elementos;
hay al menos un elemento en B – A.
El diagrama tiene 3 líneas limite de conjuntos (definiciones), indicadas con los rótulos A, B y C, y 6 regiones, por ejemplo la región cuyo contorno es B pero que no contiene elementos ni de A ni de C.
Una zonas está sombreada y contiene sólo 2 elementos. El diagrama
contiene 3 arañas: 2 de un pie cuyo hábitat es la zona de los elementos
de A que no pertenecen a B y 1 "articulada", en la región de los elementos que son de B pero no de A.
c) Los grafos
Los grafos son construcciones que surgen de representar elementos y sus conexiones.32 La teoría de grafos, como la teoría de conjuntos, está íntimamente ligada a la topología.3334
Cuadrado de oposición
Aristóteles (384 a.C.–322 a.C.), filósofo griego fundador de la lógica clásica
El "cuadrado de oposición" de Aristóteles en la notación de Peirce
Diamante de Leibniz
Una muestra de razonamiento diagramático: grabado del libro de Leibniz De Arte Combinatoria de 1666
En el grabado de la portada del libro De Arte Combinatoria de 1666, Leibniz habría dado otra muestra de su lenguaje universal. En él se representa la idea de los antiguos de que todas las cosas
materiales están hechas de tierra, agua, aire y fuego, "elementos" que
combinan las cualidades de: frío, húmedo, caliente y seco. Entre
elementos, entre cualidades, y entre elementos y cualidades, han sido
dibujadas líneas, cada una con un rótulo. Así, por ejemplo, a los nodos
SICCITAS y HVMIDITAS ("sequedad" y "humedad") se los ha conectado con
una línea rotulada Combinatio impossibilis ("combinación
imposible"). En otros términos, de los elementos de estos dos conjuntos,
el grabado muestra las conexiones, objeto de estudio de la topología.
La characteristica es, en este caso, una notación topológica.37
El siguiente grafo es una variante del Diamante de Leibniz, que muestra
la relación entre elementos y cualidades a la manera de un grafo
bipartido.
Cuando dos cualidades concurren en un elemento es porque su
combinación es posible. Por ejemplo, CALIDITAS y HVMIDITAS concurren en
AER. Cuando dos cualidades no se encuentran en ningún elemento, su
combinación es imposible. Tal es el caso de HVMIDITAS y SICCITAS.
Con estos elementos y cualidades, sujetas a las restricciones
mencionadas, se puede deducir la cantidad de combinaciones posibles.
El diamante de Leibniz puede ser representado sin recurrir a un grafo
partido, simplemente usando cuatro conjuntos. En este caso, a menos que
a los conjuntos se los dibuje como rectángulos, quedarían regiones
vacías. Para indicar esa situación se puede hacer uso de un diagrama con
arañas.
diagrama de conjuntos
diagrama con arañas
Estas representaciones actuales del tema que Leibniz tomó de los
antiguos para ilustrar su libro de análisis combinatorio muestran lo que
ha sido la historia del razonamiento diagramático, un área de trabajo
en la que se ha vuelto siempre sobre los mismos complejos problemas,
desde la perspectiva de especialistas en las materias más diversas.37
Árboles
Los árboles
son unos grafos especiales con estructura jerárquica, que pueden ser
usados para dar la misma información topológica que los diagramas de
Euler y de Venn.
árbol del diagrama de Euler
diagrama de Euler
árbol del diagrama de Venn
diagrama de Venn
Cada árbol muestra las regiones posibles del diagrama que está a su derecha. Las primeras 2 ramas corresponden al conjunto A; las restantes 4, al conjunto B. En el diagrama de Euler, la rama de no pertenencia (∉) a A
aparece de color gris, ya que no es una región posible. En
consecuencia, también están de ese color las ramas derivadas. En el
diagrama de Venn, dado que se define un conjunto universal, la no
pertenencia a A es posible, exceptuando el caso de pertenencia (∈) simultánea a B.31
Notación bidimensional
Friedrich Ludwig Gottlob Frege (1848–1925), matemático alemán considerado por muchos el fundador de la lógica moderna
Este esquema representa la disyunción lógica A ∨ B, o mejor, ¬A → B.40 En su trabajo sobre los axiomas del cálculo proposicional, Frege recurría sólo a las operaciones negación e implicación.
Obsérvese que la notación de los diagramas "beta" de Peirce —con
recortes abreviados o no— también es bidimensional, como se puede ver
claramente en la lista de reglas de inferencia.