Latest Posts:

Mostrando las entradas con la etiqueta datos. Mostrar todas las entradas
Mostrando las entradas con la etiqueta datos. Mostrar todas las entradas

12 de noviembre de 2019

La agricultura se vuelve digital para ser más ecológica

En los campos agrícolas de Europa ya se pueden encontrar tractores que no necesitan conductor para moverse, máquinas que se comunican entre ellas y sistemas inteligentes para deshacerse de las malas hierbas. 


También se han empezado a volar los primeros drones para sacar mapas aéreos detallados y poder tratar los cultivos con técnicas de precisión y más sostenibles. Y en el trasfondo aparece cada vez más nítido el horizonte del machine learning, con su potencial de mejora de los rendimientos gracias a predicciones afinadas. Los datos existentes reflejan que aún se trata de un comienzo: pero poco a poco, también el campo se digitaliza.
 
Las innovaciones que el sector acoge buscan aliviar las condiciones de trabajo de los agricultores, así como obtener mejores rendimientos de los cultivos y reducir el impacto de operaciones especialmente costosas como la detección de plagas y enfermedades. Pero también hay objetivos relativos a la sostenibilidad: la reducción de herbicidas dañinos para los terrenos y sus frutos y una gestión inteligente del agua necesaria para el riego, un recurso puede ser escaso.

Entre las principales nuevas tecnologías que se emplean en el agro tenemos:


El futuro de la agricultura pasa por la utilización de tractores y máquinas autónomas sin conductor, y robots como el prototipo de la foto. Crédito: Small Robot Company.

Tractores y otras máquinas autoguiadas

La conducción humana de vehículos agrícolas presenta algunos inconvenientes: entre ellos, cansancio por la monotonía y la repetitividad de la tarea y errores acumulados en el seguimiento de las trayectorias. Los sistemas de autoguiado de estas máquinas ya son una opción integrada en la mayoría de ellas, y muy utilizadas por los agricultores, que por lo general ven en este aspecto una inversión segura y rentable.

De momento, la ley obliga a que los conductores sigan montados en el vehículo pese a que no lo conduzcan. Pero ahora pueden dedicarse a una supervisión mucho más detallada del trabajo en curso, destaca el investigador. El siguiente paso en esta innovación, agrega, será hacer las máquinas completamente autónomas, para que un solo operador pueda monitorear a distancia tres o cuatro de ellas a la vez.  

Protocolo de conexión electrónica

Ya casi todos los fabricantes de maquinaria agrícola integran en sus productos un protocolo único de comunicación electrónica, la norma internacional ISOBUS, que permite la compatibilidad entre máquinas diferentes a través de un cable ethernet. 

Así la información que obtenga un tractor, por ejemplo datos GPS, se puede transmitir directamente a un apero conectado con él (sin que tenga que coincidir la marca de ambos), lo que permite una aplicación más ajustada de abonados y herbicidas y mejorar ampliamente el tratamiento de los cultivos.

Equipos de control inteligente

Cada día la normativa europea en el uso de materias activas contra plagas y mala hierba es más restrictiva. Y la necesidad de encontrar métodos de control de la mala hierba sin uso de productos químicos es particularmente prioritaria para cultivos ecológicos. En los últimos años se han ido implementando máquinas capaces de detectar, por ejemplo con cámaras, esas plantas nocivas y quitarlas sin dañar el cultivo. 

El número de equipos inteligentes de este tipo adaptables a diferentes sistemas agrícolas aumentará en los próximos años. Desde el punto de vista de la contaminación ambiental y la seguridad alimentaria, son claras las ventajas frente a la aplicación convencional de herbicidas.


Protocolos de comunicación únicos, Inteligencia Artificial o el “machine learning” contribuyen a hacer más sostenible y eficaz la gestión de los recursos agrícolas. Crédito: Garford.

Drones

El uso de aéreos no tripulados en el campo todavía está en una fase experimental. Pero también representa una de las innovaciones con mayor potencial para el futuro. Uno de sus principales beneficios es el de poder proporcionar información espacial útil para generar mapas de cultivo detallados y así permitir mejores tratamientos de los terrenos. Si integran una cámara térmica, también dan la posibilidad de conocer la temperatura media de los cultivos para medir mejor el riego en cada zona de un campo.

Machine Learning

Estimar con exactitud la cosecha de un cultivo representa una información muy relevante para agricultores y cooperativas o agentes encargados de gestionar y vender el producto. Por ello, aprovechar la tecnología del aprendizaje automático basada en el análisis de ingentes cantidades de datos a través de algoritmos puede aportar ventajas prometedoras en este sentido. 

Ya se han empezado a poner en marcha algunos proyectos basados en inteligencia artificial. Mientras que la FAO prevé que en 2050 la producción agrícola deberá crecer un 50% respecto a como fue en 2012 para satisfacer la demanda global y la ONU advierte de la necesidad de cambiar modelo alimentario para frenar el cambio climático, hay quien ve en esta innovación también un potencial para hacer más sostenible la gestión de los recursos agrícolas.

Fuente:

Canal de Innovación


1 de diciembre de 2018

Las matemáticas revelan datos curiosos sobre Star Wars

¿Crees que lo sabes todo sobre el universo de Star Wars? Este software te dejará asombrado.


Empleando un innovador software, un equipo de investigadores de la Escuela Politécnica Federal de Lausana (Suiza) ha descubierto una visión poco común dentro del universo de Star Wars o La Guerra de las Galaxias, la franquicia de ópera espacial épica, creada por el guionista y director estadounidense George Lucas y que cuenta con millones de fans en todo el mundo desde que se inició la saga en 1977.

Gracias al nuevo algoritmo -desarrollado en el Laboratorio de Procesamiento de Señal 2 (LTS2)- que aprovecha los principios de la teoría de grafos y los cálculos matemáticos llevados a cabo por un ordenador, los expertos pusieron a prueba el software con centenares de webs en la red dedicadas exclusivamente a la exitosa saga que ha trascendido la gran pantalla (libros, juegos, etc...).

Los resultados han revelado datos interesantes: Star Wars integra más de 20.000 personajes repartidos entre 640 comunidades durante un período de 36.000 años: “Los fans se sorprenderán al saber, por ejemplo, que contabilizamos más de 20.000 personajes; entre ellos, 7.500 juegan un papel importante”, explica Kirell Benzi, líder del trabajo.

Además, la eterna rivalidad de los Sith y Jedi también ofrece sus estadísticas: existen 1.367 Jedi y 724 Sith. Pese a la multitud de razas y especies que conviven en la galaxia como los nautolanos o los toydarianos (antes de la República, en la Antigua República, durante el Imperio, la rebelión, la Nueva República o la Orden Jedi), casi el 80% de la población es humana.

Para poner un poco de orden en este bosque masivo de datos, hemos basado nuestro enfoque en el análisis de redes. En otras palabras, todas las conexiones que tiene un personaje con el resto de ellos. Usando estas referencias cruzadas, hemos sido capaces de determinar con precisión el período de tiempo del personaje casi sin excepción, a pesar de que esta información no se proporciona directamente en los libros o las películas”, afirma Xavier Bresson, coautor del estudio.

El logro de este programa informático es que traza conexiones en la masa de datos no organizados disponibles en Internet y los algoritmos desarrollados por los investigadores de LTS2 ofrecen datos muy precisos que pueden ser cuantificados, ordenados y, por supuesto, sencillos de leer.

Según los expertos, “este método podría ser útil para llenar los vacíos de conocimiento que permanecen en la investigación histórica y sociológica y en numerosos campos científicos también”.


9 de octubre de 2018

Facebook quiere introducir cámaras y micrófonos en los hogares de sus usuarios

Uno de los "tenientes" más fieles y de mayor confianza de Mark Zuckerberg, el fundador de Facebook, quiere que la red social tenga un micrófono y una cámara en los hogares de sus usuarios.

Y lo quiere lograr con sus Portal,unos dispositivos especiales para video llamadas que llegan en un momento delicado para la empresa: luego de dos escándalos de fuga de datos, el más reciente aún con muchas preguntas sin respuesta, 


Actualmente hay dos modelos del dispositivo: el el Portal+, valorado en US$ 349, y el llamado simplemente Portal, más pequeño, y valorado en US$199.

Ambos se apoyan en Facebook Messenger para hacer y recibir llamadas y también puede recurrir a la colaboración de la asistente digital de Amazon, Alexa.

Y los dos modelos están diseñados para ser usados a una distancia de entre 1,5 a 3 metros, mucho mayor que la de las video llamadas hechas con tabletas y teléfonos inteligentes.

Para ello, los Portal cuentan con una cámara de 140 grados y 12 megapixeles que ofrecen una buena profundidad de campo y está equipada con un zoom que puede seguir -y acercarse- automáticamente a los usuarios.

En EE.UU. saldrán a la venta en noviembre, a tiempo para aprovechar las ventas del Día de Acción de Gracias y Navidad.

Actualmente el título oficial de Bosworth es vicepresidente de realidad aumentada y realidad virtual, pero probablemente sea mejor conocido por otro escándalo: como el autor del llamado "memo de la horrible verdad", el cual se filtró en marzo.

En el escrito indicaba que la red social creía "tan profundamente" en conectar a las personas que cualquier cosa que lo hiciera posible era buena, incluso si personas morían como consecuencia de ello.

Posteriormente Bosworth dijo que su intención era ser provocativo, pero que no creía en lo que había escrito.

El artículo completo, y una entrevista reveladora, en BBC Mundo

7 de abril de 2018

Zuckerberg testificará el 11 de abril en el Congreso de EE UU por la fuga de datos de Facebook

El máximo responsable de la red social dará explicaciones sobre el uso político de la información de 50 millones de usuarios.

El próximo miércoles 11 de abril. Ese día Mark Zuckerberg, fundador y máximo responsable de Facebook, testificará bajo juramento ante el Comité de Comercio y Energía de la Cámara de Representantes para dar explicaciones sobre la fuga masiva de datos de la red social. El gigante tecnológico vive su mayor crisis después de revelarse que la consultora Cambridge Analytica tuvo acceso a información de 50 millones de usuarios sin que la inmensa mayoría de ellos lo supieran. Esos datos fueron utilizados por el equipo de Donald Trump para tratar de segmentar a votantes durante la campaña electoral a las presidenciales de 2016.

El Comité de la Cámara confirmó este miércoles la asistencia de Zuckerberg, que también ha sido llamado a declarar por otros paneles del Senado. En cambio, el jefe de Facebook ha declinado dar explicaciones ante el Parlamento británico. Esa es la misma estrategia que había seguido hasta ahora la compañía en el Congreso estadounidense, adonde siempre había mandado a personal técnico a hablar en las comparecencias.

Pero la crisis de Cambridge Analytica es de tal calibre que, desde que estalló, Zuckerberg se ha mostrado dispuesto a testificar ante los legisladores para apaciguar la creciente desconfianza de los usuarios y tratar de rebajar los deseos de mayor regulación a su invento. “Lo haré con gusto si es lo correcto. Lo que procuramos hacer es enviar a la persona de Facebook que tiene más conocimiento. Si se considera que ese soy yo, voy feliz”, dijo en una entrevista a la cadena CNN a finales de marzo.

“Esta audiencia será una oportunidad importante para esclarecer asuntos críticos sobre los datos privados de los consumidores y ayudar a todos los estadounidenses a entender mejor qué ocurre con su información personal en Internet”, señalaron en un comunicado el presidente y subpresidente del Comité de Comercio y Energía de la Cámara de Representantes, el republicano Greg Walden y el demócrata Frank Pallone respectivamente.

Facebook anunció en marzo la contratación de un equipo forense para determinar si Cambridge Analytica todavía poseía los datos de los 50 millones de usuarios. También admitió haber cometido "errores" y prometió mayores controles, pero se quedó lejos de adoptar reformas ambiciosas que impacten drásticamente en la esencia de su negocio: la gestión de los datos de usuarios.

El gigante tecnológico sostiene que cedió la información con una finalidad académica al entregarla a un experto en Reino Unido y que fue el académico el que violó las normas al cederlos a terceros cuando llegaron a la consultora británica. Alrededor de 200.000 usuarios de Facebook autorizaron ceder su información para una aplicación sobre una prueba de personalidad, pero sin saberlo compartieron también los datos de todos sus amigos, que acabaron siendo explotados políticamente por Cambridge Analytica.

Lea el artículo completo en:


5 de febrero de 2018

Big Data: Todo lo que necesitas saber sobre la conquista del dato

El mar de datos es inmenso y caótico, pero navegarlo es cuestión de astucia al timón. Ya hay una cantidad casi infinita de información, el problema ahora es que se desborda. Industrias y gobiernos ponen el foco en cómo gestionarla.


En futuro en el que cada empleado sea su propio jefe, en el que la política de empleo una al parado con la empresa que necesita de sus cualidades y en el que las variables a la hora de acometer una obra faraónica se resuelvan con sencillez. El big data es una chistera de la que pueden sacarse infinitos conejos. Pero, como todo truco de magia, es frágil y arduo de ejecutar. La conversación sobre este paradigma tecnológico, del que numerosos analistas esperan un valor global de 200 millones de euros para 2020, ha cambiado radicalmente. Greg DeMichillie, director de producto de Google Cloud y ex de Amazon y Adobe, ha vivido esta transformación muy de cerca: “Ha habido un gran cambio en los últimos cinco o diez años. El problema al que se enfrentaban las compañías era que no podían permitirse económicamente almacenar todos sus datos. Se veían forzadas a elegir qué conservar y qué eliminar. Hoy eso se ha acabado; cualquier empresa puede permitirse almacenar el histórico completo de sus operaciones en la nube. Ahora el reto es encontrar, por así decirlo, las agujas de valor en estos pajares de información”.
La pregunta fundamental es cómo puede usarse esta tecnología
más allá de las grandes empresas.
Esas agujas pueden tener tanta importancia como fijar el rumbo político de la nación más poderosa del mundo. Rayid Ghani, director del Centro para la Ciencia de los Datos y las Políticas Públicas de la Universidad de Chicago, tuvo exactamente ese trabajo como jefe científico de la campaña para la reelección de Obama como presidente de Estados Unidos. Su océano de datos, los casi 66 millones de electores que votaron en los comicios. Pero no todos valían lo mismo.La utilidad electoral
“Las incógnitas que necesitas despejar para ganar unas elecciones son muy simples. Para cada votante debes descubrir dos cosas: ¿Te apoya o no? ¿Votará o no?”. Estas dos reglas despliegan la hidra de millones de cabezas que es enfrentarse a un censo electoral tan inmenso como el de Estados Unidos. Ghani explica cómo evaluar estas dos variables con una puntuación de 0 a 100 y las decisiones que hay que tomar, votante a votante, según la puntuación que saque. A los extremos, por ejemplo, no merece la pena dedicarles recursos económicos. “¿Para qué vas a gastar dinero en el que va a votar seguro y te apoya o en el que no te apoya y no va a votar seguro? El gasto tiene que hacerse en los que se encuentran en valores intermedios”. Sin embargo, los que sacan valores casi perfectos, cercanos al doble cien, son esenciales. “Les puedes pedir que participen como voluntarios, que contribuyan a financiar la campaña o que simplemente difundan el entusiasmo por tu candidato entre sus amigos”.

El arte de la evaluación de los datos, como apunta Ghani, llega en el amplio número de votantes incógnita. Para despejar esta duda, este experto indica que se acude al registro histórico. “Es especialmente complejo porque las elecciones suceden cada cuatro años, así que te puedes equivocar. Pero básicamente lo que hacemos es apoyarnos en cómo se evaluó a tales votantes de tal zona y en si esa evaluación se demostró correcta o incorrecta el día de las elecciones”.

Ghani subraya cuán importante es ser lo más fino posible en esta evaluación porque los recursos de una campaña son limitados. “Según el grado de éxito que calcules a priori has de elegir si te merece la pena un contacto por red social, una llamada telefónica o personarte en el hogar de ese votante para intentar convencerle de que te vote”. Estas predicciones se pueden reajustar sobre la marcha porque en algunos Estados se permite la votación anticipada, lo que posibilita que el modelo alimente sus poderes de oráculo teniendo en cuenta el comportamiento de estos votantes madrugadores.

La obsesión actual de Ghani y de otros académicos no se dirige, sin embargo, a sus usos electorales. Apunta a cómo los gobiernos de todo el planeta pueden desplegar esta tecnología para ser más eficientes. A lograr que las soluciones tecnológicas ya posibles se integren con administraciones poco acostumbradas o directamente desconocedoras de ellas. Salud. Transporte. Educación. Agricultura. Pobreza. Empleo. Todas las áreas de interés que competen a un Gobierno se pueden beneficiar de la aplicación inteligente del big data. Y en todas ellas la filosofía subyacente se resume en una sencilla frase: “Saber adónde debe ir el dinero y por qué”.

El artículo completo en: El País (Retina)

30 de octubre de 2017

La interesante alianza entre 'big data' y comportamiento social

Analizar el lenguaje en plataformas como las redes sociales supone conocer de primera mano el pulso de la sociedad.



El lenguaje es una de las fuentes más ricas de datos que tiene el ser humano. Es el reflejo del pensamiento y de lo que se quiere decir en cada momento. Por ello, analizarlo en plataformas como las redes sociales supone conocer de primera mano el pulso de la sociedad, qué piensa y cómo se posiciona sobre la actualidad. Una monitorización al uso de las redes puede ofrecer algunas pistas, pero no ahonda lo suficiente porque no estudia en profundidad el lenguaje, qué quiere decir la persona con esas palabras. 

Para realizar este análisis, uno de los métodos más precisos e incisivos actualmente es el procesamiento del lenguaje natural. Esta disciplina cuenta con décadas de investigación y ha desarrollado sistemas que analizan de manera precisa el contenido de un texto, pudiendo extraer el sentimiento o la opinión que se deriva del mismo, lo que llamamos análisis semántico.

A través de un procedimiento de extracción de significado pueden apreciarse las opiniones de los usuarios, si son positivas o negativas; las emociones con respecto a lo que cuentan; la intención del mensaje, si se trata de una queja o sugerencia, por ejemplo; e incluso el grado de concienciación midiendo la implicación de un usuario sobre un problema social derivado de sus manifestaciones sobre el mismo. El sistema del análisis de sentimientos detecta además temas o palabras representativas, clasifica por categoría y establece una serie de variables demográficas.

La característica de esta técnica que le confiere la categoría de tercera generación de este tipo de aplicaciones de monitorización es la introducción del análisis semántico. Este estudio semántico permite profundizar en los textos distinguiendo entre factores lingüísticos como la ironía, las metáforas o el mismo contexto de la conversación.

Además, la información recopilada en las monitorizaciones basadas en el análisis de sentimientos difiere en gran medida sobre la recogida en encuestas o estudios de mercados. Todos los datos recogidos sirven para conocer el comportamiento, las opiniones, el sentimiento de los usuarios sobre ciertos productos o temas sobre los que se lleve a cabo este exhaustivo análisis de una manera instantánea y espontánea. Los usuarios vierten en sus redes opiniones y reacciones más ajustadas a la realidad porque cuentan con una libertad que no la dan las encuestas, dónde la persona puede maquillar sus opiniones por distintos motivos.

El artículo completo en: El País (España)

16 de agosto de 2017

Si los algoritmos nos hacen la compra, ¿para qué servirá el marketing?


Gran parte del marketing se basa en que las empresas envíen mensajes concretos a los clientes para influir en sus compras y consumo. No extraña entonces que los principales anunciantes del mundo sean empresas como Procter & Gamble, Nestlé y Unilever. Las tres venden productos de consumo que se compran y gastan de manera habitual y constante. El objetivo de las decenas de miles de millones de dólares que invierten en publicidad es recordar a los consumidores que necesitan comprar detergente, sopa, café, yogur o alimento para mascotas durante su próxima visita a la tienda. Pero dentro de pocos años, este modelo de marketing, publicidad y compras estará obsoleto. Los comienzos de este cambio ya son evidentes en avances como los botones Dash de Amazon que convierten las compras rutinarias en más simples y rutinarias si cabe.

No pasará mucho tiempo hasta que Amazon y otros minoristas puedan conocer tan bien los hábitos de sus clientes como para enviarles (de manera convencional o por dron) los aproximadamente 200 productos que se consumen de manera habitual. Los algoritmos de las empresas estimarán cuándo es apropiado reponerlos. Poco después, los armarios y las neveras inteligentes de cada hogar elaborarán sus propios pedidos. Liberarán al consumidor de tener que escribir listas de la compra, recordar qué necesitan o enfrentarse al tedio de las compras repetitivas. Los productos que necesiten llegarán hasta los domicilios como la luz y el agua. Para muchos productos, será un bot el que se encargue de la compra. Los clientes sólo tendrán que consumir.

¿Cómo será pues el marketing en un mundo en el que las máquinas hablan con otras máquinas?

Primero, en un mundo conectado, gastar miles de millones para recordar a los consumidores que han de comprar su marca parecería desmesuradamente despilfarrador. En su lugar, el gasto en publicidad se redirigirá a construir mejores relaciones, competir con los líderes del mercado, aumentar la tasa de consumo e intentar condicionar el diseño y a los propietarios de los algoritmos. Influir en los algoritmos –por ejemplo, al convertirse en una marca nativa o por defecto dentro de las opciones preinstaladas de software– será altamente valioso. Sabemos que el 90% de los compradores de smartphones y ordenadores no cambian la mayoría de las configuraciones de fábrica. Supone una gran ventaja para las aplicaciones y servicios instalados por defecto. En consecuencia, las empresas líderes se beneficiarán de unas barreras de entrada más altas. Quien aspire a entrar en el mercado, sobre todo en los productos básicos, tendrá que romper no sólo la inercia de los consumidores, sino también la de los bots ya programados, una mucho más difícil de superar.

Segundo, la fidelidad con una marca se redefinirá. Los equipos de marketing necesitarán diferenciar con mucha más claridad entre la mera recompra y la lealtad real. Tendrán que preguntarse, sobre todo en las marcas líderes, si el "leal" es el algoritmo o es el consumidor. Para las nuevos actores la pregunta crítica será qué necesitan para lograr que los consumidores reconfiguren sus algoritmos.

En tercer lugar, gran parte de la estrategias de marketing actuales se basa en la idea de que los consumidores son intérpretes imperfectos de los mensajes publicitarios. Las personas están sujetas a sesgos cognitivos como la atención selectiva y su capacidad para retener información. Los estudios sobre publicidad, por ejemplo, se centran en mejorar las probabilidades de que los consumidores hagan lo que dictan los anuncios. Buscan aumentar la eficacia de los anuncios al mejorar su tasa de conversión (el ratio entre las personas que compran un producto y las que han visto su anuncio).
Pero si esas decisiones las toman bots en vez de humanos, los anunciantes deberán dirigirse a ellos. Y los bots suelen hacer lo que se les mande, sin sesgos cognitivos. Así que las investigaciones se centrarán en entender cómo influir sobre las decisiones de los bots: ¿Cuáles son sus fuentes de información? ¿Qué criterios están programados para optimizar? ¿Cuáles son sus algoritmos de aprendizaje? Las investigaciones sobre los consumidores se centrarán en temas estratégicos como los patrones de consumo y la fidelización de la marca.

Por último, los efectos de las máquinas conectadas no se limitarán a las compras básicas. Muchas de las interacciones entre la empresa y el consumidor se producirán directamente entre la empresa y el producto. Por ejemplo, los coches que se retiren por problemas de seguridad o reparaciones imprevistas podrán dirigirse de manera autónoma al taller cuando no los utilicen sus propietarios. Los lavavajillas y aspiradoras actualizarán su software directamente desde la nube. Los botes de medicamentos no se abrirán expirada su fecha de caducidad. De las interacciones no placenteras se ocuparán los bots. Los clientes hartos de hablar con una máquina cuando llaman a su compañía telefónica pedirán a su bot que llame al bot de la compañía.

La robotización de las compras y el marketing cambiará cómo interactúan las empresas con los consumidores. Eliminar de la ecuación la imprevisibilidad de los consumidores aumentará la eficiencia del marketing; sólo los ahorros en publicidad sumarían miles de millones de dólares. Pero la oportunidad real se encuentra en la redefinición de la relación con el cliente, no en la reducción de costes. Pongan a sus máquinas a pensar en eso.
Fuente:
Harvatd Business Review

15 de febrero de 2016

Por qué es importante que hayan descubierto el número primo más largo de la historia

Un ordenador de la Universidad Central de Misouri da con un número clave para el futuro de la informática.


La cifra tiene más de 22 millones de dígitos. Es larguísima, casi eterna, y por lo tanto cuesta mucho de leer. Este rasgo, unido al hecho de que se trata de un número primo especial, la hace singular: Se prevé que sea clave para encriptar y proteger datos y que, por lo tanto, en un futuro tenga una gran aplicación en los servicios online para operaciones bancarias, compras por internet y mensajería

Los números primos solo pueden dividirse por uno o por sí mismos y, como demostró Euclides en el siglo IV a. C., son infinitos. Sin embargo, en el siglo XVII, un monje francés amigo de Descartes y amante de la música descubrió unos números primos especiales a los que se bautizó con su nombre: los primos Mersenne (N=2n-1). Hasta hace poco solo se conocían 48 números Mersenne. La nueva cifra hallada ahora es el 49 y su descubrimiento ha sido posible gracias al proyecto Great Internet Mersenne Prime Search que cuenta con miles de voluntarios. 

Más información en: La Vanguardia

7 de octubre de 2015

¡Desarrollan tecnologia que usa el cuerpo para transmitir datos!

La tecnología bluetooth es, a día de hoy, la gran referencia en comunicación inalámbrica de corto alcance, pero no es perfecta: para un funcionamiento eficiente, requiere un camino sin obstáculos entre los dos dispositivos a comunicar. En caso contrario (por ejemplo, que se interponga un cuerpo humano), la señal requiere de un aumento significativo de la potencia para funcionar.


Pero ahora, un grupo de ingenieros eléctricos de la Universidad de California en San Diego han demostrado que el cuerpo humano no sólo puede no ser un obstáculo en la comunicación inalámbrico, sino convertirse en el medio de transmisión de la información entre dispositivos, transportando ondas magnéticas. El equipo de investigadores presentó los resultados de su investigación el pasado 26 de agosto en la 37ª Conferencia Anual Internacional de Ingeniería de IEEE en Milán, Italia.

Ventajas del nuevo sistema

La ventaja de este sistema es que, al contrario que las señales de radio usadas por la tecnología bluetooth, la propuesta de los investigadores de la UCSD se fundamenta en campo magnéticos, capaces de desplazarse sin problemas a través de tejidos orgánicos: las ‘pérdidas de trayectoria’ son 10 millones de veces mayores en el primer caso que en el segundo.

En palabras de Patrick Mercier, profesor de Ingeniería Eléctrica en la UCSD y director del estudio, “esta técnica logra las pérdidas de trayectoria más bajos observadas hasta el momento en cualquier sistema de comunicación inalámbrica con el cuerpo humano. Esta técnica nos permitirá desarrollar dispositivos wearables de muy bajo consumo“.

Ellos ven claras algunas de las aplicaciones de su tecnología: como, por ejemplo, un sistema inalámbrico de ultra baja potencia que pueda transmitir fácilmente la información de una red de monitorización médica alrededor de todo el cuerpo humano.

Otra gran ventaja del uso de campos magnéticos a través del cuerpo humano es que, potencialmente, ofrece una seguridad mucho mayor que las redes Bluetooth: debido a que éstas retransmiten sus datos por el aire, cualquiera puede inteceptarlos dentro de un determinada distancia con respecto al emisor. Interceptar ondas magnéticas dentro de un cuerpo humano se antoja, a priori, más complicado

En el futuro…

“En el futuro, la gente usará más dispositivos electrónicos (como relojes inteligentes o rastreadores de fitness). Todos esos dispositivos necesitarán comunicarse entre sí, pero actualmente retransmiten información a través de radios Bluetooth, que utilizan una gran cantidad de energía para comunicarse”, señala Mercier.

“Un problema de los dispositivos portátiles como, por ejemplo, los relojes inteligentes, es que tienen tiempos de funcionamiento breves, al estar limitados por el uso de baterías pequeñas. Con este nuevos sistema de comunicación cuerpo humano / campo magnético, esperamos reducir significativamente el consumo de energía, así como la frecuencia con que los usuarios necesitan recargar sus dispositivos”, según señalaba el doctorando Jiwoong Park, miembro del equipo investigador.

Fuente:

TicBeat

12 de julio de 2015

¿Los algoritmos lo saben todo o deben ayudarles los humanos?

La nueva ciencia de datos se cuestiona cuándo hace falta que una persona supervise una decisión automatizada como un diagnóstico médico o la concesión de un préstamo.



Hay ejércitos formados por las mentes más brillantes de la informática que se han dedicado a incrementar las probabilidades de conseguir una venta. La abundancia de datos y programas inteligentes de la era de Internet ha abierto la puerta al marketing a medida, los anuncios personalizados y las recomendaciones de productos.
Niéguenlo si quieren, pero no es un hecho sin importancia. No hay más que fijarse en la gran restructuración, propiciada por la tecnología, de los sectores de la publicidad, los medios de comunicación y la venta minorista.
Esta toma de decisiones automatizada está pensada para eliminar a los humanos de la ecuación, pero el impulso de querer que alguien supervise los resultados que vomita el ordenador es muy humano. Muchos expertos en datos matemáticos consideran que el marketinges una placa de Petri con pocos riesgos —y, sí, lucrativa— en la que poner a punto las herramientas de una nueva ciencia. “¿Qué pasa si mi algoritmo se equivoca? Que alguien ve el anuncio erróneo”, comenta Claudia Perlich, una especialista en datos que trabaja para una empresa de nueva creación que se dedica a la publicidad personalizada. “¿Qué daño puede hacer? No es un falso positivo de un cáncer de mama”.
Pero el riesgo aumenta a medida que la economía y la sociedad se empapan de los métodos y la mentalidad de la ciencia de los datos. Las grandes empresas y las de nueva creación empiezan a utilizar la tecnología para tomar decisiones relacionadas con el diagnóstico médico, la prevención de la delincuencia y la concesión de préstamos. En estos ámbitos, la aplicación de la ciencia de los datos plantea dudas sobre cuándo hace falta que una persona supervise atentamente los resultados de un algoritmo.

Los macrodatos pueden y deben aportarnos a todos más seguridad, oportunidades económicas y comodidad”
Estas dudas están dando pie a una rama de los estudios académicos conocida como responsabilidad algorítmica. Las organizaciones que velan por el interés público y los derechos civiles están examinando detenidamente las repercusiones que tiene la ciencia de los datos, tanto por sus errores como por sus posibilidades. En el prólogo de un informe del pasado mes de septiembre, Derechos civiles, macrodatos y nuestro futuro algorítmico, Wade Henderson, presidente de la Conferencia por el Liderazgo en Derechos Humanos y Civiles, escribía: “Los macrodatos pueden y deben aportarnos a todos más seguridad, oportunidades económicas y comodidad”.
Fíjense en los préstamos para el consumo, un mercado en el que hay varias empresas de nueva creación especializadas en macrodatos. Sus métodos representan la versión digital del principio más elemental de la banca: conozca a sus clientes. Estas nuevas entidades crediticias especializadas en datos aseguran que, al recopilar datos de fuentes como los contactos de las redes sociales, o incluso observar el modo en que un solicitante rellena un formulario de Internet, pueden conocer a los prestatarios mejor que nunca y predecir si devolverán el préstamo mejor que si se limitasen a estudiar el historial crediticio de alguien.
Lo que prometen es una financiación y una valoración más eficaces de los préstamos, lo que ahorrará a la gente miles de millones de dólares. Pero los préstamos basados en macrodatos dependen de unos algoritmos informáticos que analizan minuciosamente montones de datos y van aprendiendo durante el proceso. Es un sistema muy complejo y automatizado (y hasta sus defensores tienen dudas).

Toman una decisión sobre usted, sin que usted tenga ni idea de por qué la han tomado”
“Toman una decisión sobre usted, sin que usted tenga ni idea de por qué la han tomado”, explica Rajeev Date, que invierte en entidades crediticias que emplean la ciencia de los datos y ha sido director adjunto de la Oficina de Protección Financiera del Consumidor. “Eso es inquietante”.
La preocupación es similar también en otros ámbitos. Desde que su ordenador Watson venciese a los ganadores del concurso televisivoJeopardy! hace cuatro años, IBM ha llevado la tecnología de la inteligencia artificial basada en datos mucho más allá de los juegos de ingenio. La asistencia sanitaria ha sido uno de los grandes proyectos. La historia del uso de la tecnología “especializada” para contribuir a la toma de decisiones médicas ha sido decepcionante; los sistemas no han sido lo bastante inteligentes ni lo bastante rápidos para ayudar de verdad a los médicos en la práctica cotidiana.

Servicio médico

Pero los científicos de IBM, en colaboración con investigadores de algunos grupos médicos destacados —entre ellos la Clínica Cleveland, la Clínica Mayo y el Centro Oncológico Memorial Sloan Kettering—, están consiguiendo avances. Watson es capaz de leer documentos médicos a una velocidad a la que resultarían incomprensibles para los humanos: miles de ellos por segundo, en busca de indicios, correlaciones e ideas importantes.
Se ha usado el programa para formar a los estudiantes de Medicina y está empezando a emplearse en entornos clínicos oncológicos para proporcionar diagnósticos y recomendaciones de tratamiento, como si fuera un ayudante digital ingenioso.
IBM también ha creado un programa informático llamado Watson Paths, una herramienta visual que permite al médico ver las pruebas y las deducciones en las que Watson se ha basado para hacer una recomendación.
“No basta con dar una respuesta sin más”, afirma Eric Brown, responsable en IBM de la tecnología relacionada con Watson.
Watson Paths apunta a la necesidad de que haya alguna clase de traducción máquina-humano a medida que la ciencia de los datos progrese. Como dice Danny Hillis, experto en inteligencia artificial: “La clave que hará que funcione y resulte aceptable a ojos de la sociedad será la historia que cuente”. No una narración exactamente, sino más bien una información de seguimiento que explique el modo en que se ha tomado una decisión automatizada. “¿Cómo nos afecta?”, pregunta Hillis. “¿Hasta qué punto es una decisión de la máquina y hasta qué punto es humana?”, añade.
Uno de los planteamientos es que el humano siga formando parte del proceso. Los datos y los programas informáticos dan vida a las nuevas entidades crediticias que emplean la ciencia de los datos. Pero, en San Francisco, una de estas empresas de nueva creación, Earnest, hace que al menos uno de sus empleados revise las recomendaciones predictivas del programa, aunque es raro que rechace lo que dictan los algoritmos. “Pensamos que el factor humano siempre será una parte importante del proceso, ya que nos permite asegurarnos de que no nos equivocamos”, dice Louis Beryl, cofundador y consejero delegado de Earnest.
Pero esa postura, opinan otros, no es más que una ilusión reconfortante; puede que sea buen marketing, pero no necesariamente buena ciencia de los datos. Afirman que el hecho de concederle a un humano capacidad de veto dentro de un sistema algorítmico introduce un sesgo humano. Al fin y al cabo, lo que promete la toma de decisiones fundamentada en los macrodatos es que las decisiones basadas en los datos y el análisis —más ciencia, menos intuición y menos arbitrariedad— proporcionarán mejores resultados.
No obstante, aunque el optimismo esté justificado, hay un reto importante, dada la complejidad y la opacidad de la ciencia de los datos. ¿Podrá una tecnología que promete grandes beneficios medios proteger lo suficiente al individuo de una decisión misteriosa y caprichosa que podría tener un efecto duradero en la vida de una persona?
Una posible solución, según Gary King, director del Instituto de Ciencias Sociales Cuantitativas de Harvard, sería que los creadores de los algoritmos que otorgan puntuaciones los retoquen no para obtener el máximo beneficio o rentabilidad, sino para que el valor que conceden a la persona sea algo mayor, lo que reduciría el riesgo de equivocarse.
En el sector bancario, por ejemplo, se podría ajustar un algoritmo para que redujese la probabilidad de catalogar erróneamente de aprovechado al solicitante de un préstamo, aunque ello conlleve que la entidad crediticia acabe concediendo más préstamos incobrables.
“El objetivo”, dice King, “no es necesariamente que un humano supervise el resultado a posteriori, sino mejorar la calidad de la clasificación de los individuos”.
En cierto sentido, un modelo matemático equivale a una metáfora, una simplificación descriptiva. Filtra, pero también distorsiona un poco. Por eso, a veces, un ayudante humano puede aportar esa dosis de datos matizados que se le escapa al autómata algorítmico. “A menudo, los dos juntos pueden funcionar mucho mejor que el algoritmo por sí solo”, afirma King.
Steve Lohr, columnista de New York Times especializado en tecnología, es el autor deData-ism.
Fuente:

11 de junio de 2015

Ya se puede almacenar datos en cadenas de ADN artificiales

Nuestros sistemas de almacenamiento son cada vez más pequeños, pero el récord en ese sentido lo sigue teniendo el ADN. Sus cadenas de polímeros contienen toda la información necesaria para la vida repartida en un espacio mínimo. Un equipo de investigadores acaba de dar un paso importante para desarrollar un sistema de almacenamiento similar, pero basado en ADN artificial.

No es la primera vez que logran crear ADN sintético. Lo que ha conseguido un equipo de científicos del Instituto Charles Sadron de Estrasburgo y de la Universidad de Marsella es codificar información digital en una cadena sintética de moléculas conocidas como monómeros. Utilizando tres tipos de estas piezas básicas, los investigadores han logrado codificar un mensaje en código binario.
El mensaje se ha codificado a mano, pero no sería complicado crear un dispositivo capaz de grabar la información de manera automática. Las moléculas utilizadas son lo bastante estables como para contener el mensaje durante años.
Para leer la información grabada en este ADN artificial solo hace falta secuenciarlo mediante, por ejemplo, un espectrómetro de masas. Los creadores de la técnica esperan poder almacenar kilobytes o incluso Megabytes de datos en unos pocos años. Todavía es pronto para hablar de algo como un disco duro de ADN, pero la técnica tiene algunas aplicaciones interesantes. Una de ellas es crear un sistema de autenticación similar a los códigos de barras pero imposible de falsificar sin un laboratorio avanzado de bioquímica. [Nature Communications vía Science Daily]
Tomado de:

5 de noviembre de 2014

Internet (de forma oulta) sabe lo que haces durante todo el día...

"Yo no tengo nada que ocultar", dice mucha gente cuando se enfrentan al problema de la seguridad y la privacidad en la era de internet y la hiperconectividad.





"Cuando les pregunto sobre su salario, no me responden; cuando les pregunto sobre sus fantasías sexuales no me responden", dice el experto en seguridad Bruce Schneier.


"Eso de 'yo no tengo nada que ocultar' es estúpido, es un comentario tonto", agrega el hombre que ayudó al periodista Glen Greenwald a analizar los documentos que filtró Edward Snowden de la NSA (siglas de la Agencia Nacional de Seguridad de Estados Unidos).

Más aún, insiste, la vida cotidiana de casi todos está siendo monitoreada en formas que nadie imagina y los detalles que se van acumulando podrían ser usados en contra de cualquiera en el futuro.

Las palabras de Schneier, quien participó de la BBC Future's World-Changing Ideas Summit (Cumbre de BBC Future sobre ideas que cambiarán el mundo) el 21 de octubre, se hacen eco de las que escribió Edward Snowden en un email que le envió a la documentalista Laura Poitras (quien colaboró con Greenwald en la recolección y análisis de los documentos de la NSA).

"Cada torre de telefonía celular que pasas, amigo que tienes, artículo que escribes, sitio que visitas, asunto (de correo electrónico) que escribes y paquete de datos que transmites está en manos de un sistema cuyo alcance no tiene límites pero cuyas salvaguardas sí los tienen", dijo Snowden en esa misiva.

El artículo completo en:

BBC Ciencia

23 de septiembre de 2014

Para pedir un aumento o subir una foto al Facebook, espérate al miércoles

En palabras del psicólogo Guillermo Fouce, el miércoles es la jornada de mayor rendimiento a nivel laboral, pues la capacidad mental y de esfuerzo y el ritmo de trabajo llegan a su máximo”.

También constituye el momento más oportuno para pedir un aumento de sueldo, según Office Angels, una empresa británica de reclutamiento de personal.

Para la consultora EdgeRank Checker, que asesora a las empresas para optimizar su presencia en las redes sociales, no hay mejor momento para subir comentarios o fotos a Facebook.

De hecho, el pico máximo de tráfico en esta red se registra el miércoles por la tarde, con lo que aumentan las opciones de ser más visto y leído. Una curiosidad: los miércoles, los niños tienen menos apetito y comen peor, afirma un estudio hecho en París por la Fundación Rothschild.

Fuente:

Muy Interesante

10 de septiembre de 2014

Científicos han encontrado una nueva forma de teleportar datos



El grupo de físicos de Instituto Kavli de Nanociencia de la Universidad de Tecnología de Delft (Países Bajos) informaron que han sido capaces de transferir la información entre dos bits cuánticos separados por tres metros. 

La teleportación cuántica, explica Rusia Today, consiste en la transferencia de la llamada información cuántica –en este caso lo que se conoce como el espín de un electrón- de un lugar a otro sin mover la materia física a la que está fijada la información. Los bits clásicos, las unidades básicas de información en el cálculo, pueden tener solo uno de dos valores: 0 o 1. Pero los bits cuánticos, o qubits, pueden contar a la vez con muchos valores. Ofrecen la posibilidad de crear una nueva generación de sistemas de computación más rápidos y la capacidad de crear redes de comunicación completamente seguras. 

Para completar la posibilidad de crear un Internet cuántico, la investigación ofrece la posibilidad de crear redes de ordenadores cuánticos. A día de hoy los ordenadores cuánticos, que podrían resolver ciertas clases de problemas mucho más rápido que los ordenadores más potentes usados ahora, son un objetivo que parece muy distante. 

Tomado de:

Radio Rebelde

6 de mayo de 2014

Las búsquedas en la Wikipedia ayudan a predecir epidemias

Los datos de uso de los artículos de la Wikipedia relacionados con la gripe coinciden con la evolución de enfermedad en EEUU. Estas predicciones se muestran más robustas que las que realiza Google y además se realizan con datos abiertos.


El uso de herramientas sociales —redes como Twitter o buscadores como Google— para predecir el comportamiento de las masas se está desarrollando cada vez más en nuestros días. Empezó siendo una serie de experimentos en el ámbito académico pero ya se está trabajando con ellas desde numerosas empresas y organismos para aprovechar toda la sabiduría del big data: millones de internautas haciendo lo mismo a la vez tiene que indicar algo. El problema es calibrar, ajustar lo que verdaderamente significa una avalancha de tuits o de búsquedas en un sentido, en un momento, en un lugar. La última herramienta en sumarse a la fiesta de los datos sociales ha sido la Wikipedia, después de que unos investigadores de la Escuela Médica de Harvard hayan determinado que su uso es capaz de predecir con precisión, en tiempo real, la llegada de los brotes de gripe en EEUU.

Dado que esta enciclopedia online está muy presente en nuestras vidas, parece lógico pensar que determinados picos o tendencias de uso pueden suponer que cuando el río suena, agua lleva. No en vano, la Wikipedia es ya la primera fuente de información médica entre los pacientes y los propios trabajadores sanitarios. Si en un determinado día se disparan significativamente las búsquedas sobre una dolencia contagiosa, esto debe suponer que hay una epidemia gestándose.

Los investigadores David McIver y John Brownstein se centraron en las visitas que recibieron 35 entradas de la Wikipedia en inglés relacionadas con la gripe: desde “resfriado común” hasta “fiebre” pasando por todas las variedades del virus conocidas (H1N1, H5N1, etc.) y remedios como el Tamiflu. Recogieron información de 294 semanas en las que, de media, se realizaban unas 30.000 consultas diarias, con picos de 334.000 visitas. Y cruzaron los datos con las estadísticas de los Centros para el Control y la Prevención de Enfermedades de EEUU (CDC): descubrieron que podían predecir con precisión el número de casos de gripe con una diferencia de apenas el 0,27% con respecto a los datos oficiales.

Y, lo más importante, podían ofrecer estos datos casi en tiempo real: dos semanas antes que las autoridades médicas, que tardan ese tiempo en elaborar sus predicciones a partir de sus sistemas propios de información. Todo gracias a que Wikipedia permite que se consulten las estadísticas de uso de cada entrada, y las actualiza a diario, lo que ofrece infinidad de datos a los investigadores que quieran usarlos.

“La principal ventaja de los datos de Wikipedia es que son completamente abiertos y para todos, por lo que cualquier persona puede crear sus propios modelos o mejorar el nuestro”, explica a Materia David McIver, en referencia a Google Flu Trends (GFT), la herramienta que desarrolló el buscador para predecir los brotes de gripe y que ha generado un intenso debate académico tras comenzar a fallar. Los datos que usa Google solo los conocen ellos y los de la Wikipedia son de libre acceso, lo que permite hacer ciencia con ellos: reutilizarlos cuantas veces sea necesario para replicar resultados o mejorar los de otros.

Wikipedia: más fiable que Google...

El artículo completo en:

Materia (España)




9 de agosto de 2013

Diez datos sorprendentes sobre el Sol





El astro rey lo tenemos aquí al lado, cada mañana nos baña con su luz, y sin embargo su física es tan sorprendente que no podemos dejar de dedicarle un especial de datos curiosos.

1


El Sol quema cada segundo 4 millones de toneladas de hidrógeno. El equivalente a la masa de un superpetrolero. Y también el equivalente a quemar un millón de elefantes.

2

La enorme presión gravitatoria en el interior del Sol supera la repulsión electrostática entre los núcleos de hidrógeno (protones) y los obliga a acercarse. Se fusionan hasta convertirse en núcleos de helio. Este proceso convierte en energía el 0,8% de la masa de los núcleos de hidrógeno. Así, con 1kg de hidrógeno, se libera un millón de veces más energía que la combustión de 1 kg de carbón.

3

El Sol pesa 2.000 millones de trillones de toneladas. La masa del Sol, pues, equivale a unas 332.950 veces la masa de la Tierra.

4

Desde que se formó, el Sol solo ha perdido un 0,1% de su masa total.

5

Cada kilogramo de hidrógeno consumido por el Sol libera la misma energía que una bomba de hidrógeno de 1 megatón.

6

Una erupción solar de gran tamaño contiene suficiente energía como para asegurar el suministro en Estados Unidos durante 100.000 años.

7

El Sol tiene un potente campo magnético que se retuerce y se enrolla, y a veces arroja al espacio gigantescas nubes de plasma. Una explosión registrada el 28 de octubre de 2010, por ejemplo, lanzó al espacio un tornado de plasma de 350.000 km.

8

El Sol contiene el 98,8% de la masa total del Sistema Solar. El otro 1,2% en su mayor parte corresponde a Júpiter.

9

Si viajáramos en un avión de pasajeros a su velocidad normal (alrededor de 644 kilómetros por hora) yendo de la Tierra al Sol, necesitaríamos 20 años para llegar a nuestro destino.

10

Tiene una vida aproximada de 10.000 millones de años, y se encuentra en el ecuador de su vida. Cuando su combustible se esté agotando, se hinchará y nos engullirá a todos. Para entonces ya deberíamos haber encontrado otro planeta donde residir.

Tomado de:

Xakata Ciencia

15 de marzo de 2013

Videojuego convierte tu teléfono en un laboratorio colaborativo para la neurociencia

neurociencia


El centro interdisciplinario de neuroimagen de la Fundación Wellcome Trust lanzó un juego gratis para iOS desarrollado en conjunto con neurocientíficos de la Escuela Universitaria de Londres donde cada vez que juegues les ayudarás a recolectar datos para la realización de un enorme experimento científico.

La aplicación consiste en cuatro juegos que miden una determinada función del cerebro, y que está diseñada para enseñarle a los jugadores acerca de cómo funciona el cerebro humano, así como para recolectar la información del desempeño de los jugadores para enviarla a los neurocientíficos, a quienes les servirá para aprender la forma en que varían las funciones del cerebro en la población y como ésta cambia con el tiempo.
El neurocientífico Rick Adams del Centro para la Neuroimagen Wellcome Trust afirmó que “queríamos hacer algo que le demostrara a la gente que la neurociencia no consiste en cerebros en jarros o hombres en batas blancas, sino que busca responder preguntas que nos interesan a todos como ‘¿qué me hace feliz?’
Si tienes un teléfono Android y quieres colaborar con la investigación, tendrás que estar atento pues la versión para el sistema operativo de Google aún no está disponible, aunque la gente de Wellcome Trust asegura que falta poco para el debut en Android.
Links:
-The Great Brain Experiment (App Store)
-Great Brain Experiment makes your phone a crowdsourced neurology lab (SlashGear)

Fuente:

WayerLess
google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0