Latest Posts:

Mostrando las entradas con la etiqueta base de datos. Mostrar todas las entradas
Mostrando las entradas con la etiqueta base de datos. Mostrar todas las entradas

12 de noviembre de 2019

La agricultura se vuelve digital para ser más ecológica

En los campos agrícolas de Europa ya se pueden encontrar tractores que no necesitan conductor para moverse, máquinas que se comunican entre ellas y sistemas inteligentes para deshacerse de las malas hierbas. 


También se han empezado a volar los primeros drones para sacar mapas aéreos detallados y poder tratar los cultivos con técnicas de precisión y más sostenibles. Y en el trasfondo aparece cada vez más nítido el horizonte del machine learning, con su potencial de mejora de los rendimientos gracias a predicciones afinadas. Los datos existentes reflejan que aún se trata de un comienzo: pero poco a poco, también el campo se digitaliza.
 
Las innovaciones que el sector acoge buscan aliviar las condiciones de trabajo de los agricultores, así como obtener mejores rendimientos de los cultivos y reducir el impacto de operaciones especialmente costosas como la detección de plagas y enfermedades. Pero también hay objetivos relativos a la sostenibilidad: la reducción de herbicidas dañinos para los terrenos y sus frutos y una gestión inteligente del agua necesaria para el riego, un recurso puede ser escaso.

Entre las principales nuevas tecnologías que se emplean en el agro tenemos:


El futuro de la agricultura pasa por la utilización de tractores y máquinas autónomas sin conductor, y robots como el prototipo de la foto. Crédito: Small Robot Company.

Tractores y otras máquinas autoguiadas

La conducción humana de vehículos agrícolas presenta algunos inconvenientes: entre ellos, cansancio por la monotonía y la repetitividad de la tarea y errores acumulados en el seguimiento de las trayectorias. Los sistemas de autoguiado de estas máquinas ya son una opción integrada en la mayoría de ellas, y muy utilizadas por los agricultores, que por lo general ven en este aspecto una inversión segura y rentable.

De momento, la ley obliga a que los conductores sigan montados en el vehículo pese a que no lo conduzcan. Pero ahora pueden dedicarse a una supervisión mucho más detallada del trabajo en curso, destaca el investigador. El siguiente paso en esta innovación, agrega, será hacer las máquinas completamente autónomas, para que un solo operador pueda monitorear a distancia tres o cuatro de ellas a la vez.  

Protocolo de conexión electrónica

Ya casi todos los fabricantes de maquinaria agrícola integran en sus productos un protocolo único de comunicación electrónica, la norma internacional ISOBUS, que permite la compatibilidad entre máquinas diferentes a través de un cable ethernet. 

Así la información que obtenga un tractor, por ejemplo datos GPS, se puede transmitir directamente a un apero conectado con él (sin que tenga que coincidir la marca de ambos), lo que permite una aplicación más ajustada de abonados y herbicidas y mejorar ampliamente el tratamiento de los cultivos.

Equipos de control inteligente

Cada día la normativa europea en el uso de materias activas contra plagas y mala hierba es más restrictiva. Y la necesidad de encontrar métodos de control de la mala hierba sin uso de productos químicos es particularmente prioritaria para cultivos ecológicos. En los últimos años se han ido implementando máquinas capaces de detectar, por ejemplo con cámaras, esas plantas nocivas y quitarlas sin dañar el cultivo. 

El número de equipos inteligentes de este tipo adaptables a diferentes sistemas agrícolas aumentará en los próximos años. Desde el punto de vista de la contaminación ambiental y la seguridad alimentaria, son claras las ventajas frente a la aplicación convencional de herbicidas.


Protocolos de comunicación únicos, Inteligencia Artificial o el “machine learning” contribuyen a hacer más sostenible y eficaz la gestión de los recursos agrícolas. Crédito: Garford.

Drones

El uso de aéreos no tripulados en el campo todavía está en una fase experimental. Pero también representa una de las innovaciones con mayor potencial para el futuro. Uno de sus principales beneficios es el de poder proporcionar información espacial útil para generar mapas de cultivo detallados y así permitir mejores tratamientos de los terrenos. Si integran una cámara térmica, también dan la posibilidad de conocer la temperatura media de los cultivos para medir mejor el riego en cada zona de un campo.

Machine Learning

Estimar con exactitud la cosecha de un cultivo representa una información muy relevante para agricultores y cooperativas o agentes encargados de gestionar y vender el producto. Por ello, aprovechar la tecnología del aprendizaje automático basada en el análisis de ingentes cantidades de datos a través de algoritmos puede aportar ventajas prometedoras en este sentido. 

Ya se han empezado a poner en marcha algunos proyectos basados en inteligencia artificial. Mientras que la FAO prevé que en 2050 la producción agrícola deberá crecer un 50% respecto a como fue en 2012 para satisfacer la demanda global y la ONU advierte de la necesidad de cambiar modelo alimentario para frenar el cambio climático, hay quien ve en esta innovación también un potencial para hacer más sostenible la gestión de los recursos agrícolas.

Fuente:

Canal de Innovación


5 de febrero de 2018

Big Data: Todo lo que necesitas saber sobre la conquista del dato

El mar de datos es inmenso y caótico, pero navegarlo es cuestión de astucia al timón. Ya hay una cantidad casi infinita de información, el problema ahora es que se desborda. Industrias y gobiernos ponen el foco en cómo gestionarla.


En futuro en el que cada empleado sea su propio jefe, en el que la política de empleo una al parado con la empresa que necesita de sus cualidades y en el que las variables a la hora de acometer una obra faraónica se resuelvan con sencillez. El big data es una chistera de la que pueden sacarse infinitos conejos. Pero, como todo truco de magia, es frágil y arduo de ejecutar. La conversación sobre este paradigma tecnológico, del que numerosos analistas esperan un valor global de 200 millones de euros para 2020, ha cambiado radicalmente. Greg DeMichillie, director de producto de Google Cloud y ex de Amazon y Adobe, ha vivido esta transformación muy de cerca: “Ha habido un gran cambio en los últimos cinco o diez años. El problema al que se enfrentaban las compañías era que no podían permitirse económicamente almacenar todos sus datos. Se veían forzadas a elegir qué conservar y qué eliminar. Hoy eso se ha acabado; cualquier empresa puede permitirse almacenar el histórico completo de sus operaciones en la nube. Ahora el reto es encontrar, por así decirlo, las agujas de valor en estos pajares de información”.
La pregunta fundamental es cómo puede usarse esta tecnología
más allá de las grandes empresas.
Esas agujas pueden tener tanta importancia como fijar el rumbo político de la nación más poderosa del mundo. Rayid Ghani, director del Centro para la Ciencia de los Datos y las Políticas Públicas de la Universidad de Chicago, tuvo exactamente ese trabajo como jefe científico de la campaña para la reelección de Obama como presidente de Estados Unidos. Su océano de datos, los casi 66 millones de electores que votaron en los comicios. Pero no todos valían lo mismo.La utilidad electoral
“Las incógnitas que necesitas despejar para ganar unas elecciones son muy simples. Para cada votante debes descubrir dos cosas: ¿Te apoya o no? ¿Votará o no?”. Estas dos reglas despliegan la hidra de millones de cabezas que es enfrentarse a un censo electoral tan inmenso como el de Estados Unidos. Ghani explica cómo evaluar estas dos variables con una puntuación de 0 a 100 y las decisiones que hay que tomar, votante a votante, según la puntuación que saque. A los extremos, por ejemplo, no merece la pena dedicarles recursos económicos. “¿Para qué vas a gastar dinero en el que va a votar seguro y te apoya o en el que no te apoya y no va a votar seguro? El gasto tiene que hacerse en los que se encuentran en valores intermedios”. Sin embargo, los que sacan valores casi perfectos, cercanos al doble cien, son esenciales. “Les puedes pedir que participen como voluntarios, que contribuyan a financiar la campaña o que simplemente difundan el entusiasmo por tu candidato entre sus amigos”.

El arte de la evaluación de los datos, como apunta Ghani, llega en el amplio número de votantes incógnita. Para despejar esta duda, este experto indica que se acude al registro histórico. “Es especialmente complejo porque las elecciones suceden cada cuatro años, así que te puedes equivocar. Pero básicamente lo que hacemos es apoyarnos en cómo se evaluó a tales votantes de tal zona y en si esa evaluación se demostró correcta o incorrecta el día de las elecciones”.

Ghani subraya cuán importante es ser lo más fino posible en esta evaluación porque los recursos de una campaña son limitados. “Según el grado de éxito que calcules a priori has de elegir si te merece la pena un contacto por red social, una llamada telefónica o personarte en el hogar de ese votante para intentar convencerle de que te vote”. Estas predicciones se pueden reajustar sobre la marcha porque en algunos Estados se permite la votación anticipada, lo que posibilita que el modelo alimente sus poderes de oráculo teniendo en cuenta el comportamiento de estos votantes madrugadores.

La obsesión actual de Ghani y de otros académicos no se dirige, sin embargo, a sus usos electorales. Apunta a cómo los gobiernos de todo el planeta pueden desplegar esta tecnología para ser más eficientes. A lograr que las soluciones tecnológicas ya posibles se integren con administraciones poco acostumbradas o directamente desconocedoras de ellas. Salud. Transporte. Educación. Agricultura. Pobreza. Empleo. Todas las áreas de interés que competen a un Gobierno se pueden beneficiar de la aplicación inteligente del big data. Y en todas ellas la filosofía subyacente se resume en una sencilla frase: “Saber adónde debe ir el dinero y por qué”.

El artículo completo en: El País (Retina)

30 de octubre de 2017

La interesante alianza entre 'big data' y comportamiento social

Analizar el lenguaje en plataformas como las redes sociales supone conocer de primera mano el pulso de la sociedad.



El lenguaje es una de las fuentes más ricas de datos que tiene el ser humano. Es el reflejo del pensamiento y de lo que se quiere decir en cada momento. Por ello, analizarlo en plataformas como las redes sociales supone conocer de primera mano el pulso de la sociedad, qué piensa y cómo se posiciona sobre la actualidad. Una monitorización al uso de las redes puede ofrecer algunas pistas, pero no ahonda lo suficiente porque no estudia en profundidad el lenguaje, qué quiere decir la persona con esas palabras. 

Para realizar este análisis, uno de los métodos más precisos e incisivos actualmente es el procesamiento del lenguaje natural. Esta disciplina cuenta con décadas de investigación y ha desarrollado sistemas que analizan de manera precisa el contenido de un texto, pudiendo extraer el sentimiento o la opinión que se deriva del mismo, lo que llamamos análisis semántico.

A través de un procedimiento de extracción de significado pueden apreciarse las opiniones de los usuarios, si son positivas o negativas; las emociones con respecto a lo que cuentan; la intención del mensaje, si se trata de una queja o sugerencia, por ejemplo; e incluso el grado de concienciación midiendo la implicación de un usuario sobre un problema social derivado de sus manifestaciones sobre el mismo. El sistema del análisis de sentimientos detecta además temas o palabras representativas, clasifica por categoría y establece una serie de variables demográficas.

La característica de esta técnica que le confiere la categoría de tercera generación de este tipo de aplicaciones de monitorización es la introducción del análisis semántico. Este estudio semántico permite profundizar en los textos distinguiendo entre factores lingüísticos como la ironía, las metáforas o el mismo contexto de la conversación.

Además, la información recopilada en las monitorizaciones basadas en el análisis de sentimientos difiere en gran medida sobre la recogida en encuestas o estudios de mercados. Todos los datos recogidos sirven para conocer el comportamiento, las opiniones, el sentimiento de los usuarios sobre ciertos productos o temas sobre los que se lleve a cabo este exhaustivo análisis de una manera instantánea y espontánea. Los usuarios vierten en sus redes opiniones y reacciones más ajustadas a la realidad porque cuentan con una libertad que no la dan las encuestas, dónde la persona puede maquillar sus opiniones por distintos motivos.

El artículo completo en: El País (España)

12 de julio de 2015

¿Los algoritmos lo saben todo o deben ayudarles los humanos?

La nueva ciencia de datos se cuestiona cuándo hace falta que una persona supervise una decisión automatizada como un diagnóstico médico o la concesión de un préstamo.



Hay ejércitos formados por las mentes más brillantes de la informática que se han dedicado a incrementar las probabilidades de conseguir una venta. La abundancia de datos y programas inteligentes de la era de Internet ha abierto la puerta al marketing a medida, los anuncios personalizados y las recomendaciones de productos.
Niéguenlo si quieren, pero no es un hecho sin importancia. No hay más que fijarse en la gran restructuración, propiciada por la tecnología, de los sectores de la publicidad, los medios de comunicación y la venta minorista.
Esta toma de decisiones automatizada está pensada para eliminar a los humanos de la ecuación, pero el impulso de querer que alguien supervise los resultados que vomita el ordenador es muy humano. Muchos expertos en datos matemáticos consideran que el marketinges una placa de Petri con pocos riesgos —y, sí, lucrativa— en la que poner a punto las herramientas de una nueva ciencia. “¿Qué pasa si mi algoritmo se equivoca? Que alguien ve el anuncio erróneo”, comenta Claudia Perlich, una especialista en datos que trabaja para una empresa de nueva creación que se dedica a la publicidad personalizada. “¿Qué daño puede hacer? No es un falso positivo de un cáncer de mama”.
Pero el riesgo aumenta a medida que la economía y la sociedad se empapan de los métodos y la mentalidad de la ciencia de los datos. Las grandes empresas y las de nueva creación empiezan a utilizar la tecnología para tomar decisiones relacionadas con el diagnóstico médico, la prevención de la delincuencia y la concesión de préstamos. En estos ámbitos, la aplicación de la ciencia de los datos plantea dudas sobre cuándo hace falta que una persona supervise atentamente los resultados de un algoritmo.

Los macrodatos pueden y deben aportarnos a todos más seguridad, oportunidades económicas y comodidad”
Estas dudas están dando pie a una rama de los estudios académicos conocida como responsabilidad algorítmica. Las organizaciones que velan por el interés público y los derechos civiles están examinando detenidamente las repercusiones que tiene la ciencia de los datos, tanto por sus errores como por sus posibilidades. En el prólogo de un informe del pasado mes de septiembre, Derechos civiles, macrodatos y nuestro futuro algorítmico, Wade Henderson, presidente de la Conferencia por el Liderazgo en Derechos Humanos y Civiles, escribía: “Los macrodatos pueden y deben aportarnos a todos más seguridad, oportunidades económicas y comodidad”.
Fíjense en los préstamos para el consumo, un mercado en el que hay varias empresas de nueva creación especializadas en macrodatos. Sus métodos representan la versión digital del principio más elemental de la banca: conozca a sus clientes. Estas nuevas entidades crediticias especializadas en datos aseguran que, al recopilar datos de fuentes como los contactos de las redes sociales, o incluso observar el modo en que un solicitante rellena un formulario de Internet, pueden conocer a los prestatarios mejor que nunca y predecir si devolverán el préstamo mejor que si se limitasen a estudiar el historial crediticio de alguien.
Lo que prometen es una financiación y una valoración más eficaces de los préstamos, lo que ahorrará a la gente miles de millones de dólares. Pero los préstamos basados en macrodatos dependen de unos algoritmos informáticos que analizan minuciosamente montones de datos y van aprendiendo durante el proceso. Es un sistema muy complejo y automatizado (y hasta sus defensores tienen dudas).

Toman una decisión sobre usted, sin que usted tenga ni idea de por qué la han tomado”
“Toman una decisión sobre usted, sin que usted tenga ni idea de por qué la han tomado”, explica Rajeev Date, que invierte en entidades crediticias que emplean la ciencia de los datos y ha sido director adjunto de la Oficina de Protección Financiera del Consumidor. “Eso es inquietante”.
La preocupación es similar también en otros ámbitos. Desde que su ordenador Watson venciese a los ganadores del concurso televisivoJeopardy! hace cuatro años, IBM ha llevado la tecnología de la inteligencia artificial basada en datos mucho más allá de los juegos de ingenio. La asistencia sanitaria ha sido uno de los grandes proyectos. La historia del uso de la tecnología “especializada” para contribuir a la toma de decisiones médicas ha sido decepcionante; los sistemas no han sido lo bastante inteligentes ni lo bastante rápidos para ayudar de verdad a los médicos en la práctica cotidiana.

Servicio médico

Pero los científicos de IBM, en colaboración con investigadores de algunos grupos médicos destacados —entre ellos la Clínica Cleveland, la Clínica Mayo y el Centro Oncológico Memorial Sloan Kettering—, están consiguiendo avances. Watson es capaz de leer documentos médicos a una velocidad a la que resultarían incomprensibles para los humanos: miles de ellos por segundo, en busca de indicios, correlaciones e ideas importantes.
Se ha usado el programa para formar a los estudiantes de Medicina y está empezando a emplearse en entornos clínicos oncológicos para proporcionar diagnósticos y recomendaciones de tratamiento, como si fuera un ayudante digital ingenioso.
IBM también ha creado un programa informático llamado Watson Paths, una herramienta visual que permite al médico ver las pruebas y las deducciones en las que Watson se ha basado para hacer una recomendación.
“No basta con dar una respuesta sin más”, afirma Eric Brown, responsable en IBM de la tecnología relacionada con Watson.
Watson Paths apunta a la necesidad de que haya alguna clase de traducción máquina-humano a medida que la ciencia de los datos progrese. Como dice Danny Hillis, experto en inteligencia artificial: “La clave que hará que funcione y resulte aceptable a ojos de la sociedad será la historia que cuente”. No una narración exactamente, sino más bien una información de seguimiento que explique el modo en que se ha tomado una decisión automatizada. “¿Cómo nos afecta?”, pregunta Hillis. “¿Hasta qué punto es una decisión de la máquina y hasta qué punto es humana?”, añade.
Uno de los planteamientos es que el humano siga formando parte del proceso. Los datos y los programas informáticos dan vida a las nuevas entidades crediticias que emplean la ciencia de los datos. Pero, en San Francisco, una de estas empresas de nueva creación, Earnest, hace que al menos uno de sus empleados revise las recomendaciones predictivas del programa, aunque es raro que rechace lo que dictan los algoritmos. “Pensamos que el factor humano siempre será una parte importante del proceso, ya que nos permite asegurarnos de que no nos equivocamos”, dice Louis Beryl, cofundador y consejero delegado de Earnest.
Pero esa postura, opinan otros, no es más que una ilusión reconfortante; puede que sea buen marketing, pero no necesariamente buena ciencia de los datos. Afirman que el hecho de concederle a un humano capacidad de veto dentro de un sistema algorítmico introduce un sesgo humano. Al fin y al cabo, lo que promete la toma de decisiones fundamentada en los macrodatos es que las decisiones basadas en los datos y el análisis —más ciencia, menos intuición y menos arbitrariedad— proporcionarán mejores resultados.
No obstante, aunque el optimismo esté justificado, hay un reto importante, dada la complejidad y la opacidad de la ciencia de los datos. ¿Podrá una tecnología que promete grandes beneficios medios proteger lo suficiente al individuo de una decisión misteriosa y caprichosa que podría tener un efecto duradero en la vida de una persona?
Una posible solución, según Gary King, director del Instituto de Ciencias Sociales Cuantitativas de Harvard, sería que los creadores de los algoritmos que otorgan puntuaciones los retoquen no para obtener el máximo beneficio o rentabilidad, sino para que el valor que conceden a la persona sea algo mayor, lo que reduciría el riesgo de equivocarse.
En el sector bancario, por ejemplo, se podría ajustar un algoritmo para que redujese la probabilidad de catalogar erróneamente de aprovechado al solicitante de un préstamo, aunque ello conlleve que la entidad crediticia acabe concediendo más préstamos incobrables.
“El objetivo”, dice King, “no es necesariamente que un humano supervise el resultado a posteriori, sino mejorar la calidad de la clasificación de los individuos”.
En cierto sentido, un modelo matemático equivale a una metáfora, una simplificación descriptiva. Filtra, pero también distorsiona un poco. Por eso, a veces, un ayudante humano puede aportar esa dosis de datos matizados que se le escapa al autómata algorítmico. “A menudo, los dos juntos pueden funcionar mucho mejor que el algoritmo por sí solo”, afirma King.
Steve Lohr, columnista de New York Times especializado en tecnología, es el autor deData-ism.
Fuente:

5 de noviembre de 2014

Internet (de forma oulta) sabe lo que haces durante todo el día...

"Yo no tengo nada que ocultar", dice mucha gente cuando se enfrentan al problema de la seguridad y la privacidad en la era de internet y la hiperconectividad.





"Cuando les pregunto sobre su salario, no me responden; cuando les pregunto sobre sus fantasías sexuales no me responden", dice el experto en seguridad Bruce Schneier.


"Eso de 'yo no tengo nada que ocultar' es estúpido, es un comentario tonto", agrega el hombre que ayudó al periodista Glen Greenwald a analizar los documentos que filtró Edward Snowden de la NSA (siglas de la Agencia Nacional de Seguridad de Estados Unidos).

Más aún, insiste, la vida cotidiana de casi todos está siendo monitoreada en formas que nadie imagina y los detalles que se van acumulando podrían ser usados en contra de cualquiera en el futuro.

Las palabras de Schneier, quien participó de la BBC Future's World-Changing Ideas Summit (Cumbre de BBC Future sobre ideas que cambiarán el mundo) el 21 de octubre, se hacen eco de las que escribió Edward Snowden en un email que le envió a la documentalista Laura Poitras (quien colaboró con Greenwald en la recolección y análisis de los documentos de la NSA).

"Cada torre de telefonía celular que pasas, amigo que tienes, artículo que escribes, sitio que visitas, asunto (de correo electrónico) que escribes y paquete de datos que transmites está en manos de un sistema cuyo alcance no tiene límites pero cuyas salvaguardas sí los tienen", dijo Snowden en esa misiva.

El artículo completo en:

BBC Ciencia

14 de agosto de 2013

15 algoritmos de ordenación animados y con sonido



A todos nos ha tocado ordenar una colección de revistas, libros, discos, un mazo de cartas, etc.

Cuando son pocos da más o menos igual el método que sigas para ordenarlos, aunque cuando el número de cosas a ordenar crece sí va cobrando importancia el método que escojas.

De hecho existen numerosos métodos para ordenar, de los que este vídeo recoge 15 que ordenan números enteros generados al azar. Los muestra en una animación acompañada por sonido –que a menudo recuerda el de los ordenadores en las películas de los 60– que da una idea de cómo van quedando de ordenados estos números según se va ejecutando el algoritmo en cuestión.

Los 15 algoritmos son: ordenamiento por selección, ordenamiento por inserción, ordenamiento rápido, ordenamiento por mezcla, ordenamiento por montículos (heapsort), ordenamiento Radix por dígito menos significativo, ordenamiento Radix por dígito menos significativo, std::sort (la función de ordenación que usa C++) usando intro sort, std::stable_sort (con un ordenamiento por mezcla adaptativo), ordenamiento Shell, ordenamiento de burbuja, ordenamiento de burbuja bidireccional, gnome, bitonic, y 30 degundos de BogoSort.

En The Sound of Sorting - Visualization and "Audibilization" of Sorting Algorithms hay información acerca de como se generaron las animaciones y los sonidos; en este otro conjunto de vídeos se pueden ver estos algoritmos en acción uno a uno y a un ritmo más lento:



Tomado de:

Microsiervos

28 de febrero de 2013

Facebook construye centros de datos de almacenamiento en frío

Hoy día subimos infinidad de fotos a redes sociales. Todas ellas ocupas un espacio gigante que ni nos imaginamos. En realidad, los usuarios de Facebook añaden más de 350 millones de foto al día a la plataforma. Echad vosotros mismos las cuentas. Por esa razón, Mark Zuckerberg está planeando alojar todos los archivos viejos de forma más eficiente, almacenamiento en frío, en sus centros de datos de Prineville. Cabe recordar que hace poco mencionamos la colaboración de Facebook e Intel para desarrollar futuros centros de datos.

Facebook

A lo largo de los años subimos miles y miles de fotos en Facebook. Sin embargo, lo utilizamos más como un servicio de almacenamiento más que para verlas todos los días. De hecho, el 82 por ciento del tráfico en la plataforma está centrado en el 8 por ciento del total de fotos disponibles. Las cifras impresionan, y es que Facebook ya cuenta con más de 240 mil millones de fotos en sus entrañas.

Facebook pretende tener la primera fase, de un total de tres, del centro de datos que está construyendo lista para el otoño de este mismo año. Para que os hagáis una idea de la operación, cada centro contrará con una superficie de 1486 metros cuadrados.

¿En qué se diferencian de los servidores actuales? Los servidores tradicionales de Facebook están siempre encendidos y preparados para transmitir datos en cualquier momento. En cambio, los nuevos servidores de almacenamiento en frío se podrán poner en standby con el fin de no gastar tanta energía, ideales para alojar aquellas fotografías a las cuales se accede muy de vez en cuando. En realidad, serán 5 veces más eficientes, energéticamente hablando, que los de ahora.

Hay que tener en cuenta que en los primeros nueve meses, los centros que dispone Facebook en Prineville han consumido nada menos que 71 millones de kilovatios, comparable al consumo de 6000 hogares. Por esa razón, el almacenamiento en frío es una alternativa más que necesaria ya que su manutención costará un tercio menos que los sistemas actuales.

Además de la ventaja energética, estos centros de datos contarán con 8 veces más capacidad que los que se utilizan ahora mismo, es decir, un exabyte.

La única pega de todo esto es que a la hora de acceder a fotos antiguas, estas tardarán más en cargarse. Sin embargo, no os preocupéis, la información reciente se mantendrá en los sistemas de almacenamiento actuales.

Fuente:

Gizmologia

20 de febrero de 2013

Ejército chino es un "prolífico grupo de espionaje cibernético"


Seguridad cibernética

El robo de datos se ha convertido en un frecuente crimen cibernético alrededor del mundo. 

Una rama secreta del ejército de China es uno de los "grupos de espionaje cibernético más prolíficos" del mundo, dijo una firma de seguridad cibernética en EE.UU..

Mandiant asegura que la Unidad 61398 ha "robado sistemáticamente terabytes de datos" de al menos 141 organizaciones de todo el mundo.

La firma rastreó los ataques hasta las puertas de un edificio que no describió en Shanghái, donde funciona la unidad.

China niega rutinariamente el hackeo de empresas y gobiernos extranjeros.

Funcionarios de la embajada china en Washington le reiteraron al diario The New York Times el lunes que la piratería es ilegal bajo la ley china y que su gobierno no participa en ella.
Fuente:
BBC Ciencia

2 de marzo de 2012

Anonymous publica base de datos de Monsanto en Internet

(cc) SierraTierra

Anonymous publicó una base de datos de la empresa de biotecnología y agricultura Monsanto, como parte de la operación AntiSec. La base de datos es antigua, de modo que el colectivo reconoció que no significará mucho daño para la empresa, pero de todos modos advirtieron que seguirán tomando acciones en contra de la empresa.

“Su continuo ataque al suministro de alimentación del mundo, como a la salud de quienes la consumen, ha hecho que se ganaran nuestra atención completa. Sus crímenes contra la humanidad son demasiados para nombrar en una página”, afirmó AntiSec.

Anonymous comenzó los ataques contra Monsanto en julio pasado, cuando se hizo caer al sitio de la empresa y se publicó información sobre 2.500 personas involucradas en la industria de la agricultura. Según Monsanto, el 10% de esa información correspondía a empleados de la compañía.

Monsanto produce semillas genéticamente modificadas, lo que junto a sus políticas de lobby y demandas a otras compañías de la industria le ha hecho ganarse enemistades a nivel mundial. AntiSec afirma que los ataques son para protestar contra las demandas de la empresa a productores de lácteos orgánicos, por poner en sus etiquetas que sus productos no contienen hormonas de crecimiento.

“Han dejado a más de 9.000 pequeños granjeros sin empleo usando su enorme equipo legal para enterrarlos con sus maliciosas demandas por patentes. Continuamente han introducido productos dañinos, incluso mortales a nuestro suministro de alimentos sin advertencia, sin cuidado, todo para ganar dinero”, afirmó AntiSec.

Fuente:

FayerWayer

26 de septiembre de 2011

Un dispositivo para vivir hasta los 150 años

Genómica personalizada
  • Hay 2.200 genes (de 20.000) que son predecibles y accionables, o sea, que los doctores tienen idea de qué pasará si uno no los tiene.
  • A las mujeres que tienen una mutación en los genes BRCA asociados con el cáncer de mama, por ejemplo, se les suele aconsejar que se saquen los senos y el ovario para evitar el riesgo de cáncer.
  • Pero quienes tienen la variación de gen asociada con el mal de Alzheimer no pueden hacer mucho más que preocuparse.
  • Secuenciar el genoma entero -encontrar el patrón de ADN de cada gen en cada célula- cuesta ahora casi lo mismo que determinar si alguien tiene un gen particular. Eso implica que si se va a secuenciar uno de los 2.200 genes de los que se sabe algo, probablemente vale la pena secuenciar el genoma entero.
  • Durante el brote de E. coli en Alemania este año, le tomó menos de dos días a los investigadores secuenciar el genoma entero de una sepa hasta entonces desconocida.


George Church

El cerebro de Church funciona como el de pocos.

Uno se pregunta qué tiene en su ADN el profesor de génetica de la Universidad de Harvard George Church.

Si es cierto que los genes cuentan la historia de la vida de las personas, entonces deben tener alguna alteración en su secuencia de A, C, G y T pues su cerebro funcionan como el de casi nadie más.

Hace unos 30 años, Church era uno del puñado de personas que fantaseaban con secuenciar el genoma humano: todas las letras del código que nos distingue tanto de las moscas, como de nuestros padres.

Su laboratorio fue el primero en inventar una máquina para descifrar el código, y Church ha seguido mejorándola desde entonces.

Una vez se secuenció el primer genoma, impulsó la idea de que no era suficiente tener una sola secuencia; que necesitábamos tener las de todo el mundo. Cuando le recordaron que había costado casi US$3.000 millones secuenciar el primero, construyó otra máquina.

Ahora, el costo se ha reducido a menos de US$5.000 por genoma, y Church asegura que pronto bajará 10 o 20 veces más, hasta que cueste más o menos lo mismo que hacerse un examen de sangre.

Genes: leer, escribir, editar

Genoma

Si nos secuenciaran a todos nuestros genomas, el mundo empezaría una nueva etapa, asegura Church.

Para Church, llegar a que sea rutinario secuenciar el genoma marcaría el inicio de una nueva era tan transformativa y llena de posibilidades como la edad de internet.

Y no son sólo las compañías de seguros las que quieren tener los genomas enteros de todos sus clientes en sus archivos.

Para Church, ese será apenas el principio del proyecto, más que la culminación de tres décadas de trabajo.

El científico apunta una meta más alta: como leer el código del ADN ya es casi sencillo, él quiere escribirlo y editarlo.

Vivir hasta los 150

Church contempla un día en el que un implante en el cuerpo será capaz de identificar las primeras mutaciones de un tumor potencial, o los genes de una bacteria invasora.

Será posible tomarse un antibiótico que ataque al invasor o una pastilla contra el cáncer cuyo blanco sean solamente esas pocas células renegadas.

Otro dispositivo revisaría el medio ambiente que rodea a las personas y les avisaría si están entrando a un lugar que pone en riesgo su salud.

Una amplia gama de desórdenes genéticos podrán ser identificados al nacer, incluso en el momento de la concepción, y diminutos virus preprogramados serán introducidos al cuerpo para que penetren las células indicadas y corrijan el problema. Modificar el cuerpo adulto ante las primeras señales de enfermedad sería igual de fácil, predice.

No hay razón, según Church, para que la gente no pueda llegar a vivir hasta los 120 años de edad, y luego hasta los 150.

"Solía prevalecer la actitud de: 'éste es su destino genético, acéptelo', pero ahora la actitud es: la genética realmente se trata de los cambios que se pueden hacer en el entorno para cambiar su destino".

Ciencia democrática

Con su 1,93m de altura y su desordenada barba rojiza, es difícil que George Church pase desapercibido. El científico de 57 años de edad es tan imponente como sencillo. Y tiene cierta torpeza y candidez que lo hace simpático.

Su instinto democrático se evidencia en su ciencia. Church asesora a 20 de las alrededor de 30 firmas de genómica avanzada estadounidenses, pero su alma claramente está en la academia, trabajando con ciencia básica que ayuda a todo el mundo.

Lo que Church quiere es que se publiquen muchos genomas en la red, para que los científicos puedan investigar.

Mientras presiona para que se hagan más inventarios de genómas completos, también insiste en que esos genomas deben estar en el dominio público, para que los investigadores puedan aprender sobre las condiciones médicas por comparación. Él mismo ya ha subido 11 a internet, incluyendo el suyo propio, y pretende hacer lo mismo con otros 100.000 más.

Una vez miles de personas de diversos orígenes publiquen sus genomas y su estado de salud, los investigadores podrán profundizar sus conocimientos sobre una amplia gama de enfermedades y desórdenes, desde esquizofrenia hasta cardiopatía, de diabetes a discapacidades de aprendizaje, en busca de patrones.

"Si el precio es más bajo, muchos retoños florecen", dice.

Church no quiere hacer ese tipo de descubrimientos. El ritmo de ese tipo de ciencia es demasiado lento para él, y no está dirigido por la tecnología.

"Evolución en esteroides"

Hay una habitación con el clima controlado en medio del amplio laboratorio de Church, donde una pequeña bandeja se mueve para adelante y para atrás, agitando muestras de ADN de E.coli.

En un proceso de cuatro horas de producción, los investigadores pueden apagar o prender un sólo par de bases de ese ADN, o regiones enteras de genes para ver qué pasa. La meta es encontrar la manera de mejorar la producción de químicos industriales o medicamentos, o poner a prueba la resistencia viral.

La MAGE es descrita como "un acelerador de la evolución".

"Uno podría concebirlo como una especie de evolución en asteroides: es hacer que vaya a velocidades altas", explica Church.

El aparato es una segunda generación de la máquina de ingeniería automatizada genómica multiplex, o MAGE. La primera, que está en la oficina de Church, fue una tesis de un doctorado. Y al lado de la nueva MAGE hay otro proyecto de tesis. Conocido como el Polonator, es un secuenciador de genoma de fuente abierta que puede leer y escribir mil millones de pares de bases a la vez.

Esas dos máquinas ponen al laboratorio de Church en la vanguardia de la biología sintética, un nuevo campo que busca hacer cosas que la Madre Naturaleza nunca pensó hacer, como combustibles altamente eficientes no contaminantes y virus que puedan llevar medicina contra el cáncer directamente a un tumor.

Con estas máquinas, Church está haciéndole a la biología sintética lo que ya le hizo a la genómica personalizada: tornándola más barata, veloz y al alcance de todos.

Cuestiones éticas

El Polonator puede leer y escribir mil millones de pares de bases a la vez.

"Está empezando a llevar a la biología sintética a una mayor escala", señala James J. Collins, un profesor de la Universidad de Boston y colega de Church en el Instituto Wyss para la ingeniería inspirada en la biología de Harvard.

Collins reconoce que hay gente que alberga ciertas preocupaciones éticas frente a la idea de que los científicos escriban códigos genéticos. Sin embargo, dice, la realidad de la biología sintética no es tan aterradora como la pintan. Nadie está creando criaturas apocalípticas ni humanoides. A duras penas son capaces de crear una célula nueva, asegura.

"Creo que nosotros, como comunidad, tenemos una necesidad, un papel y la responsabilidad de educar al público así como de tomar medidas de precaución para asegurarnos de que no estamos introduciendo algo problemático", dice Collins, quien crea sus células con interruptores automáticos de manera que se autodestruyan antes de reproducirse o mutar.

Par de bases

En genética un par de bases consiste en dos nucleótidos opuestos y complementarios en las cadenas de ADN y ARN que están conectadas por puentes de hidrógeno.

Wikipedia

George Annas, el director del departamento de leyes de la salud, bioética y derechos humanos de la Universidad de Boston, concuerda con que es demasiado pronto para preocuparse por la ética de la biología sintética.

"En este punto, no sabemos cómo se desarrollará o siquiera si lo hará".

Sobre los posibles temores ante nuevas formas de vida, Annas dice que no piensa "que estemos aún en el reino de la ciencia ficción".

De la retórica a la realidad

El optimismo de Church respecto a la posibilidad de leer y escribir el ADN es contagioso, pero no irresistible.

"Uno necesita tener la imaginación de George y su visión para poder siquiera progresar. Pero es u

na bobada pensar que va a progresar tanto como lo que él se imagina", apunta Annas.

"Si uno no intenta hacer lo imposible, nunca logra realizar lo que es casi imposible"

Chad Nussbaum

El sistema médico es

tadounidense ya está quebrado, señala. Añadir tratamientos más personalizados sólo puede encarecer el servicio. Y aunque la medicina pueda añadir años a la vida de alguien, la calidad de esos años probablemente no será buena, advierte Annas.

Chad Nussbaum está de acuerdo.

"Hay un chance estadístico de que a uno lo atropelle un camión, lo que hace difícil que uno viva hasta los 150 años, no importa cuán saludable esté", dice Nussbaum, codirector del programa de secuenciamiento y análisis del genoma del Instituto Broad de Harvard y MIT, un instituto de investigación genética en el que Church es un miembro asociado.

El envejecimiento extremo no es sólo genética, dice Nussbaum. Es ingeniería básica: las partes sencillamente se desgastan con el tiempo. "Es maravillosamente ingenuo pensar que todo lo que tenemos que hacer es aprender todo sobre genética y podremos vivir hasta los 150".Enlace

No obstante, Nussbaum dice admirar la visión de Church y su "genialidad".

"Es una gran cosa pensar en grande e intentar hacer cosas locas", dice Nussbaum. "Si uno no intenta hacer lo imposible, nunca logra realizar lo que es casi imposible".

Fuente:

BBC Ciencia

11 de septiembre de 2011

Cristal de silicio guarda datos… para siempre


"Si algún día encuentro un para siempre, lo compartiré contigo”, canta Tim Fite en su canción, "Forever" (Para siempre). Bueno, en la búsqueda de la superioridad del almacenamiento de datos, un grupo de científicos de la Universidad de Southampton dicen haber encontrado ese “para siempre” y también desean compartirlo contigo.

Liderado por el profesor Peter Kazansky del Centro de Investigación de Optoelectrónica de la universidad, el equipo de investigación está desarrollando un nuevo tipo de cristal nanoestructurado capaz de almacenar datos para siempre. Lo que lleva a la pregunta: ¿Para siempre? ¿Para siempre jamás? ¿Por siempre jamás?

Para lograrlo, el equipo alteró la manera en la que la luz pasa a través del cristal mediante la creación de dispositivos del tamaño de un milímetro, llamados convertidores de cristal monolítico con polarización variante en el espacio. Además de que su nombre resulta muy difícil de pronunciar, estos pequeños dispositivos alteran la polarización de los rayos láser de emisión ultracorta pasando a través de ellos, cuando se imprimen en un cristal de silicio. Los pulsos imprimen pequeños puntitos llamados “voxels”, que son como pixeles 3D en el cristal.

Como el cristal es leído por el láser, los “voxeles” producen remolinos de luz nanoscópica, que realmente son fragmentos de información que puede ser escrita, borrada y re-escrita en la estructura molecular del cristal.

Los investigadores mantienen que este nuevo método para almacenamiento de información microscópica es 20 veces más barato y compacto que los métodos ya existentes.

“Antes de esto hemos tenido que utilizar un módulo de luz espacial basado en cristal líquido que cuesta aproximadamente 20.000 libras”, manifestó el profesor Peter Kazansky. “En lugar de ello, hemos puesto un pequeño dispositivo en el rayo óptico y obtuvimos el mismo resultado”.

El equipo publicó sus hallazgos en un artículo para Applied Physics Letters.

“Hemos mejorado la calidad y el tiempo de fabricación y hemos desarrollado esta memoria en cinco dimensiones, lo que significa que la información puede ser almacenada en el cristal para siempre”, declaró Martynas Beresna, en un comunicado de prensa de la universidad. "Nadie ha hecho esto antes”.

[Vía GizMag]Enlace

Tomado de:

Discovery Channel Noticias

10 de febrero de 2010

El "Gran Hermano" nos vigila desde el Espacio


Miércoles, 10 de febrero de 2010

El "Gran Hermano" nos vigila desde el Espacio


Nuestro planeta está siendo orbitado en estos momentos por más de 900 satélites artificiales lanzados por distintos países. Una cifra nada despreciable, que ha llevado a los responsables de la UCS (Union of Concerned Scientists) a elaborar una completa base de datos que sirva como herramienta de investigación y que proporcione todo tipo de información valiosa sobre los satélites actualmente operativos. Dicha base de datos permite localizar los satélites de interés a través de parametros como la altitud, el tipo de misión, país de lanzamiento o si su uso es científico o militar. Si queréis curiosear un rato, podéis consultar la base de datos en esta dirección: UCS Satellite Database.

Por otra parte, compartimos con vosotros esta infografía, realizada por Michael Paukner, que refleja de forma muy clara la procedencia de cada satélite puesto en órbita, cuáles están operativos y cuáles no, e incluso señala los que actualmente son chatarra espacial. Haced click para verla a mayor tamaño.

Fuente: Una base de datos sobre los satélites que orbitan alrededor de la Tierra (SINC)

Tomado de:

Planeta Sapiens

google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0