Latest Posts:

Mostrando las entradas con la etiqueta pc. Mostrar todas las entradas
Mostrando las entradas con la etiqueta pc. Mostrar todas las entradas

1 de junio de 2018

La carrera por el ordenador cuántico

En la imagen, un físico del Instituto Nacional de Estándares y Tecnología sostiene un circuito que se utiliza para amplificar las señales de un detector de fotones. Crédito: Geoffrey Wheeler.

Los ordenadores cuánticos están llamados a revolucionar la computación. Su capacidad para realizar operaciones imposibles les convierte en una especie de santo grial y han desencadenado una competición que, de momento, lidera Estados Unidos. Su músculo industrial con compañías como Google o IBM no lo tienen Europa ni China, que también luchan por conseguir esta ansiada tecnología.

La principal diferencia entre un ordenador cuántico y uno convencional es la forma de procesar la información. Si las computadoras clásicas lo hacen en bits, y cada uno toma el valor de 1 o 0, los ordenadores cuánticos utilizan cúbits (o bits cuánticos), lo que significa que pueden representar a la vez tanto un 1 como un 0. Además, se correlacionan entre sí, es decir, que el valor de uno puede depender del valor de otro, lo que se conoce como entrelazamiento cuántico.

Esta revolucionaria forma de procesar la información imita a la naturaleza en sus formas más pequeñas. Partículas y otros diminutos elementos se comportan de formas extrañas, adquiriendo más de un estado al mismo tiempo e interactuando con otras partículas que están situadas muy lejos. Su comportamiento se rige por las leyes de la mecánica cuántica.

Simulando estas interacciones, los ordenadores cuánticos realizarán operaciones muy complejas y resolverán problemas que los tradicionales no tienen la capacidad de solucionar, como el cálculo de factores de números gigantes o el estudio preciso de interacciones entre átomos y moléculas. De esta forma, se espera que áreas como los nuevos materiales, el desarrollo de fármacos o los sistemas de inteligencia artificial avancen a una velocidad sin precedentes con la ayuda de esta nueva computación.

Aunque ya existen varios modelos de ordenador cuántico todavía no se ha desarrollado uno que alcance los 50-100 cúbits, con capacidades que superarían las de los ordenadores clásicos. IBM el año pasado aseguró haber llegado a los 50 cúbits pero los expertos se muestran cautos porque los investigadores de la compañía no explicaron los detalles en ninguna revista científica. Por su parte, Google afirma haber conseguido una tecnología con 72 cúbits.

“Las cosas se vuelven interesantes una vez que tenemos entre 50 y 100 cúbits que se pueden controlar por completo, por ejemplo, el entrelazamiento usado por algoritmos complejos, que muestran capacidades algorítmicas más allá de las máquinas clásicas”, señala a OpenMind Rainer Blatt, investigador del Instituto de Física Experimental de la Universidad de Innsbruck (Austria).

“Esto no se ha logrado en ningún sitio pero probablemente lo veremos en los próximos años”, añade el científico.

El artículo completo en:

Open Mind

10 de julio de 2017

HP: Pocos saben que impresoras son una 'puerta' para los ciberataques a empresas

“Uno siempre pensaría que la forma de ingresar a las empresas es por las redes, las PC, los servidores o las conexiones a La Nube”, según Jose Luis Cámere de HP.
 
Los ciberataques se están volviendo muy comunes en el mundo y tiene como protagonistas a empresas corporativas de diversos países, que inclusive son consideradas como las más seguras del mundo, y terminan con empresas pagando fuertes sumas de dinero para rescatar su información.

Estos ataques pueden tener diversas vías de acceso como los virus informáticos, los correos maliciosos, las páginas web prohibidas o inclusive la Nube.

Sin embargo, el gerente general de HP Inc. para Perú, Ecuador Bolivia, Jose Luis Cámere, indicó que las impresoras pueden ser una vía de acceso para un ciberataque al sistema informático de una empresa.

“Uno siempre pensaría que la forma de ingresar a las empresas es por las redes, las PC, los servidores o las conexiones a La Nube e increíblemente, muy pocos saben que muchos de estos ingresos son a través de las impresoras, porque son las que están descubiertas”, explicó a Gestion.pe.

En ese sentido, señaló que la línea de impresoras empresarial y comercial de HP cuenta con muchas certificaciones que los hacen invulnerables para la mejor seguridad de las empresas a ataques similares a los vistos recientemente.

Tomado de: Gestión (Perú)
 

21 de septiembre de 2015

IBM acaba de fabricar el primer procesador funcional de solo 7 nanómetros

IBM logra fabricar el primer procesador funcional de solo 7 nanómetros 

IBM ha anunciado hoy un avance que marcará un momento histórico en la industria de la computación: la fabricación del primer procesador con transistores de 7 nanómetros, unas 1,400 veces más pequeño que el grosor de un cabello humano. El chip tiene 4 veces la capacidad de los procesadores actuales. La Ley de Moore sigue de momento más vigente que nunca.
 
La compañía ha confirmado hoy jueves el avance, adelantado en medios como el NYT, y ha asegurado que es fruto de su inversión de 3.000 millones de dólares durante 5 años en investigación en procesadores y computación. En dicha inversión participan otras compañías como Global Foundries (a quien IBM vendió su negocio de fabricación de chips el año pasado), Samsung y otras firmas privadas y organismos públicos.


El anuncio se produce justo cuando se comenzaba a dudar que la fabricación de procesadores pudiera pasar la barrera actual de los 14 nanómetros y la futura, pero ya posible, de los 10 nanómetros. Ir más allá comenzaba a suponer importantes barreras de pura física. IBM ahora se ha adelantado incluso a Intel en la creación del primer chip con transistores de 7 nanómetros (por comparación, un glóbulo rojo mide unos 7.500 nanómetros de diámetro). Para conseguirlo, la compañía ha utilizado silicio-germanio en lugar de puro silicio en determinadas zonas del chip, lo que le ha permitido la reducción de tamaño manteniendo la estabilidad del procesador y multiplicando por 4 su capacidad.


IBM logra fabricar el primer procesador funcional de solo 7 nanómetros


El avance, según IBM, permitirá construir microprocesadores con más de 20.000 millones de transistores. La reducción del tamaño de estos chips no solo permitirá concentrar mayor poder de computación en el mismo espacio, también debería dar lugar a mejoras en el consumo de energía (y, por extensión, en la duración final de las baterías de los equipos).


IBM asegura que aún deberá pasar aún un tiempo hasta que estos procesadores estén disponibles comercialmente, aunque no especifica cuánto. Desde luego será difícil verlos en equipos y sistemas antes de los próximos dos o tres años. Aún así, ahora ya sabemos que llegar a la barrera de los 7 nanómetros es posible. Eso supondrá un nuevo y gran salto en la computación. Aunque la pregunta sigue ahí: ¿qué ocurrirá después? [vía NYT y VentureBeat]

Tomado de;

Gizmodo

Lea también:
50 años de la Ley de Moore: ¿qué ocurrirá cuando ya no se cumpla?

Acaban de cumplirse 50 años de la Ley de Moore, enunciada en 1965 por Gordon Moore, uno de los… Seguir leyendo 

14 de septiembre de 2015

22 de septiembre: Microsoft confirma fecha de lanzamiento de Office 2016

Es oficial: Office 2016 llegará el próximo 22 de septiembre, lo que confirma los rumores que surgieron a finales de agosto. Microsoft realizó el anuncio por medio del blog de Office, en donde dijo que la suite ofimática estará "disponible ampliamente" a partir de esa fecha.

Luego de permanecer en beta abierta por algunos meses, Office 2016 llegará en versión final a los PC con Windows. Lo interesante de este lanzamiento es que la suite ha sido diseñada para Windows 10 y funciona en conjunto con otros servicios de Microsoft. 

Entre sus principales características encontramos la colaboración en tiempo real dentro de documentos, mejoras en la búsqueda dentro de Word, PowerPoint y Excel, así como también una integración con Bing que ofrece información contextual a los usuarios.

Office 2016 llegará a PC de escritorio y portátiles con Windows el próximo 22 de septiembre. La versión para Mac ya se encuentra disponible desde hace algunas semanas.

Fuente:

FayerWayer

12 de julio de 2015

¿Cuánto ADN hay en la Tierra y cuánta información contiene?

Cuando nos preguntamos cuánto ADN hay en al tierra, puede que no nos sorprenda oír hablar de cantidad. Pero si estimamos la capacidad de guardar información que tiene, nos sorprende estar, probablemente, ante el ordenador más potente del universo.



Como sabrás a estas alturas, el ADN es la unidad de información fundamental que tiene todo ser vivo. Es como un enorme libro de instrucciones. O mejor aún, como un complejo ordenador con diversos niveles, controles y capas. Este sistema almacena y procesa información para poder construir todo lo que somos. ¿Cuánto ADN hace falta, entonces, para formar un ser humano? ¿Cuánta información procesa cada ser vivo? Es más, ¿Cuánto ADN en total habrá en el mundo en el que vivimos? Tanto en capacidad de guardar información como en cantidad, las cifras son sencillamente impresionantes.

¿De cuánto ADN estamos hablando?

Supongamos que la tierra es un gran sistema de computación. Esto precisamente es lo que han hecho unos investigadores del centro de Astrobiología y la Universidad de Edimburgo. Todo con la intención de medircuánto ADN podría haber sobre la faz de la Tierra. Según sus estimaciones, en masa, el ADN existente en nuestro pequeño planeta es de unas 5 por 10 elevado a diez (5x10^10) toneladas de ADN. Es decir, unos 1000 millones de enormes containers de carga. Lo que parece muchísimo para algo que mide tan poco que no podemos ver a simple vista. Pero si esta cifra no te impresiona, tal vez lo haga su implicación. Puesto que el ADN es la unidad fundamental de información y su misión es almacenarla yEl ADN de la Tierra es unas 10^22 veces más rápido que el superordenador más potente que existeprocesarla, esto 1000 millones de containers suponen una capacidad de unas 5.3 × 10^31 (±3.6 × 10^31) megabases (Mb, que equivalen a un millón de pares de bases).
La cantidad de información almacenada excede cualquier posibilidad de imaginarla. Pero para que nos hagamos una idea, el ADN de la Tierra es unas 10 elevado a las 22 (10^22) veces más rápido procesando que el superordenador más rápido de la Tierra, el Tianhe-2 chino, que cuenta con unos 33.86 PetaFLOPS. Esto supone, en concreto, un poder de computación de unos 10 elevado a 15 (10^15) yottaNOPS. Para quien no lo sepa, yotta significa a su vez 10 elevado a 24 (10^24). Además, necesitaríamos unos 10 elevados a la 21 (10^21) ordenadores como éste para almacenar toda la informaciónque guarda el ADN en total. Aunque hasta ahora se había investigado muchísimo sobre la cantidad de ADN total existente en organismos, es la primera vez que alguien intenta estimar la capacidad en información relacionada con cuánto ADN existe.

El ordenador biológico

El otro día os explicábamos como, basándose en cómo funciona el ADN, unos investigadores habían desarrollado un biopolímero capaz de guardar la información en binario. Pero el ADN va mucho más allá. El ADN consta de dos largas cadenas, como si fuese una cremallera. Cada diente se une con una pareja complementaria, y solo con ella. Si separamos las dos cadenas, podemos contar los dientes que tiene una de ellas. Cada tres de estos codifican un aminoácido y los unen en una cadena larguísima, que es lo que constituye una proteína. Es decir, cada tres dientes son una unidad fundamental de información. Pero no son unos y ceros, como en sistema binario. La combinación de tríos de dientes, llamados codones, es de 64. 60 sirven para codificar los 20 aminoácidos esenciales (más otros dos excepcionales, en algunos casos concretos), por lo que su combinación se repite. Los otros 4 indican parada, 3 de ellos, e inicio, que también coincide con una metionina, uno de los aminoácidos más comunes. Como vemos,El ADN no es un sistema binario sino que puede codificar 22 aminoácidos en combinaciones de tríos de basesindependientemente de cuánto ADN, el sistema, además se vuelve bastante complejo.
Pero la cosa no acaba aquí. Ni mucho menos. Esto es solo el comienzo que sirve para construir la base fundamental de las proteínas. Pero a medida que nos elevamos en "la capa" de información del ADN, la cosa se vuelve infinitamente más compleja: sistemas de control que hacen que la cadena que forma la proteína se corte o cambie un eslabón de la cadena; la conformación física, es decir, la forma que tendrá la proteína sea distinta; la velocidad a la que se produce o se destruye varíe; son solo algunos ejemplos de la manera que la vida tiene do formar algo tan complejo y maravilloso. Y es que no es solo una cuestión de cuánto ADN. Hace ya tiempo que los seres vivos nos la arreglamos para complicar más y más la manera de ser seres cada vez más complejos. Y, claro, eso requiere de un sistema inimaginablemente sofisticado. Por suerte, contamos con el ordenador biológico, el sistema de información más potente de la tierra (y probablemente uno de los más potentes del universo): el ADN.
Fuente:

17 de febrero de 2015

Sorprendente: Las consecuencias de dejar de escribir a mano


Podrían los antiguos métodos para aprender a escribir a mano tener beneficios desconocidos?

Niños en todo el mundo pasan cada vez más tiempo utilizando computadoras con teclados y pantallas táctiles en lugar de escribir con un bolígrafo y un papel.
¿Perjudica esto su desarrollo y bienestar? Nuevas investigaciones sugieren que podría ser el caso.
El programa BBC Forum habló con la neurocientífica cognitiva Karin James sobre la importancia de aprender a escribir a mano para el desarrollo cerebral de los niños.
James, profesora de la Universidad de Bloomington, Estados Unidos, llevó a cabo investigaciones con niños que todavía no sabían leer.
Se trata de niños que, aunque puedan identificar letras, no son todavía capaces de juntarlas para formar palabras.
Los científicos dividieron a los niños en grupos y enseñaron a algunos a escribir a mano distintas letras, mientras que otros utilizaron teclados.
La investigación analizó cómo aprendían los niños las letras.
Los científicos también utilizaron resonancias magnéticas para evaluar la activación cerebral y ver cómo cambia el cerebro a lo largo del tiempo a medida que los niños se familiarizan con las letras del alfabeto.
Escanearon los cerebros de los niños antes y después de enseñarles las letras y compararon los distintos grupos, midiendo el consumo de oxígeno en el cerebro como indicador de la actividad cerebral.
Los investigadores concluyeron que el cerebro responde de distinta manera cuando aprende con letras escritas a mano y cuando lo hace a través de un teclado.
El artículo completo en:

6 de enero de 2015

¿La tecnología realmente atenta contra la capacidad de tu memoria?

Dos personas entran a un seminario. Una saca fotos y graba video y audio de la presentación, al tiempo que la otra toma notas a mano. ¿Qué persona cree que recordará mejor la información? El primero puede usar sus notas digitales para crear algo nuevo sobre el tema, mientras que para el segundo no será tan fácil.

Aún así, siguen apareciendo investigaciones como una recientemente publicada en la revista Psychological Science. Esta afirma que tomar notas en papel le da a la persona una ventaja al momento de recordar, en comparación con alguien que lo tipea en un computador.

El argumento lleva varios años circulando y usualmente está basado en la idea de que la escritura a mano es lenta y deliberada. Esto le permite al lector un entendimiento más profundo de la información y, por ende, una mayor capacidad para recordar. En contraposición, los conceptos grabados por medio digital, algo que se hace de forma rápida y automática, limitan la comprensión y, en consecuencia, su posterior memorización.

Existen argumentos similares respecto a la capacidad de recordar cosas leídas en una pantalla de smartphone, tableta o e-reader, por ejemplo, en oposición al papel impreso.

Pero, memorizar información, ¿debería seguir siendo una prioridad? 

El articulo completo en:

América Economía

15 de julio de 2014

Impresora de bolsillo: la herramienta que nos hacía falta

El dispositivo, muy pronto en el mercado, puede funcionar durante una hora de manera ininterrumpida. La batería necesita cargar por tres horas.

La impresora móvil es ya una realidad, y todo gracias a un grupo de jóvenes que vio la falta que hacía esta herramienta en el trabajo diario. Imprimir textos no había resultado ser tan fácil, y acceder a un dispositivo que lo haga tan satisfactorio.

A través de la plataforma de financiación colectiva, Kickstater, miembros de la startup ZutA Labs lograron recolectar más de 500 mil dólares para ejecutar este proyecto, al cual denominaron el Mini Mobile Robotic Printer.

La mini-impresora puede conectarse directamente a un smartphone, laptop o PC. Tiene una batería recargable, con un switch de On\Off,  y permite al usuario imprimir sobre un papel de cualquier tamaño.

De acuerdo a los mismos creadores, el cartucho de tinta incorporado puede imprimir hasta 1000 hojas (y solo en colores de blanco y negro). ¿La calidad de la impresión? 96x192 ppp (puntos por pulgada). Los desarrolladores revelaron que si consiguen 400.000 dólares de financiación, el modelo final tendrá una mayor calidad y velocidad.

Esta fabulosa herramienta estará pronto en el mercado. ¿Quieresa saber cómo funciona? Mira el video:

Fuente:

 

1 de junio de 2014

El sistema operativo BASIC cumple 50 años





BASIC, el lenguaje de programación que acercó la informática a millones de personas sin demasiados conocimientos, cumple este 1 de mayo 50 años. Sus característicos comandos en forma de listado fueron el primer contacto de varias generaciones con los ordenadores y todavía hoy se usan algunos lenguajes derivados de él.


Fue diseñado en 1964 por dos matemáticos-informáticos estadounidenses en la escuela de New Hampshire en la que trabajaban, con el objetivo de acercar el uso de los ordenadores (entonces eran poco más que torpes máquinas con gigantismo) a cualquier estudiante. Incluso a los que no sabían de informática.

Con la llegada de los ordenadores personales durante los años 70, BASIC se popularizó aún más por la simplicidad de su uso: en líneas sucesivas, ordenadas con números, se iban escribiendo las órdenes que el programa debía leer y ejecutar (PRINT para mostrar un mensaje en pantalla, GOTO para saltar a otra línea...).

Tras sus siglas, "Código de Instrucciones Simbólicas Multipropósito para Principiantes", se escondía la posibilidad real de que cualquiera con paciencia e interés desarrollase sus propios programas. Y precisamente por eso fue la entrada de muchos al mundo de los ordenadores.

El primer progama de Gates

El propio Bill Gates, creador de Microsoft, desarrolló su primer programa en BASIC con 13 años recién cumplidos: un juego de tres en raya en el que los usuarios competían con el ordenador.

Durante los 80, la mayor potencia de las máquinas facilitó que otros lenguajes como Pascal destronasen a BASIC en el ámbito escolar y supuso la llegada al mercado doméstico de aplicaciones listas para usar. Ya no tenía sentido que los consumidores desarrollasen sus propios programas.

BASIC había sido destronado, aunque en realidad nunca murió del todo y, de hecho, sigue vivo en la familia Visual Basic.

Quienes sientan nostalgia, o crean que sus hijos podrían seguir los pasos de sus padres en el mundo de la informática, tienen una oportunidad de revivir el amanecer de la revolución de la informática doméstica con Small Basic, un rediseño publicado por Microsoft en 2011, o usando Petit Computer para Nintendo 3DS y Nintendo DSi.

Pero no todo es color de rosa para el BASIC, porque también existen detractores. En Microsiervos nos los recuerdan así:

Claro que para Edsger Dijkstra, uno de los más grande guruses en esto de los ordenadores,
Es prácticamente imposible enseñar programación correctamente a estudiantes que han estado expuestos al lenguaje BASIC con anterioridad. Como potenciales programadores, tienen la mente mutilada sin esperanza alguna de regeneración.

Tomado de:

El Economista

Microsiervos

Neo Teo




25 de mayo de 2014

BBC: La tablet llegó para quedarse

Tableta

Érase una vez un mundo que no creía en las tabletas. Analistas, consumidores y profetas auguraban el fracaso de la llamada cuarta pantalla.
"Estos nuevos dispositivos están condenados al fracaso", decían unos. "Nadie necesita una nueva pantalla", afirmaban otros.

En el fondo la historia les daba la razón. Las tabletas llevan décadas entre nosotros, incluso aparecieron en películas como "2001: Odisea del espacio" y series de televisión como Star Trek.
De hecho la primera tableta comercial llamada GRiDPad apareció en 1989 a un módico precio de US$3.000 y tuvo éxito en su nicho de mercado aunque no se convirtió en un producto de consumo masivo (ese no era su objetivo).

Quizá la primera tableta moderna, pensada como una computadora móvil, llegó de la mano del fabricante Archos en 2009 y con el sistema operativo Android.

Steve Jobs con un iPad

Un año después apareció el iPad de Apple que llevó a las tabletas al mercado masivo y las convirtió en un objeto de deseo.

Pero a pesar del entusiasmo tecnológico, los analistas creían que el margen de éxito de estos productos era bastante limitado. Es más, el primer iPad fue considerado un "fiasco tecnológico" en una premiación en Barcelona.

Dos eran los principales argumentos en contra de estos productos: 1) el hecho de que la gente no tenía más dinero para comprar otro aparato, además de una computadora y un teléfono y; 2) las tabletas no satisfacían ninguna necesidad.

Adelanten sus relojes a 2014 y el panorama es completamente diferente. Se venden casi el mismo número de estos dispositivos que computadoras personales y la gente parece haber encontrado un uso para ellas.

Gráfico


Como pueden ver en la gráfica superior, se estima que las tabletas se venderán más que las computadoras personales el próximo año aunque su crecimiento es moderado. En el último año sólo se vendieron 3,9% más tabletas que el año anterior.

Las ventas parecen impulsadas por pantallas más pequeñas -de 7 u 8 pulgadas- y precios más bajos, alrededor de US$150. Además hay una mayor promiscuidad entre los consumidores: ya no importa tanto la marca como el precio.

Eso podría explicar porque Android domina el mercado de tabletas (por sistema operativo) aunque Apple lo hace por marca (en segundo lugar está Apple).

Al tener acceso a estos dispositivos los usuarios están empleándolos mayoritariamente como aparatos para la tarde, en casa, en la sala o la recámara.

Es más portátil que una laptop, más grande que un teléfono y permite ver videos, programas de televisión o consultar redes sociales en forma más cómoda.

En forma secundaria también se empieza a utilizar más en la oficina pero no para sustituir a la computadora, sino para reemplazar a la libreta de notas, escribiendo en reuniones y sincronizando información en la nube.

Surface

Ahora Microsoft con Surface 3 está tratando de cambiar esa percepción. Para la empresa creadora de Windows la tableta no debe ser sólo un instrumento de relajación o entretenimiento, sino una herramienta de trabajo.

Por ello el nuevo dispositivo de Microsoft cuenta con una pantalla de 12 pulgadas y promueve software de productividad como Office.

"Ésta es la tableta que puede reemplazar a tu laptop", dijo la empresa al promover su nuevo producto.

Por supuesto Microsoft está interesada en que Surface 3 sea un éxito. En la actualidad la empresa estadounidense únicamente acapara el 3% del mercado de tabletas y su nuevo producto no competirá con rivales de bajo costo o pequeñas pantallas.

Tradicionalmente el negocio más jugoso para la empresa ha sido el corporativo por lo que este nuevo producto busca retener dicho mercado.

La última palabra la tendrán los consumidores. ¿Logrará Microsoft convencerlos de usar las tabletas como herramientas de trabajo? Compartan su opinión en los comentarios y dígannos si tienen una tableta y para qué la usan.

Fuente:

BBC Tecnología

27 de marzo de 2014

10 razones por las que se debería prohibir a los menores de 12 años usar dispositivos electrónicos

Nuevamente les presentamos un artículo que, en algunos aspectos, es polémico. Es cierto que la televisión y los video juegos alejan a los niños de las actividades concretas donde el niño puede manipular y experimentar haciendo usos de sus sentidos y de sus manos. Pero, por otro lado también es cierto de que los niños que han nacido en el siglo XXI están, y estarán aun más en el futuro, rodeado de pantallas y de wifi.

¡Bienvenido el debate, claro está! Pero hay un componenete que no se considera: el contenido ideológico de la televisión, el cine, los video juegos y los apps para los celulares. Dificilmente se encuentra contenido cultural o que desarrolle habilidades cognitivas en los usuarios, sobre todos en los menores de edad. Es el contenido en realidad el peligro y no el medio (ya sea este medio escrito radial, televisivo o multimedia). Pero nadie lo dirá en voz alta por que eso significaría quebrar la Pax Económica que vive el planeta, y esto no es políticamente correcto.

Conclusión: Mientras el libre mercado siga gobernando los designios del planeta no queda más remedio que ocultar sus contenidos a las mentes jóvenes, en la medida de lo posible. No veo otra solución a largo plazo. 
Recordemos que la industria de los video juegos genera más ingresos que las industrias del cine y la música juntas.

Su hegemonía es muy clara: en el 2013, la industria de los videojuegos movería unos US$ 100,000 millones, largamente superior a los US$ 10,800 que los estudios de Hollywood consiguieron en el 2012 o los US$ 16,500 millones de la industria musical.

Entonces no se deberían generara falsos debates sobre alejar o no  a los niños de las pantallas de telvisores, com´putadoras y tablets. De lo que se trata, en realidad, es de los contenidos que están consumiendo las generaciones actuales. Es, por lo tanto, la industria del videojuego el enemigo a combatir y derrotar.

La Academia Americana de Pediatría (American Academy of Pediatrics) y la Sociedad Canadiense de Pediatría (Canadian Society of Pediatrics) afirman que los niños de hasta dos años no deberían estar expuestos a ningún tipo de tecnología, que los niños de entre tres y cinco deberían tener un acceso restringido de solo una hora al día, y que entre los seis y los 18 años, los niños deberían acceder durante un máximo de dos horas al día (AAP 2001/13, CPS 2010). Los niños y los jóvenes utilizan la tecnología entre 4 y 5 veces más del tiempo aconsejado, lo que puede acarrear consecuencias nefastas (Kaiser Foundation 2010, Active Healthy Kids Canada 2012). Los dispositivos portátiles (teléfonos, tabletas y juegos electrónicos) han incrementado de una forma espectacular la accesibilidad y el uso de la tecnología, sobre todo en niños (Common Sense Media, 2013). Como terapeuta ocupacional, apelo a padres, profesores y gobiernos para que prohíban que los niños menores de 12 años usen todos estos artilugios. Aquí tenéis 10 motivos de peso para llevar a cabo esta prohibición. Visitad zonein.ca para consultar la investigación que se cita.

1. Un crecimiento rápido del cerebro

Desde el nacimiento hasta los dos años, el cerebro del niño triplica su tamaño, y continúa en ese estado de rápido desarrollo hasta los 21 años (Christakis 2011). Los estímulos ambientales, o la falta de ellos, son los que determinan el desarrollo del cerebro a esta edad temprana. Se ha demostrado que la estimulación que recibe un cerebro en desarrollo provocada por la sobreexposición a la tecnología (móviles, internet, iPads, televisión) está asociada con un déficit de atención y de función ejecutiva, retrasos cognitivos, aprendizaje disociado, una mayor impulsividad y una menor capacidad de autocontrol.

2. Desarrollo más lento

El uso de la tecnología restringe nuestros movimientos, lo que puede causar un desarrollo más lento. En la actualidad, uno de cada tres niños llega a la escuela con un retraso en el desarrollo, lo que afecta de forma negativa a su aprendizaje y sus resultados académicos (HELP EDI Maps 2013). El movimiento potencia la capacidad de atención y de aprendizaje (Ratey 2008). El uso de la tecnología a una edad inferior a los 12 años va en detrimento del desarrollo cognitivo del niño (Rowan 2010).

3. Epidemia de obesidad

El tiempo dedicado a la televisión y a los videojuegos está relacionado con el aumento de la obesidad (Tremblay 2005). Entre los niños que tienen acceso a la tecnología desde su habitación, la obesidad ha aumentado en un 30% (Feng 2011). Uno de cada cuatro niños canadienses y uno de cada tres estadounidenses son obesos (Tremblay 2011). El 30% de los niños con obesidad desarrollará diabetes; además, las personas obesas tienen más riesgo de sufrir un derrame cerebral o un ataque al corazón prematuro, lo cual reduce dramáticamente la esperanza de vida (Center for Disease Control and Prevention, 2010). Probablemente, debido en gran parte a este aumento de la obesidad, los niños del siglo XXI sean la primera generación que no vivirá más que sus padres (Professor Andrew Prentice, BBC News 2002).

4. Falta de sueño

El 60% de los padres no supervisa el uso que hacen sus hijos de la tecnología, y el 75% de los niños tiene acceso a la tecnología en su cuarto (Kaiser Foundation 2010). El 75% de los niños de edades comprendidas entre los 9 y los 10 años duerme menos de lo que necesita, hasta el punto de que afecta de forma negativa a sus notas (Boston College 2012).

5. Enfermedad mental

Se está estudiando el uso excesivo de la tecnología como posible factor del aumento de los porcentajes de depresión, ansiedad, trastornos afectivos, déficit de atención, desórdenes bipolares, psicosis y otros comportamientos problemáticos en los niños (Bristol University 2010, Mentzoni 2011, Shin 2011,Liberatore 2011, Robinson 2008). A uno de cada seis niños canadienses se le ha diagnosticado una enfermedad mental, y muchos de ellos consumen una peligrosa medicación psicotrópica (Waddell 2007).

Lea el artículo completo en:

Huff Post en español

25 de febrero de 2014

Uso excesivo de tablets y smartphones causa miopía en niños

Especialistas señalan que el tiempo de exposición a los aparatos electrónicos es de media hora, con pausas de 15 minutos para relajar la vista.


Los casos de miopía, astigmatismo y otros problemas oculares afectan incluso a niños de 3 años, debido al uso excesivo de aparatos tecnológicos como tablets o smartphones, advirtieron especialistas del Ministerio de Salud (Minsa).

Harvy Honorio, coordinador de la Estrategia Sanitaria Nacional de Salud Ocular y Prevención de la Ceguera del Minsa, señaló que si bien estos males visuales son genéticos, la exposición por tiempo prolongado a la iluminación de los aparatos electrónicos aumenta la posibilidad de padecerlos con más intensidad.

“La miopía, el astigmatismo y otros errores refractarios se presentan en niños entre los 6 y 11 años. Sin embargo, ahora, con el daño que producen los gadgets tecnológicos, vemos a menores de 3 años diagnosticados con estos problemas, lo que hace un par de años era muy raro”, explicó el galeno a la agencia Andina.

Harvy Honorio detalló que los primeros problemas a la visión que se presentan por el uso de las tablets, laptops y similares son sequedad y ardor en los ojos, lagrimeo persistente y dolores de cabeza.
“Cuando estas situaciones son constantes y tenemos a menores de edad que ya usan lentes, sus medidas y por consiguiente el grosor de las lunas de sus gafas pueden duplicarse en pocos meses”, indicó.
El especialista indicó que en casos extremos, que involucran otros factores como el sedentarismo, el sobrepeso o la diabetes, se deriva en una discapacidad visual que no puede ser corregida con facilidad, e incluso en casos de ceguera.

Recomendaciones

Para Harvy Honorio, el tiempo máximo de exposición de los menores de edad a este tipo de dispositivos electrónicos debe ser de media hora, con pausas de 15 minutos para relajar la vista.

“Cada 15 minutos los niños, y las personas en general, deben parpadear y ‘jugar con sus ojos’, mirando hacia varias direcciones, ya que esto sirve para lubricar y relajar la mirada”, explicó.

Por otro lado, precisó que los pequeños deben someterse a pruebas de detección para este tipo de males por lo menos una vez al año, sobre todo antes de comenzar la época escolar.

“Muchos padres ignoran que el motivo de las bajas calificaciones de sus hijos no es la falta de interés, sino lo complicado que se les hace ver la pizarra desde cierta distancia”, afirmó.

Informó que hay 50,000 escolares en todo el país, entre los 6 y 11 años, que requieren del uso permanente de lentes. La situación empeora, según el especialista, debido a que muchos menores evitan usar anteojos para no ser víctimas del bullying.

“Recomendamos a los padres y profesores buscar asesoramiento psicológico para poder hacer saber a sus hijos que el uso de lentes es una acción necesaria a fin de evitar problemas mayores en el futuro. Y de paso saber cómo tratar los casos de burla en las escuelas, ya que el objetivo debe ser atender tanto a la víctima como al que genera los conflictos”, finalizó.

Estas indicaciones fueron hechas en el marco de la campaña de detección de problemas oculares en centros educativos, que realiza el Ministerio de Salud en la etapa previa al inicio de la temporada de clases.
Durante la jornada se efectuaron pruebas para descartar posibles males en alumnos que llevan cursos de verano en el colegio Roque Sáenz Peña, en el distrito de San Miguel, donde fueron evaluados más de 20 niños.
 
Fuente:
 

21 de noviembre de 2013

Winamp dejará de existir el 20 de diciembre

El reproductor multimedia Winamp anunció que dejará de existir el 20 de diciembre de 2013. El software ya no se podrá descargar desde esa fecha, y Winamp.com y otros sitios asociados desaparecerán. "Gracias por apoyar la comunidad de Winamp por más de 15 años", afirma la web oficial.





Winamp fue creado por Nullsoft en 1997, y adquirido por AOL en 1999. Fue pionero en la reproducción de música en MP3, y a principios de la década del 2000 todo el mundo usaba el software. Winamp fue muy innovador al agregar posibilidades de personalización y plugins al software, sin embargo, no se mantuvo al día con los cambios con el pasar de los años.


Varios culpan a AOL de que Winamp no lograra convertirse en iTunes, Pandora o en algún sistema de reproducción de música moderno. "Siempre espero que se den cuenta que lo están matando, y que encuentren una mejor forma de hacer las cosas, pero AOL siempre parece muy ocupado con todas sus políticas internas para hacer alguna cosa", dijo en una entrevista en 2005 Justin Frankel, principal desarrollador de Winamp.

Como sea, AOL mantuvo vivo a Winamp e incluso desarrolló una versión para Android en 2010 y una para Mac en 2011. El reproductor todavía conservaba algunos millones de usuarios alrededor del mundo, sin embargo, aparentemente en 2013 el esfuerzo ya no vale la pena.

La compañía no ha explicado por qué se decidió cerrar todo ahora, dejando simplemente un mensaje de aviso.

Como se trata de un producto con alto valor para la historia, Archive Team ya anunció que hará un respaldo.

Fuente:

FayerWayer

15 de octubre de 2013

Premio Nobel de Química por llevar la experimentación al ciberespacio

Martin Karplus, Michael Levitt y Arieh Warshel

Los científicos fueron distinguidos por llevar la experimentación química al ciberespacio.

Atrás quedaron las pelotas de plástico y los palos de madera para mostrar cómo funcionan las moléculas y los átomos.

Aunque hoy parezca increíble, hace 50 años muchos científicos dedicados a la química utilizaban los mismos elementos que hoy usan los escolares para graficar sus modelos atómicos o moleculares.
Sin embargo, en la década de 1970 el investigador austriaco Martin Karplus, el británico Michael Levitt y el israelí Arieh Warshel -los tres además tienen nacionalidad estadounidense- sentaron las bases para los programas computacionales de gran alcance que hoy se utilizan para entender y predecir los procesos químicos.

Y este miércoles la Real Academia de Ciencias de Suecia les otorgó el Premio Nobel de Química 2013.
El galardón fue anunciado en Estocolmo por Staffan Normark, secretario permanente de la Academia, quien explicó que los científicos fueron distinguidos por llevar la experimentación química al ciberespacio.

Química en la computadora

Molécula digitalizada

Los modelos desarrollados por Karplus, Levitt y Warshel en los 1970 sentaron las bases para los complejos programas de simulación molecular.

El premio buscó destacar los modelos multiescala para sistemas químicos complejos desarrollados por los tres científicos, los cuales "sentaron las bases de los poderosos programas que se utilizan para entender y predecir procesos químicos", según la Academia.

"Los modelos computarizados que son espejo de la vida real se han vuelto cruciales para la mayoría de los avances de la química en la actualidad", aseguró la Fundación Nobel a través de un comunicado.

"Con la ayuda de los métodos de quienes hoy son galardonados con el Premio Nobel de Química, los científicos le dejaron a las computadoras revelar los procesos químicos, tales como la purificación de un catalizador de gases de escape o la fotosíntesis en las hojas verdes".

El artículo completo en:

BBC Ciencia

27 de septiembre de 2013

¿Qué hacer con 3.000 millones de preguntas al día?

aplicación de Google en una tableta

¿Qué haría si tuviera que contestar tres mil millones de preguntas al día? Si usted es Ben Gomes, vicepresidente de búsquedas de Google, es el responsable de responderlas todas en el menor tiempo posible y en todas las plataformas: computadoras de escritorio, tabletas, teléfonos. Y ahora también de viva voz.

Las búsquedas son la razón de existir y la gallina de los huevos de oro de Google, al punto que le generaron la mayoría de los más US$50.000 millones de ingresos que obtuvo año pasado. Pero para Gomes son también "una manera de mantener una conversación continua con el usuario para saber qué es lo que quiere".
Este gurú de las búsquedas nació en Tanzania hace 45 años, se crió en India y estudió en Estados Unidos.

Gomes trabaja con otros cuatro ingenieros en un desrdenado cubículo en Googleplex -la sede de la empresa en Mountain View, California- en el edificio 43, la Meca de las búsquedas.

Desde su modesta guarida, Gomes y su equipo escudriñan minuciosamente la red de redes para alimentar el popular motor de búsquedas, que ahora es parte de nuestra vida diaria.

"Cuando llegué a Google en 1999, lo que se entendía por búsqueda era básicamente buscar palabras en un documento. Después adoptamos la visión de que íbamos a entender qué es lo que quiere la gente y darle lo que necesita", le explica a la BBC.

Hoy, reptando por más de 20.000 millones de páginas diariamente en la permanentemente en expansión red de redes, Gomes y su ejército, un número importante de los 44.000 empleados de la compañía, usan algoritmos en un intento por hacer las búsquedas intuitivas, multimedia e inteligentes.

Orgullo matemático

pantalla de Google

Las "matemáticas que usan las computadoras para decidir cosas" –como el experto en algoritmos 

Kevin Slavin los llamó alguna vez- ayudan a clasificar páginas en orden de importancia, identifican errores gramaticales, aportan palabras alternativas, usan predicción para completar preguntas y unifican los resultados usando imágenes, audio, video y voz.

También tratan de profundizar en el significado de las palabras solicitadas para "destecnificarlas y ponerlas en un lenguaje más natural", así como para reconocer palabras con significados similares.

Y, con un dejo de disimulado orgullo, Gomes habla animadamente de Knowledge Graph, una función estrenada el año pasado para hacer que los algoritmos "actúen más humanamente" en un intento por ofrecer respuestas instantáneas. La revista Time la bautizó como "la nueva frontera de búsquedas".
Datos de búsquedas
  • 100.000 millones de búsquedas mensuales.
  • 3.000 millones de búsquedas diarias.
  • 20.000 millones de páginas analizadas diariamente.
  • 60 billones de direcciones web.
  • 230 millones de dominios indexados
"Es una base de datos de todas las cosas del mundo. Vincula diferentes bases de datos y las unifica en una única y coherente que tiene cerca de 500 a 600 millones de personas, lugares y cosas y 18.000 millones de atributos y conexiones entre esas cosas", explica Gomes.

Pero algunos escépticos, como la columnista de tecnología Mala Bhargava, creen que hay algunos escollos.

"Google hace un trabajo extraordinario con la continua evolución de búsquedas, introduciendo nuevas características todo el tiempo. Pero la innovación siempre camina en una cuerda floja entre tener una utilidad, casi profética, y ser excesivamente personalizada y dirigida, al punto de ser insignificante", afirma.

Fuente:

BBC Tecnología

Sin embargo en Google creen que el hecho de manejar una impresionante cifra de más de 100.000 millones de búsquedas cada mes demuestra su popularidad. Un 15% de las búsquedas que ven a diario son nuevas, preguntas que no se han contestado nunca antes.

También está el detalle de la velocidad de las búsquedas. Cuando Gomes se unió a Google en 1999, después de un tiempo trabajando en programación en lenguaje Java en Sun Microsystems, algunas búsquedas podían tardar hasta 20 segundos.
Cuando busqué a Ben Gomes en Google, el buscador me presentó 19 millones de resultados en 2,8 segundos.

Intereses químicos

Lo que posiblemente una búsqueda de Gomes no le dirá es que cuando crecía en Bangalore, India, estaba más interesado en la química que en las computadoras.
Tanto así, recuerda, que un día compró ácido sulfúrico en una tienda y se fue caminando a la escuela "meciendo la botella en mi mano, tan contento".

Pero luego fue a una escuela con compañeros como Krishna Bharat, quien luego sería el hombre detrás de la página de noticias de Google, y que tenía entre sus estudiantes a Sabeer Bhatia, fundador de Hotmail.

Así que cuando su hermano le compró una microcomputadora en 1983, el joven Gomes se sumó a un pequeño grupo de personas interesadas en esas máquinas en lo que todavía era un país tecnofóbico.

Gomes, hijo de un distribuidor de autos y una maestra de escuela, se mudó a EE.UU. hace 25 años. Estudió en Berkeley, donde obtuvo un doctorado en ciencias de la computación.

Y entonces, sucedió internet.

Ben Gomes de Google entrevistado por BBC

Gomes considera que el futuro de las búsquedas será hablado.

Fue por esos tiempos que su compañero Krishna Bharat le habló de Google y él se unió a esta relativamente desconocida compañía "porque pondría a disposición del mundo los contenidos mediante una herramienta de búsqueda realmente buena".
¿Cuál es la próxima frontera de las búsquedas?, le pregunté.

"Las búsquedas se están haciendo móviles, en teléfonos y tabletas. El desafío es que en una pequeña pantalla es difícil escribir. La oportunidad está en que tienen muy buenos micrófonos y pantallas táctiles", responde.

"Eso puede permitir un nuevo tipo de interfaz. Así que nos percatamos de que queríamos construir una interfaz que se parezca más a la forma en que le hablas a una persona y haces preguntas".

Con un brillo en sus ojos, Gomes toma su teléfono inteligente marca HTC y espeta una serie de preguntas a la aplicación de búsqueda de Google.
"¿Quién es el presidente de India?, pregunta y una voz de mujer responde: "Pranab Mukherjee".

"¿Qué edad tiene?" replica Gomes y la voz responde fuerte y claro: "Tiene 77 años".
"Está bueno, ¿no?", me pregunta Gomes y remata: "y se va poner mejor y más inteligente".

17 de septiembre de 2013

Lanzarán 'condones' USB para proteger tu información

El dispositivo salió a la venta el 16 de septiembre y bloquea los pins de intercambio de datos para dejar disponibles solo los de energía.


Hoy en día, mientras en los lugares públicos se masifican cada vez más los puertos USB para recargar dispositivos electrónicos, el no conocer el origen de un puerto USB presenta un enorme riesgo para la seguridad que incluso ha sido reportado por el ejército norteamericano.

Ante esta situación, la empresa de seguridad int3.cc desarrolló el 'condón' USB, una cubierta que se pone encima de un conector USB que corta el acceso a los pins que permiten enviar y recibir datos, dejando disponibles solo los pins que permiten recargar un dispositivo.

Esto significa que uno podría conectar el dispositivo en cualquier lado, incluso a los computadores del más sórdido de los cibercafés, sin tener ningún temor de que puedan infectar con malware al dispositivo.
El producto saldrá a la venta la próxima semana, aunque la gente de int3.cc no reveló que apariencia tendrá. Quizá incluso lo vendan desarmado, pues la empresa se dedica a vender kits de seguridad DIY.

(C) int3.cc 
(C) int3.cc
Link: The Verge


Tomado de:

FayerWayer

24 de julio de 2013

¿Borraste un archivo por error? Aquí tienes cinco herramientas para recuperarlos

En este artículo vamos a hablar de herramientas que te permiten recuperar archivos borrados de tus dispositivos.  Cuando tenemos un archivo importante y de forma voluntaria o involuntaria lo perdemos, nos volvemos locos y no sabemos cómo reaccionar.Por este motivo te vamos a recomendar 5 herramientas útiles y sencillas para recuperarlos desde Windows, Linux, o bien de tu dispositivo móvil.

Muchas veces los archivos no son  eliminados por usuarios, sino por el antivirus u otros programas. También nos centraremos en este punto tan importante que generalmente sucede en las unidades externas como dispositivos USB.

 

MiniTool Partition Recovery

Vamos a comenzar con una aplicación que nos recupera particiones que se han vuelto invisibles en el disco. Si enciendes el ordenador y alguna partición de tu disco ha desaparecido, no te preocupes,  con MiniTool Partition Recovery tienes grandes posibilidades de volver visible la partición perdida y recuperar los datos ubicados dentro de ella.

La herramienta funciona de forma sencilla, simplemente seleccionas el disco donde tienes la partición, en ese instante la aplicación comenzará un escaneo lento pero profundo. Al finalizar dicho escaneo detectará la partición o particiones que contiene dicha unidad.
MiniTool Partition Recovery es una aplicación gratuita disponible para Windows tanto para sus versiones de 32 y 64 bits.

Anteriormente, en Neoteo recomendamos MiniTool Power Data Recovery una herramienta de los mismos desarrolladores de MiniTool Partition Recovery  que se encuentra disponible tanto para Windows como para Mac OS X

MiniTool Partition Recovery

MiniTool Partition Recovery

Recuva

Si te decimos que Recuva es una herramienta desarrolladas por los mismos programadores que CCleaner o Desfraggler, seguramente confiarás en esta aplicación para recuperar tus archivos perdidos.

Recuva igual que CCleaner es muy fácil de usar  y además,  muy eficaz. En la mayoría de los casos con Recuva tendrás éxito en la recuperación de datos borrados de tu ordenador. También con Recuva podrás recuperar archivos MP3 de tu reproductor de música o bien fotografías de tu cámara.

Recuva es una aplicación gratuita y disponible para Windows.

Recuva

Recuva

EaseUS Partition MobiSaver

Con EaseUS Partition MobiSaver podrás recuperar archivos y datos perdidos de tu dispositivo iPhone, iPad e iPod touch o bien de la  copia de seguridad de iTunes.

Con la herramienta podrás recuperar fotos, vídeos, contactos, mensajes, historial de llamadas, calendario, notas, recordatorios y favoritos de Safari.

La utilización de EaseUS Partition MobiSaver es sencilla, lo puedes hacer conectando tu dispositivo móvil al ordenador o bien recuperar los datos a través de iTunes.

EaseUS Partition MobiSaver es una aplicación gratuita para su uso no comercial y está disponible para dispositivos iPhone 5/4S/4/3GS, iPad 2/1, iPad e iPod touch.

EaseUS Partition MobiSaver

EaseUS Partition MobiSaver

Hexamob Recovery Lite

Si piensas que perdiste algún dato de forma definitiva de tu dispositivo Android, primero quédate tranquilo porque Hexamob Recovery Lite es una aplicación de recuperación de archivos eliminados (vfat y ext2, ext3, ext4) que funciona a la perfección. En la prueba que hemos hecho nos ha recuperado archivos borrados recientemente tanto del teléfono como de su memoria  interna.
Hexamob Recovery Lite es una aplicación gratuita para dispositivos Android.

Hexamob Recovery Lite

Hexamob Recovery Lite

GNU ddrescue

Es bastante habitual que tanto un disco duro (interno y externo) o un CD tengan errores de lectura y entonces no puedas acceder a la información que hay dentro de las unidades.  Con GNU ddrescue podrás rescatar el disco y salvar esos datos tan ansiados.

GNU ddrescue es una aplicación que funciona de forma automática y copiará los datos recuperados del fichero a un CD, disco duro, etc. La herramienta trabaja de forma automática pudiendo el usuario interrumpir el proceso en cualquier momento y retomarlo desde el mismo punto.

GNU ddrescue es un GPL disponible  para distribuciones Linux.

GNU ddrescue

GNU ddrescue

Pero si,  con esta selección te has quedado con ganas de algo más, te recordamos que desde Neoteo hemos recomendado una  buena herramienta para recuperar archivos borrados, Pandora Recovery. También hablamos de OSForensics cuando todavía estaba en fase beta y Undelete Plus, Digicam Photo Recovery, Paragon Rescue Kit. Éstas son algunas de las tantas herramientas que han sido analizadas por Neoteo.

Esperemos que con las herramientas mencionadas puedas recuperar ese documento tan ansiado que desapareció de tu disco, partición, unidad USB o dispositivo móvil. Pero desde Neoteo te alertamos que dichas herramientas no son infalibles y en algunos casos no podrás restaurar algún archivo borrado tanto de tu dispositivo móvil, como en tu ordenador de sobremesa o portátil.

Fuente:

google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0