Latest Posts:

Mostrando las entradas con la etiqueta computadora. Mostrar todas las entradas
Mostrando las entradas con la etiqueta computadora. Mostrar todas las entradas

6 de enero de 2015

¿La tecnología realmente atenta contra la capacidad de tu memoria?

Dos personas entran a un seminario. Una saca fotos y graba video y audio de la presentación, al tiempo que la otra toma notas a mano. ¿Qué persona cree que recordará mejor la información? El primero puede usar sus notas digitales para crear algo nuevo sobre el tema, mientras que para el segundo no será tan fácil.

Aún así, siguen apareciendo investigaciones como una recientemente publicada en la revista Psychological Science. Esta afirma que tomar notas en papel le da a la persona una ventaja al momento de recordar, en comparación con alguien que lo tipea en un computador.

El argumento lleva varios años circulando y usualmente está basado en la idea de que la escritura a mano es lenta y deliberada. Esto le permite al lector un entendimiento más profundo de la información y, por ende, una mayor capacidad para recordar. En contraposición, los conceptos grabados por medio digital, algo que se hace de forma rápida y automática, limitan la comprensión y, en consecuencia, su posterior memorización.

Existen argumentos similares respecto a la capacidad de recordar cosas leídas en una pantalla de smartphone, tableta o e-reader, por ejemplo, en oposición al papel impreso.

Pero, memorizar información, ¿debería seguir siendo una prioridad? 

El articulo completo en:

América Economía

14 de septiembre de 2014

Una niña conoce la computadora Raspberry pi

Me he dado cuenta que los dibujos animados resultan demasiado adictivos para mi hija. Si bien puede dividir su tiempo para entretenerse realizando diversas actividades como dibujar y pintar con lápices de colores, crayolas y témperas, armar rompecabezas, usar plastilina, hojear libros y balancearse en el columpio, creo que no tendría problemas de pasarse horas de horas viendo su dibujo favorito: Peppa pig.

A pesar que aún no tiene edad para dejar por completo los pañales, es toda una experta usando el Smartphone de su mamá. Ya aprendió a desbloquearlo, sabe pasar las pantallas haciendo “swipe” con el dedo hasta encontrar el ícono de YouTube. Si te descuidas un rato se apodera del teléfono y se pone a mirar Peppa pig. Luego distraerla y convencerla que deje el celular para hacer otra actividad no es cosa fácil.

Así que decidimos tomar acciones radicales.


La Raspberry pi

Hace un par de meses le compré una computadora llamada Raspberry pi. Esta computadora consiste en una tarjeta madre muy pequeña (del tamaño de una tarjeta de crédito) y es desarrollada por la Fundación del mismo nombre. Esta es una computadora de bajo costo, dirigida a niños para que sea utilizada con fines educativos. La fundación la vende a 40$ aproximadamente, pero también la puedes conseguir en Amazon o si estás en Lima, en http://paruro.pe (aunque encontrarás precios más elevados).

Entonces cuando mi hija pide con insistencia ver Peppa Pig, le decimos que sólo se puede ver desde la Raspberry pi. Acto seguido retiramos esta pequeña computadora y cables de su caja, y ella misma se ofrece de voluntaria para hacer todas las conexiones. Se le pueden enchufar mouse, teclado y monitor viejos a la Raspberry pi. La fuente de poder viene de un cable que perteneció a un Kindle, y va conectado a un transformador rescatado de una vieja cámara de vídeos Nikon.

El artículo completo en:

Utero de Marita

26 de agosto de 2014

El chip sináptico de IBM marca el paso hacia la computación neuronal


Después de seis años de intenso desarrollo el equipo de IBM que dirige el proyecto SyNAPSE ha comunicado el resultado de su trabajo: un chip que presta el diseño de nuestra red neuronal, siendo capaz de responder a los estímulos sensoriales y al reconocimiento de patrones.

La innovación de IBM asienta los fundamentos de una nueva generación de arquitectura computacional inspirada en la estructura cerebral, cuya capacidad de “pensar, actuar y percibir” acortará más la distancia entre el modelo de inteligencia artificial e inteligencia humana.

Reinventando el modelo John von Neumann

La divergencia entre el funcionamiento del cerebro y los ordenadores actuales siempre ha sido un aspecto intrigante que ha impulsado a los científicos de la computación a estudiar nuevas formas de mejorar los ‘cerebros’ de los ordenadores. El centro de investigación de IBM no ha querido perderse nada del gran viaje que cambiará el futuro de la tecnología actual así que se convirtió en una de las empresas pioneras en investigar los secretos de la capacidad cognitiva trasladada a las máquinas inteligentes.

En 2012 sus especialistas dieron un paso muy importante en este campo al presentar por la primera vez el superordenador Sequoia, considerado la más potente simulación cerebral realizada jamás ya que reunía la fuerza de 2.084 mil millones representaciones de núcleos neurosinápticos. Después de dos años, el mismo equipo da otro paso decisivo y en lugar de adaptar los algoritmos inspirados de la actividad cerebral a la computación tradicional inventan desde la base un chip que imita la actividad de las redes neuronales humanas.

Según el científico que lidera el proyecto, Dharmendra Modha, la idea ha surgido de la necesidad de replantear el sistema informático heredado de John von Neumann, un matemático que ha puesto las bases de la arquitectura computacional clásica. Modha está convencido de que los ordenadores actuales, además de cálculos matemáticos precisos se podrían mejorar al adaptarse a la inteligencia  adaptativa del cerebro humano:
“El cerebro evolucionó hace millones de años para solucionar los problemas básicos: conseguir comida, luchar, evitar los peligros, reproducirse y está destinado a manejar datos de baja resolución, ambiguos y simbólicos. Integra memoria (sinapsis) y computación (neuronas), tiene un procesamiento distribuido, gestiona los datos en paralelo, puede aprender, opera de forma asíncrona, es lento y por lo tanto no gasta energía y tampoco se sobrecalienta”.
IBM

Una arquitectura que imita la escalabilidad del cerebro humano

Para reducir la brecha entre el bajo consumo de energía de la actividad cerebral y los ordenadores actuales, los científicos de IBM han usado las técnicas de la nanotecnología y neurociencia para crear una arquitectura informática escalable y eficiente.
El chip llamado TrueNorth está formado por una red bidimensional de 4.096 núcleos neurosinápticos digitales, dónde cada núcleo integra memoria, procesamiento y comunicación y opera según un modo de computación paralela, dirigida por eventos y con tolerancia a fallos.

Igual que el modelo neuronal humano, la arquitectura del chip seguirá funcionando incluso si falla alguno de los núcleos individuales. Su escalabilidad le permitirá ampliar las conexiones entre los núcleos hasta formar un mosaico sin interrupciones, construyendo los pilares de una futura supercomputación neurosináptica.
“IBM ha sentado las bases de una computación inspirada en el el cerebro humano, en los términos de una arquitectura de computación radicalmente nueva, a una escala sin precedentes, una velocidad, eficiencia, energía y capacidad de adaptación incomparables”, comenta Modha.
aplicacioneschip

La tecnología del futuro ‘sentirá’ la realidad igual que nosotros

Con el fin de facilitar el trabajo de los futuros desarrolladores IBM ha creado un ecosistema completo que abarca un simulador del chip, un lenguaje de programación, una librería, algoritmos y aplicaciones. El ecosistema soporta todos los aspectos del ciclo de programación desde el diseño hasta el desarrollo, la depuración y el despliegue.
En cuanto a las futuras aplicaciones, Dharmendra Modha cree que su nuevo chip permitirá construir ordenadores igual de eficientes que el cerebro humano y que no consumen más que una bombilla (70 milivatios). Este piensa que la tecnología basada en el procesamiento neurosináptico podrá transformar la movilidad y el Internet de las cosas a través de la percepción sensorial:
“En el futuro estos chips se podrían convertir en la alternativa de energía eficiente para gafas que ayuden a navegar a las personas invidentes, ‘ojos’ que dejen ver a los robots y a los coches, sistemas médicos que monitoricen la tensión arterial, la temperatura y el nivel de oxígeno de las personas mayores y que envíen alertas antes de producirse algún problema o sistemas que midan el nivel de marea y velocidad del viento para predecir los tsunamis”.
Por último Modha espera que el futuro tecnológico esté destinado a una simbiosis entre los chips cognitivos y los tradicionales “para enfrentarse al contexto real de la misma manera que lo hacemos nosotros”.

Fuente:

TicBeat

10 de junio de 2014

Máquinas y test de Turing: ¿Inteligencia real o imitación?

El test propuesto por el matemático inglés Turing en su artículo Computing machinery and intelligence, publicado en 1950 en la revista Mind, está considerado uno de los hitos históricos del desarrollo de la inteligencia artificial. Originalmente se denominaba El juego de imitación y era ligeramente diferente, con un hombre, una mujer y un interrogador, situado en una habitación separada, que debía determinar cuál era el hombre y cuál la mujer, mientras éstos trataban de engañarle. 


Turing usó está misma idea para su test, y actualmente el interrogador se comunica con un humano y una máquina con mensajes de texto durante cinco minutos, y decide cuál es el humano. Si la máquina consigue ganar más del 30% de las veces supera el test. Es lo que se supone que han conseguido Eugene Demchenko y Vladimir Veselov

Esto no significa que ya existan máquinas con una inteligencia igual a la humana: el test planteado por Turing es muy controvertido, y muchos aseguran que es tan bueno como sus jueces. Un buen examinador debe ser capaz de detectar respuestas fuera de contexto, ya que a fin de cuentas, se enfrenta a un simple algoritmo. Y lo que mide es solo una parte de la inteligencia humana; es decir, es un buen simulador de conversaciones, pero, por ejemplo, no necesariamente creativo. Imita la inteligencia pero ¿es realmente inteligente?

El logro rompe un reto que se resistía, como ocurrió con la victoria de Deep Blue a Gari Kasparov en ajedrez en 1997, pero no va a suponer grandes avances en la teoría de computación o en la inteligencia artificial. Tiene, eso sí, implicaciones sociales. Actualmente, con miles de robots y humanos buscando nuestros datos e invadiendo nuestra intimidad, este paso debería servirnos para reflexionar sobre nuestra creciente indefensión para discernir la verdad o falsedad de lo que se nos comunica por las redes. 

Tomado de:

El Mundo (España)

Una computadora logra superar por primera vez el test de Turing

  • El programa informático 'chatea' como un niño de 13 años, y sus interlocutores humanos creen que es una persona

  • Es la primera máquina que supera la famosa prueba del 'padre' de la informática para comprobar que una máquina 'piensa'


Un 'superordenador' capaz de 'chatear' como un niño de 13 años se ha convertido en la primera máquina que ha superado el llamado test de Turing. En un experimento llevado a cabo en la Royal Society de Londres, se utilizaron cinco ordenadores para intentar comprobar si podían engañar a varias personas, haciéndoles creer que eran seres humanos de carne y hueso durante una conversación con mensajes de texto.

Esta prueba fue concebida en 1950 por el gran matemático y pionero de la informática Alan Turing, quien afirmó que si una máquina no podía distinguirse de un ser humano, se demostraría que era capaz de "pensar". Desde entonces, el test de Turing -un hombre que contribuyó de manera decisiva a la victoria aliada durante la Segunda Guerra Mundia, ya que logró descifrar los códigos utilizados por los nazis para enviar mensajes encriptados-, se ha considerado la prueba clave para comprobar que un ordenador posee 'inteligencia artificial'.

Hasta ahora, ninguna máquina había superado esta prueba, que requiere que el 30% de sus interlocutores humanos crean que están hablando con otra persona durante conversaciones (mediante intercambios de textos) de cinco minutos. 

Pero según informa la Universidad de Reading en un comunicado, el programa informático 'Eugene Goostman', diseñado para simular el cerebro de un niño de 13 años, logró convencer por primera vez al 33% de sus interlocutores humanos que era una persona.

"En el campo de la inteligencia artificial, no hay ningún hito más icónico y controvertido que el test de Turing. Es muy apropiado que semejante acontecimiento se haya logrado en la Royal Society de Londres, la gran sede de la ciencia británica y el escenario de muchos de los grandes avances en la historia del conocimiento humano a lo largo de los siglos. Este hito quedará como uno de los avances más emocionantes en la historia de la ciencia", ha declarado el profesor Kevin Warwick, de la Universidad de Reading, uno de los organizadores del experimento.

La máquina 'inteligente' fue diseñada por Vladimir Veselov, un informático de origen ruso que trabaja en Estados Unidos, y el ucraniano Eugene Demchenko, que vive en Rusia.

"Es un logro impresionante para nosotros, y esperamos que fomente el interés por la inteligencia artificial y los chatbots [programas informáticos capaces de mantener conversaciones con personas]", ha declarado un emocionado Veselov.

Warwick ha reconocido que en el pasado, anteriores experimentos supuestamente habían logrado demostrar que otras máquinas podían "pensar", pero ha puesto en duda su validez: "Nuestro experimento se realizó con más pruebas simultáneas comparativas que nunca, se verificó de forma independiente y las conversaciones no tenían ninguna restricción. Un auténtico test de Turing no fija las preguntas o temas de conversación antes de que se realice la prueba. Por tanto, estamos muy orgullosos de poder afirmar que el test de Turing se ha superado por primera vez".

El científico británico considera que la existencia de ordenadores con una inteligencia artificial tan notable podría tener importantes "implicaciones para la sociedad" tanto positivas como negativas, ya que podría elevar el riesgo del "cibercrimen".

El experimento en la Royal Society tuvo un especial valor histórico, ya que se llevó a cabo precisamente cuando se cumplía el 60º aniversario de la muerte de Turing, considerado el 'padre' de la informática moderna.

Sin embargo, a pesar del entusiasmo con el que los autores del experimento han presentado sus resultados, algunos expertos ya lo han puesto en duda. La revista New Scientist, por ejemplo, ha publicado un análisis muy crítico titulado 'El "éxito" del test de Turing no es todo lo que parece'

"El test de Turing se ha convertido en un símbolo de la inteligencia de las máquinas, pero este nuevo experimento sólo ha comprobado la capacidad de las máquinas para chatear. Sin embargo, las personas son capaces de mucho más. La inteligencia humana va mucho más allá del chateo", concluye el comentario de New Scientist.
 
Fuente:
 

1 de junio de 2014

El sistema operativo BASIC cumple 50 años





BASIC, el lenguaje de programación que acercó la informática a millones de personas sin demasiados conocimientos, cumple este 1 de mayo 50 años. Sus característicos comandos en forma de listado fueron el primer contacto de varias generaciones con los ordenadores y todavía hoy se usan algunos lenguajes derivados de él.


Fue diseñado en 1964 por dos matemáticos-informáticos estadounidenses en la escuela de New Hampshire en la que trabajaban, con el objetivo de acercar el uso de los ordenadores (entonces eran poco más que torpes máquinas con gigantismo) a cualquier estudiante. Incluso a los que no sabían de informática.

Con la llegada de los ordenadores personales durante los años 70, BASIC se popularizó aún más por la simplicidad de su uso: en líneas sucesivas, ordenadas con números, se iban escribiendo las órdenes que el programa debía leer y ejecutar (PRINT para mostrar un mensaje en pantalla, GOTO para saltar a otra línea...).

Tras sus siglas, "Código de Instrucciones Simbólicas Multipropósito para Principiantes", se escondía la posibilidad real de que cualquiera con paciencia e interés desarrollase sus propios programas. Y precisamente por eso fue la entrada de muchos al mundo de los ordenadores.

El primer progama de Gates

El propio Bill Gates, creador de Microsoft, desarrolló su primer programa en BASIC con 13 años recién cumplidos: un juego de tres en raya en el que los usuarios competían con el ordenador.

Durante los 80, la mayor potencia de las máquinas facilitó que otros lenguajes como Pascal destronasen a BASIC en el ámbito escolar y supuso la llegada al mercado doméstico de aplicaciones listas para usar. Ya no tenía sentido que los consumidores desarrollasen sus propios programas.

BASIC había sido destronado, aunque en realidad nunca murió del todo y, de hecho, sigue vivo en la familia Visual Basic.

Quienes sientan nostalgia, o crean que sus hijos podrían seguir los pasos de sus padres en el mundo de la informática, tienen una oportunidad de revivir el amanecer de la revolución de la informática doméstica con Small Basic, un rediseño publicado por Microsoft en 2011, o usando Petit Computer para Nintendo 3DS y Nintendo DSi.

Pero no todo es color de rosa para el BASIC, porque también existen detractores. En Microsiervos nos los recuerdan así:

Claro que para Edsger Dijkstra, uno de los más grande guruses en esto de los ordenadores,
Es prácticamente imposible enseñar programación correctamente a estudiantes que han estado expuestos al lenguaje BASIC con anterioridad. Como potenciales programadores, tienen la mente mutilada sin esperanza alguna de regeneración.

Tomado de:

El Economista

Microsiervos

Neo Teo




BBC: Cinco preguntas incómodas sobre el mundo en 2039


robot

El hombre del futuro no sabrá si los pensamientos son suyos o se los generó alguien o algo.

¿Qué problemas y temores tendremos dentro de 25 años sobre el modo en que interactuaremos con las computadoras?

La revista New Scientist analizó el tema según las predicciones de los principales investigadores en el área y, si tienen razón, vamos a estar discutiendo, preocupándonos y debatiéndolo todo, desde la cirugía extrema hasta las implicaciones de la publicidad en implantes cerebrales.
Los chips cerebrales harán que no distingamos del todo cuáles son nuestros propios pensamientos o meras ideas implantadas por los anunciantes. Los vehículos que se manejan solos relegarán a los conductores humanos tradicionales, que sólo podrán estar al volante en parques especiales de recreación. Y el número óptimo de dedos en nuestras manos será 12,5.

¿Confundido? Esta es una visión sobre cómo será el mundo en 25 años según investigadores especializados en tecnologías de interacción humano-computadora (CHI).

Humanos y computadoras

órganos

Un dispositivo inteligente hará que nuestros órganos se comuniquen.

Normalmente, CHI significa investigar formas de interacción entre humanos y los dispositivos electrónicos. Pero en una conferencia celebrada recientemente en Toronto, Canadá, fueron más allá.

Crearon el programa de una conferencia imaginaria celebrada en el año 2039, donde se predicen los retos que enfrentaremos con las computadoras del futuro, muchas de las cuales serán implantadas.

"Se supone que es una especie de parámetro en la investigación de la interacción humano-computadora, lo que realmente es aterrador o provocativo", dice Eric Baumer, de la Universidad de Cornell en Ithaca, Nueva York.

"Hay una gran cantidad de pensamientos retrospectivos sobre el pasado, pero no se ha pensado mucho acerca de lo que es el futuro hacia el cual creemos que estamos trabajando".

New Scientist utilizó el resumen de esta hipotética conferencia para crear una lista de preguntas que, en el año 2039, podrían hacerse nuestros descendientes cyborg.

Lea el artículo completo en:

BBC Tecnología

25 de mayo de 2014

BBC: La tablet llegó para quedarse

Tableta

Érase una vez un mundo que no creía en las tabletas. Analistas, consumidores y profetas auguraban el fracaso de la llamada cuarta pantalla.
"Estos nuevos dispositivos están condenados al fracaso", decían unos. "Nadie necesita una nueva pantalla", afirmaban otros.

En el fondo la historia les daba la razón. Las tabletas llevan décadas entre nosotros, incluso aparecieron en películas como "2001: Odisea del espacio" y series de televisión como Star Trek.
De hecho la primera tableta comercial llamada GRiDPad apareció en 1989 a un módico precio de US$3.000 y tuvo éxito en su nicho de mercado aunque no se convirtió en un producto de consumo masivo (ese no era su objetivo).

Quizá la primera tableta moderna, pensada como una computadora móvil, llegó de la mano del fabricante Archos en 2009 y con el sistema operativo Android.

Steve Jobs con un iPad

Un año después apareció el iPad de Apple que llevó a las tabletas al mercado masivo y las convirtió en un objeto de deseo.

Pero a pesar del entusiasmo tecnológico, los analistas creían que el margen de éxito de estos productos era bastante limitado. Es más, el primer iPad fue considerado un "fiasco tecnológico" en una premiación en Barcelona.

Dos eran los principales argumentos en contra de estos productos: 1) el hecho de que la gente no tenía más dinero para comprar otro aparato, además de una computadora y un teléfono y; 2) las tabletas no satisfacían ninguna necesidad.

Adelanten sus relojes a 2014 y el panorama es completamente diferente. Se venden casi el mismo número de estos dispositivos que computadoras personales y la gente parece haber encontrado un uso para ellas.

Gráfico


Como pueden ver en la gráfica superior, se estima que las tabletas se venderán más que las computadoras personales el próximo año aunque su crecimiento es moderado. En el último año sólo se vendieron 3,9% más tabletas que el año anterior.

Las ventas parecen impulsadas por pantallas más pequeñas -de 7 u 8 pulgadas- y precios más bajos, alrededor de US$150. Además hay una mayor promiscuidad entre los consumidores: ya no importa tanto la marca como el precio.

Eso podría explicar porque Android domina el mercado de tabletas (por sistema operativo) aunque Apple lo hace por marca (en segundo lugar está Apple).

Al tener acceso a estos dispositivos los usuarios están empleándolos mayoritariamente como aparatos para la tarde, en casa, en la sala o la recámara.

Es más portátil que una laptop, más grande que un teléfono y permite ver videos, programas de televisión o consultar redes sociales en forma más cómoda.

En forma secundaria también se empieza a utilizar más en la oficina pero no para sustituir a la computadora, sino para reemplazar a la libreta de notas, escribiendo en reuniones y sincronizando información en la nube.

Surface

Ahora Microsoft con Surface 3 está tratando de cambiar esa percepción. Para la empresa creadora de Windows la tableta no debe ser sólo un instrumento de relajación o entretenimiento, sino una herramienta de trabajo.

Por ello el nuevo dispositivo de Microsoft cuenta con una pantalla de 12 pulgadas y promueve software de productividad como Office.

"Ésta es la tableta que puede reemplazar a tu laptop", dijo la empresa al promover su nuevo producto.

Por supuesto Microsoft está interesada en que Surface 3 sea un éxito. En la actualidad la empresa estadounidense únicamente acapara el 3% del mercado de tabletas y su nuevo producto no competirá con rivales de bajo costo o pequeñas pantallas.

Tradicionalmente el negocio más jugoso para la empresa ha sido el corporativo por lo que este nuevo producto busca retener dicho mercado.

La última palabra la tendrán los consumidores. ¿Logrará Microsoft convencerlos de usar las tabletas como herramientas de trabajo? Compartan su opinión en los comentarios y dígannos si tienen una tableta y para qué la usan.

Fuente:

BBC Tecnología
google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0