Latest Posts:

Mostrando las entradas con la etiqueta computadora. Mostrar todas las entradas
Mostrando las entradas con la etiqueta computadora. Mostrar todas las entradas

14 de enero de 2019

Cuando Isaac Asimov jugó a predecir 2019 y acertó

El autor de ciencia ficción describió en un artículo publicado en 1983 por el diario 'Toronto Star' el año actual como una sociedad con computadoras y colonización espacial.


A finales de diciembre de 1983, cuando quedaban solo unos días para que empezara el año que George Orwell eligió como título de su asfixiante distopía, el Toronto Star le propuso a Isaac Asimov, por entonces exitoso escritor de ciencia ficción, que predijera el futuro. Escogió 2019 no por casualidad. Era un salto de 35 años hacia adelante. El mismo salto que había que dar hacia atrás para llegar a 1949, la fecha de publicación de 1984.

Los 35 años también eran un salto generacional. Un margen suficiente para que predecir el futuro no fuera una tarea demasiado fácil o se adentrara irremediablemente en la ciencia ficción, que era lo que Asimov escribía desde hacía cuatro décadas. En las revistas pulp, en semanarios, en forma de libros, el autor volcaba su imaginación para trazar historias de civilizaciones galácticas y robotizadas.

La popularidad de sus historias y su acento académico —era bioquímico y daba clases en la universidad— lo señalaban como un candidato perfecto para especular sobre el futuro. Lejos de mostrarse conservador, cuando el Toronto Star le pidió aquel artículo, Asimov echó su imaginación a volar. Pronosticó sobre los ordenadores y las misiones espaciales, sobre la educación y los hábitos de trabajo.

El “objeto móvil computerizado” es el término que más llama la atención en sus augurios tecnológicos. Asimov no concreta a qué se refiere, pero ahora no podemos dejar de asociar aquel pretendido cacharro con un smartphone de hoy. Decía que estos dispositivos penetrarían los hogares y serían de uso común. Antes ya habían irrumpido en su literatura, como en el cuento Sensación de poder (1957), donde se menciona una “computadora de bolsillo”.

La visión positiva de la tecnología que tenía Asimov contrastaba en los ochenta con el creciente universo ciberpunk, a punto de desbocarse de la mano de William Gibson y del cine de Hollywood. Para el autor de ciencia ficción, sin embargo, las computadoras se volverían indispensables en 2019 y ello redundaría en beneficio de la sociedad.

El efecto inmediato de la adopción de las computadoras sería cambiar nuestros hábitos de trabajo, algo que se puede afirmar con toda seguridad que ha sucedido. Solo hay que pensar en cómo era una oficina en 1984. El autor también vaticinaba que algunos empleos desaparecerían, en favor de las computadoras y los robots, que se ocuparían de las tareas repetitivas. Pero se crearía más empleo del que se destruiría. De nuevo, pensaba en positivo.

 

5 de agosto de 2018

Ada Lovelace, la mujer que ideó el primer algoritmo de la historia (100 años antes de que llegaran las computadoras)

La programación parece un arte de principios del siglo XX, pero no es del todo cierto. Casi un siglo antes de que Alan Turing sentara las las bases de la computación moderna, una mujer escribió el primer algoritmo de la historia, un programa tan avanzado que la tecnología de la época no pudo hacerlo realidad.


Esa mujer se llamaba Augusta Ada King-Noel, condesa de Lovelace, aunque el mundo la recuerda como Ada Lovelace, escritora, matemática y la primera programadora de la historia.

Interesada desde joven en las matemáticas, la frenología y la física, la carrera de Lovelace dio un giro radical cuando trabó amistad con el matemático e inventor Charles Babbage, que le mostró su más reciente creación: la máquina de diferencia. En esencia se trataba de una calculadora mecánica capaz de tabular funciones polinómicas.

En 1840, Babbage fue invitado a la Universidad de Turín para dar una conferencia sobre su último diseño, un dispositivo llamado La máquina analítica. Un joven ingeniero italiano llamado Luigi Menabrea transcribió el seminario al francés y su transcripción terminó en la Biblioteca Universal de Ginebra. Dos años más tarde, un amigo común de Lovelace y Babbage pidió a la científica que tradujera el documento del inventor al inglés.

Pero Ada fue mucho más allá de la traducción

La elección de Lovelace no fue casual. Era de los pocos matemáticos capaces de entender los trabajos de Babbage. Sin embargo, su aportación fue mucho más allá de una mera traducción. Ada se percató de algo en la máquina que se le había pasado por completo a su creador: podía programarse.

Lovelace enriqueció el libro con sus propias notas entre las que se encuentra un completo diagrama que básicamente describe el primer algoritmo de la historia y que le valió ser considerada la primera programadora incluso cuando aún no existían los lenguajes de programación ni las computadoras.


Babbage ya esbozó algunos algoritmos propios, pero eran básicamente fórmulas. Ninguno de ellos tenía la complejidad que ideó Lovelace. El mérito de Ada Lovelace fue el darse cuenta de que la máquina analítica podía usarse para expresar entidades o símbolos con arreglo a unas normas y no solo números.

Pero la máquina no pudo ser construida

Nunca pudo ver en persona los resultados de su aportación. La máquina analítica de Babbage fue la primera computadora en términos de Turing. Tenía una unidad lógica aritmética y hasta un sistema de memoria integrado. En términos generales, compartía la misma estructura lógica que las computadoras actuales. Sin embargo, era tan compleja que Babbage no logró reunir el dinero necesario para fabricarla. El primer modelo completo de la máquina a partir de sus apuntes y siguiendo los mismos procesos de fabricación de la época no llegó hasta 1991 de la mano de los conservadores del Museo de la Ciencia de Londres.


Unos 100 años después de la creación de Babbage, el ingeniero alemán Konrad Zuse completaba la Z1, la primera computadora que se puede considerar como tal. El libro con la transcripción realizada por Lovelace con sus notas, su algoritmo y su nombre en la portada acaba de subastarse por la astronómica cifra de 125.000 dólares.

Fuente:

Gizmodo

1 de junio de 2018

La carrera por el ordenador cuántico

En la imagen, un físico del Instituto Nacional de Estándares y Tecnología sostiene un circuito que se utiliza para amplificar las señales de un detector de fotones. Crédito: Geoffrey Wheeler.

Los ordenadores cuánticos están llamados a revolucionar la computación. Su capacidad para realizar operaciones imposibles les convierte en una especie de santo grial y han desencadenado una competición que, de momento, lidera Estados Unidos. Su músculo industrial con compañías como Google o IBM no lo tienen Europa ni China, que también luchan por conseguir esta ansiada tecnología.

La principal diferencia entre un ordenador cuántico y uno convencional es la forma de procesar la información. Si las computadoras clásicas lo hacen en bits, y cada uno toma el valor de 1 o 0, los ordenadores cuánticos utilizan cúbits (o bits cuánticos), lo que significa que pueden representar a la vez tanto un 1 como un 0. Además, se correlacionan entre sí, es decir, que el valor de uno puede depender del valor de otro, lo que se conoce como entrelazamiento cuántico.

Esta revolucionaria forma de procesar la información imita a la naturaleza en sus formas más pequeñas. Partículas y otros diminutos elementos se comportan de formas extrañas, adquiriendo más de un estado al mismo tiempo e interactuando con otras partículas que están situadas muy lejos. Su comportamiento se rige por las leyes de la mecánica cuántica.

Simulando estas interacciones, los ordenadores cuánticos realizarán operaciones muy complejas y resolverán problemas que los tradicionales no tienen la capacidad de solucionar, como el cálculo de factores de números gigantes o el estudio preciso de interacciones entre átomos y moléculas. De esta forma, se espera que áreas como los nuevos materiales, el desarrollo de fármacos o los sistemas de inteligencia artificial avancen a una velocidad sin precedentes con la ayuda de esta nueva computación.

Aunque ya existen varios modelos de ordenador cuántico todavía no se ha desarrollado uno que alcance los 50-100 cúbits, con capacidades que superarían las de los ordenadores clásicos. IBM el año pasado aseguró haber llegado a los 50 cúbits pero los expertos se muestran cautos porque los investigadores de la compañía no explicaron los detalles en ninguna revista científica. Por su parte, Google afirma haber conseguido una tecnología con 72 cúbits.

“Las cosas se vuelven interesantes una vez que tenemos entre 50 y 100 cúbits que se pueden controlar por completo, por ejemplo, el entrelazamiento usado por algoritmos complejos, que muestran capacidades algorítmicas más allá de las máquinas clásicas”, señala a OpenMind Rainer Blatt, investigador del Instituto de Física Experimental de la Universidad de Innsbruck (Austria).

“Esto no se ha logrado en ningún sitio pero probablemente lo veremos en los próximos años”, añade el científico.

El artículo completo en:

Open Mind

1 de enero de 2017

El gato que está "vivo y muerto" y otros 9 avances de la física cuántica en 2016

Este 2016 parece haber sido un triunfo para la física cuántica.

El descubrimiento de ondas gravitacionales, anunciado en febrero, fue declarado el avance del año.
             
Aunque la lista hecha por la revista Physics World también cuenta con un nuevo giro a la muy querida idea del gato de Schrödinger y la detección de un planeta que orbita alrededor de la estrella más cercana al Sistema Solar.

Para detectar las ondas gravitacionales se requirió del trabajo en equipo de 80 instituciones en todo el mundo bajo la coordinación de los laboratorios Ligo.
Ligo tiene varios centros en todo el mundo que dispara láser a través de largos túneles a fin de detectar la deformación en la estructura del espacio-tiempo.

La primera señal se generó con la colisión de dos agujeros negros a más de 1.000 millones de años luz de la Tierra.

"Lo que se ha logrado con Ligo, particularmente en un espacio de tiempo relativamente corto, es verdaderamente increíble", señaló Hamish Johnston, editor de la revista Physics World

"La observación se pudo hacer con la primera evidencia directa de la existencia de agujeros negros, así que Ligo ya ha cambiado nuestra visión del Universo".

En cuanto a los otros 9, aquí los exponemos sin un orden en particular:

El gato de Schrödinger que está en dos lugares al mismo tiempo

La conocida paradoja presenta la idea de un gato en una caja que puede estar simultáneamente vivo y muerto.

El escenario fue diseñado para ilustrar algunos de los principios del extraño mundo de la física cuántica.

Es un ejemplo de la superposición cuánticas donde las partículas pueden estar en dos estados distintos al mismo tiempo.

Ahora, un equipo de científicos estadounidenses y franceses demostraron que el gato puede estar en dos lugares separados al mismo tiempo.

Al construir su gato a partir de fotones microondas coherentes, el estado del "gato electromagnético" pudo haber sido compartido por dos cajas separadas.

"Más allá de lo absurdo del sentido común en el mundo clásico, la capacidad de compartir estados cuánticos en diferentes lugares podría ser un poderoso recurso para el procesamiento de información cuántica", explicaron los expertos en la revista .

Enredos y súper veloces computadoras cuánticas

Un equipo internacional creó y midió un fenómeno llamado enredo cuántico entre dos tipos distintos de iones, un átomo cargado o molécula.

El descubrimiento podría ayudar a mostrar el camino hacia las computadoras cuánticas superrápidas.
Las computadoras cuánticas, basadas más en la mecánica cuántica que en la electrónica, tienen el potencial de ser más poderosas que las tradicionales.

A diferencia de las computadoras tradicionales -que se basan en el sistema binario (bits)- las cuánticas tienen qubits, que pueden ser tanto 0 como 1 al mismo tiempo, un estado conocido como superposición.

Y en un mundo en el que la rapidez con la que pueden analizarse datos para luego tomar decisiones hace la diferencia entre ganancias y pérdidas, la velocidad de las computadoras es clave.

El artículo completo en la web de la BBC

 

19 de junio de 2016

El héroe de la Resistencia que utilizó a IBM para engañar a los nazis


Se dice que fue el primer hacker de la historia. El francés René Carmille logró salvar vidas durante la ocupación de los nazis en Francia en 1940, al sabotear la tecnología de la época: las tarjetas perforadas de IBM.

Con el establecimiento del Reich en Alemania, tras el nombramiento de Adolfo Hitler como canciller en 1933, el gobierno decidió llevar a cabo un censo de toda la población en el país.

El censo debía registrar la edad, sexo, residencia, profesión y estado civil de cada individuo. Además, por primera vez, se ordenó registrar la religión de la persona trazándola a sus abuelos.

La tarea era enorme y para contener tal cantidad de información, se utilizaron las llamadas tarjetas perforadas, donde se introducían los datos recolectados en forma de perforaciones según un código binario.

Precursoras

Las tarjetas -que eran láminas hechas de cartulina- formaban parte de una tecnología de procesamiento de datos desarrollada en EE.UU. por Herman Hollerith a fines de siglo XIX, y fueron una de las primeras aplicaciones de la informática.

Hollerith fundó la compañía Tabulating Machine Company en 1896, que después fue renombrada International Business Machines (IBM).

Las tarjetas, que eran clasificadas y computadas por las llamadas máquinas Hollerith, se convirtieron en las precursoras de las computadoras.
Y a fines de los 1930, con la información recogida en los censos, el régimen nazi creó un Registro Judío, el cual posteriormente también incluyó los nombres de judíos que vivían en los territorios ocupados por las tropas alemanas en Europa.

Esta información condujo eventualmente a que los nazis pudieran identificar, confiscar bienes, arrestar, deportar y exterminar a millones de judíos.

En Francia, sin embargo, las máquinas Hollerith no revelaron la información que buscaban los nazis. Y esto fue gracias al primer "hackeo", que llevó a cabo René Carmille.

Carmille era un experto en tarjetas perforadas que trabajaba como auditor del Ejército Francés.

El artículo completo en:

El Mundo Ciencia

20 de enero de 2016

Así afecta al cerebro usar la computadora y el celular a la vez

Un nuevo estudio llevado a cabo por un equipo de investigadores de la Universidad de Sussex (Reino Unido) y publicado en la revista Plos One, ha concluido que las personas que utilizan a menudo varios dispositivos electrónicos a la vez (ordenadores, tabletas, móviles, portátiles...) tienen una menor densidad de materia gris en una parte concreta del cerebro en comparación con aquellas personas que lo hacen muy de vez en cuando.

A pesar de que estudios anteriores ya habían relacionado la mala atención con el empleo de dispositivos multitarea, se trata de la primera vez que encuentran un vínculo real entre ambas. Los científicos querían averiguar si se producía algún tipo de cambio o alteración en el cerebro con una exposición prolongada de varios dispositivos electrónicos a la vez por parte del usuario.

Para ello, los investigadores utilizaron imágenes de resonancia magnética funcional para examinar las estructuras cerebrales de 75 adultos que habían respondido previamente a un cuestionario sobre el uso y consumo de todo tipo de dispositivos electrónicos, incluyendo televisión, tabletas, smartphones u ordenadores.

Los expertos descubrieron que, independientemente de los rasgos de personalidad, las personas que utilizaban un mayor número de dispositivos al mismo tiempo también tenían menor densidad de materia gris en la parte del cerebro conocida como corteza cingulada anterior, la zona responsable de las funciones de control cognitivo y emocional.

“Los medios multitarea son cada vez más frecuentes en nuestras vidas hoy en día y cada vez hay más preocupación por su impacto en nuestra cognición y bienestar emocional y social. Nuestro estudio es el primero en revelar los vínculos entre los medios de comunicación multitarea y la estructura del cerebro”, afirma Kepkee Loh, coautor del estudio.

Fuente:

Muy Intereante

21 de septiembre de 2015

IBM acaba de fabricar el primer procesador funcional de solo 7 nanómetros

IBM logra fabricar el primer procesador funcional de solo 7 nanómetros 

IBM ha anunciado hoy un avance que marcará un momento histórico en la industria de la computación: la fabricación del primer procesador con transistores de 7 nanómetros, unas 1,400 veces más pequeño que el grosor de un cabello humano. El chip tiene 4 veces la capacidad de los procesadores actuales. La Ley de Moore sigue de momento más vigente que nunca.
 
La compañía ha confirmado hoy jueves el avance, adelantado en medios como el NYT, y ha asegurado que es fruto de su inversión de 3.000 millones de dólares durante 5 años en investigación en procesadores y computación. En dicha inversión participan otras compañías como Global Foundries (a quien IBM vendió su negocio de fabricación de chips el año pasado), Samsung y otras firmas privadas y organismos públicos.


El anuncio se produce justo cuando se comenzaba a dudar que la fabricación de procesadores pudiera pasar la barrera actual de los 14 nanómetros y la futura, pero ya posible, de los 10 nanómetros. Ir más allá comenzaba a suponer importantes barreras de pura física. IBM ahora se ha adelantado incluso a Intel en la creación del primer chip con transistores de 7 nanómetros (por comparación, un glóbulo rojo mide unos 7.500 nanómetros de diámetro). Para conseguirlo, la compañía ha utilizado silicio-germanio en lugar de puro silicio en determinadas zonas del chip, lo que le ha permitido la reducción de tamaño manteniendo la estabilidad del procesador y multiplicando por 4 su capacidad.


IBM logra fabricar el primer procesador funcional de solo 7 nanómetros


El avance, según IBM, permitirá construir microprocesadores con más de 20.000 millones de transistores. La reducción del tamaño de estos chips no solo permitirá concentrar mayor poder de computación en el mismo espacio, también debería dar lugar a mejoras en el consumo de energía (y, por extensión, en la duración final de las baterías de los equipos).


IBM asegura que aún deberá pasar aún un tiempo hasta que estos procesadores estén disponibles comercialmente, aunque no especifica cuánto. Desde luego será difícil verlos en equipos y sistemas antes de los próximos dos o tres años. Aún así, ahora ya sabemos que llegar a la barrera de los 7 nanómetros es posible. Eso supondrá un nuevo y gran salto en la computación. Aunque la pregunta sigue ahí: ¿qué ocurrirá después? [vía NYT y VentureBeat]

Tomado de;

Gizmodo

Lea también:
50 años de la Ley de Moore: ¿qué ocurrirá cuando ya no se cumpla?

Acaban de cumplirse 50 años de la Ley de Moore, enunciada en 1965 por Gordon Moore, uno de los… Seguir leyendo 

17 de febrero de 2015

Sorprendente: Las consecuencias de dejar de escribir a mano


Podrían los antiguos métodos para aprender a escribir a mano tener beneficios desconocidos?

Niños en todo el mundo pasan cada vez más tiempo utilizando computadoras con teclados y pantallas táctiles en lugar de escribir con un bolígrafo y un papel.
¿Perjudica esto su desarrollo y bienestar? Nuevas investigaciones sugieren que podría ser el caso.
El programa BBC Forum habló con la neurocientífica cognitiva Karin James sobre la importancia de aprender a escribir a mano para el desarrollo cerebral de los niños.
James, profesora de la Universidad de Bloomington, Estados Unidos, llevó a cabo investigaciones con niños que todavía no sabían leer.
Se trata de niños que, aunque puedan identificar letras, no son todavía capaces de juntarlas para formar palabras.
Los científicos dividieron a los niños en grupos y enseñaron a algunos a escribir a mano distintas letras, mientras que otros utilizaron teclados.
La investigación analizó cómo aprendían los niños las letras.
Los científicos también utilizaron resonancias magnéticas para evaluar la activación cerebral y ver cómo cambia el cerebro a lo largo del tiempo a medida que los niños se familiarizan con las letras del alfabeto.
Escanearon los cerebros de los niños antes y después de enseñarles las letras y compararon los distintos grupos, midiendo el consumo de oxígeno en el cerebro como indicador de la actividad cerebral.
Los investigadores concluyeron que el cerebro responde de distinta manera cuando aprende con letras escritas a mano y cuando lo hace a través de un teclado.
El artículo completo en:

6 de enero de 2015

¿La tecnología realmente atenta contra la capacidad de tu memoria?

Dos personas entran a un seminario. Una saca fotos y graba video y audio de la presentación, al tiempo que la otra toma notas a mano. ¿Qué persona cree que recordará mejor la información? El primero puede usar sus notas digitales para crear algo nuevo sobre el tema, mientras que para el segundo no será tan fácil.

Aún así, siguen apareciendo investigaciones como una recientemente publicada en la revista Psychological Science. Esta afirma que tomar notas en papel le da a la persona una ventaja al momento de recordar, en comparación con alguien que lo tipea en un computador.

El argumento lleva varios años circulando y usualmente está basado en la idea de que la escritura a mano es lenta y deliberada. Esto le permite al lector un entendimiento más profundo de la información y, por ende, una mayor capacidad para recordar. En contraposición, los conceptos grabados por medio digital, algo que se hace de forma rápida y automática, limitan la comprensión y, en consecuencia, su posterior memorización.

Existen argumentos similares respecto a la capacidad de recordar cosas leídas en una pantalla de smartphone, tableta o e-reader, por ejemplo, en oposición al papel impreso.

Pero, memorizar información, ¿debería seguir siendo una prioridad? 

El articulo completo en:

América Economía

14 de septiembre de 2014

Una niña conoce la computadora Raspberry pi

Me he dado cuenta que los dibujos animados resultan demasiado adictivos para mi hija. Si bien puede dividir su tiempo para entretenerse realizando diversas actividades como dibujar y pintar con lápices de colores, crayolas y témperas, armar rompecabezas, usar plastilina, hojear libros y balancearse en el columpio, creo que no tendría problemas de pasarse horas de horas viendo su dibujo favorito: Peppa pig.

A pesar que aún no tiene edad para dejar por completo los pañales, es toda una experta usando el Smartphone de su mamá. Ya aprendió a desbloquearlo, sabe pasar las pantallas haciendo “swipe” con el dedo hasta encontrar el ícono de YouTube. Si te descuidas un rato se apodera del teléfono y se pone a mirar Peppa pig. Luego distraerla y convencerla que deje el celular para hacer otra actividad no es cosa fácil.

Así que decidimos tomar acciones radicales.


La Raspberry pi

Hace un par de meses le compré una computadora llamada Raspberry pi. Esta computadora consiste en una tarjeta madre muy pequeña (del tamaño de una tarjeta de crédito) y es desarrollada por la Fundación del mismo nombre. Esta es una computadora de bajo costo, dirigida a niños para que sea utilizada con fines educativos. La fundación la vende a 40$ aproximadamente, pero también la puedes conseguir en Amazon o si estás en Lima, en http://paruro.pe (aunque encontrarás precios más elevados).

Entonces cuando mi hija pide con insistencia ver Peppa Pig, le decimos que sólo se puede ver desde la Raspberry pi. Acto seguido retiramos esta pequeña computadora y cables de su caja, y ella misma se ofrece de voluntaria para hacer todas las conexiones. Se le pueden enchufar mouse, teclado y monitor viejos a la Raspberry pi. La fuente de poder viene de un cable que perteneció a un Kindle, y va conectado a un transformador rescatado de una vieja cámara de vídeos Nikon.

El artículo completo en:

Utero de Marita

26 de agosto de 2014

El chip sináptico de IBM marca el paso hacia la computación neuronal


Después de seis años de intenso desarrollo el equipo de IBM que dirige el proyecto SyNAPSE ha comunicado el resultado de su trabajo: un chip que presta el diseño de nuestra red neuronal, siendo capaz de responder a los estímulos sensoriales y al reconocimiento de patrones.

La innovación de IBM asienta los fundamentos de una nueva generación de arquitectura computacional inspirada en la estructura cerebral, cuya capacidad de “pensar, actuar y percibir” acortará más la distancia entre el modelo de inteligencia artificial e inteligencia humana.

Reinventando el modelo John von Neumann

La divergencia entre el funcionamiento del cerebro y los ordenadores actuales siempre ha sido un aspecto intrigante que ha impulsado a los científicos de la computación a estudiar nuevas formas de mejorar los ‘cerebros’ de los ordenadores. El centro de investigación de IBM no ha querido perderse nada del gran viaje que cambiará el futuro de la tecnología actual así que se convirtió en una de las empresas pioneras en investigar los secretos de la capacidad cognitiva trasladada a las máquinas inteligentes.

En 2012 sus especialistas dieron un paso muy importante en este campo al presentar por la primera vez el superordenador Sequoia, considerado la más potente simulación cerebral realizada jamás ya que reunía la fuerza de 2.084 mil millones representaciones de núcleos neurosinápticos. Después de dos años, el mismo equipo da otro paso decisivo y en lugar de adaptar los algoritmos inspirados de la actividad cerebral a la computación tradicional inventan desde la base un chip que imita la actividad de las redes neuronales humanas.

Según el científico que lidera el proyecto, Dharmendra Modha, la idea ha surgido de la necesidad de replantear el sistema informático heredado de John von Neumann, un matemático que ha puesto las bases de la arquitectura computacional clásica. Modha está convencido de que los ordenadores actuales, además de cálculos matemáticos precisos se podrían mejorar al adaptarse a la inteligencia  adaptativa del cerebro humano:
“El cerebro evolucionó hace millones de años para solucionar los problemas básicos: conseguir comida, luchar, evitar los peligros, reproducirse y está destinado a manejar datos de baja resolución, ambiguos y simbólicos. Integra memoria (sinapsis) y computación (neuronas), tiene un procesamiento distribuido, gestiona los datos en paralelo, puede aprender, opera de forma asíncrona, es lento y por lo tanto no gasta energía y tampoco se sobrecalienta”.
IBM

Una arquitectura que imita la escalabilidad del cerebro humano

Para reducir la brecha entre el bajo consumo de energía de la actividad cerebral y los ordenadores actuales, los científicos de IBM han usado las técnicas de la nanotecnología y neurociencia para crear una arquitectura informática escalable y eficiente.
El chip llamado TrueNorth está formado por una red bidimensional de 4.096 núcleos neurosinápticos digitales, dónde cada núcleo integra memoria, procesamiento y comunicación y opera según un modo de computación paralela, dirigida por eventos y con tolerancia a fallos.

Igual que el modelo neuronal humano, la arquitectura del chip seguirá funcionando incluso si falla alguno de los núcleos individuales. Su escalabilidad le permitirá ampliar las conexiones entre los núcleos hasta formar un mosaico sin interrupciones, construyendo los pilares de una futura supercomputación neurosináptica.
“IBM ha sentado las bases de una computación inspirada en el el cerebro humano, en los términos de una arquitectura de computación radicalmente nueva, a una escala sin precedentes, una velocidad, eficiencia, energía y capacidad de adaptación incomparables”, comenta Modha.
aplicacioneschip

La tecnología del futuro ‘sentirá’ la realidad igual que nosotros

Con el fin de facilitar el trabajo de los futuros desarrolladores IBM ha creado un ecosistema completo que abarca un simulador del chip, un lenguaje de programación, una librería, algoritmos y aplicaciones. El ecosistema soporta todos los aspectos del ciclo de programación desde el diseño hasta el desarrollo, la depuración y el despliegue.
En cuanto a las futuras aplicaciones, Dharmendra Modha cree que su nuevo chip permitirá construir ordenadores igual de eficientes que el cerebro humano y que no consumen más que una bombilla (70 milivatios). Este piensa que la tecnología basada en el procesamiento neurosináptico podrá transformar la movilidad y el Internet de las cosas a través de la percepción sensorial:
“En el futuro estos chips se podrían convertir en la alternativa de energía eficiente para gafas que ayuden a navegar a las personas invidentes, ‘ojos’ que dejen ver a los robots y a los coches, sistemas médicos que monitoricen la tensión arterial, la temperatura y el nivel de oxígeno de las personas mayores y que envíen alertas antes de producirse algún problema o sistemas que midan el nivel de marea y velocidad del viento para predecir los tsunamis”.
Por último Modha espera que el futuro tecnológico esté destinado a una simbiosis entre los chips cognitivos y los tradicionales “para enfrentarse al contexto real de la misma manera que lo hacemos nosotros”.

Fuente:

TicBeat

10 de junio de 2014

Máquinas y test de Turing: ¿Inteligencia real o imitación?

El test propuesto por el matemático inglés Turing en su artículo Computing machinery and intelligence, publicado en 1950 en la revista Mind, está considerado uno de los hitos históricos del desarrollo de la inteligencia artificial. Originalmente se denominaba El juego de imitación y era ligeramente diferente, con un hombre, una mujer y un interrogador, situado en una habitación separada, que debía determinar cuál era el hombre y cuál la mujer, mientras éstos trataban de engañarle. 


Turing usó está misma idea para su test, y actualmente el interrogador se comunica con un humano y una máquina con mensajes de texto durante cinco minutos, y decide cuál es el humano. Si la máquina consigue ganar más del 30% de las veces supera el test. Es lo que se supone que han conseguido Eugene Demchenko y Vladimir Veselov

Esto no significa que ya existan máquinas con una inteligencia igual a la humana: el test planteado por Turing es muy controvertido, y muchos aseguran que es tan bueno como sus jueces. Un buen examinador debe ser capaz de detectar respuestas fuera de contexto, ya que a fin de cuentas, se enfrenta a un simple algoritmo. Y lo que mide es solo una parte de la inteligencia humana; es decir, es un buen simulador de conversaciones, pero, por ejemplo, no necesariamente creativo. Imita la inteligencia pero ¿es realmente inteligente?

El logro rompe un reto que se resistía, como ocurrió con la victoria de Deep Blue a Gari Kasparov en ajedrez en 1997, pero no va a suponer grandes avances en la teoría de computación o en la inteligencia artificial. Tiene, eso sí, implicaciones sociales. Actualmente, con miles de robots y humanos buscando nuestros datos e invadiendo nuestra intimidad, este paso debería servirnos para reflexionar sobre nuestra creciente indefensión para discernir la verdad o falsedad de lo que se nos comunica por las redes. 

Tomado de:

El Mundo (España)

Una computadora logra superar por primera vez el test de Turing

  • El programa informático 'chatea' como un niño de 13 años, y sus interlocutores humanos creen que es una persona

  • Es la primera máquina que supera la famosa prueba del 'padre' de la informática para comprobar que una máquina 'piensa'


Un 'superordenador' capaz de 'chatear' como un niño de 13 años se ha convertido en la primera máquina que ha superado el llamado test de Turing. En un experimento llevado a cabo en la Royal Society de Londres, se utilizaron cinco ordenadores para intentar comprobar si podían engañar a varias personas, haciéndoles creer que eran seres humanos de carne y hueso durante una conversación con mensajes de texto.

Esta prueba fue concebida en 1950 por el gran matemático y pionero de la informática Alan Turing, quien afirmó que si una máquina no podía distinguirse de un ser humano, se demostraría que era capaz de "pensar". Desde entonces, el test de Turing -un hombre que contribuyó de manera decisiva a la victoria aliada durante la Segunda Guerra Mundia, ya que logró descifrar los códigos utilizados por los nazis para enviar mensajes encriptados-, se ha considerado la prueba clave para comprobar que un ordenador posee 'inteligencia artificial'.

Hasta ahora, ninguna máquina había superado esta prueba, que requiere que el 30% de sus interlocutores humanos crean que están hablando con otra persona durante conversaciones (mediante intercambios de textos) de cinco minutos. 

Pero según informa la Universidad de Reading en un comunicado, el programa informático 'Eugene Goostman', diseñado para simular el cerebro de un niño de 13 años, logró convencer por primera vez al 33% de sus interlocutores humanos que era una persona.

"En el campo de la inteligencia artificial, no hay ningún hito más icónico y controvertido que el test de Turing. Es muy apropiado que semejante acontecimiento se haya logrado en la Royal Society de Londres, la gran sede de la ciencia británica y el escenario de muchos de los grandes avances en la historia del conocimiento humano a lo largo de los siglos. Este hito quedará como uno de los avances más emocionantes en la historia de la ciencia", ha declarado el profesor Kevin Warwick, de la Universidad de Reading, uno de los organizadores del experimento.

La máquina 'inteligente' fue diseñada por Vladimir Veselov, un informático de origen ruso que trabaja en Estados Unidos, y el ucraniano Eugene Demchenko, que vive en Rusia.

"Es un logro impresionante para nosotros, y esperamos que fomente el interés por la inteligencia artificial y los chatbots [programas informáticos capaces de mantener conversaciones con personas]", ha declarado un emocionado Veselov.

Warwick ha reconocido que en el pasado, anteriores experimentos supuestamente habían logrado demostrar que otras máquinas podían "pensar", pero ha puesto en duda su validez: "Nuestro experimento se realizó con más pruebas simultáneas comparativas que nunca, se verificó de forma independiente y las conversaciones no tenían ninguna restricción. Un auténtico test de Turing no fija las preguntas o temas de conversación antes de que se realice la prueba. Por tanto, estamos muy orgullosos de poder afirmar que el test de Turing se ha superado por primera vez".

El científico británico considera que la existencia de ordenadores con una inteligencia artificial tan notable podría tener importantes "implicaciones para la sociedad" tanto positivas como negativas, ya que podría elevar el riesgo del "cibercrimen".

El experimento en la Royal Society tuvo un especial valor histórico, ya que se llevó a cabo precisamente cuando se cumplía el 60º aniversario de la muerte de Turing, considerado el 'padre' de la informática moderna.

Sin embargo, a pesar del entusiasmo con el que los autores del experimento han presentado sus resultados, algunos expertos ya lo han puesto en duda. La revista New Scientist, por ejemplo, ha publicado un análisis muy crítico titulado 'El "éxito" del test de Turing no es todo lo que parece'

"El test de Turing se ha convertido en un símbolo de la inteligencia de las máquinas, pero este nuevo experimento sólo ha comprobado la capacidad de las máquinas para chatear. Sin embargo, las personas son capaces de mucho más. La inteligencia humana va mucho más allá del chateo", concluye el comentario de New Scientist.
 
Fuente:
 

1 de junio de 2014

El sistema operativo BASIC cumple 50 años





BASIC, el lenguaje de programación que acercó la informática a millones de personas sin demasiados conocimientos, cumple este 1 de mayo 50 años. Sus característicos comandos en forma de listado fueron el primer contacto de varias generaciones con los ordenadores y todavía hoy se usan algunos lenguajes derivados de él.


Fue diseñado en 1964 por dos matemáticos-informáticos estadounidenses en la escuela de New Hampshire en la que trabajaban, con el objetivo de acercar el uso de los ordenadores (entonces eran poco más que torpes máquinas con gigantismo) a cualquier estudiante. Incluso a los que no sabían de informática.

Con la llegada de los ordenadores personales durante los años 70, BASIC se popularizó aún más por la simplicidad de su uso: en líneas sucesivas, ordenadas con números, se iban escribiendo las órdenes que el programa debía leer y ejecutar (PRINT para mostrar un mensaje en pantalla, GOTO para saltar a otra línea...).

Tras sus siglas, "Código de Instrucciones Simbólicas Multipropósito para Principiantes", se escondía la posibilidad real de que cualquiera con paciencia e interés desarrollase sus propios programas. Y precisamente por eso fue la entrada de muchos al mundo de los ordenadores.

El primer progama de Gates

El propio Bill Gates, creador de Microsoft, desarrolló su primer programa en BASIC con 13 años recién cumplidos: un juego de tres en raya en el que los usuarios competían con el ordenador.

Durante los 80, la mayor potencia de las máquinas facilitó que otros lenguajes como Pascal destronasen a BASIC en el ámbito escolar y supuso la llegada al mercado doméstico de aplicaciones listas para usar. Ya no tenía sentido que los consumidores desarrollasen sus propios programas.

BASIC había sido destronado, aunque en realidad nunca murió del todo y, de hecho, sigue vivo en la familia Visual Basic.

Quienes sientan nostalgia, o crean que sus hijos podrían seguir los pasos de sus padres en el mundo de la informática, tienen una oportunidad de revivir el amanecer de la revolución de la informática doméstica con Small Basic, un rediseño publicado por Microsoft en 2011, o usando Petit Computer para Nintendo 3DS y Nintendo DSi.

Pero no todo es color de rosa para el BASIC, porque también existen detractores. En Microsiervos nos los recuerdan así:

Claro que para Edsger Dijkstra, uno de los más grande guruses en esto de los ordenadores,
Es prácticamente imposible enseñar programación correctamente a estudiantes que han estado expuestos al lenguaje BASIC con anterioridad. Como potenciales programadores, tienen la mente mutilada sin esperanza alguna de regeneración.

Tomado de:

El Economista

Microsiervos

Neo Teo




BBC: Cinco preguntas incómodas sobre el mundo en 2039


robot

El hombre del futuro no sabrá si los pensamientos son suyos o se los generó alguien o algo.

¿Qué problemas y temores tendremos dentro de 25 años sobre el modo en que interactuaremos con las computadoras?

La revista New Scientist analizó el tema según las predicciones de los principales investigadores en el área y, si tienen razón, vamos a estar discutiendo, preocupándonos y debatiéndolo todo, desde la cirugía extrema hasta las implicaciones de la publicidad en implantes cerebrales.
Los chips cerebrales harán que no distingamos del todo cuáles son nuestros propios pensamientos o meras ideas implantadas por los anunciantes. Los vehículos que se manejan solos relegarán a los conductores humanos tradicionales, que sólo podrán estar al volante en parques especiales de recreación. Y el número óptimo de dedos en nuestras manos será 12,5.

¿Confundido? Esta es una visión sobre cómo será el mundo en 25 años según investigadores especializados en tecnologías de interacción humano-computadora (CHI).

Humanos y computadoras

órganos

Un dispositivo inteligente hará que nuestros órganos se comuniquen.

Normalmente, CHI significa investigar formas de interacción entre humanos y los dispositivos electrónicos. Pero en una conferencia celebrada recientemente en Toronto, Canadá, fueron más allá.

Crearon el programa de una conferencia imaginaria celebrada en el año 2039, donde se predicen los retos que enfrentaremos con las computadoras del futuro, muchas de las cuales serán implantadas.

"Se supone que es una especie de parámetro en la investigación de la interacción humano-computadora, lo que realmente es aterrador o provocativo", dice Eric Baumer, de la Universidad de Cornell en Ithaca, Nueva York.

"Hay una gran cantidad de pensamientos retrospectivos sobre el pasado, pero no se ha pensado mucho acerca de lo que es el futuro hacia el cual creemos que estamos trabajando".

New Scientist utilizó el resumen de esta hipotética conferencia para crear una lista de preguntas que, en el año 2039, podrían hacerse nuestros descendientes cyborg.

Lea el artículo completo en:

BBC Tecnología

25 de mayo de 2014

BBC: La tablet llegó para quedarse

Tableta

Érase una vez un mundo que no creía en las tabletas. Analistas, consumidores y profetas auguraban el fracaso de la llamada cuarta pantalla.
"Estos nuevos dispositivos están condenados al fracaso", decían unos. "Nadie necesita una nueva pantalla", afirmaban otros.

En el fondo la historia les daba la razón. Las tabletas llevan décadas entre nosotros, incluso aparecieron en películas como "2001: Odisea del espacio" y series de televisión como Star Trek.
De hecho la primera tableta comercial llamada GRiDPad apareció en 1989 a un módico precio de US$3.000 y tuvo éxito en su nicho de mercado aunque no se convirtió en un producto de consumo masivo (ese no era su objetivo).

Quizá la primera tableta moderna, pensada como una computadora móvil, llegó de la mano del fabricante Archos en 2009 y con el sistema operativo Android.

Steve Jobs con un iPad

Un año después apareció el iPad de Apple que llevó a las tabletas al mercado masivo y las convirtió en un objeto de deseo.

Pero a pesar del entusiasmo tecnológico, los analistas creían que el margen de éxito de estos productos era bastante limitado. Es más, el primer iPad fue considerado un "fiasco tecnológico" en una premiación en Barcelona.

Dos eran los principales argumentos en contra de estos productos: 1) el hecho de que la gente no tenía más dinero para comprar otro aparato, además de una computadora y un teléfono y; 2) las tabletas no satisfacían ninguna necesidad.

Adelanten sus relojes a 2014 y el panorama es completamente diferente. Se venden casi el mismo número de estos dispositivos que computadoras personales y la gente parece haber encontrado un uso para ellas.

Gráfico


Como pueden ver en la gráfica superior, se estima que las tabletas se venderán más que las computadoras personales el próximo año aunque su crecimiento es moderado. En el último año sólo se vendieron 3,9% más tabletas que el año anterior.

Las ventas parecen impulsadas por pantallas más pequeñas -de 7 u 8 pulgadas- y precios más bajos, alrededor de US$150. Además hay una mayor promiscuidad entre los consumidores: ya no importa tanto la marca como el precio.

Eso podría explicar porque Android domina el mercado de tabletas (por sistema operativo) aunque Apple lo hace por marca (en segundo lugar está Apple).

Al tener acceso a estos dispositivos los usuarios están empleándolos mayoritariamente como aparatos para la tarde, en casa, en la sala o la recámara.

Es más portátil que una laptop, más grande que un teléfono y permite ver videos, programas de televisión o consultar redes sociales en forma más cómoda.

En forma secundaria también se empieza a utilizar más en la oficina pero no para sustituir a la computadora, sino para reemplazar a la libreta de notas, escribiendo en reuniones y sincronizando información en la nube.

Surface

Ahora Microsoft con Surface 3 está tratando de cambiar esa percepción. Para la empresa creadora de Windows la tableta no debe ser sólo un instrumento de relajación o entretenimiento, sino una herramienta de trabajo.

Por ello el nuevo dispositivo de Microsoft cuenta con una pantalla de 12 pulgadas y promueve software de productividad como Office.

"Ésta es la tableta que puede reemplazar a tu laptop", dijo la empresa al promover su nuevo producto.

Por supuesto Microsoft está interesada en que Surface 3 sea un éxito. En la actualidad la empresa estadounidense únicamente acapara el 3% del mercado de tabletas y su nuevo producto no competirá con rivales de bajo costo o pequeñas pantallas.

Tradicionalmente el negocio más jugoso para la empresa ha sido el corporativo por lo que este nuevo producto busca retener dicho mercado.

La última palabra la tendrán los consumidores. ¿Logrará Microsoft convencerlos de usar las tabletas como herramientas de trabajo? Compartan su opinión en los comentarios y dígannos si tienen una tableta y para qué la usan.

Fuente:

BBC Tecnología

19 de abril de 2014

El País: "Programar para aprender"

Clases de robótica o para aprender a programar. Ya lo están haciendo en algunos centros. Pocos, pero son la punta de lanza que acerca a los escolares el mundo 2.0

En su edición de 2014, la londinense Bett, la feria sobre tecnología educativa más importante del mundo, ha consagrado a la programación como la gran herramienta del futuro. En Estados Unidos, la Fundación Code.org, apoyada entre otros por Bill Gates y Mark Zuckerberg, pretende que los niños y niñas aprendan código desde edad temprana. No para convertirse en unos genios de la computación, de la misma manera que el objetivo de aprender a leer y a escribir no es ganar el Premio Nobel de Literatura, sino para que pasen de meros consumidores a creadores en la Red. “Programar implica definir un problema, estructurar información y seguir una estrategia para resolverlo”, describe sus bondades educativas Lourdes Barroso, presidenta de Aulablog. Y si a la programación se le suma la robótica, el ejercicio se traslada al terreno de lo físico, de lo que se puede manipular y construir.

“Programación, robótica, impresoras 3D, etcétera. Tenemos que ir hacia eso”, zanja Javier Palazón, director de la revista Educación 3.0. La cuestión es, ¿estamos yendo? Desde la Consejería de Educación de la Comunidad de Madrid el mensaje es “estamos en ello”. Se organizan cursos y seminarios formativos. “Estamos desarrollando los nuevos currículos de las asignaturas de enseñanzas obligatorias que introduce la LOMCE, y una de las prioridades en las asignaturas de tecnología es, sin duda, la incorporación y desarrollo de la programación en las aulas”, enfatiza un portavoz. Mientras tanto, y tirando del hilo, aparecen experiencias interesantes, como la que ha auspiciado la propia Barroso en su IES, Laguna de Joatzel, de Getafe: sus alumnos del ciclo formativo de desarrollo de aplicaciones web imparten una extraescolar de programación de videojuegos a compañeros de Educación Secundaria Obligatoria (ESO) y Bachillerato.

Las hermanas Sara y Marta Reina han introducido la robótica educativa en sus clases de Infantil del CEIP Antonio Machado de Collado Villalba. Antonio Ruiz, maestro del colegio público Miguel de Cervantes de Leganés, utiliza, para el tercer ciclo de Primaria, y “de forma básica”, el lenguaje de programación scratch, “que tiene una orientación constructivista”. Scratch es un entorno de programación infantil ideado por el MIT (Instituto Tecnológico de Massachusetts) en el que, mediante órdenes muy sencillas, los pequeños logran que sus dibujos se muevan y progresen en la pantalla del ordenador, con sonidos incluidos. Quizá sea el programa más conocido, pero hay más, y robots, a disposición de la educación: Small basic, de Microsoft, que enseña a programar mediante código simplificado; Arduino para robots (placas para construir máquinas con sistemas y programarlas); Lego WeDo, para montar modelos con sensores y un motor.

Lea el artículo completo en:

El País (España)

google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0