Latest Posts:

Mostrando las entradas con la etiqueta von neuman. Mostrar todas las entradas
Mostrando las entradas con la etiqueta von neuman. Mostrar todas las entradas

1 de diciembre de 2012

IBM simula 500 mil millones de neuronas y 100 billones de sinapsis

En una simulación neuronal sin precedentes, IBM ha logrado simular 500 mil millones de neuronas y 100 billones de sinapsis. Para ello ha utilizado Sequoia, el segundo superordenador más grande del mundo con millón y medio de núcleos. Esto es una proeza computacional, pero tiene poco que ver con la neurociencia. Veamos por qué.

Neuronas

El departamento de Cognitive Computing de IBM en Almaden dirigido por Dharmendra S. Modha lleva unos años realizando asombrosas simulaciones en el contexto del proyecto DARPA SyNAPSE. Como parte de este proyecto, anunció la simulación a la escala del córtex de un ratón, luego de una rata y más tarde de un gato.

El objetivo de este programa es crear un chip neurosináptico que supone una ruptura con la arquitectura tradicional de los ordenadores. Esta arquitectura es la llamada Von Neumann que usan la totalidad de los ordenadores en la actualidad, incluidos móviles y tarjetas. En la arquitectura Von Neumann la memoria está separada del procesador, el hardware del software y los programas están separados de los datos. Ha sido muy exitosa mientras se cumplía la miniaturización de componentes expresada en la ley de Moore: cada dos años se duplica el número de transistores en un espacio dado. El problema es que estamos llegando a los límites del átomo y que la ley dejará de cumplirse.

Chip Neurosinaptico

El chip neurosináptico es una ruptura total con la arquitectura Von Neumann. Se basa en el diseño de las neuronas en las que no hay distinción entre hw y sw, programas y datos, memoria y procesador. El chip consiste en una matriz de neuronas y entre sus cruces se realizan las sinapsis. De este modo, cada sinapsis del chip es hw y sw, proceso y memoria, programa y datos. Dado que todo está distribuido, no es necesaria un miniaturización tan extrema y sobre todo, un reloj tan rápido. Frente a los actuales gigahercios de frecuencia, las neuronas se disparan a un hercio, y en el caso del chip a 8 hercios. Además, los procesadores son clock driven, es decir, actúan bajo la batuta del reloj mientras que las neuronas son event driven, actúan solo si hay actividad que realizar.

Uno de los objetivos es reducir el consumo eléctrico. Un cerebro consume lo que una bombilla pequeña, 20 vatios. Un superordenador consume cientos de megavatios. El nuevo chip tiene un consumo muy reducido. Estos chips están construidos con tecnología de silicio clásica CMOS.

La arquitectura de muchos chips neurosinápticos unidos se ha llamado TrueNorth. Ya existe en desarrollo un chip de 256 neuronas, 1024 axones, y 256×1024 sinapsis.

El chip sin embargo no está en producción masiva. Para seguir trabajando en paralelo al desarrollo, se ha realizado la prueba actual. Para ello se ha usado un simulador llamado Compass. Compass traduce el comportamiento de un chip neurosináptico (no Von Neumann) a un ordenador clásico (Von Neumann). Usando Compass se ha simulado (pdf) el comportamiento de 2.000.000.000 chips. Esto supone 500 mil millones de neuronas y 100 billones de sinapsis, cifras por completo astronómicas. El resultado de la simulación se ha ejecutado 1.542 veces más lento que en tiempo real.

Conexiones Macaco con Chip

Para realizar la simulación se ha usado el segundo superordenador más grande del mundo, Sequoia un Blue Gene/Q de 96 armarios con 1 millón y medio de núcleos y 1,5 petabytes de memoria. Uno de los objetivos de la simulación es ver el escalado. Un problema habitual es que que cuando añadimos más cores, el sistema no funciona proporcionalmente más rápido. En el extremo, añadir más cores no aumenta el rendimiento: el sistema escala mal. Imagina un camarero atendiendo detrás de la barra. Si hay un segundo camarero, irán más rápido, pero no el doble. Si sigues añadiendo camareros, llegará un momento en que no aumente la eficiencia, incluso se verá reducida. El sistema escala mal. Pues bien, en la simulación realizada el escalado ha sido casi perfecto lo que es muy satisfactorio computacionalmente.

¿Qué tiene esto que ver con la neurociencia y el cerebro? Bien poco. La simulación no imita ningún comportamiento animal ni cognitivo ni humano. Para simular el comportamiento del cerebro, necesitamos saber cómo funciona y eso está lejos de lograrse. Para cuando llegue ese conocimiento debemos tener preparados ordenadores que sean capaces de simularlo y en este contexto se enmarca la presente investigación. Aunque no solo; la idea de diseñar estos nuevos chips es ponerlos en producción en aplicaciones comerciales tradicionales dando una gran potencia con un bajo consumo. La simulación del cerebro deberá esperar aún alguna década.

Fuente:

ALT1040

5 de septiembre de 2011

Microprocesador cuántico con arquitectura de Von Neumann

Consiguen realizar computaciones cuánticas sencillas con un pequeño microchip de estado sólido basado en la tradicional arquitectura de Von Neumann.

Foto
El circuito en cuestión. Fuente: Erik Lucero.

No pasa una semana sin que algún laboratorio o universidad en el mundo proclame el haber avanzado en la computación cuántica. Sin embargo, pocos son los avances realmente significativos.

En un computador cuántico se trata de explotar exclusivamente fenómenos cuánticos, como la superposición y entrelazamiento, para realizar la computación.

Pero construir uno de estos computadores es realmente difícil porque los estados cuánticos son complicados de controlar y pueden ser destruidos fácilmente.
Como siempre que se trata de computación cuántica, la potencia de este tipo de procesamiento está en la capacidad de realizar varios cálculos simultáneamente.

Problemas arduos computacionalmente, como la factorización en primos de números grandes, serían realizados fácilmente por este tipo de procesadores cuánticos (lo que quebraría el sistema RSA de cifrado en uso).

Aunque, de momento, estamos todavía lejos de un sistema comercial real de este tipo. El único sistema de computación “cuántico” en venta vale 10 millones de dólares, no tiene memoria y funciona como un computador pre-neumann.

Ahora, unos investigadores de la Universidad de California en Santa Bárbara dicen haber realizado una demostración física de un procesador cuántico con arquitectura de Von Neumann.

El dispositivo de estado sólido que han fabricado es un circuito completamente integrado que implementa la citada arquitectura, que es en la que están basados los microprocesadores ordinarios.

En una arquitectura von Neumann convencional una CPU está unida a una unidad central de memoria en donde se guardan datos e instrucciones.

En este dispositivo una memoria cuántica de acceso aleatorio de larga vida puede ser programada usando una unidad cuántica de procesamiento. Todos estos componentes están además integrados en un solo chip y proporcionan, por tanto, el componente clave para construir una versión cuántica del computador clásico. Además se puede fabricar por fotolitografía y no requiere de trampas de iones como en otros dispositivos similares.

Esta arquitectura representa un nuevo paradigma en el procesado cuántico de la información y demuestra que es posible alcanzar un alto grado de integración. El logro es similar al alcanzado en los años cuarenta cuando se implementó esta arquitectura en computadores clásicos.
El hardware está basado en circuitos superconductores fabricados con una mezcla de aluminio y renio que deben estar enfriados cerca del cero absoluto de temperatura para que así exhiban un comportamiento cuántico.

Aunque, de momento, el microprocesador es muy sencillo. Consta solamente de dos qubits de procesamiento formados por sendas uniones de Josephson simples, un bus de comunicación cuántico constituido por resonador de microondas superconductor, dos qubits de memoria formado por resonadores superconductores que atrapan estados de microondas y un registro de reinicio que borra la información cuántica.

Con este microchip los investigadores han conseguido escribir información cuántica y simultáneamente procesarla. En uno de sus experimentos calcularon una transformada de

Fourier cuántica (componente clave en el algoritmo de Shor de factorización) que fue realizada con un 66% de eficacia. En otro experimento implementaron una puerta de fase Toffoli OR de tres qubits con un 98% de eficacia (este sistema requiere el entrelazamiento de tres qubits). Obviamente se necesita mejorar la eficacia alcanzada.

En cuanto a la permanencia en el tiempo de la información cuántica, los resultados obtenidos son también mejorables. Los tiempos de coherencia caían un 20% después de 400ns, aunque la fidelidad de la memoria estaba por encima de un 40% al menos durante 1,5 microsegundos.
El equipo de investigadores trabaja ahora sobre el aumento del rendimiento del microchip a través de la mejora de la calidad de los materiales empelados.

Quizás en un futuro podamos preguntar a un computador cuántico sobre si la vida tiene sentido o no y éste nos devuelva una superposición de estados |0> y |1> como respuesta. Mientras tanto tendremos que usar la computación convencional.

Copyleft: atribuir con enlace a http://neofronteras.com/?p=3582

Fuentes y referencias:
Nota de prensa
Artículo original.

Tomado de:

Neo Fronteras

20 de julio de 2010

John von Neumann, la calculadora humana


Martes, 20 de julio de 2010

John von Neumann, la calculadora humana


Problema de la mosca y los trenes. | Fuente imagen: Revistasacitametan.

John von Neumann (1903-1957) [matemático y científico húngaro, nacionalizado estadounidense] era bien conocido por su asombrosa y casi instantánea capacidad de cálculo. Para que el lector se haga una idea de esta increíble capacidad de von Neumann, expongo una anécdota relacionada con un problema matemático que tiene dos formas de resolverse, una sencilla y otra compleja. Veamos el enunciado:

Dos trenes separados por 200 kilómetros se mueven el uno hacia el otro por la misma vía. La velocidad de ambos trenes es de 50 kmh. En el momento inicial, una mosca situada en el morro de uno de los trenes comienza a volar hacia el otro, en viajes de ida y vuelta, a una velocidad de 75 kmh. Lo hace repetidamente hasta que ambos trenes chocan entre si matando a la mosca. ¿Qué distancia ha recorrido volando el insecto?

En realidad la mosca toca cada tren un número infinito de veces antes de morir aplastada, y uno podría resolver el problema a la manera difícil, usando lápiz y papel para sumar la serie infinita de distancias. Sin embargo el método simple funciona así:

Como los trenes están separados 200 km entre si, y cada uno viaja a 50 kmh, en dos horas cada uno habrá recorrido 100 km chocando en el punto intermedio. Por tanto, la mosca voló durante dos horas. Como sabemos que la mosca volaba a 75 kmh, es sencillo inferir que debió haber volado 150 km. Eso es todo lo que hay que hacer.

Cuando alguien le presentó este problema a John von Neumann, este respondió inmediatamente: “150 kilómetros“.

La persona que le hizo la pregunta, asombrada, respondió: “Es muy extraño, pero casi todo el mundo intenta resolverlo sumando la serie infinita“.

¿Qué quiere decir con extraño?” respondió Von Neumann. “¡Así es como yo lo he hecho!

Fuente:

Amazing

google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0