Latest Posts:

Mostrando las entradas con la etiqueta ibm. Mostrar todas las entradas
Mostrando las entradas con la etiqueta ibm. Mostrar todas las entradas

1 de junio de 2018

La carrera por el ordenador cuántico

En la imagen, un físico del Instituto Nacional de Estándares y Tecnología sostiene un circuito que se utiliza para amplificar las señales de un detector de fotones. Crédito: Geoffrey Wheeler.

Los ordenadores cuánticos están llamados a revolucionar la computación. Su capacidad para realizar operaciones imposibles les convierte en una especie de santo grial y han desencadenado una competición que, de momento, lidera Estados Unidos. Su músculo industrial con compañías como Google o IBM no lo tienen Europa ni China, que también luchan por conseguir esta ansiada tecnología.

La principal diferencia entre un ordenador cuántico y uno convencional es la forma de procesar la información. Si las computadoras clásicas lo hacen en bits, y cada uno toma el valor de 1 o 0, los ordenadores cuánticos utilizan cúbits (o bits cuánticos), lo que significa que pueden representar a la vez tanto un 1 como un 0. Además, se correlacionan entre sí, es decir, que el valor de uno puede depender del valor de otro, lo que se conoce como entrelazamiento cuántico.

Esta revolucionaria forma de procesar la información imita a la naturaleza en sus formas más pequeñas. Partículas y otros diminutos elementos se comportan de formas extrañas, adquiriendo más de un estado al mismo tiempo e interactuando con otras partículas que están situadas muy lejos. Su comportamiento se rige por las leyes de la mecánica cuántica.

Simulando estas interacciones, los ordenadores cuánticos realizarán operaciones muy complejas y resolverán problemas que los tradicionales no tienen la capacidad de solucionar, como el cálculo de factores de números gigantes o el estudio preciso de interacciones entre átomos y moléculas. De esta forma, se espera que áreas como los nuevos materiales, el desarrollo de fármacos o los sistemas de inteligencia artificial avancen a una velocidad sin precedentes con la ayuda de esta nueva computación.

Aunque ya existen varios modelos de ordenador cuántico todavía no se ha desarrollado uno que alcance los 50-100 cúbits, con capacidades que superarían las de los ordenadores clásicos. IBM el año pasado aseguró haber llegado a los 50 cúbits pero los expertos se muestran cautos porque los investigadores de la compañía no explicaron los detalles en ninguna revista científica. Por su parte, Google afirma haber conseguido una tecnología con 72 cúbits.

“Las cosas se vuelven interesantes una vez que tenemos entre 50 y 100 cúbits que se pueden controlar por completo, por ejemplo, el entrelazamiento usado por algoritmos complejos, que muestran capacidades algorítmicas más allá de las máquinas clásicas”, señala a OpenMind Rainer Blatt, investigador del Instituto de Física Experimental de la Universidad de Innsbruck (Austria).

“Esto no se ha logrado en ningún sitio pero probablemente lo veremos en los próximos años”, añade el científico.

El artículo completo en:

Open Mind

5 de diciembre de 2017

¿Qué es el "aprendizaje profundo" de la inteligencia artificial?


Cuando la supercomputadora Deep Blue de IBM venció al campeón de ajedrez Gary Kasparov en 1997, muchos se sorprendieron ante el poder de estas máquinas.

Dos décadas después, la inteligencia artificial está presente en la banca, la medicina y en programas populares como los predictores de palabras de los celulares.

En 2016, AlphaGo, un programa informático de la filial de Google Deep Mind, ganó un duelo con el campeón del mundo de un juego denominado Go.
 
Y este año el Instituto Tecnológico de Massachussetts (MIT) anunció que su algoritmo DeepMoji, que puede analizar emojis para detectar el sarcasmo en Twitter.

Deep significa "profundo" en inglés. Y el "aprendizaje profundo" es lo le que permite a las computadoras resolver este tipo de problemas.

Pero, ¿qué es? ¿Y cómo está afectando la vida de personas en todo el mundo?
BBC Mundo habló sobre el tema con dos expertos, Augusto Vega y José Dorronsoro.
 
El artículo completo en:
 
 

21 de septiembre de 2015

IBM acaba de fabricar el primer procesador funcional de solo 7 nanómetros

IBM logra fabricar el primer procesador funcional de solo 7 nanómetros 

IBM ha anunciado hoy un avance que marcará un momento histórico en la industria de la computación: la fabricación del primer procesador con transistores de 7 nanómetros, unas 1,400 veces más pequeño que el grosor de un cabello humano. El chip tiene 4 veces la capacidad de los procesadores actuales. La Ley de Moore sigue de momento más vigente que nunca.
 
La compañía ha confirmado hoy jueves el avance, adelantado en medios como el NYT, y ha asegurado que es fruto de su inversión de 3.000 millones de dólares durante 5 años en investigación en procesadores y computación. En dicha inversión participan otras compañías como Global Foundries (a quien IBM vendió su negocio de fabricación de chips el año pasado), Samsung y otras firmas privadas y organismos públicos.


El anuncio se produce justo cuando se comenzaba a dudar que la fabricación de procesadores pudiera pasar la barrera actual de los 14 nanómetros y la futura, pero ya posible, de los 10 nanómetros. Ir más allá comenzaba a suponer importantes barreras de pura física. IBM ahora se ha adelantado incluso a Intel en la creación del primer chip con transistores de 7 nanómetros (por comparación, un glóbulo rojo mide unos 7.500 nanómetros de diámetro). Para conseguirlo, la compañía ha utilizado silicio-germanio en lugar de puro silicio en determinadas zonas del chip, lo que le ha permitido la reducción de tamaño manteniendo la estabilidad del procesador y multiplicando por 4 su capacidad.


IBM logra fabricar el primer procesador funcional de solo 7 nanómetros


El avance, según IBM, permitirá construir microprocesadores con más de 20.000 millones de transistores. La reducción del tamaño de estos chips no solo permitirá concentrar mayor poder de computación en el mismo espacio, también debería dar lugar a mejoras en el consumo de energía (y, por extensión, en la duración final de las baterías de los equipos).


IBM asegura que aún deberá pasar aún un tiempo hasta que estos procesadores estén disponibles comercialmente, aunque no especifica cuánto. Desde luego será difícil verlos en equipos y sistemas antes de los próximos dos o tres años. Aún así, ahora ya sabemos que llegar a la barrera de los 7 nanómetros es posible. Eso supondrá un nuevo y gran salto en la computación. Aunque la pregunta sigue ahí: ¿qué ocurrirá después? [vía NYT y VentureBeat]

Tomado de;

Gizmodo

Lea también:
50 años de la Ley de Moore: ¿qué ocurrirá cuando ya no se cumpla?

Acaban de cumplirse 50 años de la Ley de Moore, enunciada en 1965 por Gordon Moore, uno de los… Seguir leyendo 

26 de agosto de 2014

El chip sináptico de IBM marca el paso hacia la computación neuronal


Después de seis años de intenso desarrollo el equipo de IBM que dirige el proyecto SyNAPSE ha comunicado el resultado de su trabajo: un chip que presta el diseño de nuestra red neuronal, siendo capaz de responder a los estímulos sensoriales y al reconocimiento de patrones.

La innovación de IBM asienta los fundamentos de una nueva generación de arquitectura computacional inspirada en la estructura cerebral, cuya capacidad de “pensar, actuar y percibir” acortará más la distancia entre el modelo de inteligencia artificial e inteligencia humana.

Reinventando el modelo John von Neumann

La divergencia entre el funcionamiento del cerebro y los ordenadores actuales siempre ha sido un aspecto intrigante que ha impulsado a los científicos de la computación a estudiar nuevas formas de mejorar los ‘cerebros’ de los ordenadores. El centro de investigación de IBM no ha querido perderse nada del gran viaje que cambiará el futuro de la tecnología actual así que se convirtió en una de las empresas pioneras en investigar los secretos de la capacidad cognitiva trasladada a las máquinas inteligentes.

En 2012 sus especialistas dieron un paso muy importante en este campo al presentar por la primera vez el superordenador Sequoia, considerado la más potente simulación cerebral realizada jamás ya que reunía la fuerza de 2.084 mil millones representaciones de núcleos neurosinápticos. Después de dos años, el mismo equipo da otro paso decisivo y en lugar de adaptar los algoritmos inspirados de la actividad cerebral a la computación tradicional inventan desde la base un chip que imita la actividad de las redes neuronales humanas.

Según el científico que lidera el proyecto, Dharmendra Modha, la idea ha surgido de la necesidad de replantear el sistema informático heredado de John von Neumann, un matemático que ha puesto las bases de la arquitectura computacional clásica. Modha está convencido de que los ordenadores actuales, además de cálculos matemáticos precisos se podrían mejorar al adaptarse a la inteligencia  adaptativa del cerebro humano:
“El cerebro evolucionó hace millones de años para solucionar los problemas básicos: conseguir comida, luchar, evitar los peligros, reproducirse y está destinado a manejar datos de baja resolución, ambiguos y simbólicos. Integra memoria (sinapsis) y computación (neuronas), tiene un procesamiento distribuido, gestiona los datos en paralelo, puede aprender, opera de forma asíncrona, es lento y por lo tanto no gasta energía y tampoco se sobrecalienta”.
IBM

Una arquitectura que imita la escalabilidad del cerebro humano

Para reducir la brecha entre el bajo consumo de energía de la actividad cerebral y los ordenadores actuales, los científicos de IBM han usado las técnicas de la nanotecnología y neurociencia para crear una arquitectura informática escalable y eficiente.
El chip llamado TrueNorth está formado por una red bidimensional de 4.096 núcleos neurosinápticos digitales, dónde cada núcleo integra memoria, procesamiento y comunicación y opera según un modo de computación paralela, dirigida por eventos y con tolerancia a fallos.

Igual que el modelo neuronal humano, la arquitectura del chip seguirá funcionando incluso si falla alguno de los núcleos individuales. Su escalabilidad le permitirá ampliar las conexiones entre los núcleos hasta formar un mosaico sin interrupciones, construyendo los pilares de una futura supercomputación neurosináptica.
“IBM ha sentado las bases de una computación inspirada en el el cerebro humano, en los términos de una arquitectura de computación radicalmente nueva, a una escala sin precedentes, una velocidad, eficiencia, energía y capacidad de adaptación incomparables”, comenta Modha.
aplicacioneschip

La tecnología del futuro ‘sentirá’ la realidad igual que nosotros

Con el fin de facilitar el trabajo de los futuros desarrolladores IBM ha creado un ecosistema completo que abarca un simulador del chip, un lenguaje de programación, una librería, algoritmos y aplicaciones. El ecosistema soporta todos los aspectos del ciclo de programación desde el diseño hasta el desarrollo, la depuración y el despliegue.
En cuanto a las futuras aplicaciones, Dharmendra Modha cree que su nuevo chip permitirá construir ordenadores igual de eficientes que el cerebro humano y que no consumen más que una bombilla (70 milivatios). Este piensa que la tecnología basada en el procesamiento neurosináptico podrá transformar la movilidad y el Internet de las cosas a través de la percepción sensorial:
“En el futuro estos chips se podrían convertir en la alternativa de energía eficiente para gafas que ayuden a navegar a las personas invidentes, ‘ojos’ que dejen ver a los robots y a los coches, sistemas médicos que monitoricen la tensión arterial, la temperatura y el nivel de oxígeno de las personas mayores y que envíen alertas antes de producirse algún problema o sistemas que midan el nivel de marea y velocidad del viento para predecir los tsunamis”.
Por último Modha espera que el futuro tecnológico esté destinado a una simbiosis entre los chips cognitivos y los tradicionales “para enfrentarse al contexto real de la misma manera que lo hacemos nosotros”.

Fuente:

TicBeat

1 de enero de 2014

2013: IBM lanza 5 cinco predicciones para 5 años

Las aulas conocerán el nivel de cada alumno; los médicos consultarán rutinariamente el ADN del paciente.


IBM ha lanzado su ya tradicional Five to Five, las cinco predicciones que ocurrirán en nuestro entorno en los próximos cinco años, es decir, hasta 2018. Si el pasado año pronosticaba ordenadores capaces de oír y oler y papilas gustativas digitales, para los cinco años pronostica que no serán los estudiantes lo que aprendan en las aulas sino las aulas las que aprenderán de los estudiantes para aplicar la enseñanza a medida en cada momento. Es la octava edición de esta clásica publicación del gigante azul que ha sabido, en general, acertar con sus visiones.

Aulas contra la cara de palo. Se acabó engañar al profesor diciendo que lo has entendido o poniendo esa cara de palo polivalente. El pupitre, las paredes, la pizarra captarán que estabas en babia o que no has entendido nada del teorema de Pitágoras. Y que el de al lado, sí que lo ha cogido.Se acaba la misma clase para todos. Será individualizada. "La rápida digitalización de las instituciones educativas permitirá la instrumentación sin precedentes del proceso de aprendizaje. La computación cognitiva ayudará a calcular cómo cada alumno aprende para crear un sistema flexible que se adapte continuamente al alumno y así ajustar las clases a ese estudiante y comprobar su respuesta".

Adiós al "diga 33". Los doctores no llevarán en el bolsillo el estetoscopio, sino el ADN del paciente. No es ficción, de hecho ya por 99 dólares y una semana de tiempo se puede realizar, como ha demostrado la empresa 23andMe, entre otras. Luego los doctores deberán interpretar los eslabones débiles de la cadena del paciente. "Hoy en día, las pruebas de ADN para ayudar a tomar decisiones de tratamiento son todavía escasas", dice IBM. "Pero la tecnología hará de esta prueba la corriente principal de tratamiento. Se hará más rápido, más barato y con mucha más frecuencia. Además de las pruebas de ADN para algunos tipos de cáncer, habrá opciones de tratamiento personalizado para la apoplejía o enfermedades cardíacas".

Poli de mensajería. Se acaberá el hackeo de cuentas personales, y la pérdida y olvido de contraseñas y claves dejarán de ser un tormento. Habrá un policía personal online que detectará cualquier actuación extraña. Ya hay algo de esto. Algunos usuarios de Google quizás ya han advertido que, cuando viajan a un pais no habitual, reciben un mensaje sobre la entrada en su Gmail personal desde un sitio al que no está acostumbrado. Y deben, entonces, confirmar contraseñas. Es un primer paso de la buena aplicación del conocimiento (y datos sobre privacidad) que tienen estos grandes sobre los actos de sus clientes. "Este tutor", dice IBM, "velará, aprenderá y responderá en función de su contexto y del comportamiento del usuario en sus diferentes dispositivos. Tendrá la capacidad de asimilar grandes cantidades de datos y sacará deducciones de lo que es la actividad normal o razonable y lo que no lo es. Luego intervendrá en nombre del usuario -con su permiso- para impedir el uso fraudulento". Recientemente, el que suscribe recibió una comunicación de Google de si era cierto que quería abrir mi cuenta desde Bulgaria. Al contestar que no, Google lo bloqueó.
Hoy en día, las pruebas de ADN para ayudar a tomar decisiones de tratamiento son todavía escasas,  pero la tecnología hará de esta prueba la corriente principal de tratamiento. Se hará más rápido, más barato y con mucha más frecuencia
La ciudad a mi gusto. El tema de la ciudad inteligente es recurrente, pero lo cierto es que se avanza. Ya hay farolas que se encienden cuando se acerca un transeúnte o papeleras con sensores que avisan cuando están llenas. El smartphone será el instrumento básico para moverse por la ciudad. "Las personas pueden tener con él información sobre todo lo que está pasando", dice IBM. "Debido a que el sistema cognoscitivo ha interactuado con los ciudadanos de forma continua, sabe lo que les gusta y puede presentar opciones más adecuadas". Lo que les gusta y sus costumbres; por ejemplo, prevé los atascos en función del día, la lluvia, la hora y los hábitos de las personas. El smartphone avisará de que se salga de casa diez minutos antes en función de esos parámetros.

Vuelve la tienda de barrio. Nada desaparece, pero todo cambia, la tienda de la esquina, también. Volveremos a ella, pero conectada a internet y a nuestro móvil. Así conoceremos las ofertas del día y la tienda, nuestros gustos. "En el futuro, los minoristas aumentarán los niveles de participación y personalización en la compra. Será la fusión de lo mejor de la tienda física: el tocar y llevarse el producto, con la riqueza de información (ofertas instantáneas, gustos del comprador) de las compras por internet.

En 2006, primera edición lanzada por IBM, predijo que en cinco años, es decir, en 2011, el desarrollo de la telemedicina, la geolocalización en los móviles, la traducción simultánea por reconocimiento de voz, el empuje de la nanotecnología y la implantación de tecnologías 3D. Todo ello, en mayor o menor grado, es una realidad, aunque sobresale la implantación de tecnologías ligadas a los smartphones, como geolocalización y traductores por voz.
Tomado de:

18 de octubre de 2013

¿Cuán pequeño puede ser un objeto creado por el Hombre?

Los científicos son cada vez más adeptos a crear objetos a escala atómica. En 1989, investigadores de la firma IBM acapararon titulares de prensa al escribir el logotipo de la compañía con átomos individuales de xenón que arrastraron con ayuda de un microscopio electrónico.

Para 2010 habían conseguido con éxito dibujar mapas del mundo tan pequeños que mil de ellos cabían en un grano de arena. Pero estos logros de la nanotecnología tienen sus límites.

A escala atómica se producen extraños fenómenos cuánticos que afectan el desempeño de los objetos. Uno de ellos se conoce como el "Efecto Casimir", una fuerza de atracción que surge entre dos objetos metálicos separados por una distancia pequeña en relación con su tamaño, que ocasiona que las nanomáquinas se atasquen.

A principios de año, investigadores en Alemania tropezaron con otra limitación: el meneo de los electrones debido al calor del ambiente que los rodea genera campos magnéticos que afectan las habilidades de los microscopios electrónicos.

Pero incluso si se superan estos problemas, los científicos saben que las complicaciones del ámbito cuántico evitarán que logren crear objetos complejos mucho más pequeños que un átomo.

Fuente:

BBC Ciencia

8 de octubre de 2013

La película más pequeña del mundo (con átomos)

Hecha con un potente microscopio, muestra los movimientos de los átomos expandidos 100 millones de veces.



Científicos de IBM han presentado la "película más pequeña del mundo", una obra revolucionaria hecha con un potente microscopio que muestra los movimientos de los átomos expandidos 100 millones de veces. Este cortometraje, que dura alrededor de 1 minuto y 30 segundos, se titula 'Un muchacho y su átomo' y cuenta la historia de un pequeño personaje que juega con un átomo y sigue sus movimientos, bailando y saltando, en una manera educativa de explicar la ciencia.



"Filmar, posicionar y dar forma a los átomos para crear una película de animación original es una ciencia exacta y completamente nueva", ha dicho Andreas Heinrich, científico de IBM Research. "En IBM no nos limitamos a leer libros sobre ciencia, la hacemos. Esta película es una forma divertida de compartir el mundo a escala atómica al tiempo que permite un diálogo abierto con los estudiantes y otros sobre las nuevas fronteras de las matemáticas y la ciencia", ha agregado.

Para hacer esta película, los átomos son desplazados con un microscopio desarrollado hace algunos años por IBM, un invento que le valió el Premio Nobel a sus diseñadores. Este instrumento "es el primero que permite a los científicos ver el mundo de lo infinitamente pequeño, los átomos", ha explicado Christopher Lutz, investigador de IBM.

Muy frío

El aparato no parece un microscopio tradicional, ya que pesa dos toneladas y opera a una temperatura de -268°C. Es capaz de ampliar 100 millones de veces los objetos colocados en la placa. "La posibilidad de controlar la temperatura, la presión y las vibraciones a niveles tan específicos hace del laboratorio de investigación de IBM uno de los pocos lugares en el mundo donde los átomos se pueden mover con tanta precisión", ha dicho Lutz.

El dispositivo utiliza una aguja muy fina, sobre una superficie de cobre, para atraer o repeler a los átomos y las moléculas en una ubicación específica. La película ha sido certificada por el Libro Guinness de los Récords como la "animación más pequeña del mundo", según IBM.

Fuente:


25 de septiembre de 2013

La idea matemática que hizo volar al Voyager



Michael Minovitch

Michael Minovitch solucionó el "problema de los tres cuerpos" en 1961, e impulsó la misión del Voyager.

La sonda espacial Voyager ha cautivado al mundo con su proeza en los confines del Sistema Solar, pero su lanzamiento en 1977 sólo fue posible gracias a las ideas matemáticas y la persistencia de un estudiante de doctorado que descubrió cómo catapultar sondas al espacio.

En 1942, por primera vez en la historia un objeto creado por el hombre cruzó la invisible línea de Karman, que marca el borde del espacio. Sólo 70 años después, otra nave espacial viaja hasta la última frontera del Sistema Solar.

La sonda Voyager 1, 35 años después de haber despegado, está a 18.400 millones de kilómetros de la Tierra y a punto de cruzar el límite que marca el alcance de la influencia del sol, donde el viento solar se encuentra con el espacio interestelar.
Así contado parece fácil, pero la puerta al más allá del Sistema Solar permaneció cerrada durante los primeros 20 años de la carrera espacial.

El problema de los tres cuerpos

Computadora IBM

Minovitch utilizó la computadora más potente del momento. 

Desde 1957, cuando el Sputnik 1 se convirtió en la primera obra de ingeniería que pudo orbitar sobre la Tierra, la ciencia comenzó a mirar cada vez más allá en el cosmos.

Se enviaron naves a la Luna, a Venus y a Marte. Pero un factor crucial impedía alcanzar distancias más lejanas.

Para viajar a los planetas exteriores hace falta escapar de la fuerza gravitacional que ejerce el Sol, y para eso es necesaria una nave espacial muy grande.

El viaje hasta Neptuno, por ejemplo, a 2.500 millones de kilómetros, podría llevar fácilmente 30 o 40 años debido a esa fuerza.

En su momento, la Nasa no podía asegurar la vida útil de una sonda por más tiempo que unos meses, así que los planetas lejanos no estaban dentro de las posibilidades.

Hasta que un joven de 25 años llamado Michael Minovitch, entusiasmado por la nueva computadora IBM 7090, la más rápida en 1961, resolvió el problema más difícil de la ciencia mecánica celeste: el de "los tres cuerpos".

Se refiere al Sol, un planeta y un tercer objeto que puede ser un asteroide o un cometa viajando por el espacio con sus respectivas fuerzas de gravedad actuando entre ellos. La solución establece con exactitud cómo afectan la gravedad del Sol y la del planeta a la trayectoria del tercer objeto.

Sin amilanarse por el hecho de que las mentes más brillantes de la historia -la de Isaac Newton entre ellas- no lograron resolver esta incógnita, Minovitch se concentró en despejarla. Su intención era usar la computadora para buscar la solución a través de un método de repetición.

Verano de 1961

Planeta lejano

Los cálculos de Minovitch permitieron la exploración de los planetas del Sistema Solar más lejanos.

En su tiempo libre, mientras estudiaba un doctorado en el verano de 1961, se puso a programar series de ecuaciones para aplicar al problema.

Minovitch llenó su modelo con datos de las órbitas planetarias, y durante una pasantía en el laboratorio de propulsión de la Nasa (Jet Propulsion Lab) obtuvo información más exacta sobre las posiciones de los planetas.

El joven estudiante demostró así que si una nave pasa cerca de un planeta que orbita alrededor del Sol puede apropiarse de parte de la velocidad orbital de ese astro y acelerar en dirección opuesta al Sol sin utilizar el combustible de propulsión de la nave.

Sin financiamiento para continuar con sus pruebas en la computadora, y en un intento por convencer a la Nasa de la importancia de su descubrimiento, dibujó a mano cientos de trayectorias de misiones teóricas al espacio exterior. Entre ellas había una ruta de vuelo específica que se convirtió en la trayectoria de las sondas Voyager.

Pero en 1962 el Jet Propulsion Lab estaba ocupado con el Proyecto Apolo, y nadie hizo mucho caso al hallazgo de Minovitch.

Lea el artículo completo en:

BBC Ciencia

29 de abril de 2013

Chip que simula al cerebro, supera a supercomputadores




Neuromorphic-chip-640x353

En noviembre de 2012, IBM anunció que utilizó el supercomputador Blue Gene/Q Sequoia, para lograr una simulación sin precedentes, de más de 530 mil millones de neuronas.

El Blue Gene/Q Sequoia logró esta hazaña gracias a su fantástica velocidad: 16 mil millones de cálculos por segundo. De hecho, en la actualidad se ubica como el segundo superordenador más rápido del mundo, después del superordenador Titan, del Laboratorio Nacional de Oak Ridge.

Pero, de acuerdo con Kwabena Boahen, Ph.D., el Blue Gene aún no se compara con la potencia de cálculo del propio cerebro.

“El cerebro es realmente capaz de hacer más cálculos por segundo que la supercomputadora más rápida”, dice Boahen, profesor de la Universidad de Stanford, director de Brains in Silicon Research Laboratory.
Eso no quiere decir que el cerebro es más rápido que una supercomputadora. De hecho, en realidad es mucho más lento. El cerebro puede hacer más cálculos por segundo porque es “masivamente paralelo”, es decir que las redes de neuronas trabajan al mismo tiempo para resolver un gran número de problemas a la vez.

En las plataformas de computación tradicionales, sin importar cuán rápidas éstas sean, operan de forma secuencial, lo que significa que, cada paso debe ser completado antes de comenzar el siguiente.

Aquí una simulación del firmamento espacial, hecha por el supercomputador Blue Gene/Q.




Boahen trabaja a la vanguardia de un campo llamado ingeniería neuromórfica, que busca replicar la extraordinaria capacidad computacional del cerebro, utilizando hardware innovador y aplicaciones de software. El logro más reciente de su laboratorio es una nueva plataforma informática denominada Neurogrid, que simula la actividad de un millón de neuronas.

Neurogrid no es una supercomputadora. No se le puede utilizar para simular el Big Bang, o anticipar huracanes, o predecir epidemias. Pero lo que puede hacer, lo diferencia de cualquier plataforma computacional en el mundo.

Neurogrid es la primera plataforma de simulación que puede modelar un millón de neuronas en tiempo real. Como tal, representa una herramienta poderosa para la investigación del cerebro humano. Además de proporcionar información sobre el funcionamiento normal del cerebro, tiene el potencial de arrojar luz sobre enfermedades cerebrales complejas, como el autismo y la esquizofrenia, que han sido hasta ahora muy difíciles de modelar.

Las aplicaciones en el mundo real para ordenadores neuromórficos todavía tardan en realizarse. Parte del problema ha sido que los clásicos ordenadores secuenciales, aún pueden simular redes de neuronas con mucho menos esfuerzo requerido.

Lea el artículo completo en:

13 de marzo de 2013

Ya vienen: Las computadoras ¡con cinco sentidos!

Videos de la IBM donde explican cómo las computadoras tendrán vista, gusto, tacto, oído y olfato.

Video de Introducción:



Puede ver los cinco videos traducidos al español (un video por cada sentido) en El País (España)

17 de diciembre de 2012

Según IBM tendremos tecnología con los cinco sentidos en cinco años más


flor11111

Interesantes predicciones son las que ha hecho IBM para los próximos cinco años, en una serie de artículos que resumen la idea de que en el futuro cercano, los aparatos tecnológicos tendrán la capacidad de captar la información a su alrededor tal como un ser humano, en términos de que serán capaces de emular nuestros cinco sentidos.

Según varios especialistas de la compañía que son consultados al respecto, tendremos la posibilidad de sentir texturas a través de un teléfono móvil, utilizando una tecnología de vibraciones que refleja cómo se sentiría la superficie tocada. También la vista sería re-creada para que un equipo pueda ver su entorno y aprender de él, reconociendo patrones y almacenando información de lo que ha visto previamente, para predecir y entender sucesos futuros y actuales. Por ejemplo, una base de datos de manchas en la piel podrían ayudar a una computadora a reconocer el cáncer a la piel en alguien que no se haya diagnosticado.

Por otro lado, la tecnología será capaz de escucharnos en forma más inteligente, al tener un mejor reconocimiento de los sonidos presentes en la naturaleza para detectar tempranamente posibles catástrofes o bien, oír el llanto de un bebé y entender qué es lo que quiere. Además, el sentido del gusto también se hace presente y según IBM, será posible para una computadora funcionar en forma similar al paladar humano, entendiendo las reacciones químicas que genera cada sabor para hacerse con su sentido propio y añadir esta clase de datos a su almacenamiento. Lo mismo podría aplicarse al quinto y último sentido: el olfato.

Las aplicaciones para esta tecnología futura podrían ser asombrosas y quedan a la imaginación de los ingenieros y nosotros mismos, añadiendo un repertorio nuevo de información para que las computadoras se vuelvan más sensitivas y puedan asistir de manera más comprensiva al ser humano.

Link: We think of the five senses as exclusive to living things (IBM)

Fuente:

Muy Interesante

10 de diciembre de 2012

La carrera de las simulaciones cerebrales

La simulación del cerebro es un área fascinante en la que se mezclan neurociencia y computación de alto nivel. Periódicamente recibimos noticias de nuevas y sorprendentes simulaciones. Con frecuencia las informaciones son confusas y es importante colocar cada cosa en su sitio. Spaun es un simulador que por primera vez simula la funcionalidad de un cerebro complejo. Es decir, trata de hacer lo que hace un cerebro real. Un camino muy prometedor.


Spaun Cerebro artificial


Uno de los primeros intentos fue el proyecto Blue Brain, que sigue en marcha aunque últimamente con pocas noticias. La idea es simular cada una de las baldosas o ladrillos del cerebro llamadas columnas neocorticales (compuestas por unas 10.000 neuronas). Es un proyecto a largo plazo cuyos resultados veremos en el futuro.

IBM ha realizado la mayor simulación neuronal hasta la fecha. 500 mil millones de neuronas y 100 billones de sinapsis. Sin embargo, es un proyecto de computación, no de neurociencia. No simula nada parecido a un comportamiento humano. El objetivo a largo plazo es construir novedos chips neurosinápticos de arquitectura no Von Neumann.

Un proyecto mucho menos ambicioso pero más realista es OpenWorm. Trata de simular la conducta de C. Elegans, un gusano del que conocemos su Conectoma, sus 302 neuronas y sus sinapsis. Empezar por lo sencillo tiene sus ventajas.
Juntar un montón de neuronas y esperar que emerja algo interesante no parece una vía plausible para entender cómo funciona algo tan sofisticado como el cerebro
Hay más simulaciones neuronales interesantes. Realizar tareas complejas de forma simultánea no es posible. Es un paradigma llamado Periodo Refractario Psicológico. La Universidad de Buenos Aires simuló un proceso cerebral de dos tareas simultáneas. El simulador se comportaba como era predecible en humanos siguiendo exactamente el paradigma: en la fase sensorial los procesos son paralelos, en la central (toma de decisión) son seriales, de uno en uno, y en la motora vuelven a ser paralelos. Para realizar la simulación se usaron 20.000 neuronas.

Spaun, el nuevo simulador, es novedoso y muy interesante. Junto con OpenWorm está en la línea de las simulaciones funcionales. Esto significa que pretende simular tareas reales que realizamos los humanos.

Para ello, simula 2,5 millones de neuronas agrupadas en áreas cerebrales que realmente tenemos los humanos. Subredes del simulador se corresponden con áreas anatómicas físicas como el área visual en el lóbulo occipital, el área motora, funciones ejecutivas en el lóbulo frontal y memoria de trabajo. También simula los ganglios basales, corresponsables del movimiento complejo (afectados en el párkinson).

El modelo recibe una imagen de 28x28 pixels como input, procesa la señal y genera un output mediante un brazo simulado. Las neuronas individuales se comunican por señales eléctricas (potenciales de acción) y neurotransmisores. Aunque simplificado, el modelo capta muchos aspectos de neuroanatomía, neurofisiología y comportamiento psicológico.

Esto queda demostrado en 8 tareas diferentes. Por ejemplo: copia un dibujo, reconoce los números, los ordena, los cuenta, e incluso completa una lista (2,3,4...). Un conjunto de vídeos está disponible para conocer mejor a Spaun. Algunas de las pruebas están extraídas de test de inteligencia convencionales como el test de matrices de Raven. Spaun puntúa casi como un humano.
Hasta ahora la carrera era conseguir una simulación del tamaño del cerebro humano. De ahora en adelante, el reto es conseguir las mayores funciones biológicas y comportamientos animales. Por el momento, Spaun es el ganador.
El comportamiento es similar al humano. Reproduce errores similares y tiempos de respuesta parecidos (tareas más complejas llevan tiempos de ejecución más complejos).
Si destruimos partes del modelo, podemos ver qué comportamientos fallan. O podemos cambiar el funcionamiento de los neurotransmisores y ver cómo se correlaciona con el comportamiento.
Así se puede observar qué ocurre en la edad avanzada con el envejecimiento celular.

Están trabajando en un programa que no tiene instrucciones concretas sino recompensa positiva o negativa. Este es un clásico ejemplo de aprendizaje humano. Aunque esperan que el rendimiento esté cerca del tiempo de respuesta real, en la actualidad un segundo tarda horas en simularse.

Spaun es un salto en la simulación. Los deslumbrantes ejercicios de supercomputación no bastan. Queremos simular conductas reales. Spaun hace algo. Spaun está en el camino
Fuente:

ALT1040

1 de diciembre de 2012

IBM simula 500 mil millones de neuronas y 100 billones de sinapsis

En una simulación neuronal sin precedentes, IBM ha logrado simular 500 mil millones de neuronas y 100 billones de sinapsis. Para ello ha utilizado Sequoia, el segundo superordenador más grande del mundo con millón y medio de núcleos. Esto es una proeza computacional, pero tiene poco que ver con la neurociencia. Veamos por qué.

Neuronas

El departamento de Cognitive Computing de IBM en Almaden dirigido por Dharmendra S. Modha lleva unos años realizando asombrosas simulaciones en el contexto del proyecto DARPA SyNAPSE. Como parte de este proyecto, anunció la simulación a la escala del córtex de un ratón, luego de una rata y más tarde de un gato.

El objetivo de este programa es crear un chip neurosináptico que supone una ruptura con la arquitectura tradicional de los ordenadores. Esta arquitectura es la llamada Von Neumann que usan la totalidad de los ordenadores en la actualidad, incluidos móviles y tarjetas. En la arquitectura Von Neumann la memoria está separada del procesador, el hardware del software y los programas están separados de los datos. Ha sido muy exitosa mientras se cumplía la miniaturización de componentes expresada en la ley de Moore: cada dos años se duplica el número de transistores en un espacio dado. El problema es que estamos llegando a los límites del átomo y que la ley dejará de cumplirse.

Chip Neurosinaptico

El chip neurosináptico es una ruptura total con la arquitectura Von Neumann. Se basa en el diseño de las neuronas en las que no hay distinción entre hw y sw, programas y datos, memoria y procesador. El chip consiste en una matriz de neuronas y entre sus cruces se realizan las sinapsis. De este modo, cada sinapsis del chip es hw y sw, proceso y memoria, programa y datos. Dado que todo está distribuido, no es necesaria un miniaturización tan extrema y sobre todo, un reloj tan rápido. Frente a los actuales gigahercios de frecuencia, las neuronas se disparan a un hercio, y en el caso del chip a 8 hercios. Además, los procesadores son clock driven, es decir, actúan bajo la batuta del reloj mientras que las neuronas son event driven, actúan solo si hay actividad que realizar.

Uno de los objetivos es reducir el consumo eléctrico. Un cerebro consume lo que una bombilla pequeña, 20 vatios. Un superordenador consume cientos de megavatios. El nuevo chip tiene un consumo muy reducido. Estos chips están construidos con tecnología de silicio clásica CMOS.

La arquitectura de muchos chips neurosinápticos unidos se ha llamado TrueNorth. Ya existe en desarrollo un chip de 256 neuronas, 1024 axones, y 256×1024 sinapsis.

El chip sin embargo no está en producción masiva. Para seguir trabajando en paralelo al desarrollo, se ha realizado la prueba actual. Para ello se ha usado un simulador llamado Compass. Compass traduce el comportamiento de un chip neurosináptico (no Von Neumann) a un ordenador clásico (Von Neumann). Usando Compass se ha simulado (pdf) el comportamiento de 2.000.000.000 chips. Esto supone 500 mil millones de neuronas y 100 billones de sinapsis, cifras por completo astronómicas. El resultado de la simulación se ha ejecutado 1.542 veces más lento que en tiempo real.

Conexiones Macaco con Chip

Para realizar la simulación se ha usado el segundo superordenador más grande del mundo, Sequoia un Blue Gene/Q de 96 armarios con 1 millón y medio de núcleos y 1,5 petabytes de memoria. Uno de los objetivos de la simulación es ver el escalado. Un problema habitual es que que cuando añadimos más cores, el sistema no funciona proporcionalmente más rápido. En el extremo, añadir más cores no aumenta el rendimiento: el sistema escala mal. Imagina un camarero atendiendo detrás de la barra. Si hay un segundo camarero, irán más rápido, pero no el doble. Si sigues añadiendo camareros, llegará un momento en que no aumente la eficiencia, incluso se verá reducida. El sistema escala mal. Pues bien, en la simulación realizada el escalado ha sido casi perfecto lo que es muy satisfactorio computacionalmente.

¿Qué tiene esto que ver con la neurociencia y el cerebro? Bien poco. La simulación no imita ningún comportamiento animal ni cognitivo ni humano. Para simular el comportamiento del cerebro, necesitamos saber cómo funciona y eso está lejos de lograrse. Para cuando llegue ese conocimiento debemos tener preparados ordenadores que sean capaces de simularlo y en este contexto se enmarca la presente investigación. Aunque no solo; la idea de diseñar estos nuevos chips es ponerlos en producción en aplicaciones comerciales tradicionales dando una gran potencia con un bajo consumo. La simulación del cerebro deberá esperar aún alguna década.

Fuente:

ALT1040

16 de noviembre de 2012

Titan, la súper computadora más rápido del mundo

Tras destronar al también estadounidense Sequoia, de IBM, Titan, fabricado por la empresa Cray, se ha convertido en la computadora más rápido del mundo, según releja la nueva lista TOP500, la más prestigiosa de este ámbito.



Titan tiene una potencia de 17,59 petaflops, equivalente a 17.590 billones de operaciones por segundo, si bien su potencia teórica es de hasta 27 petaflops. A pleno funcionamiento, Titan consume la misma electricidad que 9.000 hogares (9 megavatios). Sequoia llegaba a los 16,32 petaflops.


Titan no pretende dominar el mundo como Skynet (que sepamos) ni tampoco crear un mundo artificial alternativo tipo Matrix que probablemente sería una delicia para los creadores de países de mentira, sino que se emplea para la investigación acerca del cambio climático y el sector energético, como en eficiencia de nuevos motores y materiales.

TOP500 es una clasificación elaborada por investigadores de la Universidad de Mannheim (Alemania) y el Lawrence Berkeley National Laboratory de EEUU. En España tenemos un ordenador que entra en el puesto 36: el MareNostrum del Barecelona Supercomputing Center.

Vía | ABC

Tomado de:

19 de agosto de 2011

IBM crea unos chips que imitan el funcionamiento del cerebro

Hace unos días publicabamos un post donde analizabamos los lados positivos y negativos de la POSIBILIDAD de que los seres humanos puedan conectarse a Internet. Bien, esta nota guarda relación con el tema, pues también parce un tema sacado de un película de ciencia ficción: se han creado chips que imitan el funcionamiento del cerebro.

IBM chips cerebro innovación

IBM ha producido dos chips, que por ahora están en fase de pruebas, que imitarán el funcionamiento del cerebro y emularán su habilidad de percepción, acción y cognición. La programación de los ordenadores ‘cognitivos’ será diferente a la tradicional, pues se espera que ‘aprendan’ mediante la experiencia, ‘encuentren’ correlaciones y creen hipótesis.

IBM, una de las empresas más punteras en innovación, acaba de presentar una nueva generación de chips que emulan el cerebro y que, esperan, consumirá menos energía y ocupará menos espacio.

Estos chips neurosinápticos recrean los procesos neuronales “mediante avanzados algoritmos y circuitos de silicio”. Por el momento ya hay dos prototipos fabricados, que actualmente están siendo probados, según explica la compañía en una nota de prensa.

IBM espera poder utilizar estos chips para construir ordenadores “cognitivos”. Estos ordenadores aprenderán, encontrarán correlaciones, crearán hipótesis y recordarán y aprenderán de los resultados “imitando la plasticidad estructural y sináptica del cerebro”.

Para hacerlo, la empresa ha combinado principios de nanociencia, neurociencia y supercomputación.

Por el momento hay dos prototipos diseñados. Los núcleos de ambos contienen 256 ‘neuronas’, pero uno contiene 262.144 “sinapsis programables” y el otro 65.536 “sinapsis de aprendizaje”.

“Los chips del futuro serán capaces de ingerir información de entornos complejos del mundo real”, asegura IBM. Después, podrán actuar “de una forma coordinada y dependiente del contexto”.

Financiación de DARPA

Además, IBM ha recibido 21 millones de dólares de financiación de la Agencia de Investigación de Proyectos Avanzados de Defensa (DARPA) para la fase 2 del proyecto SyNAPSE.

Este proyecto pretende crear un sistema que analice información compleja procedente de múltiples modalidades sensoriales y que sea capaz de cambiar su configuración dinámicamente a medida que interactúa con el entorno. Por el momento, las fases 0 y 1 de este proyecto ya han sido completadas. En la fase 2, la compañía construirá un ordenador.

¿Cuál es la diferencia?

Según explica Venture Beat, esta forma de computación que imita al cerebro es muy diferente de la actual, basada en la arquitectura de von Neumann.

Así, en las máquinas actuales la memoria y el procesador están separados y unidos por un bus de datos. El aumento de la cantidad de datos enviados a través de este bus es lo que ha incrementado la velocidad de los ordenadores, pero su capacidad también limita la rapidez.

Sin embargo, los procesadores que imitan al cerebro permiten (en teoría) hacer mucho más trabajo en paralelo y envían señales en todas las direcciones a los millones de ‘neuronas’, que trabajan a la vez. Esto permite que aumente enormemente la potencia.





Fuente:

TIC Beat

12 de agosto de 2010

El primer IBM PC

Ibm-Pc-1989

Mientras los grupos Menudo y Parchis conquistaban los públicos infantiles y juveniles y estaba a punto de estrenarse Superman y En busca del Arca perdida, los geeks de la época podían comprar en el frío agosto de 1981 el primer IBM PC, con el nombre de IBM 5150.

Casi seguro que no había colas por las noches en las tiendas, pero quién sabe… Esta fabulosa tostadora que para la época parecía más bien una prometedora máquina para-un-futuro-mejor incluía:

  • Procesador Intel 8088 a 4,7 MHz (8 bits)
  • 16 KB de memoria RAM, ampliables a 256 KB
  • Dos unidades de disquetes flexibles de 5,25" / 160 KB
  • Sistema operativo PC-DOS 1.0
  • IBM BASIC (¡en ROM!) para programar
  • Altavoz de pitidos
  • Tarjeta gráfica CGA (hasta 320×200 en cuatro colores)
  • Opcionalmente, monitor en color

Una de las cuestiones relativamente avanzadas para la época era que en la tarjeta CGA podías pinchar un segundo monitor y trabajar con el monitor monocromo y el de color a la vez. AutoCAD se hizo bastante popular gracias a esto.

El cacharro se vendía por unos 1.565 dólares sin disqueteras y sin monitor. El precio de un IBM PC completo con el que pudieras hacer algo, con sus discos y monitor monocromo era más bien de unos 3.000 dólares (5.200 dólares de hoy, ~ 4.100 euros).

(Vía GeekDad.)

Vía Microsiervos

29 de julio de 2010

IBM: El mapa de conexiones más completo del cerebro

La Proceedings of the National Academy of Sciences (PNAS por sus siglas en inglés) publicó el martes pasado un ensayo prominente titulado “Network architecture of the long-distance pathways in the macaque brain” (Arquitectura de conexiones de larga-distancia en el cerebro del macaco), de acceso público, elaborado por Dharmendra S. Modha y Raghavendra Singh, y que contiene implicaciones importantes para la reverse ingeniería del cerebro y el desarrollo de chips cognoscitivos de redes de computación.

"El Mandala del Cerebro". Conexiones de larga-distancia del cerebro del mono.

"El Mandala del Cerebro". Conexiones de larga-distancia del cerebro del mono.

“Hemos exitosamente descubierto y mapeado la mayor cantidad de conexiones de larga-distancia del cerebro del macaco, lo cual es esencial para la comprensión del comportamiento del cerebro, su complejidad, dinamismo y su computación”, dijo el Dr. Modha. “Ahora podemos tener una idea sin precedentes de cómo viaja la información y cómo es procesada a través de todo el cerebro”.

“Hemos comparado y procesado de manera consiste, completa, concisa, coherente, la colosal red de conexiones del cerebro y desarrollado estudios anatómicos que son una piedra fundamental tanto para la investigación en neurociencia como en computación cognoscitiva”.

“Estudiamos cuatro veces todas las regiones del cerebro, y hemos compilado cerca de tres veces el número de conexiones comparado con el esfuerzo anterior”, dijo. “Nuestra información abre enteramente caminos nuevos para analizar, entender, y eventualmente imitar la arquitectura de conexiones del cerebro”, lo que de acuerdo con Marian C. Diamond y Arnold B. Scheibel es “la más compleja masa de protoplasma de nuestro planeta -incluso quizá de nuestra galaxia”.

¿El centro de la conciencia y el conocimiento?

La red cerebral que los científicos encontraron contiene un “núcleo altamente integrado que podría ser el corazón o centro del conocimiento e incluso de la conciencia… y podría ser la clave para la respuesta a la antigua pregunta de cómo la mente viene del cerebro”. Las partes principales son la corteza pre-motora, corteza pre-frontal, lóbulo temporal, lóbulo parietal, basal ganglia, cingulate cortex, insula, y corteza visual.

Corteza pre-frontal: distribuidor-integrador de la información.

Por medio de la medición en importancia de las regiones del cerebro, encontraron evidencia que la corteza pre-frontal, localizada en la parte frontal del cerebro, es funcionalmente la parte central del cerebro que actúa como integrador y distribuidor de la información. Una especie de interruptor.

Tal y como lo indicaron en el estudio, “La red abre la puerta a la aplicación del análisis teórico de redes en gran escala, que ha sido muy útil para comprender la internet, redes metabólicas, redes de interacción de proteínas, redes sociales, y en los motores de búsqueda en la internet. La red será básica para las neurociencias computacionales así como la computación cognoscitiva”

Encuentras el articulo original en inglés aquí.

Encuentras la base de datos disponible sobre el cerebro del macaco aquí.

Puedes descargar un archivo Powerpoint con información más detallada aquí.

Fuente:

Prueba y Error

4 de mayo de 2010

Ejército de chips de teléfonos inteligentes podrían emular el cerebro humano

Martes, 04 de mayo de 2010

Ejército de chips de teléfonos inteligentes podrían emular el cerebro humano

Si usted tiene un smartphone, es probable que tenga una rebanada del cerebro de Steve Furber en el bolsillo. En el momento de leer esto, su cerebro de silicio, de 1-miles de millones de neuronas, estará en producción en una planta de microchips en Taiwán.

Los ingenieros informáticos siempre han querido copiar la potencia compacta de los cerebros biológicos. Pero las imitaciones, hasta el momento, han sido muy complicadas, a lo sumo simulaciones que se ejecutan en los superordenadores.

Furber, un científico de la computación en la Universidad de Manchester, Reino Unido, dice que si queremos utilizar los equipos con al menos una fracción de la flexibilidad de un cerebro, necesitamos comenzar con partes asequibles y de bajo consumo.

Lea el artículo completo en:

NewsScientist (en inglés)

7 de abril de 2010

Dimensiones de Hofstade: cómo el país donde naces determina cómo eres (I)

Miércoles, 07 de abril de 2010

Dimensiones de Hofstade: cómo el país donde naces determina cómo eres (I)


La extrema susceptibilidad de lo políticamente correcto podría catalogar la siguiente afirmación de racista: la gente es como es según el país donde ha nacido.

Pero esto no es racismo. El racismo es discriminar o minusvalorar una etnia respecto a otra. De lo que vamos a hablar aquí no es de etnias sino de pueblos, de países y de culturas. Tampoco vamos a enfocar el tema de una manera discriminatoria: sólo vamos a definir rasgos. Por ejemplo, que un negro es más oscuro de piel por término medio que un blanco no es una afirmación racista sino una distinción de raza.

Habiendo realizado estas puntualizaciones, voy a explicaros por qué no es lo mismo relacionarse con un suizo que con un mexicano o un español. Y cómo las diferencias culturales de cada país determinan hasta niveles muy profundos cómo las personas afrontan los problemas del mundo.

google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0