1 de junio de 2018
La carrera por el ordenador cuántico
Los ordenadores cuánticos están llamados a revolucionar la computación. Su capacidad para realizar operaciones imposibles les convierte en una especie de santo grial y han desencadenado una competición que, de momento, lidera Estados Unidos. Su músculo industrial con compañías como Google o IBM no lo tienen Europa ni China, que también luchan por conseguir esta ansiada tecnología.
La principal diferencia entre un ordenador cuántico y uno convencional es la forma de procesar la información. Si las computadoras clásicas lo hacen en bits, y cada uno toma el valor de 1 o 0, los ordenadores cuánticos utilizan cúbits (o bits cuánticos), lo que significa que pueden representar a la vez tanto un 1 como un 0. Además, se correlacionan entre sí, es decir, que el valor de uno puede depender del valor de otro, lo que se conoce como entrelazamiento cuántico.
Esta revolucionaria forma de procesar la información imita a la naturaleza en sus formas más pequeñas. Partículas y otros diminutos elementos se comportan de formas extrañas, adquiriendo más de un estado al mismo tiempo e interactuando con otras partículas que están situadas muy lejos. Su comportamiento se rige por las leyes de la mecánica cuántica.
Simulando estas interacciones, los ordenadores cuánticos realizarán operaciones muy complejas y resolverán problemas que los tradicionales no tienen la capacidad de solucionar, como el cálculo de factores de números gigantes o el estudio preciso de interacciones entre átomos y moléculas. De esta forma, se espera que áreas como los nuevos materiales, el desarrollo de fármacos o los sistemas de inteligencia artificial avancen a una velocidad sin precedentes con la ayuda de esta nueva computación.
Aunque ya existen varios modelos de ordenador cuántico todavía no se ha desarrollado uno que alcance los 50-100 cúbits, con capacidades que superarían las de los ordenadores clásicos. IBM el año pasado aseguró haber llegado a los 50 cúbits pero los expertos se muestran cautos porque los investigadores de la compañía no explicaron los detalles en ninguna revista científica. Por su parte, Google afirma haber conseguido una tecnología con 72 cúbits.
“Las cosas se vuelven interesantes una vez que tenemos entre 50 y 100 cúbits que se pueden controlar por completo, por ejemplo, el entrelazamiento usado por algoritmos complejos, que muestran capacidades algorítmicas más allá de las máquinas clásicas”, señala a OpenMind Rainer Blatt, investigador del Instituto de Física Experimental de la Universidad de Innsbruck (Austria).
“Esto no se ha logrado en ningún sitio pero probablemente lo veremos en los próximos años”, añade el científico.
El artículo completo en:
Open Mind
5 de diciembre de 2017
¿Qué es el "aprendizaje profundo" de la inteligencia artificial?
Cuando la supercomputadora Deep Blue de IBM venció al campeón de ajedrez Gary Kasparov en 1997, muchos se sorprendieron ante el poder de estas máquinas.
21 de septiembre de 2015
IBM acaba de fabricar el primer procesador funcional de solo 7 nanómetros
Tomado de;
Gizmodo
Lea también:
50 años de la Ley de Moore: ¿qué ocurrirá cuando ya no se cumpla?
26 de agosto de 2014
El chip sináptico de IBM marca el paso hacia la computación neuronal
La innovación de IBM asienta los fundamentos de una nueva generación de arquitectura computacional inspirada en la estructura cerebral, cuya capacidad de “pensar, actuar y percibir” acortará más la distancia entre el modelo de inteligencia artificial e inteligencia humana.
Reinventando el modelo John von Neumann
La divergencia entre el funcionamiento del cerebro y los ordenadores actuales siempre ha sido un aspecto intrigante que ha impulsado a los científicos de la computación a estudiar nuevas formas de mejorar los ‘cerebros’ de los ordenadores. El centro de investigación de IBM no ha querido perderse nada del gran viaje que cambiará el futuro de la tecnología actual así que se convirtió en una de las empresas pioneras en investigar los secretos de la capacidad cognitiva trasladada a las máquinas inteligentes.En 2012 sus especialistas dieron un paso muy importante en este campo al presentar por la primera vez el superordenador Sequoia, considerado la más potente simulación cerebral realizada jamás ya que reunía la fuerza de 2.084 mil millones representaciones de núcleos neurosinápticos. Después de dos años, el mismo equipo da otro paso decisivo y en lugar de adaptar los algoritmos inspirados de la actividad cerebral a la computación tradicional inventan desde la base un chip que imita la actividad de las redes neuronales humanas.
Según el científico que lidera el proyecto, Dharmendra Modha, la idea ha surgido de la necesidad de replantear el sistema informático heredado de John von Neumann, un matemático que ha puesto las bases de la arquitectura computacional clásica. Modha está convencido de que los ordenadores actuales, además de cálculos matemáticos precisos se podrían mejorar al adaptarse a la inteligencia adaptativa del cerebro humano:
“El cerebro evolucionó hace millones de años para solucionar los problemas básicos: conseguir comida, luchar, evitar los peligros, reproducirse y está destinado a manejar datos de baja resolución, ambiguos y simbólicos. Integra memoria (sinapsis) y computación (neuronas), tiene un procesamiento distribuido, gestiona los datos en paralelo, puede aprender, opera de forma asíncrona, es lento y por lo tanto no gasta energía y tampoco se sobrecalienta”.
Una arquitectura que imita la escalabilidad del cerebro humano
Igual que el modelo neuronal humano, la arquitectura del chip seguirá funcionando incluso si falla alguno de los núcleos individuales. Su escalabilidad le permitirá ampliar las conexiones entre los núcleos hasta formar un mosaico sin interrupciones, construyendo los pilares de una futura supercomputación neurosináptica.
“IBM ha sentado las bases de una computación inspirada en el el cerebro humano, en los términos de una arquitectura de computación radicalmente nueva, a una escala sin precedentes, una velocidad, eficiencia, energía y capacidad de adaptación incomparables”, comenta Modha.
La tecnología del futuro ‘sentirá’ la realidad igual que nosotros
“En el futuro estos chips se podrían convertir en la alternativa de energía eficiente para gafas que ayuden a navegar a las personas invidentes, ‘ojos’ que dejen ver a los robots y a los coches, sistemas médicos que monitoricen la tensión arterial, la temperatura y el nivel de oxígeno de las personas mayores y que envíen alertas antes de producirse algún problema o sistemas que midan el nivel de marea y velocidad del viento para predecir los tsunamis”.Por último Modha espera que el futuro tecnológico esté destinado a una simbiosis entre los chips cognitivos y los tradicionales “para enfrentarse al contexto real de la misma manera que lo hacemos nosotros”.
Fuente:
TicBeat
1 de enero de 2014
2013: IBM lanza 5 cinco predicciones para 5 años
Las aulas conocerán el nivel de cada alumno; los médicos consultarán rutinariamente el ADN del paciente.
Aulas contra la cara de palo. Se acabó engañar al profesor diciendo que lo has entendido o poniendo esa cara de palo polivalente. El pupitre, las paredes, la pizarra captarán que estabas en babia o que no has entendido nada del teorema de Pitágoras. Y que el de al lado, sí que lo ha cogido.Se acaba la misma clase para todos. Será individualizada. "La rápida digitalización de las instituciones educativas permitirá la instrumentación sin precedentes del proceso de aprendizaje. La computación cognitiva ayudará a calcular cómo cada alumno aprende para crear un sistema flexible que se adapte continuamente al alumno y así ajustar las clases a ese estudiante y comprobar su respuesta".
Adiós al "diga 33". Los doctores no llevarán en el bolsillo el estetoscopio, sino el ADN del paciente. No es ficción, de hecho ya por 99 dólares y una semana de tiempo se puede realizar, como ha demostrado la empresa 23andMe, entre otras. Luego los doctores deberán interpretar los eslabones débiles de la cadena del paciente. "Hoy en día, las pruebas de ADN para ayudar a tomar decisiones de tratamiento son todavía escasas", dice IBM. "Pero la tecnología hará de esta prueba la corriente principal de tratamiento. Se hará más rápido, más barato y con mucha más frecuencia. Además de las pruebas de ADN para algunos tipos de cáncer, habrá opciones de tratamiento personalizado para la apoplejía o enfermedades cardíacas".
Poli de mensajería. Se acaberá el hackeo de cuentas personales, y la pérdida y olvido de contraseñas y claves dejarán de ser un tormento. Habrá un policía personal online que detectará cualquier actuación extraña. Ya hay algo de esto. Algunos usuarios de Google quizás ya han advertido que, cuando viajan a un pais no habitual, reciben un mensaje sobre la entrada en su Gmail personal desde un sitio al que no está acostumbrado. Y deben, entonces, confirmar contraseñas. Es un primer paso de la buena aplicación del conocimiento (y datos sobre privacidad) que tienen estos grandes sobre los actos de sus clientes. "Este tutor", dice IBM, "velará, aprenderá y responderá en función de su contexto y del comportamiento del usuario en sus diferentes dispositivos. Tendrá la capacidad de asimilar grandes cantidades de datos y sacará deducciones de lo que es la actividad normal o razonable y lo que no lo es. Luego intervendrá en nombre del usuario -con su permiso- para impedir el uso fraudulento". Recientemente, el que suscribe recibió una comunicación de Google de si era cierto que quería abrir mi cuenta desde Bulgaria. Al contestar que no, Google lo bloqueó.
Hoy en día, las pruebas de ADN para ayudar a tomar decisiones de tratamiento son todavía escasas, pero la tecnología hará de esta prueba la corriente principal de tratamiento. Se hará más rápido, más barato y con mucha más frecuencia
Vuelve la tienda de barrio. Nada desaparece, pero todo cambia, la tienda de la esquina, también. Volveremos a ella, pero conectada a internet y a nuestro móvil. Así conoceremos las ofertas del día y la tienda, nuestros gustos. "En el futuro, los minoristas aumentarán los niveles de participación y personalización en la compra. Será la fusión de lo mejor de la tienda física: el tocar y llevarse el producto, con la riqueza de información (ofertas instantáneas, gustos del comprador) de las compras por internet.
En 2006, primera edición lanzada por IBM, predijo que en cinco años, es decir, en 2011, el desarrollo de la telemedicina, la geolocalización en los móviles, la traducción simultánea por reconocimiento de voz, el empuje de la nanotecnología y la implantación de tecnologías 3D. Todo ello, en mayor o menor grado, es una realidad, aunque sobresale la implantación de tecnologías ligadas a los smartphones, como geolocalización y traductores por voz.
18 de octubre de 2013
¿Cuán pequeño puede ser un objeto creado por el Hombre?
Para 2010 habían conseguido con éxito dibujar mapas del mundo tan pequeños que mil de ellos cabían en un grano de arena. Pero estos logros de la nanotecnología tienen sus límites.
A escala atómica se producen extraños fenómenos cuánticos que afectan el desempeño de los objetos. Uno de ellos se conoce como el "Efecto Casimir", una fuerza de atracción que surge entre dos objetos metálicos separados por una distancia pequeña en relación con su tamaño, que ocasiona que las nanomáquinas se atasquen.
A principios de año, investigadores en Alemania tropezaron con otra limitación: el meneo de los electrones debido al calor del ambiente que los rodea genera campos magnéticos que afectan las habilidades de los microscopios electrónicos.
Pero incluso si se superan estos problemas, los científicos saben que las complicaciones del ámbito cuántico evitarán que logren crear objetos complejos mucho más pequeños que un átomo.
Fuente:
BBC Ciencia
8 de octubre de 2013
La película más pequeña del mundo (con átomos)
Muy frío
25 de septiembre de 2013
La idea matemática que hizo volar al Voyager
La sonda Voyager 1, 35 años después de haber despegado, está a 18.400 millones de kilómetros de la Tierra y a punto de cruzar el límite que marca el alcance de la influencia del sol, donde el viento solar se encuentra con el espacio interestelar.
Así contado parece fácil, pero la puerta al más allá del Sistema Solar permaneció cerrada durante los primeros 20 años de la carrera espacial.
El problema de los tres cuerpos
Se enviaron naves a la Luna, a Venus y a Marte. Pero un factor crucial impedía alcanzar distancias más lejanas.
Para viajar a los planetas exteriores hace falta escapar de la fuerza gravitacional que ejerce el Sol, y para eso es necesaria una nave espacial muy grande.
El viaje hasta Neptuno, por ejemplo, a 2.500 millones de kilómetros, podría llevar fácilmente 30 o 40 años debido a esa fuerza.
En su momento, la Nasa no podía asegurar la vida útil de una sonda por más tiempo que unos meses, así que los planetas lejanos no estaban dentro de las posibilidades.
Hasta que un joven de 25 años llamado Michael Minovitch, entusiasmado por la nueva computadora IBM 7090, la más rápida en 1961, resolvió el problema más difícil de la ciencia mecánica celeste: el de "los tres cuerpos".
Se refiere al Sol, un planeta y un tercer objeto que puede ser un asteroide o un cometa viajando por el espacio con sus respectivas fuerzas de gravedad actuando entre ellos. La solución establece con exactitud cómo afectan la gravedad del Sol y la del planeta a la trayectoria del tercer objeto.
Sin amilanarse por el hecho de que las mentes más brillantes de la historia -la de Isaac Newton entre ellas- no lograron resolver esta incógnita, Minovitch se concentró en despejarla. Su intención era usar la computadora para buscar la solución a través de un método de repetición.
Verano de 1961
En su tiempo libre, mientras estudiaba un doctorado en el verano de 1961, se puso a programar series de ecuaciones para aplicar al problema.
Minovitch llenó su modelo con datos de las órbitas planetarias, y durante una pasantía en el laboratorio de propulsión de la Nasa (Jet Propulsion Lab) obtuvo información más exacta sobre las posiciones de los planetas.
El joven estudiante demostró así que si una nave pasa cerca de un planeta que orbita alrededor del Sol puede apropiarse de parte de la velocidad orbital de ese astro y acelerar en dirección opuesta al Sol sin utilizar el combustible de propulsión de la nave.
Sin financiamiento para continuar con sus pruebas en la computadora, y en un intento por convencer a la Nasa de la importancia de su descubrimiento, dibujó a mano cientos de trayectorias de misiones teóricas al espacio exterior. Entre ellas había una ruta de vuelo específica que se convirtió en la trayectoria de las sondas Voyager.
Pero en 1962 el Jet Propulsion Lab estaba ocupado con el Proyecto Apolo, y nadie hizo mucho caso al hallazgo de Minovitch.
Lea el artículo completo en:
BBC Ciencia
29 de abril de 2013
Chip que simula al cerebro, supera a supercomputadores
13 de marzo de 2013
Ya vienen: Las computadoras ¡con cinco sentidos!
Video de Introducción:
Puede ver los cinco videos traducidos al español (un video por cada sentido) en El País (España)
17 de diciembre de 2012
Según IBM tendremos tecnología con los cinco sentidos en cinco años más
Interesantes predicciones son las que ha hecho IBM para los próximos cinco años, en una serie de artículos que resumen la idea de que en el futuro cercano, los aparatos tecnológicos tendrán la capacidad de captar la información a su alrededor tal como un ser humano, en términos de que serán capaces de emular nuestros cinco sentidos.
Según varios especialistas de la compañía que son consultados al respecto, tendremos la posibilidad de sentir texturas a través de un teléfono móvil, utilizando una tecnología de vibraciones que refleja cómo se sentiría la superficie tocada. También la vista sería re-creada para que un equipo pueda ver su entorno y aprender de él, reconociendo patrones y almacenando información de lo que ha visto previamente, para predecir y entender sucesos futuros y actuales. Por ejemplo, una base de datos de manchas en la piel podrían ayudar a una computadora a reconocer el cáncer a la piel en alguien que no se haya diagnosticado.
Por otro lado, la tecnología será capaz de escucharnos en forma más inteligente, al tener un mejor reconocimiento de los sonidos presentes en la naturaleza para detectar tempranamente posibles catástrofes o bien, oír el llanto de un bebé y entender qué es lo que quiere. Además, el sentido del gusto también se hace presente y según IBM, será posible para una computadora funcionar en forma similar al paladar humano, entendiendo las reacciones químicas que genera cada sabor para hacerse con su sentido propio y añadir esta clase de datos a su almacenamiento. Lo mismo podría aplicarse al quinto y último sentido: el olfato.
Las aplicaciones para esta tecnología futura podrían ser asombrosas y quedan a la imaginación de los ingenieros y nosotros mismos, añadiendo un repertorio nuevo de información para que las computadoras se vuelvan más sensitivas y puedan asistir de manera más comprensiva al ser humano.
Link: We think of the five senses as exclusive to living things (IBM)
Fuente:
Muy Interesante
10 de diciembre de 2012
La carrera de las simulaciones cerebrales
Uno de los primeros intentos fue el proyecto Blue Brain, que sigue en marcha aunque últimamente con pocas noticias. La idea es simular cada una de las baldosas o ladrillos del cerebro llamadas columnas neocorticales (compuestas por unas 10.000 neuronas). Es un proyecto a largo plazo cuyos resultados veremos en el futuro.
IBM ha realizado la mayor simulación neuronal hasta la fecha. 500 mil millones de neuronas y 100 billones de sinapsis. Sin embargo, es un proyecto de computación, no de neurociencia. No simula nada parecido a un comportamiento humano. El objetivo a largo plazo es construir novedos chips neurosinápticos de arquitectura no Von Neumann.
Un proyecto mucho menos ambicioso pero más realista es OpenWorm. Trata de simular la conducta de C. Elegans, un gusano del que conocemos su Conectoma, sus 302 neuronas y sus sinapsis. Empezar por lo sencillo tiene sus ventajas.
Juntar un montón de neuronas y esperar que emerja algo interesante no parece una vía plausible para entender cómo funciona algo tan sofisticado como el cerebroHay más simulaciones neuronales interesantes. Realizar tareas complejas de forma simultánea no es posible. Es un paradigma llamado Periodo Refractario Psicológico. La Universidad de Buenos Aires simuló un proceso cerebral de dos tareas simultáneas. El simulador se comportaba como era predecible en humanos siguiendo exactamente el paradigma: en la fase sensorial los procesos son paralelos, en la central (toma de decisión) son seriales, de uno en uno, y en la motora vuelven a ser paralelos. Para realizar la simulación se usaron 20.000 neuronas.
Spaun, el nuevo simulador, es novedoso y muy interesante. Junto con OpenWorm está en la línea de las simulaciones funcionales. Esto significa que pretende simular tareas reales que realizamos los humanos.
Para ello, simula 2,5 millones de neuronas agrupadas en áreas cerebrales que realmente tenemos los humanos. Subredes del simulador se corresponden con áreas anatómicas físicas como el área visual en el lóbulo occipital, el área motora, funciones ejecutivas en el lóbulo frontal y memoria de trabajo. También simula los ganglios basales, corresponsables del movimiento complejo (afectados en el párkinson).
El modelo recibe una imagen de 28x28 pixels como input, procesa la señal y genera un output mediante un brazo simulado. Las neuronas individuales se comunican por señales eléctricas (potenciales de acción) y neurotransmisores. Aunque simplificado, el modelo capta muchos aspectos de neuroanatomía, neurofisiología y comportamiento psicológico.
Esto queda demostrado en 8 tareas diferentes. Por ejemplo: copia un dibujo, reconoce los números, los ordena, los cuenta, e incluso completa una lista (2,3,4...). Un conjunto de vídeos está disponible para conocer mejor a Spaun. Algunas de las pruebas están extraídas de test de inteligencia convencionales como el test de matrices de Raven. Spaun puntúa casi como un humano.
Hasta ahora la carrera era conseguir una simulación del tamaño del cerebro humano. De ahora en adelante, el reto es conseguir las mayores funciones biológicas y comportamientos animales. Por el momento, Spaun es el ganador.El comportamiento es similar al humano. Reproduce errores similares y tiempos de respuesta parecidos (tareas más complejas llevan tiempos de ejecución más complejos).
Si destruimos partes del modelo, podemos ver qué comportamientos fallan. O podemos cambiar el funcionamiento de los neurotransmisores y ver cómo se correlaciona con el comportamiento.Así se puede observar qué ocurre en la edad avanzada con el envejecimiento celular.
Están trabajando en un programa que no tiene instrucciones concretas sino recompensa positiva o negativa. Este es un clásico ejemplo de aprendizaje humano. Aunque esperan que el rendimiento esté cerca del tiempo de respuesta real, en la actualidad un segundo tarda horas en simularse.
Spaun es un salto en la simulación. Los deslumbrantes ejercicios de supercomputación no bastan. Queremos simular conductas reales. Spaun hace algo. Spaun está en el camino
Fuente:
ALT1040
1 de diciembre de 2012
IBM simula 500 mil millones de neuronas y 100 billones de sinapsis
El departamento de Cognitive Computing de IBM en Almaden dirigido por Dharmendra S. Modha lleva unos años realizando asombrosas simulaciones en el contexto del proyecto DARPA SyNAPSE. Como parte de este proyecto, anunció la simulación a la escala del córtex de un ratón, luego de una rata y más tarde de un gato.
El objetivo de este programa es crear un chip neurosináptico que supone una ruptura con la arquitectura tradicional de los ordenadores. Esta arquitectura es la llamada Von Neumann que usan la totalidad de los ordenadores en la actualidad, incluidos móviles y tarjetas. En la arquitectura Von Neumann la memoria está separada del procesador, el hardware del software y los programas están separados de los datos. Ha sido muy exitosa mientras se cumplía la miniaturización de componentes expresada en la ley de Moore: cada dos años se duplica el número de transistores en un espacio dado. El problema es que estamos llegando a los límites del átomo y que la ley dejará de cumplirse.
El chip neurosináptico es una ruptura total con la arquitectura Von Neumann. Se basa en el diseño de las neuronas en las que no hay distinción entre hw y sw, programas y datos, memoria y procesador. El chip consiste en una matriz de neuronas y entre sus cruces se realizan las sinapsis. De este modo, cada sinapsis del chip es hw y sw, proceso y memoria, programa y datos. Dado que todo está distribuido, no es necesaria un miniaturización tan extrema y sobre todo, un reloj tan rápido. Frente a los actuales gigahercios de frecuencia, las neuronas se disparan a un hercio, y en el caso del chip a 8 hercios. Además, los procesadores son clock driven, es decir, actúan bajo la batuta del reloj mientras que las neuronas son event driven, actúan solo si hay actividad que realizar.
Uno de los objetivos es reducir el consumo eléctrico. Un cerebro consume lo que una bombilla pequeña, 20 vatios. Un superordenador consume cientos de megavatios. El nuevo chip tiene un consumo muy reducido. Estos chips están construidos con tecnología de silicio clásica CMOS.
La arquitectura de muchos chips neurosinápticos unidos se ha llamado TrueNorth. Ya existe en desarrollo un chip de 256 neuronas, 1024 axones, y 256×1024 sinapsis.
El chip sin embargo no está en producción masiva. Para seguir trabajando en paralelo al desarrollo, se ha realizado la prueba actual. Para ello se ha usado un simulador llamado Compass. Compass traduce el comportamiento de un chip neurosináptico (no Von Neumann) a un ordenador clásico (Von Neumann). Usando Compass se ha simulado (pdf) el comportamiento de 2.000.000.000 chips. Esto supone 500 mil millones de neuronas y 100 billones de sinapsis, cifras por completo astronómicas. El resultado de la simulación se ha ejecutado 1.542 veces más lento que en tiempo real.
Para realizar la simulación se ha usado el segundo superordenador más grande del mundo, Sequoia un Blue Gene/Q de 96 armarios con 1 millón y medio de núcleos y 1,5 petabytes de memoria. Uno de los objetivos de la simulación es ver el escalado. Un problema habitual es que que cuando añadimos más cores, el sistema no funciona proporcionalmente más rápido. En el extremo, añadir más cores no aumenta el rendimiento: el sistema escala mal. Imagina un camarero atendiendo detrás de la barra. Si hay un segundo camarero, irán más rápido, pero no el doble. Si sigues añadiendo camareros, llegará un momento en que no aumente la eficiencia, incluso se verá reducida. El sistema escala mal. Pues bien, en la simulación realizada el escalado ha sido casi perfecto lo que es muy satisfactorio computacionalmente.
¿Qué tiene esto que ver con la neurociencia y el cerebro? Bien poco. La simulación no imita ningún comportamiento animal ni cognitivo ni humano. Para simular el comportamiento del cerebro, necesitamos saber cómo funciona y eso está lejos de lograrse. Para cuando llegue ese conocimiento debemos tener preparados ordenadores que sean capaces de simularlo y en este contexto se enmarca la presente investigación. Aunque no solo; la idea de diseñar estos nuevos chips es ponerlos en producción en aplicaciones comerciales tradicionales dando una gran potencia con un bajo consumo. La simulación del cerebro deberá esperar aún alguna década.
Fuente:
ALT1040
16 de noviembre de 2012
Titan, la súper computadora más rápido del mundo
19 de agosto de 2011
IBM crea unos chips que imitan el funcionamiento del cerebro
Hace unos días publicabamos un post donde analizabamos los lados positivos y negativos de la POSIBILIDAD de que los seres humanos puedan conectarse a Internet. Bien, esta nota guarda relación con el tema, pues también parce un tema sacado de un película de ciencia ficción: se han creado chips que imitan el funcionamiento del cerebro.
IBM ha producido dos chips, que por ahora están en fase de pruebas, que imitarán el funcionamiento del cerebro y emularán su habilidad de percepción, acción y cognición. La programación de los ordenadores ‘cognitivos’ será diferente a la tradicional, pues se espera que ‘aprendan’ mediante la experiencia, ‘encuentren’ correlaciones y creen hipótesis.
IBM, una de las empresas más punteras en innovación, acaba de presentar una nueva generación de chips que emulan el cerebro y que, esperan, consumirá menos energía y ocupará menos espacio.
Estos chips neurosinápticos recrean los procesos neuronales “mediante avanzados algoritmos y circuitos de silicio”. Por el momento ya hay dos prototipos fabricados, que actualmente están siendo probados, según explica la compañía en una nota de prensa.
IBM espera poder utilizar estos chips para construir ordenadores “cognitivos”. Estos ordenadores aprenderán, encontrarán correlaciones, crearán hipótesis y recordarán y aprenderán de los resultados “imitando la plasticidad estructural y sináptica del cerebro”.
Para hacerlo, la empresa ha combinado principios de nanociencia, neurociencia y supercomputación.
Por el momento hay dos prototipos diseñados. Los núcleos de ambos contienen 256 ‘neuronas’, pero uno contiene 262.144 “sinapsis programables” y el otro 65.536 “sinapsis de aprendizaje”.
“Los chips del futuro serán capaces de ingerir información de entornos complejos del mundo real”, asegura IBM. Después, podrán actuar “de una forma coordinada y dependiente del contexto”.
Financiación de DARPA
Además, IBM ha recibido 21 millones de dólares de financiación de la Agencia de Investigación de Proyectos Avanzados de Defensa (DARPA) para la fase 2 del proyecto SyNAPSE.
Este proyecto pretende crear un sistema que analice información compleja procedente de múltiples modalidades sensoriales y que sea capaz de cambiar su configuración dinámicamente a medida que interactúa con el entorno. Por el momento, las fases 0 y 1 de este proyecto ya han sido completadas. En la fase 2, la compañía construirá un ordenador.
¿Cuál es la diferencia?
Según explica Venture Beat, esta forma de computación que imita al cerebro es muy diferente de la actual, basada en la arquitectura de von Neumann.
Así, en las máquinas actuales la memoria y el procesador están separados y unidos por un bus de datos. El aumento de la cantidad de datos enviados a través de este bus es lo que ha incrementado la velocidad de los ordenadores, pero su capacidad también limita la rapidez.
Sin embargo, los procesadores que imitan al cerebro permiten (en teoría) hacer mucho más trabajo en paralelo y envían señales en todas las direcciones a los millones de ‘neuronas’, que trabajan a la vez. Esto permite que aumente enormemente la potencia.
Fuente:
12 de agosto de 2010
El primer IBM PC
Mientras los grupos Menudo y Parchis conquistaban los públicos infantiles y juveniles y estaba a punto de estrenarse Superman y En busca del Arca perdida, los geeks de la época podían comprar en el frío agosto de 1981 el primer IBM PC, con el nombre de IBM 5150.
Casi seguro que no había colas por las noches en las tiendas, pero quién sabe… Esta fabulosa tostadora que para la época parecía más bien una prometedora máquina para-un-futuro-mejor incluía:
- Procesador Intel 8088 a 4,7 MHz (8 bits)
- 16 KB de memoria RAM, ampliables a 256 KB
- Dos unidades de disquetes flexibles de 5,25" / 160 KB
- Sistema operativo PC-DOS 1.0
- IBM BASIC (¡en ROM!) para programar
- Altavoz de pitidos
- Tarjeta gráfica CGA (hasta 320×200 en cuatro colores)
- Opcionalmente, monitor en color
Una de las cuestiones relativamente avanzadas para la época era que en la tarjeta CGA podías pinchar un segundo monitor y trabajar con el monitor monocromo y el de color a la vez. AutoCAD se hizo bastante popular gracias a esto.
El cacharro se vendía por unos 1.565 dólares sin disqueteras y sin monitor. El precio de un IBM PC completo con el que pudieras hacer algo, con sus discos y monitor monocromo era más bien de unos 3.000 dólares (5.200 dólares de hoy, ~ 4.100 euros).
(Vía GeekDad.)
Vía Microsiervos
29 de julio de 2010
IBM: El mapa de conexiones más completo del cerebro
La Proceedings of the National Academy of Sciences (PNAS por sus siglas en inglés) publicó el martes pasado un ensayo prominente titulado “Network architecture of the long-distance pathways in the macaque brain” (Arquitectura de conexiones de larga-distancia en el cerebro del macaco), de acceso público, elaborado por Dharmendra S. Modha y Raghavendra Singh, y que contiene implicaciones importantes para la reverse ingeniería del cerebro y el desarrollo de chips cognoscitivos de redes de computación.
“Hemos exitosamente descubierto y mapeado la mayor cantidad de conexiones de larga-distancia del cerebro del macaco, lo cual es esencial para la comprensión del comportamiento del cerebro, su complejidad, dinamismo y su computación”, dijo el Dr. Modha. “Ahora podemos tener una idea sin precedentes de cómo viaja la información y cómo es procesada a través de todo el cerebro”.
“Hemos comparado y procesado de manera consiste, completa, concisa, coherente, la colosal red de conexiones del cerebro y desarrollado estudios anatómicos que son una piedra fundamental tanto para la investigación en neurociencia como en computación cognoscitiva”.
“Estudiamos cuatro veces todas las regiones del cerebro, y hemos compilado cerca de tres veces el número de conexiones comparado con el esfuerzo anterior”, dijo. “Nuestra información abre enteramente caminos nuevos para analizar, entender, y eventualmente imitar la arquitectura de conexiones del cerebro”, lo que de acuerdo con Marian C. Diamond y Arnold B. Scheibel es “la más compleja masa de protoplasma de nuestro planeta -incluso quizá de nuestra galaxia”.
¿El centro de la conciencia y el conocimiento?
La red cerebral que los científicos encontraron contiene un “núcleo altamente integrado que podría ser el corazón o centro del conocimiento e incluso de la conciencia… y podría ser la clave para la respuesta a la antigua pregunta de cómo la mente viene del cerebro”. Las partes principales son la corteza pre-motora, corteza pre-frontal, lóbulo temporal, lóbulo parietal, basal ganglia, cingulate cortex, insula, y corteza visual.
Corteza pre-frontal: distribuidor-integrador de la información.
Por medio de la medición en importancia de las regiones del cerebro, encontraron evidencia que la corteza pre-frontal, localizada en la parte frontal del cerebro, es funcionalmente la parte central del cerebro que actúa como integrador y distribuidor de la información. Una especie de interruptor.
Tal y como lo indicaron en el estudio, “La red abre la puerta a la aplicación del análisis teórico de redes en gran escala, que ha sido muy útil para comprender la internet, redes metabólicas, redes de interacción de proteínas, redes sociales, y en los motores de búsqueda en la internet. La red será básica para las neurociencias computacionales así como la computación cognoscitiva”
Encuentras el articulo original en inglés aquí.
Encuentras la base de datos disponible sobre el cerebro del macaco aquí.
Puedes descargar un archivo Powerpoint con información más detallada aquí.
Fuente:
4 de mayo de 2010
Ejército de chips de teléfonos inteligentes podrían emular el cerebro humano
Martes, 04 de mayo de 2010
Ejército de chips de teléfonos inteligentes podrían emular el cerebro humano
Si usted tiene un smartphone, es probable que tenga una rebanada del cerebro de Steve Furber en el bolsillo. En el momento de leer esto, su cerebro de silicio, de 1-miles de millones de neuronas, estará en producción en una planta de microchips en Taiwán.
Los ingenieros informáticos siempre han querido copiar la potencia compacta de los cerebros biológicos. Pero las imitaciones, hasta el momento, han sido muy complicadas, a lo sumo simulaciones que se ejecutan en los superordenadores.
Furber, un científico de la computación en la Universidad de Manchester, Reino Unido, dice que si queremos utilizar los equipos con al menos una fracción de la flexibilidad de un cerebro, necesitamos comenzar con partes asequibles y de bajo consumo.
Lea el artículo completo en:
7 de abril de 2010
Dimensiones de Hofstade: cómo el país donde naces determina cómo eres (I)
Miércoles, 07 de abril de 2010
Dimensiones de Hofstade: cómo el país donde naces determina cómo eres (I)
La extrema susceptibilidad de lo políticamente correcto podría catalogar la siguiente afirmación de racista: la gente es como es según el país donde ha nacido.
Pero esto no es racismo. El racismo es discriminar o minusvalorar una etnia respecto a otra. De lo que vamos a hablar aquí no es de etnias sino de pueblos, de países y de culturas. Tampoco vamos a enfocar el tema de una manera discriminatoria: sólo vamos a definir rasgos. Por ejemplo, que un negro es más oscuro de piel por término medio que un blanco no es una afirmación racista sino una distinción de raza.
Habiendo realizado estas puntualizaciones, voy a explicaros por qué no es lo mismo relacionarse con un suizo que con un mexicano o un español. Y cómo las diferencias culturales de cada país determinan hasta niveles muy profundos cómo las personas afrontan los problemas del mundo.