Latest Posts:

Mostrando las entradas con la etiqueta computadora. Mostrar todas las entradas
Mostrando las entradas con la etiqueta computadora. Mostrar todas las entradas

14 de enero de 2019

Cuando Isaac Asimov jugó a predecir 2019 y acertó

El autor de ciencia ficción describió en un artículo publicado en 1983 por el diario 'Toronto Star' el año actual como una sociedad con computadoras y colonización espacial.


A finales de diciembre de 1983, cuando quedaban solo unos días para que empezara el año que George Orwell eligió como título de su asfixiante distopía, el Toronto Star le propuso a Isaac Asimov, por entonces exitoso escritor de ciencia ficción, que predijera el futuro. Escogió 2019 no por casualidad. Era un salto de 35 años hacia adelante. El mismo salto que había que dar hacia atrás para llegar a 1949, la fecha de publicación de 1984.

Los 35 años también eran un salto generacional. Un margen suficiente para que predecir el futuro no fuera una tarea demasiado fácil o se adentrara irremediablemente en la ciencia ficción, que era lo que Asimov escribía desde hacía cuatro décadas. En las revistas pulp, en semanarios, en forma de libros, el autor volcaba su imaginación para trazar historias de civilizaciones galácticas y robotizadas.

La popularidad de sus historias y su acento académico —era bioquímico y daba clases en la universidad— lo señalaban como un candidato perfecto para especular sobre el futuro. Lejos de mostrarse conservador, cuando el Toronto Star le pidió aquel artículo, Asimov echó su imaginación a volar. Pronosticó sobre los ordenadores y las misiones espaciales, sobre la educación y los hábitos de trabajo.

El “objeto móvil computerizado” es el término que más llama la atención en sus augurios tecnológicos. Asimov no concreta a qué se refiere, pero ahora no podemos dejar de asociar aquel pretendido cacharro con un smartphone de hoy. Decía que estos dispositivos penetrarían los hogares y serían de uso común. Antes ya habían irrumpido en su literatura, como en el cuento Sensación de poder (1957), donde se menciona una “computadora de bolsillo”.

La visión positiva de la tecnología que tenía Asimov contrastaba en los ochenta con el creciente universo ciberpunk, a punto de desbocarse de la mano de William Gibson y del cine de Hollywood. Para el autor de ciencia ficción, sin embargo, las computadoras se volverían indispensables en 2019 y ello redundaría en beneficio de la sociedad.

El efecto inmediato de la adopción de las computadoras sería cambiar nuestros hábitos de trabajo, algo que se puede afirmar con toda seguridad que ha sucedido. Solo hay que pensar en cómo era una oficina en 1984. El autor también vaticinaba que algunos empleos desaparecerían, en favor de las computadoras y los robots, que se ocuparían de las tareas repetitivas. Pero se crearía más empleo del que se destruiría. De nuevo, pensaba en positivo.

 

5 de agosto de 2018

Ada Lovelace, la mujer que ideó el primer algoritmo de la historia (100 años antes de que llegaran las computadoras)

La programación parece un arte de principios del siglo XX, pero no es del todo cierto. Casi un siglo antes de que Alan Turing sentara las las bases de la computación moderna, una mujer escribió el primer algoritmo de la historia, un programa tan avanzado que la tecnología de la época no pudo hacerlo realidad.


Esa mujer se llamaba Augusta Ada King-Noel, condesa de Lovelace, aunque el mundo la recuerda como Ada Lovelace, escritora, matemática y la primera programadora de la historia.

Interesada desde joven en las matemáticas, la frenología y la física, la carrera de Lovelace dio un giro radical cuando trabó amistad con el matemático e inventor Charles Babbage, que le mostró su más reciente creación: la máquina de diferencia. En esencia se trataba de una calculadora mecánica capaz de tabular funciones polinómicas.

En 1840, Babbage fue invitado a la Universidad de Turín para dar una conferencia sobre su último diseño, un dispositivo llamado La máquina analítica. Un joven ingeniero italiano llamado Luigi Menabrea transcribió el seminario al francés y su transcripción terminó en la Biblioteca Universal de Ginebra. Dos años más tarde, un amigo común de Lovelace y Babbage pidió a la científica que tradujera el documento del inventor al inglés.

Pero Ada fue mucho más allá de la traducción

La elección de Lovelace no fue casual. Era de los pocos matemáticos capaces de entender los trabajos de Babbage. Sin embargo, su aportación fue mucho más allá de una mera traducción. Ada se percató de algo en la máquina que se le había pasado por completo a su creador: podía programarse.

Lovelace enriqueció el libro con sus propias notas entre las que se encuentra un completo diagrama que básicamente describe el primer algoritmo de la historia y que le valió ser considerada la primera programadora incluso cuando aún no existían los lenguajes de programación ni las computadoras.


Babbage ya esbozó algunos algoritmos propios, pero eran básicamente fórmulas. Ninguno de ellos tenía la complejidad que ideó Lovelace. El mérito de Ada Lovelace fue el darse cuenta de que la máquina analítica podía usarse para expresar entidades o símbolos con arreglo a unas normas y no solo números.

Pero la máquina no pudo ser construida

Nunca pudo ver en persona los resultados de su aportación. La máquina analítica de Babbage fue la primera computadora en términos de Turing. Tenía una unidad lógica aritmética y hasta un sistema de memoria integrado. En términos generales, compartía la misma estructura lógica que las computadoras actuales. Sin embargo, era tan compleja que Babbage no logró reunir el dinero necesario para fabricarla. El primer modelo completo de la máquina a partir de sus apuntes y siguiendo los mismos procesos de fabricación de la época no llegó hasta 1991 de la mano de los conservadores del Museo de la Ciencia de Londres.


Unos 100 años después de la creación de Babbage, el ingeniero alemán Konrad Zuse completaba la Z1, la primera computadora que se puede considerar como tal. El libro con la transcripción realizada por Lovelace con sus notas, su algoritmo y su nombre en la portada acaba de subastarse por la astronómica cifra de 125.000 dólares.

Fuente:

Gizmodo

1 de junio de 2018

La carrera por el ordenador cuántico

En la imagen, un físico del Instituto Nacional de Estándares y Tecnología sostiene un circuito que se utiliza para amplificar las señales de un detector de fotones. Crédito: Geoffrey Wheeler.

Los ordenadores cuánticos están llamados a revolucionar la computación. Su capacidad para realizar operaciones imposibles les convierte en una especie de santo grial y han desencadenado una competición que, de momento, lidera Estados Unidos. Su músculo industrial con compañías como Google o IBM no lo tienen Europa ni China, que también luchan por conseguir esta ansiada tecnología.

La principal diferencia entre un ordenador cuántico y uno convencional es la forma de procesar la información. Si las computadoras clásicas lo hacen en bits, y cada uno toma el valor de 1 o 0, los ordenadores cuánticos utilizan cúbits (o bits cuánticos), lo que significa que pueden representar a la vez tanto un 1 como un 0. Además, se correlacionan entre sí, es decir, que el valor de uno puede depender del valor de otro, lo que se conoce como entrelazamiento cuántico.

Esta revolucionaria forma de procesar la información imita a la naturaleza en sus formas más pequeñas. Partículas y otros diminutos elementos se comportan de formas extrañas, adquiriendo más de un estado al mismo tiempo e interactuando con otras partículas que están situadas muy lejos. Su comportamiento se rige por las leyes de la mecánica cuántica.

Simulando estas interacciones, los ordenadores cuánticos realizarán operaciones muy complejas y resolverán problemas que los tradicionales no tienen la capacidad de solucionar, como el cálculo de factores de números gigantes o el estudio preciso de interacciones entre átomos y moléculas. De esta forma, se espera que áreas como los nuevos materiales, el desarrollo de fármacos o los sistemas de inteligencia artificial avancen a una velocidad sin precedentes con la ayuda de esta nueva computación.

Aunque ya existen varios modelos de ordenador cuántico todavía no se ha desarrollado uno que alcance los 50-100 cúbits, con capacidades que superarían las de los ordenadores clásicos. IBM el año pasado aseguró haber llegado a los 50 cúbits pero los expertos se muestran cautos porque los investigadores de la compañía no explicaron los detalles en ninguna revista científica. Por su parte, Google afirma haber conseguido una tecnología con 72 cúbits.

“Las cosas se vuelven interesantes una vez que tenemos entre 50 y 100 cúbits que se pueden controlar por completo, por ejemplo, el entrelazamiento usado por algoritmos complejos, que muestran capacidades algorítmicas más allá de las máquinas clásicas”, señala a OpenMind Rainer Blatt, investigador del Instituto de Física Experimental de la Universidad de Innsbruck (Austria).

“Esto no se ha logrado en ningún sitio pero probablemente lo veremos en los próximos años”, añade el científico.

El artículo completo en:

Open Mind

1 de enero de 2017

El gato que está "vivo y muerto" y otros 9 avances de la física cuántica en 2016

Este 2016 parece haber sido un triunfo para la física cuántica.

El descubrimiento de ondas gravitacionales, anunciado en febrero, fue declarado el avance del año.
             
Aunque la lista hecha por la revista Physics World también cuenta con un nuevo giro a la muy querida idea del gato de Schrödinger y la detección de un planeta que orbita alrededor de la estrella más cercana al Sistema Solar.

Para detectar las ondas gravitacionales se requirió del trabajo en equipo de 80 instituciones en todo el mundo bajo la coordinación de los laboratorios Ligo.
Ligo tiene varios centros en todo el mundo que dispara láser a través de largos túneles a fin de detectar la deformación en la estructura del espacio-tiempo.

La primera señal se generó con la colisión de dos agujeros negros a más de 1.000 millones de años luz de la Tierra.

"Lo que se ha logrado con Ligo, particularmente en un espacio de tiempo relativamente corto, es verdaderamente increíble", señaló Hamish Johnston, editor de la revista Physics World

"La observación se pudo hacer con la primera evidencia directa de la existencia de agujeros negros, así que Ligo ya ha cambiado nuestra visión del Universo".

En cuanto a los otros 9, aquí los exponemos sin un orden en particular:

El gato de Schrödinger que está en dos lugares al mismo tiempo

La conocida paradoja presenta la idea de un gato en una caja que puede estar simultáneamente vivo y muerto.

El escenario fue diseñado para ilustrar algunos de los principios del extraño mundo de la física cuántica.

Es un ejemplo de la superposición cuánticas donde las partículas pueden estar en dos estados distintos al mismo tiempo.

Ahora, un equipo de científicos estadounidenses y franceses demostraron que el gato puede estar en dos lugares separados al mismo tiempo.

Al construir su gato a partir de fotones microondas coherentes, el estado del "gato electromagnético" pudo haber sido compartido por dos cajas separadas.

"Más allá de lo absurdo del sentido común en el mundo clásico, la capacidad de compartir estados cuánticos en diferentes lugares podría ser un poderoso recurso para el procesamiento de información cuántica", explicaron los expertos en la revista .

Enredos y súper veloces computadoras cuánticas

Un equipo internacional creó y midió un fenómeno llamado enredo cuántico entre dos tipos distintos de iones, un átomo cargado o molécula.

El descubrimiento podría ayudar a mostrar el camino hacia las computadoras cuánticas superrápidas.
Las computadoras cuánticas, basadas más en la mecánica cuántica que en la electrónica, tienen el potencial de ser más poderosas que las tradicionales.

A diferencia de las computadoras tradicionales -que se basan en el sistema binario (bits)- las cuánticas tienen qubits, que pueden ser tanto 0 como 1 al mismo tiempo, un estado conocido como superposición.

Y en un mundo en el que la rapidez con la que pueden analizarse datos para luego tomar decisiones hace la diferencia entre ganancias y pérdidas, la velocidad de las computadoras es clave.

El artículo completo en la web de la BBC

 

19 de junio de 2016

El héroe de la Resistencia que utilizó a IBM para engañar a los nazis


Se dice que fue el primer hacker de la historia. El francés René Carmille logró salvar vidas durante la ocupación de los nazis en Francia en 1940, al sabotear la tecnología de la época: las tarjetas perforadas de IBM.

Con el establecimiento del Reich en Alemania, tras el nombramiento de Adolfo Hitler como canciller en 1933, el gobierno decidió llevar a cabo un censo de toda la población en el país.

El censo debía registrar la edad, sexo, residencia, profesión y estado civil de cada individuo. Además, por primera vez, se ordenó registrar la religión de la persona trazándola a sus abuelos.

La tarea era enorme y para contener tal cantidad de información, se utilizaron las llamadas tarjetas perforadas, donde se introducían los datos recolectados en forma de perforaciones según un código binario.

Precursoras

Las tarjetas -que eran láminas hechas de cartulina- formaban parte de una tecnología de procesamiento de datos desarrollada en EE.UU. por Herman Hollerith a fines de siglo XIX, y fueron una de las primeras aplicaciones de la informática.

Hollerith fundó la compañía Tabulating Machine Company en 1896, que después fue renombrada International Business Machines (IBM).

Las tarjetas, que eran clasificadas y computadas por las llamadas máquinas Hollerith, se convirtieron en las precursoras de las computadoras.
Y a fines de los 1930, con la información recogida en los censos, el régimen nazi creó un Registro Judío, el cual posteriormente también incluyó los nombres de judíos que vivían en los territorios ocupados por las tropas alemanas en Europa.

Esta información condujo eventualmente a que los nazis pudieran identificar, confiscar bienes, arrestar, deportar y exterminar a millones de judíos.

En Francia, sin embargo, las máquinas Hollerith no revelaron la información que buscaban los nazis. Y esto fue gracias al primer "hackeo", que llevó a cabo René Carmille.

Carmille era un experto en tarjetas perforadas que trabajaba como auditor del Ejército Francés.

El artículo completo en:

El Mundo Ciencia

20 de enero de 2016

Así afecta al cerebro usar la computadora y el celular a la vez

Un nuevo estudio llevado a cabo por un equipo de investigadores de la Universidad de Sussex (Reino Unido) y publicado en la revista Plos One, ha concluido que las personas que utilizan a menudo varios dispositivos electrónicos a la vez (ordenadores, tabletas, móviles, portátiles...) tienen una menor densidad de materia gris en una parte concreta del cerebro en comparación con aquellas personas que lo hacen muy de vez en cuando.

A pesar de que estudios anteriores ya habían relacionado la mala atención con el empleo de dispositivos multitarea, se trata de la primera vez que encuentran un vínculo real entre ambas. Los científicos querían averiguar si se producía algún tipo de cambio o alteración en el cerebro con una exposición prolongada de varios dispositivos electrónicos a la vez por parte del usuario.

Para ello, los investigadores utilizaron imágenes de resonancia magnética funcional para examinar las estructuras cerebrales de 75 adultos que habían respondido previamente a un cuestionario sobre el uso y consumo de todo tipo de dispositivos electrónicos, incluyendo televisión, tabletas, smartphones u ordenadores.

Los expertos descubrieron que, independientemente de los rasgos de personalidad, las personas que utilizaban un mayor número de dispositivos al mismo tiempo también tenían menor densidad de materia gris en la parte del cerebro conocida como corteza cingulada anterior, la zona responsable de las funciones de control cognitivo y emocional.

“Los medios multitarea son cada vez más frecuentes en nuestras vidas hoy en día y cada vez hay más preocupación por su impacto en nuestra cognición y bienestar emocional y social. Nuestro estudio es el primero en revelar los vínculos entre los medios de comunicación multitarea y la estructura del cerebro”, afirma Kepkee Loh, coautor del estudio.

Fuente:

Muy Intereante

21 de septiembre de 2015

IBM acaba de fabricar el primer procesador funcional de solo 7 nanómetros

IBM logra fabricar el primer procesador funcional de solo 7 nanómetros 

IBM ha anunciado hoy un avance que marcará un momento histórico en la industria de la computación: la fabricación del primer procesador con transistores de 7 nanómetros, unas 1,400 veces más pequeño que el grosor de un cabello humano. El chip tiene 4 veces la capacidad de los procesadores actuales. La Ley de Moore sigue de momento más vigente que nunca.
 
La compañía ha confirmado hoy jueves el avance, adelantado en medios como el NYT, y ha asegurado que es fruto de su inversión de 3.000 millones de dólares durante 5 años en investigación en procesadores y computación. En dicha inversión participan otras compañías como Global Foundries (a quien IBM vendió su negocio de fabricación de chips el año pasado), Samsung y otras firmas privadas y organismos públicos.


El anuncio se produce justo cuando se comenzaba a dudar que la fabricación de procesadores pudiera pasar la barrera actual de los 14 nanómetros y la futura, pero ya posible, de los 10 nanómetros. Ir más allá comenzaba a suponer importantes barreras de pura física. IBM ahora se ha adelantado incluso a Intel en la creación del primer chip con transistores de 7 nanómetros (por comparación, un glóbulo rojo mide unos 7.500 nanómetros de diámetro). Para conseguirlo, la compañía ha utilizado silicio-germanio en lugar de puro silicio en determinadas zonas del chip, lo que le ha permitido la reducción de tamaño manteniendo la estabilidad del procesador y multiplicando por 4 su capacidad.


IBM logra fabricar el primer procesador funcional de solo 7 nanómetros


El avance, según IBM, permitirá construir microprocesadores con más de 20.000 millones de transistores. La reducción del tamaño de estos chips no solo permitirá concentrar mayor poder de computación en el mismo espacio, también debería dar lugar a mejoras en el consumo de energía (y, por extensión, en la duración final de las baterías de los equipos).


IBM asegura que aún deberá pasar aún un tiempo hasta que estos procesadores estén disponibles comercialmente, aunque no especifica cuánto. Desde luego será difícil verlos en equipos y sistemas antes de los próximos dos o tres años. Aún así, ahora ya sabemos que llegar a la barrera de los 7 nanómetros es posible. Eso supondrá un nuevo y gran salto en la computación. Aunque la pregunta sigue ahí: ¿qué ocurrirá después? [vía NYT y VentureBeat]

Tomado de;

Gizmodo

Lea también:
50 años de la Ley de Moore: ¿qué ocurrirá cuando ya no se cumpla?

Acaban de cumplirse 50 años de la Ley de Moore, enunciada en 1965 por Gordon Moore, uno de los… Seguir leyendo 

17 de febrero de 2015

Sorprendente: Las consecuencias de dejar de escribir a mano


Podrían los antiguos métodos para aprender a escribir a mano tener beneficios desconocidos?

Niños en todo el mundo pasan cada vez más tiempo utilizando computadoras con teclados y pantallas táctiles en lugar de escribir con un bolígrafo y un papel.
¿Perjudica esto su desarrollo y bienestar? Nuevas investigaciones sugieren que podría ser el caso.
El programa BBC Forum habló con la neurocientífica cognitiva Karin James sobre la importancia de aprender a escribir a mano para el desarrollo cerebral de los niños.
James, profesora de la Universidad de Bloomington, Estados Unidos, llevó a cabo investigaciones con niños que todavía no sabían leer.
Se trata de niños que, aunque puedan identificar letras, no son todavía capaces de juntarlas para formar palabras.
Los científicos dividieron a los niños en grupos y enseñaron a algunos a escribir a mano distintas letras, mientras que otros utilizaron teclados.
La investigación analizó cómo aprendían los niños las letras.
Los científicos también utilizaron resonancias magnéticas para evaluar la activación cerebral y ver cómo cambia el cerebro a lo largo del tiempo a medida que los niños se familiarizan con las letras del alfabeto.
Escanearon los cerebros de los niños antes y después de enseñarles las letras y compararon los distintos grupos, midiendo el consumo de oxígeno en el cerebro como indicador de la actividad cerebral.
Los investigadores concluyeron que el cerebro responde de distinta manera cuando aprende con letras escritas a mano y cuando lo hace a través de un teclado.
El artículo completo en:
google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0