Latest Posts:

Mostrando las entradas con la etiqueta computadoras. Mostrar todas las entradas
Mostrando las entradas con la etiqueta computadoras. Mostrar todas las entradas

29 de marzo de 2022

Conrad Wolfram: “El 80% de lo que se aprende en el curso de matemáticas no sirve para nada”

Tenemos un problema con las matemáticas. 

Nadie está contento.

Los estudiantes creen que es un curso difícil y sin interés

Los maestros están frustrados con los resultados de sus alumnos.

Los gobiernos saben que son determinantes para la economía pero no saben cómo actualizar los programas académicos. 


 

"Cada vez vivimos en un mundo más matemático y sin embargo la educación está estancada", opina Conrad Wolfram, físico y matemático por la Universidad de Cambridge y fundador de Computer Based Math, una compañía centrada en rediseñar la asignatura de matemáticas que en 2015 lanzó su programa piloto en colaboración con el Gobierno de Estonia.

Wolfram es muy conocido por su charla TED Cómo enseñar a los niños matemáticas del mundo real, en la que analiza los motivos por los que los estudiantes han perdido el interés en la asignatura que está detrás de las "creaciones más emocionantes de la humanidad", desde los cohetes hasta los mercados de valores.

  

Demasiadas horas de clase invertidas en aprender a calcular grandes divisiones y ecuaciones a mano. Ese es el gran fallo, según Wolfram, que apuesta por introducir la computación en las clases... ¡que las máquinas se encarguen del cálculo!

Pregunta. Si los niños no aprenden a calcular a mano y hacen las operaciones con la computadora, ¿cómo van a entender lo que están haciendo?

Respuesta. Antes de las computadoras las matemáticas no eran muy útiles para el día a día, para la vida en general. Para cualquier campo en el que se usen muchos datos, como la física, la biología o la salud, la computación ha elevado las matemáticas a un nuevo nivel.

Los problemas reales del siglo XXI solo se pueden resolver empleando computadoras y por eso deben entrar en el sistema educativo como parte fundamental de la asignatura de matemáticas. 

Tener a los niños en las aulas calculando a mano ecuaciones de segundo grado ya no tiene sentido; hay que enseñarles a interpretar los datos y a sacar utilidad de las matemáticas. 

Enseñarles el funcionamiento básico está bien, pero complicarlo hasta la extenuación es una estrategia errónea que les aleja para toda la vida. Suelo poner el ejemplo la acción de conducir un auto; no hace falta entender el funcionamiento de los motores para manejar un automóvil.

P. Algunos expertos sostienen que el cálculo ayuda a aprender el sentido de los números y es una buena herramienta para entrenarse en la toma de decisiones.

R. ¿Cuándo fue la última vez que multiplicaste 3/17 por 2/15? Probablemente lo aprendiste en la escuela pero nunca lo has vuelto a utilizar. 

Muchos expertos dirán que multiplicando fracciones estás aprendiendo, pero no estás aprendiendo solo estás recordando un proceso

Realmente no estás entendiendo para qué lo haces ni para qué sirve. 

Un ejemplo muy simple: en la ecuación x+2=4 te enseñaron que si pasas el dos a la derecha cambia de signo y se convierte en menos 2. Ahí tampoco entiendes qué estás haciendo

Las matemáticas tradicionales ya no tienen sentido y probablemente el 80% del contenido del curso de matemáticas ya no es útil y nunca lo usarás fuera del aula. 

P. Podrían decirle que dejarle el cálculo a la computadora en edad de aprender es cosa de vagos.

R. Intentar saber cómo usar la computación no supone menos trabajo para el cerebro. Todo lo contrario. Los problemas a resolver son mucho más complejos y ahí es donde hay que entrenar a los niños. 

La programación es lo que equivaldría hoy al cálculo a mano, saber decirle a la computadora con códigos y números lo que tiene que hacer de forma muy precisa. Matemáticas, programación y pensamiento computacional deben ser la misma asignatura. 


 

P. ¿Podría poner un ejemplo de esas situaciones de la vida real de las que habla?

R. Si te muestro los datos de dos páginas web y te pregunto cuál está funcionando mejor la primera pregunta que debes hacerte es qué significa mejor

Puede ser el tiempo que los usuarios pasan en cada una de ellas o las veces que hacen clic en alguna de las pestañas... En el mundo real puedes usar el machine learning o el análisis estadístico para medir y analizar resultados. Elegir qué opción funciona mejor en cada caso es complicado y ese tipo de conocimientos no se enseñan en la escuela

Las matemáticas son mucho más que el cálculo, aunque es comprensible que durante cientos de años se le haya dado tanta importancia, pues solo había una forma de hacerlo; a mano. Las matemáticas se han liberado del cálculo, pero esa liberación todavía no ha llegado a la educación. 

P. Su empresa ha reinventado la asignatura de matemáticas para introducir la computación y ha introducido nuevas habilidades a evaluar como la comunicación matemática. ¿Cómo consiguió convencer al Gobierno de Estonia para implantarla en los colegios públicos?

R. Con 1,3 millones de habitantes, Estonia se considera el país más digital de Europa. Sus ciudadanos pueden votar, pagar impuestos, comprobar archivos médicos o registrar una empresa desde su ordenador de casa en pocos minutos. De hecho, Estonia es considerada la primera nación digital del mundo.
 
En el último informe PISA (2016) superó a los finlandeses en ciencias y matemáticas. Estonia es el nuevo referente en Europa en innovación educativa. 
 
Hace tres años conocí a su Ministro de Educación, que es físico, y dos años después lanzamos el primer proyecto piloto, que se está usando en el 10% de los colegios públicos del país. Hemos centrado la asignatura, para estudiantes de Secundaria, en probabilidad y estadística y hemos cambiado el sistema de evaluación. Los alumnos aprenden a resolver cuestiones reales como por ejemplo ¿son las chicas mejores en matemáticas? o ¿mi estatura está en la media?. Ahora estamos en conversaciones con Irlanda y Australia.
 
El impedimento fundamental para la innovación en los colegios es la certificación, llegar a los estándares de conocimiento prefijados para después poder acceder a la universidad. Hay un hecho llamativo y es que hemos detectado que los países que ocupan mejores posiciones en PISA son los que están más abiertos al cambio y otros, como España, que lleva 15 años estancada con la misma puntuación, son más reacios.
 

 

P. La charla TED de 2010, ¿marcó un antes y un después en su carrera?

R. He trabajado durante más de 30 años con mi hermano en nuestra empresa de software Wolfram Research, con sede en Illinois, EE.UU., y suma unos 500 empleados. 

El mismo año de la charla TED monté un pequeño departamento en Oxford, con unas 30 personas, dedicado exclusivamente a repensar la asignatura de matemáticas. Nuestro lema es rediseñar las matemáticas reconociendo que existen los ordenadores

La idea se me ocurrió a partir del servicio que ofrecíamos para Apple, concretamente para Siri, su sistema de búsqueda por reconocimiento de voz. Si le preguntas por cualquier operación matemática compleja, en segundos te remite a nosotros. Ahí me planteé por qué obligamos a los estudiantes a dedicar tantos años de su vida a aprender lo que un teléfono resuelve en segundos.

P. ¿Cree que los gobiernos escucharían más la reforma que propone si fuese de la mano de una gran universidad como Cambridge?

R. En este momento Cambridge, Oxford, Harvard o el MIT son organizaciones comerciales y buscan el beneficio tanto como las empresas. Los gobiernos necesitan reflexionar sobre ello o no restar credibilidad a una iniciativa porque no ha surgido de una universidad. Lo que les frena es la falta de evidencias y creen que no hacer nada es menos arriesgado que probar nuevos métodos. 

El sistema educativo está fallando cada año más a los estudiantes y eso explica porqué no hay suficientes perfiles STEM. Los jóvenes tienen que encontrarles una utilidad: tener las habilidades para diferenciar una buena hipoteca o el suficiente escepticismo para cuestionar las estadísticas que ofrece el Gobierno. La desmotivación es uno de los grandes desastres de las matemáticas. 

Con información de El País (España)

14 de enero de 2019

Cuando Isaac Asimov jugó a predecir 2019 y acertó

El autor de ciencia ficción describió en un artículo publicado en 1983 por el diario 'Toronto Star' el año actual como una sociedad con computadoras y colonización espacial.


A finales de diciembre de 1983, cuando quedaban solo unos días para que empezara el año que George Orwell eligió como título de su asfixiante distopía, el Toronto Star le propuso a Isaac Asimov, por entonces exitoso escritor de ciencia ficción, que predijera el futuro. Escogió 2019 no por casualidad. Era un salto de 35 años hacia adelante. El mismo salto que había que dar hacia atrás para llegar a 1949, la fecha de publicación de 1984.

Los 35 años también eran un salto generacional. Un margen suficiente para que predecir el futuro no fuera una tarea demasiado fácil o se adentrara irremediablemente en la ciencia ficción, que era lo que Asimov escribía desde hacía cuatro décadas. En las revistas pulp, en semanarios, en forma de libros, el autor volcaba su imaginación para trazar historias de civilizaciones galácticas y robotizadas.

La popularidad de sus historias y su acento académico —era bioquímico y daba clases en la universidad— lo señalaban como un candidato perfecto para especular sobre el futuro. Lejos de mostrarse conservador, cuando el Toronto Star le pidió aquel artículo, Asimov echó su imaginación a volar. Pronosticó sobre los ordenadores y las misiones espaciales, sobre la educación y los hábitos de trabajo.

El “objeto móvil computerizado” es el término que más llama la atención en sus augurios tecnológicos. Asimov no concreta a qué se refiere, pero ahora no podemos dejar de asociar aquel pretendido cacharro con un smartphone de hoy. Decía que estos dispositivos penetrarían los hogares y serían de uso común. Antes ya habían irrumpido en su literatura, como en el cuento Sensación de poder (1957), donde se menciona una “computadora de bolsillo”.

La visión positiva de la tecnología que tenía Asimov contrastaba en los ochenta con el creciente universo ciberpunk, a punto de desbocarse de la mano de William Gibson y del cine de Hollywood. Para el autor de ciencia ficción, sin embargo, las computadoras se volverían indispensables en 2019 y ello redundaría en beneficio de la sociedad.

El efecto inmediato de la adopción de las computadoras sería cambiar nuestros hábitos de trabajo, algo que se puede afirmar con toda seguridad que ha sucedido. Solo hay que pensar en cómo era una oficina en 1984. El autor también vaticinaba que algunos empleos desaparecerían, en favor de las computadoras y los robots, que se ocuparían de las tareas repetitivas. Pero se crearía más empleo del que se destruiría. De nuevo, pensaba en positivo.

 

5 de agosto de 2018

Ada Lovelace, la mujer que ideó el primer algoritmo de la historia (100 años antes de que llegaran las computadoras)

La programación parece un arte de principios del siglo XX, pero no es del todo cierto. Casi un siglo antes de que Alan Turing sentara las las bases de la computación moderna, una mujer escribió el primer algoritmo de la historia, un programa tan avanzado que la tecnología de la época no pudo hacerlo realidad.


Esa mujer se llamaba Augusta Ada King-Noel, condesa de Lovelace, aunque el mundo la recuerda como Ada Lovelace, escritora, matemática y la primera programadora de la historia.

Interesada desde joven en las matemáticas, la frenología y la física, la carrera de Lovelace dio un giro radical cuando trabó amistad con el matemático e inventor Charles Babbage, que le mostró su más reciente creación: la máquina de diferencia. En esencia se trataba de una calculadora mecánica capaz de tabular funciones polinómicas.

En 1840, Babbage fue invitado a la Universidad de Turín para dar una conferencia sobre su último diseño, un dispositivo llamado La máquina analítica. Un joven ingeniero italiano llamado Luigi Menabrea transcribió el seminario al francés y su transcripción terminó en la Biblioteca Universal de Ginebra. Dos años más tarde, un amigo común de Lovelace y Babbage pidió a la científica que tradujera el documento del inventor al inglés.

Pero Ada fue mucho más allá de la traducción

La elección de Lovelace no fue casual. Era de los pocos matemáticos capaces de entender los trabajos de Babbage. Sin embargo, su aportación fue mucho más allá de una mera traducción. Ada se percató de algo en la máquina que se le había pasado por completo a su creador: podía programarse.

Lovelace enriqueció el libro con sus propias notas entre las que se encuentra un completo diagrama que básicamente describe el primer algoritmo de la historia y que le valió ser considerada la primera programadora incluso cuando aún no existían los lenguajes de programación ni las computadoras.


Babbage ya esbozó algunos algoritmos propios, pero eran básicamente fórmulas. Ninguno de ellos tenía la complejidad que ideó Lovelace. El mérito de Ada Lovelace fue el darse cuenta de que la máquina analítica podía usarse para expresar entidades o símbolos con arreglo a unas normas y no solo números.

Pero la máquina no pudo ser construida

Nunca pudo ver en persona los resultados de su aportación. La máquina analítica de Babbage fue la primera computadora en términos de Turing. Tenía una unidad lógica aritmética y hasta un sistema de memoria integrado. En términos generales, compartía la misma estructura lógica que las computadoras actuales. Sin embargo, era tan compleja que Babbage no logró reunir el dinero necesario para fabricarla. El primer modelo completo de la máquina a partir de sus apuntes y siguiendo los mismos procesos de fabricación de la época no llegó hasta 1991 de la mano de los conservadores del Museo de la Ciencia de Londres.


Unos 100 años después de la creación de Babbage, el ingeniero alemán Konrad Zuse completaba la Z1, la primera computadora que se puede considerar como tal. El libro con la transcripción realizada por Lovelace con sus notas, su algoritmo y su nombre en la portada acaba de subastarse por la astronómica cifra de 125.000 dólares.

Fuente:

Gizmodo

1 de junio de 2018

La carrera por el ordenador cuántico

En la imagen, un físico del Instituto Nacional de Estándares y Tecnología sostiene un circuito que se utiliza para amplificar las señales de un detector de fotones. Crédito: Geoffrey Wheeler.

Los ordenadores cuánticos están llamados a revolucionar la computación. Su capacidad para realizar operaciones imposibles les convierte en una especie de santo grial y han desencadenado una competición que, de momento, lidera Estados Unidos. Su músculo industrial con compañías como Google o IBM no lo tienen Europa ni China, que también luchan por conseguir esta ansiada tecnología.

La principal diferencia entre un ordenador cuántico y uno convencional es la forma de procesar la información. Si las computadoras clásicas lo hacen en bits, y cada uno toma el valor de 1 o 0, los ordenadores cuánticos utilizan cúbits (o bits cuánticos), lo que significa que pueden representar a la vez tanto un 1 como un 0. Además, se correlacionan entre sí, es decir, que el valor de uno puede depender del valor de otro, lo que se conoce como entrelazamiento cuántico.

Esta revolucionaria forma de procesar la información imita a la naturaleza en sus formas más pequeñas. Partículas y otros diminutos elementos se comportan de formas extrañas, adquiriendo más de un estado al mismo tiempo e interactuando con otras partículas que están situadas muy lejos. Su comportamiento se rige por las leyes de la mecánica cuántica.

Simulando estas interacciones, los ordenadores cuánticos realizarán operaciones muy complejas y resolverán problemas que los tradicionales no tienen la capacidad de solucionar, como el cálculo de factores de números gigantes o el estudio preciso de interacciones entre átomos y moléculas. De esta forma, se espera que áreas como los nuevos materiales, el desarrollo de fármacos o los sistemas de inteligencia artificial avancen a una velocidad sin precedentes con la ayuda de esta nueva computación.

Aunque ya existen varios modelos de ordenador cuántico todavía no se ha desarrollado uno que alcance los 50-100 cúbits, con capacidades que superarían las de los ordenadores clásicos. IBM el año pasado aseguró haber llegado a los 50 cúbits pero los expertos se muestran cautos porque los investigadores de la compañía no explicaron los detalles en ninguna revista científica. Por su parte, Google afirma haber conseguido una tecnología con 72 cúbits.

“Las cosas se vuelven interesantes una vez que tenemos entre 50 y 100 cúbits que se pueden controlar por completo, por ejemplo, el entrelazamiento usado por algoritmos complejos, que muestran capacidades algorítmicas más allá de las máquinas clásicas”, señala a OpenMind Rainer Blatt, investigador del Instituto de Física Experimental de la Universidad de Innsbruck (Austria).

“Esto no se ha logrado en ningún sitio pero probablemente lo veremos en los próximos años”, añade el científico.

El artículo completo en:

Open Mind

26 de agosto de 2014

El chip sináptico de IBM marca el paso hacia la computación neuronal


Después de seis años de intenso desarrollo el equipo de IBM que dirige el proyecto SyNAPSE ha comunicado el resultado de su trabajo: un chip que presta el diseño de nuestra red neuronal, siendo capaz de responder a los estímulos sensoriales y al reconocimiento de patrones.

La innovación de IBM asienta los fundamentos de una nueva generación de arquitectura computacional inspirada en la estructura cerebral, cuya capacidad de “pensar, actuar y percibir” acortará más la distancia entre el modelo de inteligencia artificial e inteligencia humana.

Reinventando el modelo John von Neumann

La divergencia entre el funcionamiento del cerebro y los ordenadores actuales siempre ha sido un aspecto intrigante que ha impulsado a los científicos de la computación a estudiar nuevas formas de mejorar los ‘cerebros’ de los ordenadores. El centro de investigación de IBM no ha querido perderse nada del gran viaje que cambiará el futuro de la tecnología actual así que se convirtió en una de las empresas pioneras en investigar los secretos de la capacidad cognitiva trasladada a las máquinas inteligentes.

En 2012 sus especialistas dieron un paso muy importante en este campo al presentar por la primera vez el superordenador Sequoia, considerado la más potente simulación cerebral realizada jamás ya que reunía la fuerza de 2.084 mil millones representaciones de núcleos neurosinápticos. Después de dos años, el mismo equipo da otro paso decisivo y en lugar de adaptar los algoritmos inspirados de la actividad cerebral a la computación tradicional inventan desde la base un chip que imita la actividad de las redes neuronales humanas.

Según el científico que lidera el proyecto, Dharmendra Modha, la idea ha surgido de la necesidad de replantear el sistema informático heredado de John von Neumann, un matemático que ha puesto las bases de la arquitectura computacional clásica. Modha está convencido de que los ordenadores actuales, además de cálculos matemáticos precisos se podrían mejorar al adaptarse a la inteligencia  adaptativa del cerebro humano:
“El cerebro evolucionó hace millones de años para solucionar los problemas básicos: conseguir comida, luchar, evitar los peligros, reproducirse y está destinado a manejar datos de baja resolución, ambiguos y simbólicos. Integra memoria (sinapsis) y computación (neuronas), tiene un procesamiento distribuido, gestiona los datos en paralelo, puede aprender, opera de forma asíncrona, es lento y por lo tanto no gasta energía y tampoco se sobrecalienta”.
IBM

Una arquitectura que imita la escalabilidad del cerebro humano

Para reducir la brecha entre el bajo consumo de energía de la actividad cerebral y los ordenadores actuales, los científicos de IBM han usado las técnicas de la nanotecnología y neurociencia para crear una arquitectura informática escalable y eficiente.
El chip llamado TrueNorth está formado por una red bidimensional de 4.096 núcleos neurosinápticos digitales, dónde cada núcleo integra memoria, procesamiento y comunicación y opera según un modo de computación paralela, dirigida por eventos y con tolerancia a fallos.

Igual que el modelo neuronal humano, la arquitectura del chip seguirá funcionando incluso si falla alguno de los núcleos individuales. Su escalabilidad le permitirá ampliar las conexiones entre los núcleos hasta formar un mosaico sin interrupciones, construyendo los pilares de una futura supercomputación neurosináptica.
“IBM ha sentado las bases de una computación inspirada en el el cerebro humano, en los términos de una arquitectura de computación radicalmente nueva, a una escala sin precedentes, una velocidad, eficiencia, energía y capacidad de adaptación incomparables”, comenta Modha.
aplicacioneschip

La tecnología del futuro ‘sentirá’ la realidad igual que nosotros

Con el fin de facilitar el trabajo de los futuros desarrolladores IBM ha creado un ecosistema completo que abarca un simulador del chip, un lenguaje de programación, una librería, algoritmos y aplicaciones. El ecosistema soporta todos los aspectos del ciclo de programación desde el diseño hasta el desarrollo, la depuración y el despliegue.
En cuanto a las futuras aplicaciones, Dharmendra Modha cree que su nuevo chip permitirá construir ordenadores igual de eficientes que el cerebro humano y que no consumen más que una bombilla (70 milivatios). Este piensa que la tecnología basada en el procesamiento neurosináptico podrá transformar la movilidad y el Internet de las cosas a través de la percepción sensorial:
“En el futuro estos chips se podrían convertir en la alternativa de energía eficiente para gafas que ayuden a navegar a las personas invidentes, ‘ojos’ que dejen ver a los robots y a los coches, sistemas médicos que monitoricen la tensión arterial, la temperatura y el nivel de oxígeno de las personas mayores y que envíen alertas antes de producirse algún problema o sistemas que midan el nivel de marea y velocidad del viento para predecir los tsunamis”.
Por último Modha espera que el futuro tecnológico esté destinado a una simbiosis entre los chips cognitivos y los tradicionales “para enfrentarse al contexto real de la misma manera que lo hacemos nosotros”.

Fuente:

TicBeat

10 de junio de 2014

Máquinas y test de Turing: ¿Inteligencia real o imitación?

El test propuesto por el matemático inglés Turing en su artículo Computing machinery and intelligence, publicado en 1950 en la revista Mind, está considerado uno de los hitos históricos del desarrollo de la inteligencia artificial. Originalmente se denominaba El juego de imitación y era ligeramente diferente, con un hombre, una mujer y un interrogador, situado en una habitación separada, que debía determinar cuál era el hombre y cuál la mujer, mientras éstos trataban de engañarle. 


Turing usó está misma idea para su test, y actualmente el interrogador se comunica con un humano y una máquina con mensajes de texto durante cinco minutos, y decide cuál es el humano. Si la máquina consigue ganar más del 30% de las veces supera el test. Es lo que se supone que han conseguido Eugene Demchenko y Vladimir Veselov

Esto no significa que ya existan máquinas con una inteligencia igual a la humana: el test planteado por Turing es muy controvertido, y muchos aseguran que es tan bueno como sus jueces. Un buen examinador debe ser capaz de detectar respuestas fuera de contexto, ya que a fin de cuentas, se enfrenta a un simple algoritmo. Y lo que mide es solo una parte de la inteligencia humana; es decir, es un buen simulador de conversaciones, pero, por ejemplo, no necesariamente creativo. Imita la inteligencia pero ¿es realmente inteligente?

El logro rompe un reto que se resistía, como ocurrió con la victoria de Deep Blue a Gari Kasparov en ajedrez en 1997, pero no va a suponer grandes avances en la teoría de computación o en la inteligencia artificial. Tiene, eso sí, implicaciones sociales. Actualmente, con miles de robots y humanos buscando nuestros datos e invadiendo nuestra intimidad, este paso debería servirnos para reflexionar sobre nuestra creciente indefensión para discernir la verdad o falsedad de lo que se nos comunica por las redes. 

Tomado de:

El Mundo (España)

1 de junio de 2014

BBC: Cinco preguntas incómodas sobre el mundo en 2039


robot

El hombre del futuro no sabrá si los pensamientos son suyos o se los generó alguien o algo.

¿Qué problemas y temores tendremos dentro de 25 años sobre el modo en que interactuaremos con las computadoras?

La revista New Scientist analizó el tema según las predicciones de los principales investigadores en el área y, si tienen razón, vamos a estar discutiendo, preocupándonos y debatiéndolo todo, desde la cirugía extrema hasta las implicaciones de la publicidad en implantes cerebrales.
Los chips cerebrales harán que no distingamos del todo cuáles son nuestros propios pensamientos o meras ideas implantadas por los anunciantes. Los vehículos que se manejan solos relegarán a los conductores humanos tradicionales, que sólo podrán estar al volante en parques especiales de recreación. Y el número óptimo de dedos en nuestras manos será 12,5.

¿Confundido? Esta es una visión sobre cómo será el mundo en 25 años según investigadores especializados en tecnologías de interacción humano-computadora (CHI).

Humanos y computadoras

órganos

Un dispositivo inteligente hará que nuestros órganos se comuniquen.

Normalmente, CHI significa investigar formas de interacción entre humanos y los dispositivos electrónicos. Pero en una conferencia celebrada recientemente en Toronto, Canadá, fueron más allá.

Crearon el programa de una conferencia imaginaria celebrada en el año 2039, donde se predicen los retos que enfrentaremos con las computadoras del futuro, muchas de las cuales serán implantadas.

"Se supone que es una especie de parámetro en la investigación de la interacción humano-computadora, lo que realmente es aterrador o provocativo", dice Eric Baumer, de la Universidad de Cornell en Ithaca, Nueva York.

"Hay una gran cantidad de pensamientos retrospectivos sobre el pasado, pero no se ha pensado mucho acerca de lo que es el futuro hacia el cual creemos que estamos trabajando".

New Scientist utilizó el resumen de esta hipotética conferencia para crear una lista de preguntas que, en el año 2039, podrían hacerse nuestros descendientes cyborg.

Lea el artículo completo en:

BBC Tecnología

19 de abril de 2014

El País: "Programar para aprender"

Clases de robótica o para aprender a programar. Ya lo están haciendo en algunos centros. Pocos, pero son la punta de lanza que acerca a los escolares el mundo 2.0

En su edición de 2014, la londinense Bett, la feria sobre tecnología educativa más importante del mundo, ha consagrado a la programación como la gran herramienta del futuro. En Estados Unidos, la Fundación Code.org, apoyada entre otros por Bill Gates y Mark Zuckerberg, pretende que los niños y niñas aprendan código desde edad temprana. No para convertirse en unos genios de la computación, de la misma manera que el objetivo de aprender a leer y a escribir no es ganar el Premio Nobel de Literatura, sino para que pasen de meros consumidores a creadores en la Red. “Programar implica definir un problema, estructurar información y seguir una estrategia para resolverlo”, describe sus bondades educativas Lourdes Barroso, presidenta de Aulablog. Y si a la programación se le suma la robótica, el ejercicio se traslada al terreno de lo físico, de lo que se puede manipular y construir.

“Programación, robótica, impresoras 3D, etcétera. Tenemos que ir hacia eso”, zanja Javier Palazón, director de la revista Educación 3.0. La cuestión es, ¿estamos yendo? Desde la Consejería de Educación de la Comunidad de Madrid el mensaje es “estamos en ello”. Se organizan cursos y seminarios formativos. “Estamos desarrollando los nuevos currículos de las asignaturas de enseñanzas obligatorias que introduce la LOMCE, y una de las prioridades en las asignaturas de tecnología es, sin duda, la incorporación y desarrollo de la programación en las aulas”, enfatiza un portavoz. Mientras tanto, y tirando del hilo, aparecen experiencias interesantes, como la que ha auspiciado la propia Barroso en su IES, Laguna de Joatzel, de Getafe: sus alumnos del ciclo formativo de desarrollo de aplicaciones web imparten una extraescolar de programación de videojuegos a compañeros de Educación Secundaria Obligatoria (ESO) y Bachillerato.

Las hermanas Sara y Marta Reina han introducido la robótica educativa en sus clases de Infantil del CEIP Antonio Machado de Collado Villalba. Antonio Ruiz, maestro del colegio público Miguel de Cervantes de Leganés, utiliza, para el tercer ciclo de Primaria, y “de forma básica”, el lenguaje de programación scratch, “que tiene una orientación constructivista”. Scratch es un entorno de programación infantil ideado por el MIT (Instituto Tecnológico de Massachusetts) en el que, mediante órdenes muy sencillas, los pequeños logran que sus dibujos se muevan y progresen en la pantalla del ordenador, con sonidos incluidos. Quizá sea el programa más conocido, pero hay más, y robots, a disposición de la educación: Small basic, de Microsoft, que enseña a programar mediante código simplificado; Arduino para robots (placas para construir máquinas con sistemas y programarlas); Lego WeDo, para montar modelos con sensores y un motor.

Lea el artículo completo en:

El País (España)

15 de octubre de 2013

Premio Nobel de Química por llevar la experimentación al ciberespacio

Martin Karplus, Michael Levitt y Arieh Warshel

Los científicos fueron distinguidos por llevar la experimentación química al ciberespacio.

Atrás quedaron las pelotas de plástico y los palos de madera para mostrar cómo funcionan las moléculas y los átomos.

Aunque hoy parezca increíble, hace 50 años muchos científicos dedicados a la química utilizaban los mismos elementos que hoy usan los escolares para graficar sus modelos atómicos o moleculares.
Sin embargo, en la década de 1970 el investigador austriaco Martin Karplus, el británico Michael Levitt y el israelí Arieh Warshel -los tres además tienen nacionalidad estadounidense- sentaron las bases para los programas computacionales de gran alcance que hoy se utilizan para entender y predecir los procesos químicos.

Y este miércoles la Real Academia de Ciencias de Suecia les otorgó el Premio Nobel de Química 2013.
El galardón fue anunciado en Estocolmo por Staffan Normark, secretario permanente de la Academia, quien explicó que los científicos fueron distinguidos por llevar la experimentación química al ciberespacio.

Química en la computadora

Molécula digitalizada

Los modelos desarrollados por Karplus, Levitt y Warshel en los 1970 sentaron las bases para los complejos programas de simulación molecular.

El premio buscó destacar los modelos multiescala para sistemas químicos complejos desarrollados por los tres científicos, los cuales "sentaron las bases de los poderosos programas que se utilizan para entender y predecir procesos químicos", según la Academia.

"Los modelos computarizados que son espejo de la vida real se han vuelto cruciales para la mayoría de los avances de la química en la actualidad", aseguró la Fundación Nobel a través de un comunicado.

"Con la ayuda de los métodos de quienes hoy son galardonados con el Premio Nobel de Química, los científicos le dejaron a las computadoras revelar los procesos químicos, tales como la purificación de un catalizador de gases de escape o la fotosíntesis en las hojas verdes".

El artículo completo en:

BBC Ciencia

11 de agosto de 2013

40 minutos para simular un segundo de actividad cerebral

Simular el cerebro humano es algo tan complicado, que incluso uno de los superordenadores más poderosos del planeta apenas pudo hacerlo después de haber procesado datos por un espacio de cuarenta minutos, con un resultado equivalente a un solo segundo de actividad cerebral. El superordenador en cuestión es el Fujitsu K, un “ex primer puesto” en la lista TOP500, y la tarea requirió de casi 83 mil procesadores.


El silicio ha registrado avances espectaculares en los últimos años, pero desde varios puntos de vista, el mejor ordenador sigue estando entre nuestras orejas, de allí surge el enorme interés asociado a estudiar su funcionamiento. Si bien los expertos ya saben cómo enfrentar un proyecto de simulación cerebral, lo cierto es que el poder de procesamiento para hacerlo no está disponible, un dato llamativo si tenemos en cuenta que hay superordenadores que ya tienen como meta superar la barrera de los cien petaflops. Tomemos por ejemplo al superordenador K, creado por Fujitsu. En su momento, K se quedó con el primer puesto de la lista TOP500, y gracias a sus diez petaflops, aún se mantiene en el cuarto lugar. Sin embargo, al ser enfrentado a este proyecto de simulación, el superordenador K apenas logró reproducir el equivalente a un segundo de actividad cerebral… después de masticar números por cuarenta minutos.

Lea el artículo completo en:

NeoTeo

26 de marzo de 2013

El ordenador más pequeño del mundo mide poco más que un milímetro cúbico

Si antaño quedábamos fascinados por el tamaño megalítico de las computadoras, hogaño lo que nos parece más fascinante son es la capacidad de miniaturización de los ordenadores, a merced de la llamada ley de Bell: indica el nacimiento de una clase de ordenador más barato y más pequeño cada diez años. Con todo, aún necesitamos ocupar más de 1.000 metros cuadrados para alojar los supercomputadores más rápidos del mundo, como el Roadrunner, del que podéis leer aquí: Visita el teclado gigante de computadora construido con bloques de cemento.

Pero volvamos a lo más pequeño. 

El ordenador más pequeño que se usa actualmente se implanta en los ojos como medidor de presión ocular en pacientes que sufren de glaucoma. Y es que este ordenador desarrollado por investigadores de la Universidad de Michigan apenas tiene un tamaño de un milímetro cúbico. 

El ordenador puede almacenar aproximadamente una semana de datos, los cuales son transmitidos a un dispositivo externo (cercano al ojo) para uso del paciente. Sin duda una apariencia externa que dista mucho de la paródica mostrada en este vídeo:



Y sus aplicaciones no se quedan plegadas exclusivamente al ámbito de la medicina: en un futuro también podrían emplearse, por ejemplo, como medidores de la calidad del aire. 

Otro de los ordenadores más pequeños del mundo, y que no se implanta en nuestro cuerpo y puede usarse como un Pc convencional, es Space Cube, y mide solamente 2×2×2.2 pulgadas. Integra un procesador de 300 Mhz, equipado con 64 MB de SDRAM, conexión usb, conexión de Ethernet, entrada para memorias flash, salida VGA, un puerto en serie y una entrada para micro.

Vía | ABC

14 de marzo de 2013

Aprender a programar como se aprende a leer

Un número creciente de países enseña a los alumnos a escribir código
El objetivo es formar a creadores y no solo a meros consumidores
Potencia la creatividad y la mente lógica

Desde los seis años se puede aprender a programar. / Jamie Grill (Getty Images)

“¡Hola chicos! Olvidaos de ser doctores, estrellas del fútbol o raperos. Aunque os vacilen y llamen frikis en el colegio, el futuro está en los ordenadores”, alerta en un vídeo Bill Gates. El fundador de Microsoft comparte pantalla con el de Facebook, Mark Zuckerberg, que apostilla: “Aprender a programar no significa querer conocer todo de la ciencia de la computación o ser un maestro”. Ambos apoyan a la fundación Code.org, que pretende introducir la programación en las escuelas de Estados Unidos. Tan solo en una de cada diez se aprenden los códigos. A Code.org le resulta insuficiente, pero el porcentaje está a años luz de España, donde los niños navegan sin parar por la Red sin saber desarrollar sus propias aplicaciones.

“No sirve de nada que te enseñen unas herramientas como Word que habrán desaparecido o habrán cambiado mucho cuando terminen sus estudios. Cualquier aplicación, si está bien diseñada, no se tarda en aprender”, sostiene Luis de Marcos, profesor de Informática en la Universidad de Alcalá de Henares. “Hay que usar el ordenador como herramienta para resolver problemas. Lo que los anglosajones llaman el computational thinking. Porque el debate es: ¿somos creadores digitales o consumidores de contenidos?, ¿queremos que los chavales agoten en 15 minutos la tarifa de datos del móvil o que desarrollen algo y compartirlo?”, prosigue.

A Juan Corzo, analista de tecnología con GPS, sin embargo, no le entusiasma la idea de que su hija Tala, hoy de dos años, aprenda a programar con seis. “Que estructure su cabeza como quiera. Encuentro más útil que a esa edad le enseñen con el método Ábaco a sumar o multiplicar números largos. Para el día a día no hace falta programar. Ayuda a ordenar las ideas, pero debería aprenderse como pasatiempo. Así empezaron los grandes genios. Es como escribir. Tienes una idea, piensas en los personajes, en la estructura y en cómo los introduces en la historia”.

¿Podría incluirse entre los contenidos escolares en España? El panorama no es muy halagüeño
“Está bien que los niños aprendan las bases de la programación, pero también deben de conocer las herramientas. Aunque el mundo cambie, no todo es tecnología. 

Aprendiendo el Word o PowerPoint uno no sólo adquiere competencias informáticas, también lingüísticas, sociales y ciudadanas”, media Inés Andrés, coordinadora de TICS de Ineverycrea, una plataforma que asesora a los profesores en la integración de las tecnologías. Sostiene que sobre todo hay que aprender a trabajar en Red. “La ven como algo lúdico y no saben moverse por ella. Es curioso, no les dejamos solos en casa, pero no nos preocupamos de la Red. Mis alumnos en Burgos contactaron con un aula de Palencia. Se establecieron vínculos por carta, videoconferencia...”.



Conscientes de los beneficios de este aprendizaje, el Ministerio de Educación británico ha pedido ayuda a la industria para crear un nuevo contenido para las clases de informática. Finlandia e Israel ya han incorporado la programación a sus currículos escolares. La palabra “programación” asusta, pero los monitores no se cansan de repetir que resulta tan fácil de controlar como la lectura o la escritura.

¿Podría incluirse entre los contenidos escolares en España? El panorama no es muy halagüeño.

“Es verdad que los profesores son reticentes a la informática, pero tampoco se les pone fácil. No hay suficientes ordenadores y nadie se ocupa del mantenimiento, así que la mitad no funcionan”, asegura Ángeles Araguz, profesora técnica de FP y tutora del Centro de Formación de formadores de la Comunidad de Madrid. “Para impartir clase de programación tendría que existir un proyecto común de los profesores y que se enseñase en Física o Matemáticas. No hay tiempo para idearlo, como en Finlandia, y cuando se cierra la puerta del aula es el reino del docente”, prosigue esta profesora de un instituto de Vallecas.

Aunque en los centros haya medios, el personal docente no está preparado para acometer la tarea. “Un profesor con conocimientos básicos de informática en dos o tres meses aprende lo que tiene luego que enseñar”, cuantifica De Marcos. Comparte opinión Inés Andrés, profesora de Lengua: “Se están haciendo cosas interesantes, pero es algo nuevo y descoloca. Por eso, yo como consultora resuelvo dudas metodológicas. Aprender de forma autodidacta lleva mucho tiempo”.

En la sala 102 de la Facultad de Informática de la Universidad de Valladolid hay un oasis. Dan las cinco de la tarde y por tercer lunes consecutivo se llena con 18 niños de entre ocho y 13 años que quieren aprender scratch, una aplicación destinada a la creación de juegos para la web mediante una sencilla interfaz gráfica. Muchos no llegan al perchero y los monitores les ayudan a colgar el anorak. Cargan con un portátil desde casa, a veces tan pesado que les hace trastabillar. Todo normal y corriente hasta que abren la boca, mostrando una curiosidad inmensa y envidiable por todo lo que les rodea. Aquí adquirirán conocimientos que podrían servirles para crear los nuevos Google, Twitter o Zynga.

Es verdad que los profesores son reticentes a la informática, pero tampoco se les pone fácil
Los 18 pequeños se sientan en unas mesas hexagonales y despliegan sus ordenadores. “Son niños y necesitan por lo menos un metro de espacio. Mucho más que un adulto, porque no se sientan bien”, explica con media sonrisa Belén Palop, la coordinadora de este curso de scratch, el sistema de programación infantil ideado por el Massachusetts Institute of Technology (MIT). Efectivamente, están desparramados y ansiosos por empezar. Viven pensando en el lunes, el día que se entienden con niños que hablan el mismo lenguaje que ellos. Cada vez en más ciudades españolas se convocan masivos encuentros de estos locos por el scratch.

Lo primero es tener claro qué tipo de programa se quiere crear: narrativo o videojuego. Casi la totalidad se decanta por este último. “Quizá a las chicas —sólo hay tres— les gusten más las historias, pero a la hora de manejar el scratch no hay diferencias”, diferencia Palop. Seguidamente hay que plasmar en un papel A3 la idea a desarrollar en el ordenador. Se establece entonces un “compromiso” que los niños, dispersos como todos en la infancia, intentan saltarse. Por eso los dos monitores y Palop les remiten todo el tiempo a su planteamiento original que suele titularse Super Mario. Ansiosos dibujan y entran en scratch, que es en español y gratuito. Su lema se repite hasta la saciedad: “Imagina, programa y comparte historias, música, juegos y arte”.

Dibujan en la Red sus personajes y, añadiendo órdenes muy sencillas, estos monigotes empiezan a tener autonomía y movilidad. “Cuando consiguen pintar un simple punto o hacer que el gato maúlle, se emocionan”, dice Palop. Scratch se puede usar desde los seis o siete años, pero en este taller no admiten a estos menores porque necesitan la atención constante de un adulto. Casi todos son hijos de informáticos o hijos de padres sensibles a sus enormes ganas de aprender. “Mi hijo quería aprender a programar desde hace dos años. Yo, que soy informática, le enseñé a hacer páginas web, pero él quería también animaciones. Es muy curioso a sus 10 años. De mayor quiere ser ingeniero de montañas rusas y las diseña con un programa”, sostiene orgullosa Alicia Novo, madre de Daniel.

Ministerio de Educación británico ha pedido ayuda a la industria para crear un nuevo contenido
“No es solo que aprendan a programar, sino que desarrollan una mente lógica que les va a venir bien para cualquier faceta de la vida”, subraya Palop. A María Vegas, madre de Sabino, y a la de Daniel las convence que sus hijos trabajen en un proyecto en equipo, algo poco usual en las aulas, que convivan con chicos de otras edades sin complejos y, sobre todo, que durante unas horas se sientan entre iguales. “Me encanta que mi hijo no entre en Internet por las redes sociales, sino para mirar en YouTube un vídeo sobre parques de atracciones o seguir tutoriales”, explica Novo. Con el proyecto concluido, escriben un cuento con el proceso y, orgullosos, lo exponen a sus compañeros que no pierden el hilo. “Es increíble su desparpajo. No les cuesta hacerlo, cuando hay alumnos míos que lo primero que cuentan en público es su proyecto de fin de carrera”. También se asombra Pablo Espeso, uno de los monitores: “Entienden algoritmos que nosotros en primero de Informática desconocíamos. Matemática pura que ellos aplican naturalmente porque es más sencilla de lo que parece”. No cree que los niños lleguen a aburrirse: “Las posibilidades son infinitas. En informática hay pocas cosas que dominen del todo”.

Espeso pone a David Martín, de 13 años, como ejemplo de precocidad. Tímido, le cuesta reconocer que tiene ciertos conocimientos de Java. “Me interesé por Internet y sigo viendo tutoriales”. A su lado, Sabino Codesal, de 12 años, se acerca al micro de su portátil para grabar la banda sonora de su videojuego. Pide silencio a la concurrencia y tararea una melodía que recuerda a la Indiana Jones. Se comporta como el niño que es, por eso sorprende saber que en sus ratos libres estudia Alice, un sistema para hacer animaciones y escenarios en 3D.

Si el scratch deja con la boca abierta, ¿qué decir del mundo de la robótica que suena ya a ciencia ficción en manos de mini-hombrecitos? A ello se dedica el ingeniero en Telecomunicaciones Toni Ferraté, quien aburrido de programar para empresas en 2007 fundó Ro-botica, una tienda online y con sede física en Barcelona. “No se trata de aprender robótica, sino de aprender con robótica. Trasteando con el ordenador aprenden de los errores y de los aciertos de los demás compañeros y se reduce el fracaso escolar. El profesor adquiere un rol más de facilitador, guía, inspirador”, precisa. De esta forma, estos niños hipermotivados descubren la programación al controlar dispositivos reales de entrada y salida, física (energías, fuerza y velocidad) y conceptos matemáticos (trigonometría, geometría). “Si en el aula te dan una clase magistral llena de fórmulas ni entiendes ni recuerdas lo que te han contado. Sin embargo, con el robot entiendes la aceleración o la inercia. Nosotros hacemos materiales que expliquen los fenómenos físicos”, remarca Ferraté. Incluso, asegura, “coges un episodio histórico, lo recreas virtualmente y luego lo pasas al mundo real con los robots”.

Es indiscutible que al sector informático no ha afectado tanto el paro en España
Ferraté organiza talleres para profesores de infantil a la Universidad, asesora en el aula y monta competiciones de robótica. “Paradójicamente, cuando más se necesitan informáticos menos vocaciones hay. Antes éramos 200 en clase. Ahora son 20”. La comunidad universitaria es menor, pero es evidente que ha decrecido el interés en todo el Mundo. La fundación Code.org reclama la formación de más ingenieros de software. Sólo, cuantifican, lo son el 2,4% de los graduados hoy en su país —un porcentaje más bajo que hace una década— y tienen el doble de posibilidades de encontrar trabajo que la media universitaria.
Es indiscutible que al sector informático no ha afectado tanto el paro en España. “Tengo amigos que han perdido el trabajo y en pocos días les sale algo nuevo. Las empresas cierran pero enseguida hay alguien que les llama. Desde hace cinco años vivimos rodeados de programas. En los indicadores del coche, Instagram en el móvil, contenidos interactivos en la TDT...”, opina Juan Corzo, que vive en Valladolid.

“Cada vez más profesiones obligan a tener conocimientos de programación: la biogenética, las artes gráficas, el mundo empresarial… Así que la Informática se debería incluir en secundaria, en especial para los de ciencia y arte”, propone de Marcos. Por eso el pequeño Sabino, a quien nada ni nadie le retiene, lo tiene claro: “Cuando sea mayor quiero dedicarme a la biorobótica. Necesito aprender programación para hacer nanorobots y trabajar con células madre”.

Se integre o no la programación en clase, nadie pone en duda estas palabras del pensador chino Confucio (551-478 a. C.): “Me lo contaron y lo olvidé; lo vi y lo entendí; lo hice y lo aprendí”.

Programas y robots (Guía para docentes y padres de familia)

Scratch. Desarrollado por el MIT, permite contar historias, música o arte con un lenguaje muy fácil.

Small Basic. De Microsoft. Enseña a programar mediante código simplificado.

Alice. De la Universidad Carnegie Mellon. Es un sistema de programación 3D para crear animaciones.

Kodu. Un software de creación de videojuegos para niños adaptado al PC.

Bee-Bot. Para enseñar lenguaje direccional, a contar historias y programación desde los tres años.

Lego WeDo. Ideal para contar historias y cuentos construyendo modelos con sensores simples y un motor.

Ollo. Nuevo sistema para construir robots con muñecos y radiocontroles.

Arduino para robots. Placas para construir máquinas con sistemas y programarlas.

Fischertechnik.Un sistema de robótica integral y progresivo que puede empezar a utilizarse a los siete años.

Fuente:

El País Ciencia

Lea en los Archivos de "Conocer Ciencia":

Niños ingleses aprenderán a programar en el colegio

Colombia: Arranca programa piloto para enseñar computación a los niños

Diez plataformas innovadoras para aprender programación

 
google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0