Latest Posts:

Mostrando las entradas con la etiqueta computacion. Mostrar todas las entradas
Mostrando las entradas con la etiqueta computacion. Mostrar todas las entradas

9 de diciembre de 2018

Saber programación será tan importante como hablar inglés

La programación contribuye al desarrollo de la creatividad, del pensamiento computacional, crítico y racional.

Buen nivel de inglés… ¿y qué más? La empleabilidad del futuro estará condicionada por nuevas exigencias derivadas de las tendencias tecnológicas en la sociedad y del auge de la digitalización en las compañías. En este contexto, la programación se erige como una disciplina fundamental para acceder al mercado de trabajo, junto con el dominio del inglés, según concluyen los expertos de Smartick, método para aprender matemáticas online.

El coding, como también se conoce esta materia, está dejando de considerarse un requerimiento exclusivo para trabajar en empresas tecnológicas y ya forma parte de las condiciones de contratación de compañías de diversos sectores, como entidades financieras, empresas turísticas y compañías del sector de la comunicación.

Este auge de la programación se debe a la creciente integración de procesos digitales en el seno de las empresas. «Dominar el coding requiere de habilidades clave en el desarrollo de otras disciplinas distintas a la programación, de ahí que sus aplicaciones se adapten perfectamente a diferentes sectores. En el caso de los niños, tiene muchos beneficios en el rendimiento académico de otras asignaturas que requieren de creatividad, pensamiento computacional, crítico y racional», asegura Javier Arroyo, cofundador de Smartick.

Entrenar la estructura mental del niño

Los procesos de transformación digital están dinamizando el sector empresarial a nivel internacional. En concreto, la demanda de profesionales TIC (entre los que se encuentran los programadores) crece a un ritmo del 3% cada año, tendencia que conllevaría la escasez de trabajadores de este ámbito en toda Europa, unos 900.000 profesionales en 2020, según el Informe IMMUNE sobre el estado del coding.

Teniendo en cuenta estas perspectivas, es fundamental que los niños tomen contacto con la programación cuanto antes. Eso sí, Arroyo señala que hay que hacerlo a través de metodologías atractivas que se adapten a sus circunstancias: «A un niño no le podemos poner de entrada HTML, lo que hay que hacer es entrenar su estructura mental como preparación para esa tarea que desarrollará más tarde».

Un ejemplo de cómo trabajar esta disciplina a edades tempranas es Smartick Coding, integrado dentro del método para aprender matemáticas online y que se dirige a niños a partir de seis años. Este nuevo contenido cuenta con tutoriales interactivos y permite aprender esta disciplina desde cero, contando con un correcto nivel de lectura y el entendimiento de la visión espacial a izquierda y derecha.

En la red hay muchos recursos gratis, pero elegir cuáles son buenos, conseguir que el niño se anime y vea su evolución, es realmente complicado para padres a los que la programación les es totalmente ajena. El valor fundamental de Smartick es, como ya hacen con las matemáticas, ser capaces de sistematizar el mejor contenido y que el niño esté concentrado durante 15 minutos aprendiendo un lenguaje que le va a ser muy útil.

En la educación reglada, la apuesta de las instituciones de enseñanza por el desarrollo de programas educativos que den protagonismo a la programación será clave para satisfacer las necesidades del mercado laboral. Como ya ocurre con el bilingüismo, se trata de integrar la materia de forma transversal compartiendo contenidos con otras disciplinas, como las matemáticas.

Fuente: ABC (España)

11 de noviembre de 2018

George Boole, el ‘arquitecto’ de la revolución digital

Profundizar en el mecanismo que rige un semáforo o en el funcionamiento de un complejo sistema informático revela una base común. Es el álgebra de Boole, una herramienta matemática cuya evolución le ha llevado mucho más allá del ámbito específico de la lógica matemática, para el que fue concebido, convirtiéndose en un pilar teórico de nuestra civilización tecnológica.

La mayoría de los circuitos electrónicos, y de los sistemas de computación en general, tienen su origen en una función lógica. Pero esta puede ser bastante larga y compleja. Por eso George Boole (1815-1864) ideó un método para simplificar esa función lógica lo máximo posible, a través de ciertas reglas básicas o propiedades. Quizás este sistema encuentra hoy en día uno de sus máximos exponentes los buscadores de Internet como Google, que hoy le reconoce el mérito a Boole con un doodle que conmemora el 200 aniversario de su nacimiento.

A mediados del siglo XIX, Boole desarrolló en su libro “An Investigation of the Laws of Thought” (1854), la idea de que las proposiciones lógicas podían ser tratadas mediante herramientas matemáticas. Estas proposiciones lógicas podían tomar únicamente dos valores del tipo Verdadero/Falso o Sí/No. Estos valores bivalentes y opuestos podían ser representados por números binarios de un dígito (bits), por lo cual el álgebra booleana se puede entender cómo el álgebra del sistema binario.

Un sistema lógico de futuro imprevisto

Él mismo resumió su trabajo en esta frase: «Las interpretaciones respectivas de los símbolos 0 y 1 en el sistema de lógica son Nada y Universo». Podría interpretarse como un anticipo de su trascendencia. Sin embargo, contrariamente a lo que se puede pensar, el álgebra de Boole no pareció tener ninguna aplicación práctica en un primer momento y sólo se le encontró un sentido, bastante abstracto, en el campo de la lógica matemática.

Fue setenta años después de su muerte, en 1938, cuando el ingeniero electrónico y matemático estadounidense Claude E. Shannon (1916 – 2001) encontró en el trabajo de Boole una base para los mecanismos y procesos en el mundo real, demostrando cómo el álgebra booleana podía optimizar el diseño de los sistemas electromecánicos de relés, utilizados por aquel entonces en conmutadores de enrutamiento de teléfono.

Además de Shannon, el ruso Victor Shestakov (1907-1987) propuso una teoría de los interruptores eléctricos basados en la lógica booleana en 1935, aunque menos conocida en un principio: su publicación se hizo años después, en 1941 y en ruso. De esta manera, el álgebra de Boole se convirtió en el fundamento de la práctica de circuitos digitales de diseño, y George Boole (a través de Shannon y Shestakov) en el arquitecto que puso los cimientos teóricos para la revolución digital.

Tomado de: Open Mind

5 de agosto de 2018

Ada Lovelace, la mujer que ideó el primer algoritmo de la historia (100 años antes de que llegaran las computadoras)

La programación parece un arte de principios del siglo XX, pero no es del todo cierto. Casi un siglo antes de que Alan Turing sentara las las bases de la computación moderna, una mujer escribió el primer algoritmo de la historia, un programa tan avanzado que la tecnología de la época no pudo hacerlo realidad.


Esa mujer se llamaba Augusta Ada King-Noel, condesa de Lovelace, aunque el mundo la recuerda como Ada Lovelace, escritora, matemática y la primera programadora de la historia.

Interesada desde joven en las matemáticas, la frenología y la física, la carrera de Lovelace dio un giro radical cuando trabó amistad con el matemático e inventor Charles Babbage, que le mostró su más reciente creación: la máquina de diferencia. En esencia se trataba de una calculadora mecánica capaz de tabular funciones polinómicas.

En 1840, Babbage fue invitado a la Universidad de Turín para dar una conferencia sobre su último diseño, un dispositivo llamado La máquina analítica. Un joven ingeniero italiano llamado Luigi Menabrea transcribió el seminario al francés y su transcripción terminó en la Biblioteca Universal de Ginebra. Dos años más tarde, un amigo común de Lovelace y Babbage pidió a la científica que tradujera el documento del inventor al inglés.

Pero Ada fue mucho más allá de la traducción

La elección de Lovelace no fue casual. Era de los pocos matemáticos capaces de entender los trabajos de Babbage. Sin embargo, su aportación fue mucho más allá de una mera traducción. Ada se percató de algo en la máquina que se le había pasado por completo a su creador: podía programarse.

Lovelace enriqueció el libro con sus propias notas entre las que se encuentra un completo diagrama que básicamente describe el primer algoritmo de la historia y que le valió ser considerada la primera programadora incluso cuando aún no existían los lenguajes de programación ni las computadoras.


Babbage ya esbozó algunos algoritmos propios, pero eran básicamente fórmulas. Ninguno de ellos tenía la complejidad que ideó Lovelace. El mérito de Ada Lovelace fue el darse cuenta de que la máquina analítica podía usarse para expresar entidades o símbolos con arreglo a unas normas y no solo números.

Pero la máquina no pudo ser construida

Nunca pudo ver en persona los resultados de su aportación. La máquina analítica de Babbage fue la primera computadora en términos de Turing. Tenía una unidad lógica aritmética y hasta un sistema de memoria integrado. En términos generales, compartía la misma estructura lógica que las computadoras actuales. Sin embargo, era tan compleja que Babbage no logró reunir el dinero necesario para fabricarla. El primer modelo completo de la máquina a partir de sus apuntes y siguiendo los mismos procesos de fabricación de la época no llegó hasta 1991 de la mano de los conservadores del Museo de la Ciencia de Londres.


Unos 100 años después de la creación de Babbage, el ingeniero alemán Konrad Zuse completaba la Z1, la primera computadora que se puede considerar como tal. El libro con la transcripción realizada por Lovelace con sus notas, su algoritmo y su nombre en la portada acaba de subastarse por la astronómica cifra de 125.000 dólares.

Fuente:

Gizmodo

12 de julio de 2017

¿Cómo volverse popular en la Red en cuestión de meses?

¿Sueña con ser popular? ¿Quiere tener muchos amigos en Facebook o cientos de 'Likes' en Instagram? En este material exclusivo de RT profesionales de la mercadotecnia en medios sociales revelan los secretos del éxito.

¿Existen trucos y secretos que nos permitan ser objeto de una mayor atención, aumentando nuestra influencia y popularidad en las redes sociales? RT ha conversado con profesionales de la mercadotecnia en medios sociales (Social Media Marketing, SMM, en inglés) para saber de primera mano qué y cómo hay que publicar en las redes sociales para ser el centro de todas las miradas.

Para empezar...

En primer lugar, los expertos en SMM llaman la atención sobre lo diferente que resulta seguir una estrategia exitosa en Facebook y, por ejemplo, en Instagram, ya que cada red social tiene sus peculiaridades.

En primer lugar hay que determinar en qué plataforma se quiere actuar. Para ello, Yelena Kupriyánova, la directora de medios sociales y proyectos especiales de la agencia de marketing digital Rocket 10, aconseja determinar nuestro público objetivo: "Para llegar a ser popular en cualquier red social hay que entender claramente entre qué personas queremos serlo y con qué fin se suscribirá la gente a nuestra cuenta y nos leerá. Y tenemos que darle a esta gente lo que quiere".

Por esa razón la experta subraya que "todo depende del potencial público objetivo y de nuestra comprensión del mismo". "Por ejemplo, un fotógrafo de comida se sentirá más cómodo en Instagram, mientras que un gurú de los negocios estará mejor en Facebook, aunque hay excepciones", explica Kupriyánova.

Antes de nada, antes incluso de hacer una primera publicación, debemos "entender para qué queremos lograr la popularidad del contenido y de la cuenta. ¿Para que nos paguen por la colocación de la publicidad? ¿Para que se dirijan a nosotros para obtener algunos servicios o consultas? ¿Para mimar nuestro amor propio? Lo que vamos a publicar dependerá de lo que queramos que dé frutos".

Lee el artículo completo en:

RT Actualidad

10 de julio de 2017

HP: Pocos saben que impresoras son una 'puerta' para los ciberataques a empresas

“Uno siempre pensaría que la forma de ingresar a las empresas es por las redes, las PC, los servidores o las conexiones a La Nube”, según Jose Luis Cámere de HP.
 
Los ciberataques se están volviendo muy comunes en el mundo y tiene como protagonistas a empresas corporativas de diversos países, que inclusive son consideradas como las más seguras del mundo, y terminan con empresas pagando fuertes sumas de dinero para rescatar su información.

Estos ataques pueden tener diversas vías de acceso como los virus informáticos, los correos maliciosos, las páginas web prohibidas o inclusive la Nube.

Sin embargo, el gerente general de HP Inc. para Perú, Ecuador Bolivia, Jose Luis Cámere, indicó que las impresoras pueden ser una vía de acceso para un ciberataque al sistema informático de una empresa.

“Uno siempre pensaría que la forma de ingresar a las empresas es por las redes, las PC, los servidores o las conexiones a La Nube e increíblemente, muy pocos saben que muchos de estos ingresos son a través de las impresoras, porque son las que están descubiertas”, explicó a Gestion.pe.

En ese sentido, señaló que la línea de impresoras empresarial y comercial de HP cuenta con muchas certificaciones que los hacen invulnerables para la mejor seguridad de las empresas a ataques similares a los vistos recientemente.

Tomado de: Gestión (Perú)
 

21 de septiembre de 2015

IBM acaba de fabricar el primer procesador funcional de solo 7 nanómetros

IBM logra fabricar el primer procesador funcional de solo 7 nanómetros 

IBM ha anunciado hoy un avance que marcará un momento histórico en la industria de la computación: la fabricación del primer procesador con transistores de 7 nanómetros, unas 1,400 veces más pequeño que el grosor de un cabello humano. El chip tiene 4 veces la capacidad de los procesadores actuales. La Ley de Moore sigue de momento más vigente que nunca.
 
La compañía ha confirmado hoy jueves el avance, adelantado en medios como el NYT, y ha asegurado que es fruto de su inversión de 3.000 millones de dólares durante 5 años en investigación en procesadores y computación. En dicha inversión participan otras compañías como Global Foundries (a quien IBM vendió su negocio de fabricación de chips el año pasado), Samsung y otras firmas privadas y organismos públicos.


El anuncio se produce justo cuando se comenzaba a dudar que la fabricación de procesadores pudiera pasar la barrera actual de los 14 nanómetros y la futura, pero ya posible, de los 10 nanómetros. Ir más allá comenzaba a suponer importantes barreras de pura física. IBM ahora se ha adelantado incluso a Intel en la creación del primer chip con transistores de 7 nanómetros (por comparación, un glóbulo rojo mide unos 7.500 nanómetros de diámetro). Para conseguirlo, la compañía ha utilizado silicio-germanio en lugar de puro silicio en determinadas zonas del chip, lo que le ha permitido la reducción de tamaño manteniendo la estabilidad del procesador y multiplicando por 4 su capacidad.


IBM logra fabricar el primer procesador funcional de solo 7 nanómetros


El avance, según IBM, permitirá construir microprocesadores con más de 20.000 millones de transistores. La reducción del tamaño de estos chips no solo permitirá concentrar mayor poder de computación en el mismo espacio, también debería dar lugar a mejoras en el consumo de energía (y, por extensión, en la duración final de las baterías de los equipos).


IBM asegura que aún deberá pasar aún un tiempo hasta que estos procesadores estén disponibles comercialmente, aunque no especifica cuánto. Desde luego será difícil verlos en equipos y sistemas antes de los próximos dos o tres años. Aún así, ahora ya sabemos que llegar a la barrera de los 7 nanómetros es posible. Eso supondrá un nuevo y gran salto en la computación. Aunque la pregunta sigue ahí: ¿qué ocurrirá después? [vía NYT y VentureBeat]

Tomado de;

Gizmodo

Lea también:
50 años de la Ley de Moore: ¿qué ocurrirá cuando ya no se cumpla?

Acaban de cumplirse 50 años de la Ley de Moore, enunciada en 1965 por Gordon Moore, uno de los… Seguir leyendo 

12 de septiembre de 2015

¿Qué lenguaje de programación debería aprender para empezar?

¿Qué lenguaje de programación debería aprender para empezar? 

Esta es probablemente una de las preguntas más populares entre las personas que quieren adentrarse en el mundo de la programación. Puedes preguntar cuál es el mejor lenguaje para empezar a diez programadores, y te darán diez respuestas diferentes. A continuación, os ofrecemos algunos consejos y sugerencias para intentar ayudaros a decidir.

Hay miles de opciones, y el mejor lenguaje de programación para empezar no solo depende de lo intuitivo, o no, que sea, también depende del tipo de proyectos que quieras hacer, por qué quieres programar, o si quieres dedicarte a ello profesionalmente. Ahí va una pequeña guía.

¿Por qué quieres aprender a programar?


Es probable que, dependiendo de lo que quieras programar o para qué, la elección ya esté tomada aunque tú todavía no lo sepas. Para programar páginas web, por ejemplo, deberías aprender HTML, CSS, JavaScript y quizás PHP para la interactividad. Si tu objetivo es solo desarrollar aplicaciones móviles, lo que deberías aprender, para empezar, sería Objective-C para iOS o Java para Android.


Si lo que quieres es ir más allá de un proyecto específico, o quieres aprender varios lenguajes, lo mejor para empezar es aprender fundamentos de programación, y aprender a 'pensar como un programador'. En este sentido hasta las aplicaciones y métodos para enseñar a programar a los niños pueden serte útiles.


Por poner un ejemplo, el primer curso formal de programación al que asistí más allá de Basic fue Harvard CS50. Se puede acceder a este curso de forma gratuita desde proyectos interactivos como Codeacademy. Este principio, sin embargo, nos sigue dejando con la duda de qué lenguaje es el mejor para empezar. Veamos las recomendaciones contrastadas con los lenguajes más populares.

Los lenguajes de programación más recomendados para principiantes

El artículo completo en:

Gizmodo 

Lea también:


20 de julio de 2015

Cómo empezar a aprender programación: consejos y recursos para hacerlo de adulto

Si el otro día hablábamos de cómo introducir a los niños en el mundo de la programación, hoy vamos a plantear un artículo similar pero con un enfoque diferente. Como aprender programación en verano siendo adultos.
La programación, una vez más, como herramienta que ayuda a estructurar la mente, a plantear nuevas formas de solucionar problemas de la vida diaria o, por qué no, a enseñar a tu hijo/a a dar sus primeros pasos en este mundo. La programación también puede ser un excelente tema que aprender durante este verano, y hoy te vamos a dar algunas pistas y trucos para ponerte con ello.

No queremos que te conviertas en profesional

En primer lugar debemos hacer un pequeño disclaimerno buscamos convertirnos en programadores profesionales, nunca, bajo ningún concepto. El que quiera encontrar su camino laboral como programador no encontrará aquí el post definitivo.
Hoy ahondaremos en cómo dar los primeros pasos en la programación como afición, aprovechando el punto divertido que tiene y las consecuencias de la fase de aprendizaje que son compartidas con las que ya mencionamos cuando hablábamos de la programación educativa. Se mejoran ciertas aptitudes tales como la resolución de problemas, el pensamiento lógico-matemático y, más en general, todo lo relacionado con el pensamiento computacional.
Daremos por hecho que un adulto no necesita socializar, compartir y dialogar con otros iguales, aunque por supuesto esto puede ser interesante en ciertos casos puntuales. Un adulto puede aprender de forma más individual e independiente del grupo, y éste será el enfoque que plantearemos con los siguientes consejos.

Puedes empezar igual que los niños

Nos referimos a los programas y la metodología. Scratch como herramienta principal y que te proporcionará una base sobre lo que es un algoritmo y la forma como "piensan" los ordenadores. Si no tienes conocimiento alguno sobre programación, debes empezar primero en los tutoriales de Code.org, para así aprender las nociones básicas.

Una vez las hayas obtenido Scratch es una muy buena segunda-opción, dada la variedad de programas y proyectos que nos permitirá crear. Aquí debemos activar nuestra mente para iniciar nuevas ideas que tengamos en la cabeza y, si es posible, añadir incrementos iterativos. Por ejemplo, a un simple Pong podemos añadirle marcadores, tiempos de duración de la partida, ranking, estadísticas, nuevos movimientos especiales, objetos de bonus... y será un Pong con esteroides, perfecto para aprender.
Si ya dominas Scratch con cierta soltura podrás abandonar los lenguajes 'de juguete' y pisar a fondo hacia lenguajes más serios y formales, de tipo texto. Opciones como Python que es para muchos el gran entorno 'real' después de los lenguajes visuales y de colores, o Arduino, sobre el que hablaremos específicamente más adelante al ser una opción genial.

Arduino: buscando la utilidad 'real' con robótica

Estamos acostumbrados a programar frente a una pantalla, y a que los resultados de esta programación aparezcan en el terminal. Con Arduino las cosas cambian, y precisamente uno de sus grandes atractivos es poder sacar resultados 'reales' a partir de la programación en pantalla.
Crear robots con Arduino es algo más complejo que hacerlo con LEGO MindStorms (si tuviese que recomendar un kit de robótica que no estuviese relacionado con Arduino ese sería, sin duda, MindStorms), pero también mucho más económico y en el camino aprenderemos mucho más. En Arduino deberemos reiniciar nuestra cabeza y poner el contador a cero, ya que es un mundo separado que requerirá que nos informemos sobre el mundo de la electrónica, motores, sensores y posibilidades.

Esto y mucho más en:

12 de julio de 2015

¿Cuánto ADN hay en la Tierra y cuánta información contiene?

Cuando nos preguntamos cuánto ADN hay en al tierra, puede que no nos sorprenda oír hablar de cantidad. Pero si estimamos la capacidad de guardar información que tiene, nos sorprende estar, probablemente, ante el ordenador más potente del universo.



Como sabrás a estas alturas, el ADN es la unidad de información fundamental que tiene todo ser vivo. Es como un enorme libro de instrucciones. O mejor aún, como un complejo ordenador con diversos niveles, controles y capas. Este sistema almacena y procesa información para poder construir todo lo que somos. ¿Cuánto ADN hace falta, entonces, para formar un ser humano? ¿Cuánta información procesa cada ser vivo? Es más, ¿Cuánto ADN en total habrá en el mundo en el que vivimos? Tanto en capacidad de guardar información como en cantidad, las cifras son sencillamente impresionantes.

¿De cuánto ADN estamos hablando?

Supongamos que la tierra es un gran sistema de computación. Esto precisamente es lo que han hecho unos investigadores del centro de Astrobiología y la Universidad de Edimburgo. Todo con la intención de medircuánto ADN podría haber sobre la faz de la Tierra. Según sus estimaciones, en masa, el ADN existente en nuestro pequeño planeta es de unas 5 por 10 elevado a diez (5x10^10) toneladas de ADN. Es decir, unos 1000 millones de enormes containers de carga. Lo que parece muchísimo para algo que mide tan poco que no podemos ver a simple vista. Pero si esta cifra no te impresiona, tal vez lo haga su implicación. Puesto que el ADN es la unidad fundamental de información y su misión es almacenarla yEl ADN de la Tierra es unas 10^22 veces más rápido que el superordenador más potente que existeprocesarla, esto 1000 millones de containers suponen una capacidad de unas 5.3 × 10^31 (±3.6 × 10^31) megabases (Mb, que equivalen a un millón de pares de bases).
La cantidad de información almacenada excede cualquier posibilidad de imaginarla. Pero para que nos hagamos una idea, el ADN de la Tierra es unas 10 elevado a las 22 (10^22) veces más rápido procesando que el superordenador más rápido de la Tierra, el Tianhe-2 chino, que cuenta con unos 33.86 PetaFLOPS. Esto supone, en concreto, un poder de computación de unos 10 elevado a 15 (10^15) yottaNOPS. Para quien no lo sepa, yotta significa a su vez 10 elevado a 24 (10^24). Además, necesitaríamos unos 10 elevados a la 21 (10^21) ordenadores como éste para almacenar toda la informaciónque guarda el ADN en total. Aunque hasta ahora se había investigado muchísimo sobre la cantidad de ADN total existente en organismos, es la primera vez que alguien intenta estimar la capacidad en información relacionada con cuánto ADN existe.

El ordenador biológico

El otro día os explicábamos como, basándose en cómo funciona el ADN, unos investigadores habían desarrollado un biopolímero capaz de guardar la información en binario. Pero el ADN va mucho más allá. El ADN consta de dos largas cadenas, como si fuese una cremallera. Cada diente se une con una pareja complementaria, y solo con ella. Si separamos las dos cadenas, podemos contar los dientes que tiene una de ellas. Cada tres de estos codifican un aminoácido y los unen en una cadena larguísima, que es lo que constituye una proteína. Es decir, cada tres dientes son una unidad fundamental de información. Pero no son unos y ceros, como en sistema binario. La combinación de tríos de dientes, llamados codones, es de 64. 60 sirven para codificar los 20 aminoácidos esenciales (más otros dos excepcionales, en algunos casos concretos), por lo que su combinación se repite. Los otros 4 indican parada, 3 de ellos, e inicio, que también coincide con una metionina, uno de los aminoácidos más comunes. Como vemos,El ADN no es un sistema binario sino que puede codificar 22 aminoácidos en combinaciones de tríos de basesindependientemente de cuánto ADN, el sistema, además se vuelve bastante complejo.
Pero la cosa no acaba aquí. Ni mucho menos. Esto es solo el comienzo que sirve para construir la base fundamental de las proteínas. Pero a medida que nos elevamos en "la capa" de información del ADN, la cosa se vuelve infinitamente más compleja: sistemas de control que hacen que la cadena que forma la proteína se corte o cambie un eslabón de la cadena; la conformación física, es decir, la forma que tendrá la proteína sea distinta; la velocidad a la que se produce o se destruye varíe; son solo algunos ejemplos de la manera que la vida tiene do formar algo tan complejo y maravilloso. Y es que no es solo una cuestión de cuánto ADN. Hace ya tiempo que los seres vivos nos la arreglamos para complicar más y más la manera de ser seres cada vez más complejos. Y, claro, eso requiere de un sistema inimaginablemente sofisticado. Por suerte, contamos con el ordenador biológico, el sistema de información más potente de la tierra (y probablemente uno de los más potentes del universo): el ADN.
Fuente:

28 de abril de 2015

Snowden revela cómo crear una contraseña segura

El exempleado de la NSA, Edward Snowden, explica cuáles son las contraseñas más seguras para proteger las computadoras de ataques de 'hackers' y enseña a pensar de un modo distinto para crearlas.



De acuerdo con el exempleado de la NSA, Edward Snowden, "una computadora tarda menos de un segundo en acabar con cualquier contraseña de ocho caracteres." 
En una entrevista con el cómico John Oliver, Snowden ha brindado algunas de pistas para proteger los datos y la privacidad de los usuarios. 
El experto explica que la falta de ortografía e incluso el cambio de orden de las letras de una palabra de la contraseña no son una buena idea para tener una buena clave, tampoco es seguro numerar cifras correlativamente, por ejemplo, del uno al ocho.
Para disminuir el riesgo de ser 'hackeado', Snowden aconseja utilizar en vez de contraseñas 'contrafrases'. Es decir, elegir una  frase entera, apta para recordar. Como ejemplo, el exempleado propone la siguiente contrafrase: margaretthatcheris110%SEXY (Margaret Thatcher es 110% atractiva).  
"Crear una 'mala' contraseña es una de las maneras más fáciles de poner en peligro un sistema", asegura Snowden.
Fuente:

15 de julio de 2014

Impresora de bolsillo: la herramienta que nos hacía falta

El dispositivo, muy pronto en el mercado, puede funcionar durante una hora de manera ininterrumpida. La batería necesita cargar por tres horas.

La impresora móvil es ya una realidad, y todo gracias a un grupo de jóvenes que vio la falta que hacía esta herramienta en el trabajo diario. Imprimir textos no había resultado ser tan fácil, y acceder a un dispositivo que lo haga tan satisfactorio.

A través de la plataforma de financiación colectiva, Kickstater, miembros de la startup ZutA Labs lograron recolectar más de 500 mil dólares para ejecutar este proyecto, al cual denominaron el Mini Mobile Robotic Printer.

La mini-impresora puede conectarse directamente a un smartphone, laptop o PC. Tiene una batería recargable, con un switch de On\Off,  y permite al usuario imprimir sobre un papel de cualquier tamaño.

De acuerdo a los mismos creadores, el cartucho de tinta incorporado puede imprimir hasta 1000 hojas (y solo en colores de blanco y negro). ¿La calidad de la impresión? 96x192 ppp (puntos por pulgada). Los desarrolladores revelaron que si consiguen 400.000 dólares de financiación, el modelo final tendrá una mayor calidad y velocidad.

Esta fabulosa herramienta estará pronto en el mercado. ¿Quieresa saber cómo funciona? Mira el video:

Fuente:

 

10 de junio de 2014

Una computadora logra superar por primera vez el test de Turing

  • El programa informático 'chatea' como un niño de 13 años, y sus interlocutores humanos creen que es una persona

  • Es la primera máquina que supera la famosa prueba del 'padre' de la informática para comprobar que una máquina 'piensa'


Un 'superordenador' capaz de 'chatear' como un niño de 13 años se ha convertido en la primera máquina que ha superado el llamado test de Turing. En un experimento llevado a cabo en la Royal Society de Londres, se utilizaron cinco ordenadores para intentar comprobar si podían engañar a varias personas, haciéndoles creer que eran seres humanos de carne y hueso durante una conversación con mensajes de texto.

Esta prueba fue concebida en 1950 por el gran matemático y pionero de la informática Alan Turing, quien afirmó que si una máquina no podía distinguirse de un ser humano, se demostraría que era capaz de "pensar". Desde entonces, el test de Turing -un hombre que contribuyó de manera decisiva a la victoria aliada durante la Segunda Guerra Mundia, ya que logró descifrar los códigos utilizados por los nazis para enviar mensajes encriptados-, se ha considerado la prueba clave para comprobar que un ordenador posee 'inteligencia artificial'.

Hasta ahora, ninguna máquina había superado esta prueba, que requiere que el 30% de sus interlocutores humanos crean que están hablando con otra persona durante conversaciones (mediante intercambios de textos) de cinco minutos. 

Pero según informa la Universidad de Reading en un comunicado, el programa informático 'Eugene Goostman', diseñado para simular el cerebro de un niño de 13 años, logró convencer por primera vez al 33% de sus interlocutores humanos que era una persona.

"En el campo de la inteligencia artificial, no hay ningún hito más icónico y controvertido que el test de Turing. Es muy apropiado que semejante acontecimiento se haya logrado en la Royal Society de Londres, la gran sede de la ciencia británica y el escenario de muchos de los grandes avances en la historia del conocimiento humano a lo largo de los siglos. Este hito quedará como uno de los avances más emocionantes en la historia de la ciencia", ha declarado el profesor Kevin Warwick, de la Universidad de Reading, uno de los organizadores del experimento.

La máquina 'inteligente' fue diseñada por Vladimir Veselov, un informático de origen ruso que trabaja en Estados Unidos, y el ucraniano Eugene Demchenko, que vive en Rusia.

"Es un logro impresionante para nosotros, y esperamos que fomente el interés por la inteligencia artificial y los chatbots [programas informáticos capaces de mantener conversaciones con personas]", ha declarado un emocionado Veselov.

Warwick ha reconocido que en el pasado, anteriores experimentos supuestamente habían logrado demostrar que otras máquinas podían "pensar", pero ha puesto en duda su validez: "Nuestro experimento se realizó con más pruebas simultáneas comparativas que nunca, se verificó de forma independiente y las conversaciones no tenían ninguna restricción. Un auténtico test de Turing no fija las preguntas o temas de conversación antes de que se realice la prueba. Por tanto, estamos muy orgullosos de poder afirmar que el test de Turing se ha superado por primera vez".

El científico británico considera que la existencia de ordenadores con una inteligencia artificial tan notable podría tener importantes "implicaciones para la sociedad" tanto positivas como negativas, ya que podría elevar el riesgo del "cibercrimen".

El experimento en la Royal Society tuvo un especial valor histórico, ya que se llevó a cabo precisamente cuando se cumplía el 60º aniversario de la muerte de Turing, considerado el 'padre' de la informática moderna.

Sin embargo, a pesar del entusiasmo con el que los autores del experimento han presentado sus resultados, algunos expertos ya lo han puesto en duda. La revista New Scientist, por ejemplo, ha publicado un análisis muy crítico titulado 'El "éxito" del test de Turing no es todo lo que parece'

"El test de Turing se ha convertido en un símbolo de la inteligencia de las máquinas, pero este nuevo experimento sólo ha comprobado la capacidad de las máquinas para chatear. Sin embargo, las personas son capaces de mucho más. La inteligencia humana va mucho más allá del chateo", concluye el comentario de New Scientist.
 
Fuente:
 

1 de junio de 2014

El sistema operativo BASIC cumple 50 años





BASIC, el lenguaje de programación que acercó la informática a millones de personas sin demasiados conocimientos, cumple este 1 de mayo 50 años. Sus característicos comandos en forma de listado fueron el primer contacto de varias generaciones con los ordenadores y todavía hoy se usan algunos lenguajes derivados de él.


Fue diseñado en 1964 por dos matemáticos-informáticos estadounidenses en la escuela de New Hampshire en la que trabajaban, con el objetivo de acercar el uso de los ordenadores (entonces eran poco más que torpes máquinas con gigantismo) a cualquier estudiante. Incluso a los que no sabían de informática.

Con la llegada de los ordenadores personales durante los años 70, BASIC se popularizó aún más por la simplicidad de su uso: en líneas sucesivas, ordenadas con números, se iban escribiendo las órdenes que el programa debía leer y ejecutar (PRINT para mostrar un mensaje en pantalla, GOTO para saltar a otra línea...).

Tras sus siglas, "Código de Instrucciones Simbólicas Multipropósito para Principiantes", se escondía la posibilidad real de que cualquiera con paciencia e interés desarrollase sus propios programas. Y precisamente por eso fue la entrada de muchos al mundo de los ordenadores.

El primer progama de Gates

El propio Bill Gates, creador de Microsoft, desarrolló su primer programa en BASIC con 13 años recién cumplidos: un juego de tres en raya en el que los usuarios competían con el ordenador.

Durante los 80, la mayor potencia de las máquinas facilitó que otros lenguajes como Pascal destronasen a BASIC en el ámbito escolar y supuso la llegada al mercado doméstico de aplicaciones listas para usar. Ya no tenía sentido que los consumidores desarrollasen sus propios programas.

BASIC había sido destronado, aunque en realidad nunca murió del todo y, de hecho, sigue vivo en la familia Visual Basic.

Quienes sientan nostalgia, o crean que sus hijos podrían seguir los pasos de sus padres en el mundo de la informática, tienen una oportunidad de revivir el amanecer de la revolución de la informática doméstica con Small Basic, un rediseño publicado por Microsoft en 2011, o usando Petit Computer para Nintendo 3DS y Nintendo DSi.

Pero no todo es color de rosa para el BASIC, porque también existen detractores. En Microsiervos nos los recuerdan así:

Claro que para Edsger Dijkstra, uno de los más grande guruses en esto de los ordenadores,
Es prácticamente imposible enseñar programación correctamente a estudiantes que han estado expuestos al lenguaje BASIC con anterioridad. Como potenciales programadores, tienen la mente mutilada sin esperanza alguna de regeneración.

Tomado de:

El Economista

Microsiervos

Neo Teo




19 de abril de 2014

El País: "Programar para aprender"

Clases de robótica o para aprender a programar. Ya lo están haciendo en algunos centros. Pocos, pero son la punta de lanza que acerca a los escolares el mundo 2.0

En su edición de 2014, la londinense Bett, la feria sobre tecnología educativa más importante del mundo, ha consagrado a la programación como la gran herramienta del futuro. En Estados Unidos, la Fundación Code.org, apoyada entre otros por Bill Gates y Mark Zuckerberg, pretende que los niños y niñas aprendan código desde edad temprana. No para convertirse en unos genios de la computación, de la misma manera que el objetivo de aprender a leer y a escribir no es ganar el Premio Nobel de Literatura, sino para que pasen de meros consumidores a creadores en la Red. “Programar implica definir un problema, estructurar información y seguir una estrategia para resolverlo”, describe sus bondades educativas Lourdes Barroso, presidenta de Aulablog. Y si a la programación se le suma la robótica, el ejercicio se traslada al terreno de lo físico, de lo que se puede manipular y construir.

“Programación, robótica, impresoras 3D, etcétera. Tenemos que ir hacia eso”, zanja Javier Palazón, director de la revista Educación 3.0. La cuestión es, ¿estamos yendo? Desde la Consejería de Educación de la Comunidad de Madrid el mensaje es “estamos en ello”. Se organizan cursos y seminarios formativos. “Estamos desarrollando los nuevos currículos de las asignaturas de enseñanzas obligatorias que introduce la LOMCE, y una de las prioridades en las asignaturas de tecnología es, sin duda, la incorporación y desarrollo de la programación en las aulas”, enfatiza un portavoz. Mientras tanto, y tirando del hilo, aparecen experiencias interesantes, como la que ha auspiciado la propia Barroso en su IES, Laguna de Joatzel, de Getafe: sus alumnos del ciclo formativo de desarrollo de aplicaciones web imparten una extraescolar de programación de videojuegos a compañeros de Educación Secundaria Obligatoria (ESO) y Bachillerato.

Las hermanas Sara y Marta Reina han introducido la robótica educativa en sus clases de Infantil del CEIP Antonio Machado de Collado Villalba. Antonio Ruiz, maestro del colegio público Miguel de Cervantes de Leganés, utiliza, para el tercer ciclo de Primaria, y “de forma básica”, el lenguaje de programación scratch, “que tiene una orientación constructivista”. Scratch es un entorno de programación infantil ideado por el MIT (Instituto Tecnológico de Massachusetts) en el que, mediante órdenes muy sencillas, los pequeños logran que sus dibujos se muevan y progresen en la pantalla del ordenador, con sonidos incluidos. Quizá sea el programa más conocido, pero hay más, y robots, a disposición de la educación: Small basic, de Microsoft, que enseña a programar mediante código simplificado; Arduino para robots (placas para construir máquinas con sistemas y programarlas); Lego WeDo, para montar modelos con sensores y un motor.

Lea el artículo completo en:

El País (España)

31 de diciembre de 2013

BBC: Los números inesperados que destacaron en 2013

Números

Si tuviera que definir el año que acaba con un número, ¿cuál elegiría? A esta pregunta responden cuatro expertos con afinidad por las matemáticas y explican por qué.

22

Por Simon Singh, físico y escritor británico:

Panqueques

¿Ya sabe cómo calcular un "número panqueque"?
Mi número del año es el 22 y está relacionado con un problema conocido como el orden de los panqueques, creado por Jacob Goodman, quien cumplió 80 este año.

Imagina que tienes una pila de tortitas de diferentes tamaños desordenadas y que quieres ponerlas en orden: la más pequeña arriba y la más grande debajo de todo.

Puedes meter una espátula en cualquier punto de la pila y dar vuelta todos los panqueques que estén por encima.

Si sólo tienes dos panqueques que no están en orden entonces el "número panqueque" es uno, porque sólo necesitas dar una vuelta con la espátula. Para tres panqueques, el máximo número de vueltas necesarias es tres.

De esta forma puedes calcular el "número panqueque" para pilas de distintas cantidades, y el número para 19 panqueques es 22.

Ese es mi número elegido porque los matemáticos aún no han sido capaces de calcular la cifra para 20 panqueques.

Por cierto, el único trabajo de investigación que Bill Gates escribió en su vida fue sobre los números panqueques.

95

Por Linda Yueh, especialista en economía de la BBC:

Mi número del año es el 95 porque es la notable cifra de la recuperación económica, a cinco años de la peor crisis en un siglo.
"Los ingresos del 1% que más gana crecieron un 31,4% mientras que los del 99% restante sólo aumentaron un 0,4%."
Linda Yueh, especialista en economía de la BBC

La desigualdad del ingreso ha aumentado considerablemente durante la recuperación. En Estados Unidos, los que más ganan –el 1% de la gente que tiene ingresos– se quedaron con el 95% de las ganancias desde 2009.

Un estudio de la Universidad de California en Berkeley observó que los ingresos del 1% que más gana crecieron un 31,4% mientras que los del 99% restante sólo aumentaron un 0,4%.

Por lo tanto, sólo se incrementaron los ingresos de muy poca gente y es difícil ver una base amplia para la recuperación.

Este fue el punto esencial del desacuerdo entre dos economistas premiados con el Nobel.

Joseph Stiglitz ve en esta desigualdad la razón por la cual la recuperación es tan lenta. Paul Krugman, por otro lado, opina que es una explicación demasiado simple.

Esta recuperación se basa en montones de dinero fácil en lugar de más gasto público, y ese dinero ha ayudado a que los mercados de valores alcanzaran cifras récord.

Si esa es la mayor fuente de crecimiento –como la subida de los precios de las acciones– entonces no es tan sorprendente que aumenten los ingresos de los más ricos, que tienen más acciones que los menos pudientes.

Y eso no es suficiente para apoyar al resto de la economía. Es una de las razones por las que muchos países no se han recuperado a los niveles anteriores a la crisis.

33,86

Por Paul Lewis, experto en finanzas de la BBC:

Super computadora

La Tianhe-2 fue desarrollada por la Universidad de Tecnología de Defensa china.

Mi número es 33,86: esa es la cantidad de petaflops conseguidos en 2013 por la nueva merecedora del título "computadora más veloz del mundo". 

Peta son mil billones, es decir 10 a la 15ª potencia. Un flop es una operación de coma flotante por segundo, una medida del rendimiento de una computadora. 

Para entenderlo, pensemos en la multiplicación de dos números realmente grandes en un segundo: eso es un flop

Por lo tanto, una computadora de petaflops puede hacer multiplicaciones de miles de billones por segundo, y hacerlas bien. 

Cuando se publicó la lista de los ordenadores más veloces en junio pasado, la nueva computadora china Tihane-2 fue directamente al número uno. Alcanzó los 33,86 petaflops, que es casi dos veces más rápido que Titán, la otra finalista, del Departamento de Energía de EE.UU. 

Aún era la más rápida en noviembre, cuando se publicó la última lista.

Tihane-2 está haciendo 33.860 billones de cálculos cada segundo. Los récords informáticos no suelen durar mucho tiempo: dos meses antes del gran avance de China, la primera computadora de un petaflop, que reinó en 2008, fue descartada por lenta. 

Cuando se difunda la siguiente lista, Tianhe-2 puede llegar a ganarse a sí misma. Su máxima velocidad teórica es de más de 50 petaflops, pero incluso ese récord puede quedar obsoleto pronto ya que los genios informáticos apuestan por la llegada de una máquina de un exaflop (trillón de flops) para 2017. 

Eso significa mil millones de cálculos cada milmillonésima de segundo.

73

Por Pippa Malmgren, de Principalis Asset Management

Tantalio

El mayor productor de tantalio del mundo es la República Democrática del Congo.

El 73 es el número de la tabla periódica de un elemento del que poca gente ha oído hablar: el tantalio.

Somos increíblemente dependientes de este metal raro. Es esencial para todas las telecomunicaciones y para mucho del equipamiento de defensa.

Además, los teléfonos móviles no funcionarían sin él.

El tantalio sirve como recordatorio de que en la economía mundial muchas de las cosas más importantes que necesitamos son muy limitadas. Uno asume que si necesitas algo como el tantalio es fácil tenerlo.

Pues no es así. No tenemos suficientes ingenieros, incluyendo expertos en minería, y no los tendremos probablemente por algunos años hasta que rectifiquemos este desequilibrio.

En los últimos 25 años, quienes poseen algún talento matemático se dedicaron a las finanzas porque en esa carrera se ganaba más. Eso significa que ahora estamos frente a una escasez global de ingenieros.

El nuevo año será interesante porque será la primera vez que los graduados de Escuela de Minas de Colorado, la mejor universidad de ingeniería de Estados Unidos, tendrán mejores salarios que los egresados de la Escuela de Negocios de Harvard y esto estimulará a la gente joven con inquietudes matemáticas a dedicarse a la economía real, que es una gran cosa

Fuente:

BBC Ciencia
google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0