Latest Posts:

Mostrando las entradas con la etiqueta maquinas. Mostrar todas las entradas
Mostrando las entradas con la etiqueta maquinas. Mostrar todas las entradas

16 de abril de 2022

Aprender a programar: ¿debe ser un curso obligatorio?

Code es una organización norteamericana que busca todos los estudiantes del planeta aprendan a programar. 

58 millones en todo el mundo ya usan sus cursos digitales y gratuitos



¿Cómo nació esta idea?

El día que murió Steve Jobs (5 de octubre de 2011), un emigrante iraní en EE.UU. llamado Hadi Partovi tuvo una visión. "Sentí que necesitaba hacer algo, contribuir a que todos tengan las mismas oportunidades en un mundo donde los conocimientos digitales son cada vez más decisivos".

De esa visión nació Code.org», recuerda. Partovi (Teherán, 49 años) tardará dos años en darle forma a su idea: una organización sin ánimo de lucro, nacida en 2013, cuya misión es formar a docentes y promover políticas públicas para que la programación se introduzca en el currículo educativo como un curso más

¿Quién es Hadi Partovi?

Partovi era un niño cuando huyó, junto con su familia, del régimen del ayatolá Jomeini. Sus padres son científicos y miembros destacados de la diáspora persa. 

Estudió Ciencias de la Computación en Harvard, fundó una empresa de reconocimiento de voz que luego vendió a Microsoft por 800 millones de dólares.

Desde entonces se dedica a las inversiones (Facebook, Airbnb) y a la filantropía. Su hermano gemelo Ali (y cofundador de Code.org) fue uno de los primeros en invertir en Dropbox y su primo Dara Khosrowshahi es director ejecutivo de Uber.

Hadi Partovi tienen una agenda con mejores contactos en Silicon Valley: Bill Gates, Mark Zuckerberg o Jack Dorsey responden. Y también tienen línea directa con la Casa Blanca, Joe Biden, Barack Obama y Bill Clinton han participado en sus llamados para colaborar con la causa.

¿Y cuál es la causa? 

"En nuestro mundo impulsado por la tecnología, la informática se ha vuelto tan esencial para los estudiantes como la lectura, la escritura y las matemáticas", explica Partovi.

Aclaremos: el propósito de Code.org no es exactamente que todos los niños aprendan a programar, sino que todos los colegios enseñen informática. La razón no es convertirlos en programadores el día de mañana o encaminarlos hacia empleos tecnológicos bien remunerados, aunque a nadie le cae mal un dinero de más.

"La informática es hoy tan importante como la biología. Es necesario comprender la fotosíntesis, pero también qué son los algoritmos. Porque están en todas partes e impactan en nuestra vida diaria. Necesitamos programadores, sí, pero también abogados, médicos y políticos que sepan de la importancia de la programación. No se trata de preparar a los niños para el trabajo, sino de prepararlos para la vida", resume Partovi.

Aliados estratégicos

La plataforma de Code.org ofrece lecciones on-line para niños de 4 a 18 años. 

El acceso a los contenidos es gratuito desde cualquier parte del punto. Están traducidos a sesenta idiomas. 

Los tutoriales se pueden ver en YouTube y en ellos es habitual ver a los magnates de los gigantes tecnológicos impartiendo clases.

La plataforma se ha aliado con Disney, Star Wars, Minecraft o la NBA para hacer sus contenidos más atractivos. 

Cuatro de cada diez estudiantes norteamericanos tienen una cuenta abierta en Code.org y 58 millones en todo el mundo, además de dos millones de profesores.

Pero solo es la punta del iceberg. La organización se ha marcado como primer objetivo que todas las escuelas públicas de Estados Unidos impartan programación. De momento, lo ha conseguido en varias decenas de estados. También están ingresando a Europa.

Pero...

The New York Times se preguntaba en 2017 si Silicon Valley estaba utilizando su poder de persuasión para que las escuelas públicas sirvan a los intereses de las corporaciones. Y apuntaba a que existe un déficit de ingenieros informáticos y que las compañías estadounidenses se ven obligadas a reclutarlos en el extranjero.


¿Un Plan Marshall Digital?

Ese déficit de perfiles tecnológicos también afecta a Europa, donde hay unos 900.000 empleos relacionados con la digitalización (200.000 en España) que a las empresas les resulta muy complicado cubrir. 

Los intereses de las empresas norteamericanas tampoco coinciden siempre con los de los países europeos. 

¿Estamos ante una especie de 'plan Marshall' de la digitalización?, se preguntan los más recelosos. ¿Aprovechará Silicon Valley para pescar en el vivero del talento europeo y, de paso, exportar su ideario?

Es el tipo de cuestiones al que ha tenido que responder Fran García del Pozo, responsable de Code.org para Europa, África y Oriente Medio, con un equipo cien por cien español. 

«Me costó cinco años conseguir traer Code.org a España. Fue muy difícil. Desde luego, la pandemia ha sido un tsunami. Ha acelerado la digitalización y ha convencido a muchos escépticos que pensaban que se tardaría muchos años en transformar la educación y el trabajo. Pero también ha mostrado que existe una brecha digital importante. Muchas familias carecen de conectividad y dispositivos suficientes. Y eso es injusto», afirma.

Este exejecutivo de Telefónica conoció a Hadi Partovi a través del educador y matemático Salman Khan. García del Pozo cree que estamos ante un fenómeno imparable.

Programación: tan importante como el inglés

«La programación forma parte del currículo educativo desde edades tempranas en Estados Unidos, Singapur o Australia. 

Y China aprobó en 2016 un plan para que todos los niños aprendan a programar desde los seis años y estudien robótica a partir de los once. 

Es una ventaja competitiva para acceder al mercado laboral como en su día lo fue para nosotros aprender inglés. Pero no se trata de que todos seamos programadores, sino de que todos entendamos la programación», matiza.

El inglés es la lengua franca que nos permite entendernos con el resto de seres humanos, ¿Qué utilidad puede tener aprender código a alguien que no se vaya a dedicar a la tecnología? García del Pozo responde.

"Las máquinas –explica—dominan parte de nuestra vida cotidiana. Es importante conocer su lenguaje para que la tecnología esté al servicio de las personas y no al revés. Si dominamos el pensamiento computacional, que este año (2021) se ha empezado a medir por primera vez en el informe PISA, desarrollamos la lógica, la creatividad, el pensamiento crítico y la resolución de problemas. Y estas habilidades las podrán usar los estudiantes a lo largo de sus vidas. Por lo tanto, los intereses de los alumnos siempre estarán un escalón por encima de los de la industria".

Y añade: «Tenemos que concienciarnos de que estamos ante un nuevo Renacimiento. Lo digital trae de la mano una nueva civilización. Y esto nos da la oportunidad de elegir: ¿queremos ser un país que crea tecnología o que solo la consume; una sociedad que programa o que es programada?».

Con información de: XL Semanal (El País)  


4 de marzo de 2020

La creatividad: el campo de batalla definitivo entre la inteligencia artificial y la humana


¿Cómo innova una máquina? 

Desde una perspectiva teórica, la creatividad y la innovación son procesos de búsqueda y combinación. Empezamos con un trozo de conocimiento y lo conectamos con otro trozo para crear algo nuevo y útil.

En principio, esto también es algo que puede ser hecho por máquinas. De hecho, son excelentes almacenando, procesando y haciendo conexiones entre datos.

Las maquinas producen innovaciones usando métodos generativos. Pero ¿cómo ocurre eso exactamente?

Hay diferentes estrategias, pero lo que es tecnología de punta se llama "red generativa antagónica"

Por ejemplo, piensa en una máquina que debe crear un retrato nuevo de una persona. Las redes generativas antagónicas abordan esa tarea creativa con la combinación de dos tareas secundarias.

La primera parte es el generador, que produce nuevas imágenes a partir de una distribución aleatoria de píxeles. La segunda parte es el discriminador, que le dice al generador qué tanto se aproximó a producir un retrato que parezca auténtico.

¿Cómo hace el discriminador para saber cómo se ven los humanos? Pues bien, se le alimenta con muchos ejemplos de retratos de personas reales antes de empezar la tarea.

En base a la información del discriminador, el generador mejora su algoritmo y sugiere un nuevo retrato.

Este proceso se repite una y otra vez hasta que el discriminador decide que el retrato se aproxima a los ejemplos que tiene en su memoria. Este proceso da como resultado un retrato que se parece muchísimo a un humano real.

La "chispa humana" 

Pero, aunque las máquinas puedan innovar en base adatos, eso no quiere decir que vayan a hacer sombra a la creatividad humana en breve.

La innovación es un proceso de resolución de problemas. Esto es, para que una innovación exista, hay que combinar los problemas con las soluciones.

Los humanos pueden ir en cualquiera de las direcciones: pueden empezar con un problema y resolverlo, o pueden partir de una solución y tratar de buscar nuevos problemas en torno a esta.

Un ejemplo de este último tipo de innovación es el Post-it (el papelito rectangular para escribir notas con adhesivo en una de las esquinas).

Un ingeniero desarrolló un pegamento que no era muy fuerte y lo dejó en su escritorio. Y un colega se dio cuenta de que esa era precisamente la solución que evitaría que se cayeran las notas que añadía a su partitura durante sus ensayos corales.

Al utilizar datos y código para formular problemas explícitos, la inteligencia artificial también puede ofrecer soluciones.

Sin embargo, identificar un problema es más difícil para las máquinas, ya que estos no suelen estar incluidos en los datos a partir de los cuales innovan las máquinas.

Es más, la innovación suele estar basada en las necesidades que ni siquiera sabíamos que teníamos.

Pensemos en el walkman. Aun cuando ningún consumidor manifestó el deseo de escuchar música mientras caminaba, esta innovación fue un gran éxito.

Así como es difícil formular ese tipo de necesidades latentes, también es improbable que entren a formar parte de los archivos de datos que las máquinas necesitan para inventar.

Los humanos y las máquinas se nutren de distintas materias primas para innovar.

Mientras las personas se basan en toda una vida de experiencias para generar ideas, las máquinas se limitan a hacerlo usando los datos con las que las alimentamos.

Estas últimas puede, pues, generar innumerables innovaciones, versiones nuevas en base a datos que van recibiendo.

Pero es poco probable que los inventos revolucionarios vengan de las máquinas, pues estos suelen crearse generalmente al relacionar campos distintos y desconectados. Un ejemplo de ello es el snowboard, que combina el mundo del surf con el esquí.

Lea el artículo completo en: BBC Mundo



5 de diciembre de 2018

La automatización eliminará 75 millones de empleos para 2025, pero creará 133 millones de nuevas funciones, según WEF

Las estimaciones con respecto a la cantidad de trabajos que se destruirán con la llegada de las máquinas (robots, inteligencia artificial o cómo le quieran llamar) son variadas, pero la gran mayoría apuntan a una pérdida importante que afectará principalmente a aquellos puestos que requieren trabajo físico.


El Foro Económico Mundial (WEF) acaba de publicar su informe 'Future of Jobs 2018', donde se lanzan con cifras que podrían sonar igual de alarmantes, pero que en esta ocasión nos plantean un escenario un poco más alentador. Y es que sí, el estudio pronostica que se perderán empleos, pero afirman que se crearán nuevas funciones que requerían un mayor grado de especialización.

Las máquinas harán más trabajos que los humanos

Hace casi un año, un estudio de McKinsey Global Institute (MGI), con la participación de expertos del departamento de Economía de Oxford y el Banco Mundial, pronosticó que entre 400 y 800 millones de personas serán desplazadas de sus puestos de trabajo en 2030 debido a la automatización.

Hoy el WEF plantea nuevos escenarios ante está potencial perdida de empleos. Según el informe, a día de hoy el 29% de las tareas laborales son realizadas por una máquina. Debido a los avances tecnológicos, en 2025 está cifra significaría la pérdida de 75 millones de empleos. Pero sugiere que esta misma tecnología dará vida a más de 133 millones de nuevos roles de trabajo, con lo que se generarán 58 millones de nuevos empleos.

Es decir, seguimos bajo el panorama de pérdida de empleos tras el avance de la automatización, pero se disminuye la cifra que pronostica hasta 800 millones de personas desplazadas de sus puestos de trabajo. Por otro lado, el informe apunta a que no sólo los trabajos bajo esfuerzo físico serán afectados, sino también aquellas labores rutinarias de oficina, como los encargados de capturar datos, contabilidad o el manejo de nóminas.

Se cree que en un periodo de cinco años se empezarán a demandar más analistas de datos, encargados de diseño, pensamiento crítico, inteligencia social, así como programadores y desarrolladores de software. Incluso se pronostica un cambio general en los planes de estudios para 2020, donde se romperían los viejos paradigmas y la clave de todo esto sería el entrenamiento. 

Se calcula que el 54% de todos los empleados necesitarán formación en nuevas habilidades durante los próximos cinco años, se trataría de capacitación centrada en internet móvil de alta velocidad, inteligencia artificial, análisis de big data y cómputo en la nube, con lo que se impulsaría la demanda de un nuevo tipo de fuerza de trabajo que conviviría con la llegada de las máquinas. De hecho, el informe menciona que los humanos deberán adaptarse a este escenario al exigir mayor preparación, algo que sería un trabajo conjunto entre empresas, gobierno y la misma fuerza de trabajo.

En resumen, el estudio predice que en los próximos siete años nos enfrentaremos a un cambio radical en cuanto a responsabilidades, una importante transformación dentro de los mercados laborales mundiales, lo cual se deberá manejar con prudencia, ya que esto nos conduciría a una nueva era de buenos trabajos y una mejor calidad de vida para todos. En caso de que esto se maneje mal, se correría el riesgo de ampliar las brechas de habilidades, una mayor desigualdad y una polarización más amplia.

Fuentes: Web Economic Forum y Xakata Ciencia
 

10 de octubre de 2018

Qué son las pequeñas rayas en relieve que aparecen en las letras F y J de tu computadora

Quizás sea algo a lo que estás tan acostumbrada que ni siquiera te hayas dado cuenta, pero ahí están: dos pequeñas rayas en dos teclas de tu computadora, las que corresponden a las letras F y J. 

¿Para qué? Pues, en teoría, para hacer tu escritura más rápida y cómoda.

Pero, ¿cómo?


Empecemos por el principio. El tipo de teclado que más se usa en español es el llamado QWERTY y se corresponde con las primeras letras que se pueden ver en la fila izquierda superior de tu teclado. Literalmente: q, w, e, r, t ,e, y.

Este teclado lo diseñó el inventor americano Christopher Latham Sholes a finales del siglo XIX para que su hija pudiese hacer demostraciones de forma fácil con el prototipo que él había creado.

Todas las letras necesarias para escribir "typewriter" (máquina de escribir) estaban en la fila superior. De esta manera la escritura sería más rápida y sin errores.

Este fue el modelo de teclado que acabó conquistando la industria.

Con el auge de las máquinas de escribir a principios del siglo XX, había que aprender a teclear rápido. 

Y es ahí donde nace la mecanografía. Y, ligado al teclado QWERTY, el protagonismo de las letras F y J.

Si sitúas tus dedos índices en ellas verás que los dedos corazón, anular y meñiques se posicionan plácidamente en las letras que siguen, respectivamente, a la F y la J.

Además se encuentran en la línea media del teclado por lo que las manos se pueden apoyar cómodamente en el escritorio.

Los pulgares sirven para manejar la barra espaciadora y las letras G y H, que quedan descubiertas, son fácilmente operables desplazando los dedos índices.

Las letras F y J sirven entonces de guía y punto referencia para situar las manos en la posición que, en teoría, se cree más cómoda y rápida para escribir.

Las rayas sirven para poder identificarlas sin necesidad de bajar la vista al teclado. Algunas computadoras en lugar de rayas tienen puntos.

El artículo completo en: BBC Mundo

4 de julio de 2018

El día en que las máquinas puedan elegir: la paradoja del libre albedrío en robots

Grandes filósofos como Rousseau o Kant, entendían la libertad como autonomía, es decir, como darse normas a uno mismo, siempre que esas normas fueran fruto de una decisión racional

Año 2043. Reino Unido es el último reducto de la WCC (Western Countries Confederation) en Europa, ante el imparable avance del DAESH. Un dron de exploración británico realiza un barrido por las orillas del Támesis. Con su sensor térmico detecta el avance de un grupo de soldados enemigos. Analiza y evalúa: diecisiete soldados, todos hombres (sabe eso debido a que analiza la forma de caminar, y la complexión y proporciones corporales), armados con armamento ligero y un lanzagranadas.

En milisegundos, manda las coordenadas del objetivo a otro dron, esta vez a un bombardero X-54, quien, de nuevo en otros pocos milisegundos, lanzará una lluvia de misiles sobre los desdichados soldados Sin embargo, los sensores del dron de exploración detectan nuevos enemigos. Entre las ruinas de lo que antes fue la abadía de Westminster, avanzan cuatro blindados autónomos de clase T-95. Son un objetivo estratégicamente muy jugoso (cada tanque de este tipo le cuesta al DAESH unos dos millones de dólares), mucho más interesante que el grupo de soldados.

Pero hay un problema. Los estrategas del DAESH descubrieron que había un tipo de blindaje para sus carros de combate, mucho más efectivo que el usual blindaje reactivo: el antiguo escudo humano. El objetivo era confundir la inteligencia artificial de las armas autónomas enemigas o, como mínimo, retrasar sus decisiones.

El cerebro positrónico de un dron de la WCC tomaba decisiones siguiendo a rajatabla la Convención de Massachusetts de 2036, en la que 136 países aprobaron un código ético mundial para armas autónomas, conocido popularmente como BH (el Bushido de HAL).

Según este código, un arma autónoma siempre evitará el mayor número de víctimas humanas posibles, por lo que a la hora de elegir el objetivo para un ataque, siempre elegirá a otra arma autónoma antes que a un grupo de soldados. La táctica del DAESH consistía en atar a unos cuantos prisioneros, si pueden ser civiles mejor, a lo largo de la carrocería de sus tanques.

Entonces el dron tenía dos opciones:
  1. Dirigir los misiles hacia el grupo de diecisiete soldados. Todo correcto a nivel ético y legal: se mata a personas pero son soldados enemigos ocupando territorio soberano.
  2. Dirigir los misiles hacia los T-95. Se ocasionarían víctimas humanas del propio bando, generando intencionalmente daños colaterales y, por lo tanto, violando claramente el BH. Sin embargo, eliminar esos carros enemigos supondría una ventaja decisiva en la batalla que, casi con total probabilidad, evitaría más muertes que ocasionaría.
¿Qué hacer? ¿Violar tu propio código ético, o ser práctico y ganar la batalla haciendo, quizá, un mal menor? El dron piensa y actúa: los blindados enemigos son destruidos. Los programadores de la empresa Deep Mind encargados de diseñar el cerebro computerizado de la máquina dejaron una puerta trasera mediante la que los compradores podían reprogramar la conducta de su arma a su antojo.

Los oficiales del ejército británico lo tuvieron claro: ganar la batalla era lo primero y unas cuantas bajas humanas, incluso de civiles, se justificaban en función de intereses estratégicos superiores.

El artículo completo en:

Xataka Ciencia

25 de junio de 2018

Los trabajadores de Las Vegas se preparan para la huelga contra la robotización del empleo

Las Vegas, la ciudad de los casinos, tiene a sus empleados en pie de guerra. Unos 50.000 trabajadores de su sector hostelero están amenazando con ir a la huelga por sentir que sus puestos de trabajo están amenazados por los robots.


Son los recepcionistas, camareros, cocineros y otros empleos de hoteles y casinos los que, a través de los dos sindicatos más importantes, han iniciado un movimiento de protesta contra la robotización del trabajo que solo el paso del tiempo podrá determinar hasta dónde escala.

Un buen ejemplo de lo que quieren evitar está en el Tipsy Robot, un bar de Las Vegas en el que los clientes escogen sus combinaciones alcohólicas para crear cócteles personalizados que son preparados por un brazo robótico. El pedido se le realiza mediante una tablet.


La causa tras la protesta es la de siempre: trabajadores tratando de evitar perder sus empleos a causa de robots cuyos costes totales sean inferiores para el empresario.

Lee el artículo completo en:

Xataka Ciencia

5 de junio de 2018

Inteligencia artificial: "Saber eso" y "Saber cómo"

La semana pasada, la compañía Apple dio a conocer su nuevo modelo de teléfono llamado iPhone X. En la presentación del producto se anunció que, gracias al reconocimiento facial, el aparato empezará a funcionar apenas reconozca el rostro de su dueño. Para eso, dijeron los ingenieros, el chip electrónico del teléfono ha sido entrenado a reconocer mas de mil millones de rostros humanos usando un sistema electrónico llamado circuito neuronal artificial.

En los últimos años se ha venido usando ese tipo de circuitos neuronales en máquinas que ayuden en el diagnóstico en algunas especialidades de la medicina, especialmente en patología y radiología. La idea es que del mismo modo que ahora un teléfono celular es capaz de reconocer el rostro de una persona con una seguridad de uno en un millón, ¿será posible que una máquina pueda reconocer tan bien como un ser humano una neumonía en una placa de rayos X o un diagnóstico de cáncer de la próstata en una biopsia?.

El conocimiento humano

Tratando de entender como es que los radiólogos aprenden a interpretar sus radiografías, investigadores de la Universidad de Sao Paulo pusieron a 25 radiólogos en máquinas de MRI que estudiaban sus cerebros mientras se les enseñaban imágenes de rayos X, siluetas de animales o simplemente letras del alfabeto. Los resultados indicaron dos cosas, en primer lugar, que el reconocimiento de las imágenes era casi instantáneo (demora 1.33 segundos) y en segundo lugar, que a pesar de que el reconocimiento de todas las imágenes usa la misma zona cerebral (lóbulo parietal) el reconocimiento de diagnósticos médicos activa zonas cerebrales mas complejas. Eso indica que hay dos niveles de conocimiento, el de la imagen por si misma y el del significado de las imágenes.
Ese hallazgo refuerza la idea del filosofo británico Gilbert Ryle quien dijera en 1945 que el conocimiento existe en dos esferas, el del “saber eso” y el del “saber cómo”. Por ejemplo, el saber reconocer un carro es algo simple, pues implica saber que tiene cuatro ruedas, tiene una carrocería, tiene un parabrisas, tiene un timón, etc. Este nivel de conocimiento es el “saber eso”. Pero ya el saber diferenciar la marca del carro, el modelo o el año de fabricación exige ya un nivel mas sofisticado de conocimiento, el que según Ryle representa el “saber cómo”, en este caso, el saber como diferenciar los diferentes tipos y modelos de carro.

¿Pueden las máquinas aprender?

Desde hace varios años, se han venido desarrollando máquinas que han aprendido a reconocer imágenes, es decir el “saber eso” de Ryle. Así, se tienen máquinas que leen citologías vaginales (Papanicolaou), mamografías (sistema CAT por sus siglas en ingles), electrocardiogramas, etc. El problema con estos sistemas es que solo han llegado al primer nivel del conocimiento, es decir reconocer imágenes y patrones de un solo elemento (células, imágenes de rayos X) pero no han aprendido a diferenciar imágenes que sean diferentes de lo que se les ha enseñado. En otras palabras, solo diferencian carros de bicicletas y motocicletas, pero no han aprendido el “saber cómo” diferenciar las marcas o los modelos de los carros ni su año de fabricación.

Un interesante estudio del Dr. Sebastián Thrun de la Universidad de Stanford y publicado en la revista Nature en febrero de este año, revela que dependiendo del tipo de datos con que se alimenten a las máquinas, estas son capaces de aprender. En primer lugar, se le enseñó a la máquina a reconocer 130,000 imágenes de todo tipo de lesiones de la piel (incluyendo cáncer, acné, lunares, eczemas, etc.). En un segundo paso, los científicos alimentaron a la máquina con el nombre de las 2,000 enfermedades que esas imágenes representaban y las biopsias de 2,000 de esas lesiones. El resultado fue que la máquina no solo aprendió a reconocer las imágenes de las lesiones, sino que aprendió a relacionarlas con el nombre de las enfermedades y sus respectivas biopsias. En otras palabra, la máquina no solo aprendió el “saber eso”, sino que aprendió también el “saber cómo” de Ryle. En otras palabras, no solo aprendió a reconocer los carros, sino que aprendió a diferenciar las marcas y los modelos. A este tipo de conocimiento avanzado de las máquinas, se le ha bautizado como “conocimiento profundo”.
 
Validación del conocimiento profundo

Para probar el nivel de conocimiento adquirido de sus máquinas, Thrun la enfrentó primero a dos radiólogos entrenados en reconocer las mismas lesiones. Luego de mostrarle a ambos 14,000 imágenes, la máquina predijo con un 72% de certeza el diagnóstico de una imagen. Los radiólogos solo lo hicieron en el 66%.

En un segundo experimento, la máquina fue enfrentada con un grupo de 25 radiólogos para examinar 2,000 imágenes de cáncer de la piel de tipo melanoma y la máquina fue mucho mejor que los humanos, tanto en su sensibilidad, es decir casi no se le pasaban por alto las imágenes de verdaderos melanomas y en su especificidad, es decir, no llamaba melanoma a lo que no era.

Corolario

Si bien es cierto que al igual que los humanos, las máquinas (incluyendo la Watson de IBM o el DeepMind), pueden aprender el “saber eso” y en base a esa experiencia pueden desarrollar el “saber cómo” de Ryle, es importante entender que hasta ahora, las máquinas no pueden desarrollar el tercer tipo de conocimiento que postuló Ryle. Es el llamado “saber qué” o sea el saber para qué o porqué se hacen las cosas, es decir el razonamiento que permite relacionar el “saber eso” y el “saber cómo” con el medio ambiente y establecer el contexto de lo que realmente sucede en la vida.

Fuente:

El Comercio (Perú)

23 de febrero de 2018

¿Qué son los dispensadores electrónicos de cuentos?

La idea del proyecto era promover la lectura en los viajeros y transeúntes para que se separaran de las pantallas de los móviles. 


Francia cuenta con más de 150 dispensadores electrónicos de cuentos. Estas máquinas ya llegaron a Estados Unidos y podrían expandirse por otros países.

En 2011, la empresa Short Édition con sede en Grenoble (Francia) empezó a instalar máquinas dispensadoras de cuentos en espacios públicos estratégicos, como el aeropuerto Charles de Gaulle de París.

Una peculiaridad de los Short Story Dispensers (dispensadores de historias cortas) es que no tienen pantalla.

Christophe Sibieude, cofundador y jefe de Short Édition, y el alcalde de Grenoble, Éric Piolle, son los creadores de esta modalidad.

La idea del proyecto era promover la lectura en los viajeros y transeúntes para que se separaran de las pantallas de los móviles.

“La idea nos vino frente a una máquina expendedora que contenía barras de chocolate y bebidas”, explicó Sibieude a Agence-France Presse en 2015.

“Nos dijimos que podíamos hacer lo mismo con la literatura popular de buena calidad para ocupar estos momentos improductivos”, agregó.

Hay historias de uno, tres y cinco minutos impresas en un papel largo, ecológico y libre de BPA (compuesto de muchos plásticos y aditivos).

Cuentan con obras de 6.800 autores que incluyen clásicos como Shakespeare y Virginia Woolf.

Fuente:

TeleSur

9 de enero de 2018

Drumi, la lavadora que lava la ropa sin utilizar electricidad

La lavadora sustentable Drumi funciona sin electricidad, tarda 5 minutos en lavar y solo necesita 10 litros de agua. ¡Excelente!


Es cierto que con esta lavadora solo se puede lavar 5 o 6 prendas, pero es una herramienta ideal cuando tienes poca ropa sucia. También es perfecta para llevarla de vacaciones o a un camping; es muy pequeña, liviana y no tienes que enchufarla.
Drumi simula el ciclo habitual de una lavadora eléctrica, pero usa la fuerza centrífuga que proporciona un pedal que se acciona con el pie.

Funciona de la siguiente manera: primero introduces 5 litros de agua, jabón y la ropa sucia. Tras pedalear algunos minutos, liberas el agua enjabonada y vuelves a introducir otros cinco litros de agua para aclarar y, de nuevo, pedaleas. Por último, sacas el agua y vuelves a pedalear otro minuto más, para simular el centrifugado.

Funciona de la siguiente manera: primero introduces 5 litros de agua, jabón y la ropa sucia. Tras pedalear algunos minutos, liberas el agua enjabonada y vuelves a introducir otros cinco litros de agua para aclarar y, de nuevo, pedaleas. Por último, sacas el agua y vuelves a pedalear otro minuto más, para simular el centrifugado.
 Lea el artículo completo en:
Mihumi 

15 de julio de 2015

Ingenieros rusos aprenden a manejar aparatos con el pensamiento

La Fundación de Investigaciones Avanzadas (FPI, por sus siglas en ruso), creada en Rusia en 2012, ha anunciado el éxito del proyecto de elaboración de una interfaz cerebro-ordenador que permita controlar aparatos con el pensamiento.
"Estamos preparados para poner nuestra tecnología a disposición de los organismos gubernamentales", declaró el presidente de la Fundación de Investigaciones Avanzadas, Andréi Grigoriev, citado por RIA Novosti
La tecnología de interfaz se basa en el uso de la actividad eléctrica del cerebro humano, que se registra mediante electroencefalografías.
Durante la demonstración del avance, los ingenieros manejaron un cuadricóptero con la ayuda de las corrientes bioeléctricas de su cerebro y el programa de software creado por FPI, y fueron capaces incluso de manejar el vehículo al mismo tiempo que hablaban con los asistentes.
Fuente:

6 de enero de 2015

¿La tecnología realmente atenta contra la capacidad de tu memoria?

Dos personas entran a un seminario. Una saca fotos y graba video y audio de la presentación, al tiempo que la otra toma notas a mano. ¿Qué persona cree que recordará mejor la información? El primero puede usar sus notas digitales para crear algo nuevo sobre el tema, mientras que para el segundo no será tan fácil.

Aún así, siguen apareciendo investigaciones como una recientemente publicada en la revista Psychological Science. Esta afirma que tomar notas en papel le da a la persona una ventaja al momento de recordar, en comparación con alguien que lo tipea en un computador.

El argumento lleva varios años circulando y usualmente está basado en la idea de que la escritura a mano es lenta y deliberada. Esto le permite al lector un entendimiento más profundo de la información y, por ende, una mayor capacidad para recordar. En contraposición, los conceptos grabados por medio digital, algo que se hace de forma rápida y automática, limitan la comprensión y, en consecuencia, su posterior memorización.

Existen argumentos similares respecto a la capacidad de recordar cosas leídas en una pantalla de smartphone, tableta o e-reader, por ejemplo, en oposición al papel impreso.

Pero, memorizar información, ¿debería seguir siendo una prioridad? 

El articulo completo en:

América Economía

27 de agosto de 2014

Soluciones para el mal estado de las ruedas del Curiosity y nuestro futuro en Marte

  • Las ruedas del rover se deterioran a un ritmo muy superior al previsto
  • La NASA ha identificado el origen del problema y estrategias para minimizarlo
  • Lo aprendido se aplicará en el rover que la NASA quiere enviar en 2020 a Marte
Ampliar fotoImagen facilitada por la NASA del rover Curiosity en Marte
Imagen facilitada por la NASA del rover Curiosity en Marte.AFP

A principios de este mes el rover Curiosity de la NASA cumplía dos años explorando la superficie de Marte, dos años en los que todos los sistemas de a bordo han funcionado tan bien o mejor de lo que se esperaba, salvo las ruedas del vehículo.

Detectado por primera vez en las imágenes recibidas del sol –del día marciano– 411 de la misión, las ruedas, fabricadas fresando bloques de aluminio hasta dejarlos en un grosor de 0,75 milímetros, estaban acumulando pinchazos, rajas y desgarros a un ritmo preocupante, daños que amenazan la movilidad del vehículo, y que además resultaban tanto más preocupantes cuando en principio los responsables de la misión no sabían por qué las ruedas estaban resultando dañadas a tal velocidad, mucho mayor de la prevista.

Pero afortunadamente, tras muchas pruebas, los técnicos del Laboratorio de Propulsión a Chorro consiguieron averiguar qué es lo que causa estos daños y, lo que es más importante, diseñar estrategias para mitigarlo una vez entendida la causa del problema.

Rocas y sistema de supensión

Esta parece radicar en la presencia de numerosas rocas puntiagudas en la zona por la que estaba circulando Curiosity que no se desplazan al pasar este por encima, a diferencia de lo que ocurría en las zonas en las que circularon otros rover de la NASA, en las que las rocas se apartaban bajo el peso de estos.

La presencia de estas rocas resulta además más dañina para las ruedas de Curiosity de lo previsto porque aunque estas están pensadas para resistir los efectos de este tipo de rocas siempre que el peso del vehículo esté repartido entre todas resulta que el diseño del sistema de suspensión hace que en algunas circunstancias cuando el rover pasa por encima de una de estas rocas puntiagudas todo el peso del vehículo pueda pasar a descansar sobre la rueda que está pasando sobre esta, lo que prácticamente asegura que se produzca una perforación.



Pero la buena noticia, como decía antes, es que una vez identificado el origen del problema, los responsables de la misión han podido diseñar varias estrategias para mitigarlo.

Mitigando el problema

Una de ellas es programar a Curiosity para que cuando se mueva evite este tipo de rocas, aunque esto solo sirve para cuando se programan desplazamientos cortos, ya que solo es posible apreciar la presencia de estas rocas hasta una distancia de 10 o 20 metros en las imágenes que envía el rover; es el tipo de estrategia que se usa cuando Curiosity tiene que pasar sí o sí por terreno «peliagudo.

Otra es conducir marcha atrás, ya que, de nuevo en virtud del diseño del sistema se suspensión del rover, cuando circula marcha atrás las fuerzas que se ejercen sobre las ruedas son mucho menores. A cambio, cuando Curiosity se mueve marcha atrás al final tiene que girar 180 grados en el punto en el que se para para poder mirar hacia delante con las cámaras y programar el siguiente desplazamiento, lo que añade unos seis metros extra de desplazamiento a las ruedas sin que Curiosity realmente se mueva del sitio; se usa más para cuando se hacen desplazamientos largos «a ciegas» por terrenos en principio menos complicados.

También se están planificando las rutas a largo plazo sobre terreno más amigable usando tanto imágenes y datos obtenidos por los instrumentos de a bordo como imágenes y datos obtenidos de las sondas que hay en órbita alrededor de Marte.

Una última opción es una actualización del software de a bordo que debería permitir a Curiosity manejar las ruedas de forma más inteligente, de tal forma que si nota que una está experimentando demasiada oposición al movimiento podría dejarla girar libre o ejerciendo menos fuerza sobre ella, aunque esta modificación del software aún tiene que ser probada y aprobada.

Lecciones aprendidas

A largo plazo, lo aprendido con Curiosity servirá para el rover que la NASA quiere enviar a Marte en 2020, basado en el diseño de este.
No está claro qué modificaciones se harán en sus ruedas, porque por ejemplo hacerlas tan solo un milímetro más gruesas añadiría un total de 10 kilos al peso del rover, peso que se pierde en instrumentos científicos y que también afecta al sistema de aterrizaje de este.

Pero para Curiosity la suerte ya está echada, y aunque no quede más remedio que circular más lento, no parece que a la larga, una vez detectado el origen del problema, esto vaya a afectar seriamente a la misión.


Tomado de:

RTVE

24 de julio de 2014

Startup busca enseñarle programación a niños de cinco años con robots

La compañía se llama Play-i, y lanzó una campaña de crowdfunding para producir en masa a los dos robots.


Vikas Gupta es un ex empleado de Google que creó una startup llamada Play-i, con la que quiere encontrar la forma más efectiva para que niños pequeños puedan aprender conceptos básicos de programación.

Para ésto, la compañía lanzó una campaña de crowdfunding para recaudar USD$ 250.000 que le permitan producir dos modelos de robots, llamados Yana y Bo, que le permitirían a niños tan pequeños como de cinco o seis años aprender conceptos básicos de programación mediante juegos.

El equipo de Play-i decidió evitar intentar enseñar conceptos abstractos y el enfoque tradicional de aprender la sintaxis y a escribir código. Según Gupta, quien también es CEO de Play-i:

Investigaciones de MIT y la Universidad Tufts demostraron que preescolares pueden comprender conceptos básicos de programación, solo que aún no tienen las herramientas y el marco teórico necesario.

Gran parte de programar es aprender a poner cosas en una secuencia. Pregúntale a un niño de 5 años que redacten una secuencia y tendrán problemas para organizar una larga cadena de comandos, pero si lo replanteas como una canción con letras, o una historia con una narrativa, los niños de esa edad podrán crear y recordar secuencias largas y complejas.

Así, los niños deben entregarle instrucciones a los robots de Play-i para interactuar con ellos, lo que puede ser a través de un tablet o un smartphone, donde pueden arrastrar y soltar secuencias de comandos. "A medida que aprenden esto, podemos introducirles otros conceptos básicos de programación como los loops, o if-then-else", aseguró Gupta.

 

La campaña de crowdfunding consistirá en que los auspiciadores recibirán un robot Yana por USD$ 49, o un robot Bo por USD$ 149, y el par por USD$ 189.


Fuente:

FayerWayer



Play-i - Delightful Robots for Children to Program from Play-i on Vimeo.

7 de julio de 2014

Investigadores peruanos construyen máquina para “curar” el cáncer

La máquina es el primero en Latinoamérica y está construida con tecnología 100% peruana.
 
Investigadores peruanos han construido una máquina de microgravedad equivalente a las que se encuentran en la NASA y la Agencia Espacial Europea (ESA) para buscar la cura al cáncer y otras enfermedades.


A nivel internacional se vienen realizando estudios de algunas enfermedades que posiblemente se curan en condiciones de microgravedad, basándose en las reacciones de estos elementos.

En el caso del Perú, se está investigando desde el punto de vista de la bioinformática, centrándose en el porqué en condiciones de microgravedad las enfermedades cancerígenas desaparecen.

“Un tumor en condiciones de microgravedad muere por apoptosis (muerte celular)”, indica el Dr. David Laván, miembro del equipo de investigación peruano que comparte el proyecto con investigadores de España y EE.UU.

La máquina, que se  encuentra en Perú, es el primero en Latinoamérica y está construida con tecnología 100% peruana por investigadores del INICTEL-UNI de la Universidad Nacional de Ingeniería (en colaboración con la Universidad Autónoma de Madrid) y con financiamiento del Fondo para la Investigación, Ciencia y Tecnología (FINCyT).

Además de la salud, también será usada para investigaciones en las áreas de telecomunicaciones y ciencias materiales.
 
Fuentes:
 
La República
 
Diario 16

19 de junio de 2014

Desarrollan androide que servirá de acompañante

El robot 'Pepper' puede descifrar emociones humanas.





La empresa Softbank entra al negocio de la robótica con un androide que susurra, gesticula y se mueve con unas ruedas llamado Pepper, que de acuerdo con la firma está diseñado para ser acompañante y puede descifrar emociones humanas.
La empresa japonesa, fabricante de teléfonos móviles, informó el jueves que Pepper saldrá a la venta en Japón en febrero a un precio de 198 mil yenes, (mil 900 dólares). Los planes para su venta en el extranjero están en análisis pero aún no hay nada decidido.

La máquina, que carece de piernas pero tiene manos que hacen suaves gestos, apareció en un escenario en un suburbio de Tokio, susurrando y silbando. Chocó las manos dramáticamente con el director ejecutivo de Softbank Masayoshi Son en una escena similar a la de la película "E.T.".

Son, quien dijo al público congregado que su sueño de mucho años era entrar al negocio de los robots personales, dijo que Pepper fue programado para leer las emociones de las personas que lo rodean y reconocer expresiones y tonos de voz.

"Nuestro objetivo es desarrollar robos afectuosos que puedan hacer sonreír a la gente", dijo.

Los robots mascotas no son nuevos en Japón, pero ningún androide de compañía se ha convertido en un éxito en el mercado.

La empresa Sony sacó del mercado al perro robot Aibo en 2006 pese a la indignación de sus fanáticos. En esa época Sony desarrolló un robot para niños similar a Pepper pero mucho más pequeño, capaz de bailar y hacer movimientos simpáticos pero nunca se lanzó comercialmente.

Honda desarrolló el robot Asimo, que habla y camina pero es demasiado sofisticado y caro, y sólo se usa en presentaciones de modelos de la compañía y actos de gala. Aún así, es común que falle debido a su complejidad.

Pepper mide 121 centímetros de alto (48 pulgadas), pesa 28 kilogramos (62 libras) y no tiene pelo pero sí dos grandes ojos similares a los de las muñecas, así como una pantalla plana en su pecho, que fue desarrollada conjuntamente con Aldebaran Robotics, que diseña, produce y vende robots humanoides autónomos.



Fuente:

Novedades de Tabasco

10 de junio de 2014

Máquinas y test de Turing: ¿Inteligencia real o imitación?

El test propuesto por el matemático inglés Turing en su artículo Computing machinery and intelligence, publicado en 1950 en la revista Mind, está considerado uno de los hitos históricos del desarrollo de la inteligencia artificial. Originalmente se denominaba El juego de imitación y era ligeramente diferente, con un hombre, una mujer y un interrogador, situado en una habitación separada, que debía determinar cuál era el hombre y cuál la mujer, mientras éstos trataban de engañarle. 


Turing usó está misma idea para su test, y actualmente el interrogador se comunica con un humano y una máquina con mensajes de texto durante cinco minutos, y decide cuál es el humano. Si la máquina consigue ganar más del 30% de las veces supera el test. Es lo que se supone que han conseguido Eugene Demchenko y Vladimir Veselov

Esto no significa que ya existan máquinas con una inteligencia igual a la humana: el test planteado por Turing es muy controvertido, y muchos aseguran que es tan bueno como sus jueces. Un buen examinador debe ser capaz de detectar respuestas fuera de contexto, ya que a fin de cuentas, se enfrenta a un simple algoritmo. Y lo que mide es solo una parte de la inteligencia humana; es decir, es un buen simulador de conversaciones, pero, por ejemplo, no necesariamente creativo. Imita la inteligencia pero ¿es realmente inteligente?

El logro rompe un reto que se resistía, como ocurrió con la victoria de Deep Blue a Gari Kasparov en ajedrez en 1997, pero no va a suponer grandes avances en la teoría de computación o en la inteligencia artificial. Tiene, eso sí, implicaciones sociales. Actualmente, con miles de robots y humanos buscando nuestros datos e invadiendo nuestra intimidad, este paso debería servirnos para reflexionar sobre nuestra creciente indefensión para discernir la verdad o falsedad de lo que se nos comunica por las redes. 

Tomado de:

El Mundo (España)

Una computadora logra superar por primera vez el test de Turing

  • El programa informático 'chatea' como un niño de 13 años, y sus interlocutores humanos creen que es una persona

  • Es la primera máquina que supera la famosa prueba del 'padre' de la informática para comprobar que una máquina 'piensa'


Un 'superordenador' capaz de 'chatear' como un niño de 13 años se ha convertido en la primera máquina que ha superado el llamado test de Turing. En un experimento llevado a cabo en la Royal Society de Londres, se utilizaron cinco ordenadores para intentar comprobar si podían engañar a varias personas, haciéndoles creer que eran seres humanos de carne y hueso durante una conversación con mensajes de texto.

Esta prueba fue concebida en 1950 por el gran matemático y pionero de la informática Alan Turing, quien afirmó que si una máquina no podía distinguirse de un ser humano, se demostraría que era capaz de "pensar". Desde entonces, el test de Turing -un hombre que contribuyó de manera decisiva a la victoria aliada durante la Segunda Guerra Mundia, ya que logró descifrar los códigos utilizados por los nazis para enviar mensajes encriptados-, se ha considerado la prueba clave para comprobar que un ordenador posee 'inteligencia artificial'.

Hasta ahora, ninguna máquina había superado esta prueba, que requiere que el 30% de sus interlocutores humanos crean que están hablando con otra persona durante conversaciones (mediante intercambios de textos) de cinco minutos. 

Pero según informa la Universidad de Reading en un comunicado, el programa informático 'Eugene Goostman', diseñado para simular el cerebro de un niño de 13 años, logró convencer por primera vez al 33% de sus interlocutores humanos que era una persona.

"En el campo de la inteligencia artificial, no hay ningún hito más icónico y controvertido que el test de Turing. Es muy apropiado que semejante acontecimiento se haya logrado en la Royal Society de Londres, la gran sede de la ciencia británica y el escenario de muchos de los grandes avances en la historia del conocimiento humano a lo largo de los siglos. Este hito quedará como uno de los avances más emocionantes en la historia de la ciencia", ha declarado el profesor Kevin Warwick, de la Universidad de Reading, uno de los organizadores del experimento.

La máquina 'inteligente' fue diseñada por Vladimir Veselov, un informático de origen ruso que trabaja en Estados Unidos, y el ucraniano Eugene Demchenko, que vive en Rusia.

"Es un logro impresionante para nosotros, y esperamos que fomente el interés por la inteligencia artificial y los chatbots [programas informáticos capaces de mantener conversaciones con personas]", ha declarado un emocionado Veselov.

Warwick ha reconocido que en el pasado, anteriores experimentos supuestamente habían logrado demostrar que otras máquinas podían "pensar", pero ha puesto en duda su validez: "Nuestro experimento se realizó con más pruebas simultáneas comparativas que nunca, se verificó de forma independiente y las conversaciones no tenían ninguna restricción. Un auténtico test de Turing no fija las preguntas o temas de conversación antes de que se realice la prueba. Por tanto, estamos muy orgullosos de poder afirmar que el test de Turing se ha superado por primera vez".

El científico británico considera que la existencia de ordenadores con una inteligencia artificial tan notable podría tener importantes "implicaciones para la sociedad" tanto positivas como negativas, ya que podría elevar el riesgo del "cibercrimen".

El experimento en la Royal Society tuvo un especial valor histórico, ya que se llevó a cabo precisamente cuando se cumplía el 60º aniversario de la muerte de Turing, considerado el 'padre' de la informática moderna.

Sin embargo, a pesar del entusiasmo con el que los autores del experimento han presentado sus resultados, algunos expertos ya lo han puesto en duda. La revista New Scientist, por ejemplo, ha publicado un análisis muy crítico titulado 'El "éxito" del test de Turing no es todo lo que parece'

"El test de Turing se ha convertido en un símbolo de la inteligencia de las máquinas, pero este nuevo experimento sólo ha comprobado la capacidad de las máquinas para chatear. Sin embargo, las personas son capaces de mucho más. La inteligencia humana va mucho más allá del chateo", concluye el comentario de New Scientist.
 
Fuente:
 
google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0