Latest Posts:

Mostrando las entradas con la etiqueta algoritmo. Mostrar todas las entradas
Mostrando las entradas con la etiqueta algoritmo. Mostrar todas las entradas

8 de enero de 2013

Iamus: El competidor informático de Mozart


Partitura del proyecto Iamus

La computadora Iamus funciona como los procesos biológicos evolutivos para componer su música.

El sonido musical de un teclado flota sobre los modernos edificios del Parque Tecnológico de Andalucía, en Málaga, conocido como el Silicon Valley de España.

Pero este no es un ensayo, aunque el músico que interpreta es un artista internacional.
"Hemos enseñado a una computadora a escribir notas musicales", dice Gustavo Díaz-Jerez, consultor informático y pianista.

"Ahora podemos producir música clásica moderna con sólo pulsar un botón".

El equipo que desarrolla este proyecto musical –llamado Iamus en honor al semidiós de la mitología griega capaz de hablar con los pájaros– sólo le provee información básica.

"Sólo le indicamos al ordenador algunas cosas técnicas generales", cuenta Díaz-Jerez.

"Le informamos que es imposible para un pianista tocar un acorde de 10 notas con una sola mano. Sólo tenemos cinco dedos en cada mano".

Mapa musical

Proyecto Iamus

El pianista Gustavo Díaz-Jerez trabaja en el proyecto e interpreta las creacionas de la computadora Iamus.

Instruir a una computadora para que escriba notas musicales es un gran paso en la relación entre la música y la tecnología.

Iamus se originó a partir de una investigación sobre vida artificial y utiliza la evolución como base, según explica Francisco Vico, profesor de Inteligencia Artificial (IA) de la universidad de Málaga.

"Algunas personas no creen que sea posible", dice Vico, en conversación con la BBC.

"Cada composición tiene un núcleo musical que se hace más complejo y evoluciona automáticamente".

El programa informático permite a Iamus escribir innumerables notas sin ayuda humana.

"Empieza con estructuras muy complejas dentro de la computadora", explica Díaz-Jerez.

"Es muy distinto a otras músicas generadas por ordenador. Cuando la gente escucha esta frase imagina que se puede escuchar a la computadora interpretando música".

"Pero Iamus hace algo diferente, proyecta esa complejidad que evoluciona en el ordenador en estructuras musicales".

Inspirada por la evolución

Iamus se alimenta con información específica que dispone, por ejemplo, la duración y los instrumentos para los que compone.

La actividad se controla a través de un algoritmo inspirado en procesos biológicos.

Igual que el genoma humano ha mutado para crear una multitud de personas únicas, Iamus altera y reordena el material inicial para crear piezas de música compleja. La única restricción es que pueda ser interpretada por un músico y su instrumento.

"La composición evoluciona dentro de la máquina", dice Francisco Vico.

"Y un humano selecciona entre el conjunto de composiciones que provee Iamus".

Orquesta Sinfónica de Londres

La Orquesta Sinfónica de Londres interpretó obras compuestas por Iamus.

Algunas de estas piezas han sido interpretadas por la Orquesta Sinfónica de Londres. El violinista y director Lennox McKenzie cuenta que fue la primera vez que tocaban música creada por ordenador.

"No es el tipo de música que escuchas y te vas silbando una melodía", cuenta McKenzie, consultado por la BBC.

"Es realmente amplio en términos de sonido. Me recuerda un poco a Varese o a Frank Zappa".

En una prueba, el musicólogo aficionado Peter Russel escuchó la música y la definió como "artística y encantadora" antes de saber cómo había sido creada.

Compositor prodigioso

Retrato de Mozart

Iamus puede ser tan prodigioso como Mozart.

Iamus tiene el potencial para componer otros géneros además del clásico contemporáneo y para instrumentos que aún no han sido introducidos en su sistema.

Díaz-Jerez explica que utiliza la escala templada occidental, en la que una octava tiene doce notas.

"Pero si le damos las instrucciones para que utilice más notas, como por ejemplo en la música árabe o hindú, Iamus será capaz de componer piezas que se relacionen con estas culturas".

"Es sólo cuestión de extender el conocimiento de la computadora".

La idea de que un ordenador pueda convertirse en un compositor más prodigioso que Mozart, Haydn, Brahms y Beethoven combinados es quizás inquietante.

Por ahora los músicos pueden consolarse sabiendo que aún hacen falta sus sentimientos y talentos personales para interpretar esta música y darle vida.

Entre tanto, la innovación ha abierto la puerta para una nueva forma de venta de música.

El desprendimiento comercial del proyecto Iamus, la compañía Melomics Media con base en Estados Unidos, ofrece las composiciones musicales creadas por esta computadora a un precio similar a lo que cuesta descargar un tema de iTunes o Google Play.

Pero la gran diferencia es que quienes compran las composiciones de Iamus también obtienen los derechos de autor.

Y con una cantidad ilimitada de piezas –ya hay miles en su discoteca– no hay riesgo de quedarse sin material.

Fuente:

BBC Ciencia

21 de diciembre de 2012

Investigadores desarrollan un algoritmo para determinar si un tuiteo es mentira


(cc) Juampe López

Cuando ocurre un desastre natural o una tragedia, nunca falta gente que se dedica a inventar información y subirla a Internet, quizás con el ánimo de ser chistosos, o simplemente para divertirse confundiendo a la gente. Así para el huracán Sandy aparecieron fotos de gente buceando en las estaciones de metro o tiburones en la ciudad, o para el terremoto de 2010 en Chile salieron personas diciendo que Ricardo Arjona había muerto o que el Huáscar había desaparecido de Talcahuano.

Los investigadores Carlos Castillo (Qatar Research Institute), Marcelo Mendoza (Universidad Técnica Federico Santa), y Bárbara Poblete (Departamento de Ciencias de la Computación de la Universidad de Chile) escribieron en 2010 en paper [PDF] analizando los tuiteos emitidos tras el terremoto de 8,8 grados de magnitud, llegando a varias conclusiones que ahora aplicaron en un algoritmo.

Este “detector automático de eventos” usa 16 características para determinar la credibilidad de tuits noticiosos, y será publicado en la revista Internet Research el próximo mes.

“Nuestros datos muestran que es posible separar eventos que corresponden a noticias confirmadas de aquellos que en realidad son rumores”, explicó a FayerWayer Marcelo Mendoza, doctor en Ciencias de la Computación de la Universidad de Chile y académico de la UTFSM. “Twitter registra volúmenes muy significativos de tweets que no tienen valor informativo. Sin embargo, nuestro algoritmo puede detectar tweets informativos y extraer información relevante desde ellos”.

Entre las conclusiones de 2010, los investigadores determinaron que los rumores falsos tenían una alta probabilidad de ser tuiteados junto a un signo de interrogación, o una indicación de duda o negación. También concluyeron que los tuits verdaderos tienden a ser más largos e incluir URLs, que las personas que tuitean cosas verdaderas suelen tener más seguidores, y que los mensajes que son ciertos suelen ser más negativos que positivos en el tono en que están escritos. Además, los tuiteos verdaderos no suelen incluir signos de interrogación, exclamación o pronombres en primera o tercera persona.

El nuevo algoritmo desarrollado por Castillo, Mendoza y Poblete funciona bastante bien, logrando clasificar como “verdaderos” a los tuiteos verdaderos un 86% de las veces.

“El algoritmo realiza análisis agregado, es decir, caracteriza “grupos” de tweets (no tweets aislados). La fortaleza radica principalmente en la caracterización de eventos a partir de grandes volúmenes”, dice Mendoza. “Más tweets permiten mejores estimaciones”.

Por supuesto, no es un sistema perfecto y quizás una persona entrenada en el uso de redes sociales podría obtener un mejor resultado intentando determinar la veracidad de un mensaje. De todos modos, un algoritmo funciona muchísimo más rápido que una persona, y podría servir como un “primer filtro” para marcar los tuiteos dudosos.

De acuerdo al trabajo que saldrá publicado, “antes de que una noticia se transforme en trending topic es posible estimar la credibilidad de ella. Nosotros aplicamos nuestro algoritmo a los tweets del terremoto del 27-F mostrando que era posible validar las alarmas del tsunami antes de que éstas llegaran a Juan Fernández. Con un tráfico adecuado, la validación de la credibilidad de un evento puede realizarse durante los primeros 15 a 20 minutos transcurridos desde el primer tweet relacionado con el evento”, afirma Mendoza.

Quizás podría ahorrarnos algo de confusión entre los usuarios de la red social, aunque siempre habrá gente ingeniosa que intentará engañar al resto.

Link: Social media hoaxes: Could machine learning debunk false Twitter rumors before they spread? (Slate)

Fuente:

FayerWayer

4 de diciembre de 2012

Científicos confirman que la música pop suena toda igual

Analizan con algoritmos miles de canciones desde 1955 y concluyen que son anodinas en coros, melodías y sonidos.



Noticia reconfortante para todos aquellos mayores de 35 años: unos científicos han descubierto que la música pop moderna es en realidad más alta y toda suena igual.

Investigadores de España han utilizado un enorme archivo conocido como Million Song Dataset, que desglosa todo el audio y las voces en datos que se pueden comprimir, para estudiar las canciones pop entre 1955 y 2010.

Un equipo liderado por el especialista en inteligencia artificial Joan Serra, del Consejo Superior de Investigaciones Científicas (CSIC) de España, combinó la música de los últimos 50 años con unos complejos algoritmos y descubrió que las canciones pop sonaban intrínsecamente más altas y anodinas en términos de coros, melodías y tipos de sonido empleados.

"Encontramos pruebas de una homogeneización progresiva de la música", dijo Serra. "En concreto, obtuvimos indicadores numéricos de que la diversidad de transiciones entre combinaciones de notas, hablando de coros y melodías, ha disminuido constantemente en los últimos 50 años".

También descubrieron que la denominada paleta de timbres se había vuelto más pobre. Se dice que la misma nota tocada al mismo volumen en un piano y una guitarra tiene un timbre diferente, así que los investigadores concluyeron que la música pop moderna tenía una variedad de sonidos más limitada.

La industria de la música lleva tiempo siendo acusada de subir el volumen de las canciones que graba en una "guerra del sonido más alto", pero Serra dice que es la primera vez que se ha medido apropiadamente utilizado una gran base de datos.

Conclusión: La música pop, musicalmente hablando, no es lo máximo... pero cada vez escuchamos peores canciones (y esto lo sospeché desde un principio).

Fuente:


13 de noviembre de 2012

Una razón recreativa para conocer sobre la división sintética (o método de Ruffini)

La división sintética, aquél proceso simplificado para dividir polinomios por un factor lineal para poder factorizarlas y graficarlas con efectividad. Hasta hace dos semana pensaba que ese era el único uso que tenía, hasta que en el pulguero me compré con uno de los volúmenes de Matemáticas Modernas de Dolciani de finales de la década de 1960.

Entre las páginas del texto de séptimo grado se encuentran varios temas que ahora servirían dentro del salón como método de avalúo: husos horarios, latitudes y longitudes, máquinas de funciones, números romanos, números egipcios, y los sistemas numéricos no-decimales. Con éstos útimos podemos descubrir que un caso específico del algoritmo de división sintética es usado para convertir numerales de base
n a numeros de base decimal.

Primero,
¿como convertimos un numeral de base decimal a uno no-decimal? 
  • Usted toma el numeral decimal y lo divide por la base n deseada, al estilo de escuela primaria (cociente entero y residuo). Si el residuo es mayor o igual que 10 sustituya con una letra del abecedario en mayúscula (10 = A; 11 = B; etc.)
  • El cociente entero resultante se convierte en el nuevo numeral decimal a dividir y repite el primer paso hasta que el cociente entero sea cero.
  • Fíjese en todos los residuos. Ordénelos desde el último encontrado hasta el primero. ésta secuencia será la conversión a base n del número decimal.
En términos matemáticos, utilizamos el algoritmo de división para convertir números base 10 a base n.
Ejemplo: Convierta el numeral decimal 255 a uno de base 6.

Ahora bien,
¿qué tiene que ver la división sintética en éste asunto? En el caso específico donde el término constante del factor lineal es negativo (del cual se usa su opuesto en la sustitución sintética) y los coeficientes de un polinomio son positivos, se puede utilizar como convertor de numerales base n a base decimal. A diferencia de la división sintética donde utiliza todos los totales resultantes,para esta aplicación solamente necesitaremos el último total, ya que éste es el numeral base n convertido a base 10.

Para demostrarlo vamos a revertir el numeral base seis del caso anterior a un numeral decimal:



Para aquellos que no han conocido la división sintética, les proveo una explicación del algoritmo de división sintética del caso expuesto arriba:

  • Colocamos en el recuadro la base del numeral y al lado cada uno de los dígitos que componen dicho numeral.
  • Inmediatamente bajamos el primer dígito
  • Colocamos el producto del primer dígito y la base n debajo del segundo dígito.
  • Sume el segundo dígito y el producto.
  • El total generado se vuelve a multiplicar por la base y el producto se coloca debajo del próximo dígito y los suma.
  • Repita el paso anterior hasta que llegue al último dígito. El último total será la conversión a base 10.
 ¿Por qué ocurre ésto? Sencillamente éste caso específico de la división sintética es un casi un proceso inverso al algoritmo de división, inclusive en las operaciones que usa:
  • En el algoritmo de división, se divide, se resta y se separan los residuos, del último dígito numeral base n al primero
  • En el caso aplicativo de la división sintética, del primer dígito numeral base n al último, se juntan los residuos en la suma y se multiplica.
¿Y ésto, tiene alguna utilidad? En parte si. Recuerdo que hace unos meses atrás estaba dándole tutorías a un grupo de estudiantes de secundaria que tomaban clases de electrónica y una de las destrezas era poder convertir números decimales a numerales binarios, octales y hexadecimales. Como ya estaban al nivel de Álgebra II, mostrale éstos métodos hubiese sido bastante beneficioso, de haberlo conocido a tiempo.

Fuente:


El método de Ruffni tambén se puede aplicar a las matrices... vea el blog Series Divergentes: "De la división sintética al álgebra lineal"

16 de octubre de 2012

Nobel de Economía a pioneros de la teoría de juegos

Alvin E. Roth y Lloyd S. Shapley

Alvin E. Roth y Lloyd S. Shapley, ganadores del premio Nobel de Economía.

Los estadounidenses Alvin Roth, de la Universidad de Harvard, y Lloyd Shapley, de la Universidad de California en Los Ángeles (UCLA), se llevaron este lunes el Nobel de Economía.

El Banco Real de Suecia, que otorga el galardón, explicó que fueron distinguidos por su "teoría de reparto estable y sus prácticas de diseño de mercado". 

El de Economía fue el último de los Nobel concedidos en la última semana.

El británico John B. Gurdon y el japonés Shinya Yamanaka obtuvieron el de Medicina, el de Física fue para el francés Serge Haroche y el estadounidense David J. Wineland, mientras que el de Química recayó en Robert Lefkowitz y Brian K. Kobilka, ambos de Estados Unidos.

El jueves se otorgó el Nobel de Literatura al chino Mo Yan y el viernes, y el viernes el de la Paz a la Unión Europea.

La distinción de Economía no es técnicamente un Nobel, ya que -a diferencia de los otros galardones- no fue establecido por Alfred Nobel, sino por el banco central sueco en 1968.

Cada premio está dotado con 8 millones de coronas suecas o US$1,2 millones.

De la teoría de juegos al diseño de mercado

Los galardonados estudian la manera como las personas, en determinado mercado o contexto, toman sus decisiones y de qué manera esto puede usarse para predecir tendencias a corto y largo plazo. Con este análisis se intenta diseñar un mercado ideal.

Roth y Shapley utilizan herramientas matemáticas de la teoría de juegos para encontrar soluciones para problemas del mundo real.

Alvin E. Roth y Lloyd S. Shapley

Dos pioneros en el área de la teoría de juegos.

Shapley es considerado uno de los pioneros en la teoría de juegos, un área de la matemática que usa modelos para estudiar las diferentes interacciones que se dan en sistemas de incentivos y resultan en determinados procesos de decisión.

Shapley y el fallecido David Gale crearon el importante algoritmo de la aceptación diferida, conocido como el "algortimo Gale-Shapley", que genera un reparto estable de posibilidades.

Inés Macho-Stadler, en un ensayo de la Universidad Autónoma de Barcelona, describe el algoritmo como ese momento en el que un hombre le bailar a una mujer en una fiesta: el algoritmo analiza la manera como los hombres toman la iniciativa de pedir baile y las posibilidades de que las mujeres los acepten o rechacen.

Con el estudio de los incentivos Roth desarrolló una rama de la economía conocida como diseño del mercado.

La ha usado, por ejemplo, para desarrollar el sistema de postulación y aceptación de estudiantes en la universidad.

En 2003, Roth creó un sistema para garantizar que los jóvenes que viven en barrios pobres de Nueva York no terminen en la peor casa de estudios.

"Me van a poner atención"
"El diseño de mercado es una disciplina relativamente nueva de la economía"
Alvin Roth

En una declaración este lunes, Roth dijo que el premio es una buena noticia para su carrera, porque pone en el foco de la atención el área de investigación a la que se ha dedicado.

"El diseño de mercado es una disciplina relativamente nueva de la economía", afirmó.

"Cuando vaya a clase esta mañana, mis estudiantes me van a poner más atención".

"No puedes ser economista sin darte cuenta de las cosas que no entendemos sobre el modo en el que funciona la economía".

"Este es un premio para la teoría de ajustes", aseguró.

"Muchas de las cosas que hacemos en la vida -entrar a la universidad, casarnos, conseguir un trabajo- tienen que ver con los ajustes, y por eso creo que es muy natural que alguien está interesado en este campo".

Fuente:

BBC Economía

Contenido relacionado

3 de mayo de 2012

Las abejas pueden inspirar el desarrollo de programas informáticos


Abejas
   
El grupo de investigación de la Universidad de Extremadura (UEx) denominado 'Arquitectura de Computadores y Diseño Lógico' (ARCO), ha demostrado que el estudio del comportamiento de las abejas, hormigas o luciérnagas puede auspiciar el desarrollo de programas informáticos.
   
Este trabajo se ha llevado a cabo gracias a la colaboración mantenida entre informáticos y biólogos en el ámbito de la llamada computación bioinspirada.
  
 La computación bioinspirada o bioinformática se inspira en el comportamiento inteligente de la naturaleza. ARCO actualmente desarrolla estudios a partir de la observación del comportamiento inteligente de las colmenas de abejas productoras de miel. Las "prometedoras" conclusiones de sus investigaciones apuntan al desarrollo futuro de un programa informático o software al servicio de otras investigaciones y aplicaciones, principalmente en el ámbito de la secuenciación del AND, informa la UEx en nota de prensa.
   
El investigador de la UEx Miguel Ángel Vega explica cómo se han inspirado en la conducta de las abejas. 

Hay tres tipos de abejas, en concreto, las abejas obreras, observadoras y exploradoras. Las primeras tienen como función esencial recolectar el polen y comunicar a las abejas observadoras dónde se encuentran las flores, a qué distancia y la cantidad de polen. Las abejas observadoras interpretan la información a través del  baile del abdomen de las obreras y deciden seguir a aquellas abejas que más les convencen. Por último, las llamadas abejas exploradoras se aventuran en el entorno buscando al azar nuevas flores.
   
Este sistema de trabajo traducido a la resolución y optimación de un problema informático significa que las flores son la solución a un determinado problema y el polen representa la calidad de la solución.
   
Los algoritmos informáticos reproducen este proceso, buscan soluciones cercanas (flores) y, de entre las mejores soluciones cercanas, optan por las de mayor calidad y eficiencia (polen) para de esta manera aumentar los recursos en las mejores propuestas.
   
De forma complementaria, se buscan otras soluciones al azar, por si a través de este procedimiento se encuentran buenas opciones también. El proceso repetido numerosas veces proporciona soluciones razonadas susceptibles de ser aplicadas a determinados campos de investigación relacionados con la genética y la evolución de las especies, explica la UEx.

Algoritmos bioinformáticos
 
 Los algoritmos bioinformáticas son útiles en el campo de la biología porque permiten la búsqueda de patrones, es decir, de pequeñas secuencias de AND que se repiten en el genoma humano o de otro ser vivo. De esta manera, es posible descubrir nuevos genes, etiquetar la función de algún gen o incluso de cierta proteína.
   
Por otro lado, la computación bioinspirada es una herramienta importante también en la ciencia filogenética, que estudia la evolución genética de las especies con el objetivo de determinar los ancestros de ciertos organismos. Los ámbitos de aplicación posibles van desde la paleontología, la obtención de nuevas variantes de fruta en la agricultura, hasta la obtención de árboles filogenéticos de enfermedades.
   
Esta investigación ha sido publicada recientemente en la revista científica 'IEEC' Transactions on systems, Man and Cybernetics PartC: Application and Reviews, añade la UEx.

Fuente:

23 de agosto de 2011

Los algoritmos que controlan nuestro mundo


Si estaba esperando que alguien le avisara cuando las computadoras se volvieran más inteligentes que nosotros, ponga cuidado.

No va a existir ninguna suave voz, como la de HAL 9000 (el ordenador de la nave espacial de la película "2001: Odisea del Espacio"), que nos informe que nuestros servicios humanos ya no son necesarios.

En realidad, nuestros amos electrónicos ya están tomando el control; y lo están haciendo de un modo mucho más sutil que el que sugiere la ciencia ficción.

Su arma: el algoritmo.

Detrás de todo ingenioso servicio web hay un aun más ingenioso código web: desde mayoristas en línea (que calculan qué libros y películas podríamos estar interesados en comprar) hasta el buscador de amigos Facebook y su servicio para etiquetar imágenes, pasando por los motores de búsqueda que guían nuestros pasos en la web.

Son estos procesos computacionales invisibles los que cada vez controlan el modo en que interactuamos con nuestro mundo electrónico.

En la conferencia TEDGlobal del último mes, el exporto en algoritmos Kevin Slavin dio una de las charlas más impactantes del evento, en la que advirtió que "las matemáticas que las computadoras usan para decidir cosas" se estaba infiltrando en todos los aspectos de nuestras vidas.

Entre otros ejemplos mencionó los de un robot limpiador que mapea el recorrido óptimo para asear una casa y de los algoritmos financieros utilizados en los intercambios bursátiles en línea, que cada vez más se hacen con el control de Wall Street.

"Estamos escribiendo estas cosas que ya no somos capaces de leer", dijo Slavin.

"Lo hemos vuelto ilegible. Y hemos perdido la noción de qué es exactamente lo que sucede en este mundo que hemos creado".

El libro de los millones

Los algoritmos pueden ser más ingeniosos que los humanos, pero no necesariamente comparten nuestro sentido de la perspectiva: una falla que se hizo evidente cuando el código que asigna precios en Amazon fue a la guerra consigo mismo a comienzos de este año.

"The Making of a Fly" ("La Creación de una Mosca"), un libro sobre la biología molecular de una mosca, desde que es larva hasta que se convierte en un insecto completo, puede ser una lectura interesante, pero ciertamente no merece un precio de US$23,6 millones.

Portada de "The Making of a Fly"

¿Habrá vendido algún ejemplar a US$23,6 millones?

Esa es la cifra que alcanzó por unos instantes, debido a que los algoritmos que Amazon utiliza para fijar y actualizar los precios comenzaron a competir entre sí.

Es una pequeña muestra del caos que puede causar el hecho de que un programa se vuelva lo suficientemente inteligente como para operar sin supervisión humana, cree Slavin.

"Son algoritmos en conflictos, sin un adulto que los supervise", dijo.

A medida que el código se vuelve más sofisticado sus tentáculos van alcanzando todos los aspectos de nuestras vidas, hasta nuestras elecciones culturales.

Los algoritmos del sitio de alquiler de películas Netflix ya son responsables del 60% de las películas que son pedidas por sus clientes, a medida que nos volvemos menos dependientes de nuestras propias capacidades críticas y del boca a boca y más de lo que Slavin llama la "física de la cultura".

¿Cuánto vale esa película?

La empresa británica Epagogoxi está llevando este concepto hacia su lógica conclusión: utiliza algoritmos para determinar si una película será exitosa.

Toma una serie de variables (el guión, la trama, las estrellas que actúan en ella, la ubicación) y las cruza con datos sobre las ventas de otras películas similares para determinar cuánto dinero generará.

El sistema, de acuerdo con el director ejecutivo de la empresa Nick Meany, ha "ayudado a los estudios a decidir si hacer o no una película".

En el caso de un proyecto, al que se le había asignado un presupuesto de casi US$300 millones, el algoritmo estimó que sólo recaudaría unos US$50 millones, por lo que sencillamente no valía la pena iniciar la producción.

Letrero de Hollywood

Hasta hay un algoritmo para decidir si vale la pena o no hacer una película.

Para otra película, determinó que la cara estrella que el estudio había preseleccionado para el rol protagónico no redituaría más que si convocaban a una figura menos conocida.

Este enfoque más bien clínico ha fastidiado a quienes creen que se opone a su idea de que sus películas favoritas han sido hechas de una forma más creativa, orgánica.

Meaney se apura en mencionar que los algoritmos no tienen un rol tan protagónico en Hollywood.

"Las películas se hacen por muchos motivos y se nos asigna más influencia de la que en realidad tenemos cuando se dice que nosotros decidimos qué filmes se producen".

"No les decimos cómo tiene que ser la trama. El estudio utiliza nuestros datos como una valiosa información de negocios. Ayudamos a la gente a tomar decisiones difíciles, ¿y por qué no?", dijo.

A pesar de esto, el estudio con que Epagogix ha trabajado por los últimos cinco años pidió no ser mencionado. Meaney dice que es un asunto "delicado".

Una memoria en la red

Si los algoritmos tuvieran un salón de la fama, la principal estrella sería Google.

Su famoso código secreto ha lanzado al gigante de los buscadores a su actual posición como una de las compañías más poderosas del mundo.

Nadie duda de que su sistema ha hecho el acto de buscar algo mucho más fácil, pero sus críticos se preguntan desde hace tiempo a qué costo.

Algoritmo

"Conjunto ordenado y finito de operaciones que permite hallar la solución de un problema"

Diccionario de la Real Academia Española

En su libro "The Filter Bubble" ("La Burbuja del Filtro") Eli Pariser se pregunta en qué medida el algoritmo de Google recolecta nuestros datos personales y da forma, consecuentemente, a la web que vemos.

Por su parte, psicólogos de la Universidad de Columbia, Estados Unidos, presentaron recientemente un estudio que muestra que el uso cada vez más frecuente de motores de búsqueda está cambiando el modo en que los humanos pensamos.

"Desde que aparecieron los buscadores estamos reorganizando la forma en que recordamos las cosas. Nuestros cerebros se apoyan en internet como una fuente de memoria, del mismo modo en que nos apoyamos en la memoria de nuestros amigos, familiares o colegas", dijo la autora del trabajo, Betsy Sparrow.

Ella dice que cada vez más recordamos dónde puede encontrarse cierta información en vez de la información misma.

Desplome repentino

En los mercados financieros, los programas informáticos se están volviendo los actores protagónicos, con sus algoritmos que procesan datos para decidir qué comprar y qué vender.

Hasta el 70% de los intercambios de Wall Street son ejecutados por las llamadas black box (cajas negras) o algo-trading (intercambios basados en algoritmos).

Esto implica que junto a los sabios muchachos de la bolsa, los bancos y empresas bursátiles emplean a miles de sabios físicos y matemáticos.

Pero hasta la precisión de las máquinas, alimentada por los humanos magos del código, es incapaz de garantizar que las cosas funcionen sin sobresaltos.

Operadores en la bolsa de Nueva York

Atónitos ante sus colegas cibernéticos.

En el llamado Flash Crash (Desplome Repentino) del 6 de mayo de 2010, una caída de cinco minutos en los mercados generó un momento de caos generalizado.

Un operador deshonesto fue acusado de una caída del 10% en el índice Dow Jones, pero en realidad el culpable fue un programa informático que el operador estaba utilizando.

En tan solo 20 minutos el algoritmo vendió 75.000 acciones por un valor de US$4.300 millones, haciendo que otros algoritmos lo siguieran.

Al igual que un miembro biónico puede extender la fuerza y resistencia humanas, el mercado electrónico exhibió su capacidad de exagerar y acelerar pequeñas variaciones.

Nadie ha sido capaz de determinar exactamente qué sucedió, y el mercado se recuperó minutos más tarde.

El caos obligó a los reguladores a introducir interruptores para detener la actividad bursátil en caso de que las máquinas comiencen a portarse mal.

Los algoritmos de Wall Street pueden ser el equivalente cibernético de los yuppies de los '80, pero a diferencia de los humanos no exigen gemelos de plata, cigarros y champagne. Lo que quieren son conexiones veloces.

Spread Networks ha estado construyendo una de esas conexiones de fibra óptica, capaz de reducir en 3 microsegundos el intercambio de información entre las bolsas de Chicago y Nueva York, distantes 1.327km.

Por su parte, un cable de fibra óptica transatlántico, que va desde Nueva Escocia, en Canadá, hasta Somerset en el Reino Unido, está siendo desplegado para que puedan operar los algoritmos bursátiles y será capaz de enviar acciones de Londres a Nueva York en 60 milisegundos.

"Estamos recorriendo Estados Unidos con dinamita y sierras para cortar roca, así un algoritmo puede cerrar un trato tres microsegundos más rápido, todo para un sistema de comunicación que ningún humano jamás tocará", dijo Slavin.

A medida que los algoritmos extienden su influencia más allá de las máquinas y se vuelven capaces de transformar su entorno, puede que se vuelva hora de determinar exactamente cuánto saben y si todavía estamos a tiempo de domesticarlos.

Tomado de:

BBC Ciencia

Contenido relacionado

4 de julio de 2011

Un algoritmo para analizar la Biblia



Un grupo de desarrolladores israelí acaba de presentar un software revolucionario que está dando nuevas pistas acerca de quién o quiénes escribieron la Biblia hebrea (Aleppo Codex). Este algoritmo, desarrollado por el equipo liderado por Moshe Koppel de la Universidad de Bar-Ilan, analiza el estilo y el conjunto de palabras para seleccionar partes de un texto que hayan sido escritas por diferentes autores.
Este programa, que forma parte de un campo de estudio dentro de la inteligencia artificial conocida como atribución de autoría, tiene un gran potencial en diferentes aplicaciones. Desde ayudar al cumplimiento de la ley hasta el desarrollo de nuevos programas para los escritores. Actualmente la Biblia, está proporcionando un gran campo de pruebas para sus creadores.

Unos de los pilares básicos la fe de los judíos, es que la Biblia hebrea – la Torá, también conocida como el Pentateuco o los cinco libros de Moisés – fue escrita por obra de Dios. Sin embargo, desde el advenimiento de los estudios bíblicos modernos, los investigadores académicos opinan que el texto fue escrito por un número diferente de autores, cuyo trabajo podría ser identificado por agendas ideológicas y estilos lingüísticos aparantemente diferentes.
En la actualidad, los investigadores dividen el texto en dos líneas principales. Una de ellas escrita por una figura o un grupo conocido como los “sacerdotes”, debido a las evidentes conexiones con los sacerdotes del templo de Jerusalén. El resto se considera como “no-sacerdotal”. Los investigadores han analizado el texto de forma meticulosa para determinar qué partes pertenecen a cada cual. Cuando se ha ejecutado el nuevo algortimo sobre el Pentateuco se ha encontrado la misma división: una separación entre la parte sacerdotal y la no-sacerdotal; que coincide en un 90% con la tradicional división.
“Hemos sido capaces de resumir varios siglos de esmerado trabajo manual con nuestro método automatizado”, anunció el equipo isarelí en un artículo presentado la semana pasada en Portland, Oregón, en la conferencia anual de Association for Computational Linguistics.
El algoritmo es capaz de reconocer conjuntos de palabras repetidas, como los equivalentes en hebreo de “si”, “y” y “pero”, a la vez que busca sinónimos. En algunos pasajes, la Biblia utiliza la palabra “makel” para referirse a la palabra “staff” mientras que en otras secciones utiliza “mateh” para el mismo objeto. El programa separa el texto en líneas diferentes para cada posible autor.

Tomado de:

Xakata Ciencia

7 de junio de 2011

Nuevo récord para un robot: resuelto el cubo de Rubik en 10,69 segundos

Fabricado por estudiantes de la Universidad de Tecnología Swinburne (Australia), un autómata llamado Ruby ha conseguido resolver el cubo de Rubik en menos de 10,69 segundos. Lo que supone un nuevo récord para los robots, sí, (la mejor marca la ostentaba Cubinator, con 18,2 segundos), sin embargo todavía no han alcanzado a los humanos: Feliks Zemdegs lo consiguió en 6,24 segundos en el Kubaroo Open en 2011.

Pero también parecía imposible que en una computadora pudiera vencer al ajedrez a un ser humano, y finalmente ha sucedido. Así que Humanos 1 – Robots 0 (De momento).

El robot escanea primero cada cara de un cubo desordenado con ayuda de una webcam, y posteriormente emplea un algoritmo para desarrollar una solución, que aplica a gran velocidad con unas “pinzas”. El tiempo total empleado por el robot ncluye el tiempo que toma para hacer la exploración inicial del cubo.

A continuación podéis ver un video que muestra la hazaña:



Un experto humano es capaz de ejecutar entre 2 y 5 giros de las caras del cubo por segundo, y existe un número mínimo máximo de movimientos para resolverlo. El número ha sido llamado “número de Dios”, y se ha establecido en 20 únicos pasos.

Para ello se tuvo que calcular todas las posiciones posibles con el cubo (43.252.003.274.489.856.000), una tarea que hasta hace poco era imposible, según el profesor Morley Davidson, matemático de la Universidad de Kent y miembro del grupo de investigadores que han conseguido llegar al “número de Dios”.

Tomado de:

Xacata Ciencia

google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0