La red social manipuló el contenido que mostraba a sus clientes para medir su respuesta emocional; dijo que el experimento fue para mejorar el servicio y no para generar molestias.
Un mal día lo tenemos todos, ¿pero que Facebook lo empeore a propósito y a tus espaldas?
Los internautas han reaccionado con enojo a la noticia de que investigadores de Facebook manipularon el contenido que se mostraba a algunos usuarios en un intento de medir su respuesta emocional.
Durante una semana a comienzos de 2012, la red social alteró el contenido en el News Feed de casi 690,000 usuarios. A algunas personas se les mostraba un mayor número de mensajes positivos, mientras que a otras se les exponía a publicaciones más negativas.
Los resultados del experimento, realizado por investigadores de Cornell, la Universidad de California, San Francisco y Facebook, se publicaron este mes en la prestigiosa publicación académica Proceedings of the National Academy of Science.
El estudio halló que los usuarios expuestos a más contenido negativo eran ligeramente más proclives a producir publicaciones negativas. Mientras que los usuarios del grupo que recibía más información positiva respondieron con más mensajes optimistas.
Facebook fue así capaz de cambiar el estado emocional de sus usuarios. Aunque los cambios de humor fueron pequeños, los investigadores sostienen que los hallazgos tienen importantes implicaciones, dado el tamaño y la escala de la red social.
Los términos de servicio de Facebook le dan permiso a la compañía para llevar a cabo este tipo de investigación, pero muchos usuarios han reaccionado con indignación ante lo que llaman un experimento social peligroso. No hay evidencia de que los 690,000 individuos fueran consultados primero si les gustaría participar en el estudio.
Facebook utiliza un algoritmo para determinar cuáles de los aproximadamente 1,500 posts disponibles se mostrarán en el News Feed de un usuario. La empresa cambia regularmente este programa para modificar la mezcla de noticias, historias personales y anuncios que ven los usuarios.
El investigador de Facebook que diseñó el experimento, Adam D.I. Kramer, dijo en un post el domingo que la investigación era parte de un esfuerzo para mejorar el servicio, no para molestar a los usuarios.
“Puedo entender por qué algunas personas tienen sus reservas respecto al estudio, y mis coautores y yo estamos muy apenados por la forma en que el artículo describía la investigación y la ansiedad que causó”, escribió Kramer. “En retrospectiva, los beneficios de la investigación acaso no justificaran toda esa ansiedad”.
Un portavoz de Facebook indicó que la compañía a menudo realiza investigaciones para “mejorar nuestros servicios y para que el contenido que la gente ve en Facebook sea tan relevante y atractivo como sea posible”.
“Consideramos con sumo cuidado el tipo de investigación que hacemos y tenemos un fuerte proceso de revisión interna”, dijo el portavoz en un comunicado. “No hay ningún acopio innecesario de datos de las personas en relación con estas iniciativas de investigación y todos los datos se almacenan de forma segura”.
Dado que todo se hizo en conformidad con los términos de servicio de la compañía, no parece que Facebook vaya a enfrentar consecuencias legales. Pero la naturaleza del experimento, con 690,000 personas como conejillos de indias, y la decisión de llevarlo a cabo sin el consentimiento expreso de los participantes, plantea cuestiones éticas.
Susan Fiske, la profesora de Princeton que editó la investigación, apuntó que aunque la investigación era “ingeniosa y útil”, la indignación sugiere que tal vez no debió de haberse realizado.
“Yo estaba preocupada [por el experimento]”, dijo a The Atlantic, “hasta que pregunté a los autores y me dijeron que su consejo de revisión institucional lo había aprobado, y al parecer bajo el argumento de que Facebook aparentemente manipula todo el tiempo los News Feeds de las personas... Entiendo la preocupación de la gente. Creo que su queja es con Facebook, no contra la investigación”.
Tomado de:
CNN Expansión