Facebook enfureció a sus usuarios cuando se supo que había realizado un experimento de psicología en cientos de miles de miembros de la red social sin su conocimiento o consentimiento.
Un estudio de una semana de más de 689 mil usuarios de Facebook en 2012 arrojó que aquellas personas que leían menos noticias positivas cuando visitaban el sitio eran más propensas a escribir mensajes negativos, y viceversa.
"El experimento manipuló el grado en que las personas fueron expuestas a expresiones emocionales en su servicio de noticias," escribieron los investigadores en su informe. "Estos resultados indican que las emociones expresadas por los demás en Facebook influyen en nuestras propias emociones, lo que constituye una evidencia experimental del posible contagio a escala masiva por medio de las redes sociales".
El estudio, que se publicó a principios de este año, fue escrito conjuntamente por Adam Kramer, quien trabaja en el equipo de ciencia de datos de Facebook, Jamie Guillory, un becario postdoctoral en la Universidad de California en San Francisco, y Jeffrey Hancock, profesor de la Universidad de Cornell.
"Dada la escala masiva de las redes sociales como Facebook, pequeños factores pueden acarrear importantes consecuencias generales", concluyeron los investigadores. "Los mensajes en línea influyen en nuestra experiencia emocional, lo que puede afectar una variedad de comportamientos fuera de línea".
Un artículo acerca de esta investigación en la revista New Scientist provocó una reacción este fin de semana, centrándose en el hecho de que los participantes en el estudio no proporcionaron su consentimiento explícito.
"Facebook manipuló las emociones de sus usuarios. ¿Falta de ética? Sí. ¿1984? Sí", tuiteó Jacob Shiach, fundador de Brightwork CoResearch, un centro de investigaciones en Houston, Texas, haciendo referencia a la novela de George Orwell acerca de un gobierno totalitario opresivo.
Susan Fiske, profesora de psicología en la Universidad de Princeton, quien editó el estudio para su publicación en "Proceedings of the National Academy of Sciences of America", dijo que inicialmente tuvo preocupaciones éticas.
"Creo que parte de lo que causa molestia en algunas personas acerca de esta investigación en particular es que uno piensa que su servicio de noticias es algo personal", dijo a la revista The Atlantic. "Yo personalmente nunca había visto una situación en la que los investigadores hayan tenido la cooperación de Facebook para manipular a las personas".
Facebook defendió el estudio y dijo que "ninguno de los datos utilizados se asoció con la cuenta de Facebook de una persona específica" y no hay "ninguna recopilación innecesaria de datos de los usuarios" en este tipo de iniciativas.
"Nosotros realizamos investigaciones para mejorar nuestros servicios y para que el contenido de Facebook sea lo más relevante y atractivo posible", dijo Facebook. "En gran parte los estudios se enfocan en entender cómo las personas responden a diferentes tipos de contenido, ya sea de tono positivo o negativo, las noticias de sus amigos, o la información de las páginas que siguen. Nosotros sopesamos cuidadosamente las investigaciones que pensamos realizar y tenemos un fuerte proceso de revisión interna".
Los investigadores dijeron que habían detallado sólo una de las muchas pruebas realizadas por Facebook para mejorar el "algoritmo de clasificación" del contenido que se muestra en el suministro de noticias.
Ésta no es la primera vez que Facebook ha recibido quejas con respecto a cómo filtra el contenido en el servicio de noticias, el principal canal que utilizan los usuarios para ver las actualizaciones de sus amigos y de las páginas de los aficionados de distintas marcas.
Los anunciantes han protestado contra las recientes movidas de Facebook para dar prioridad a los mensajes de los usuarios individuales encima de sus páginas de marcas, obligándolos a comprar anuncios para promover su material, incluso para los clientes o "aficionados" que han dicho "me gusta" a sus productos existentes.
Defensores de la privacidad se han quejado con frecuencia en los últimos años que Facebook ha forzado de forma automática a sus usuarios a aprobar sin su conocimiento las nuevas características para compartir más información de la que suponían, en lugar de pedir su autorización por adelantado.
Pero esta última ola de indignación surge en un momento en el que Facebook ha estado trabajando para mejorar su reputación en relación con el manejo de la información personal. El mes pasado, comenzó a ofrecer a los usuarios un "examen de la privacidad", a través de mensajes en línea con una caricatura de un dinosaurio azul, y cambió la configuración por defecto para que el primer mensaje de un usuario fuera visto sólo por sus amigos, en lugar del público en general.
Marc Andreessen, miembro del consejo de Facebook, insistió en que lo que la red social estaba haciendo no era nada fuera de lo común.
"Cada vez que ves televisión, lees un libro, abres un periódico o hablas con otra persona, alguien está manipulando tus emociones!", tuiteó. "El sistema de Facebook está diseñado para estimular mensajes e interacciones positivas".
También, te pueden interesar los siguientes artículos
Una nueva arma para la policía del café de Colombia
La diversidad que conduce a la uniformidad
Amazon busca aumentar ventas con teléfono 'Fire'
Financial Times