Sorria, você está sendo observado e manipulado pelo Facebook

Em experimento secreto, Facebook manipula emoções de usuários.

Algoritmo de 700 mil usuários foi manipulado por uma semana em 2012. Resultado mostrou que humor de usuários varia de acordo com conteúdo.


Um estudo detalhando como o Facebook manipulou secretamente o feed de notícias de aproximadamente 700 mil usuários com o objetivo de avaliar o "contágio emocional" desencadeou revolta na rede social.

Durante uma semana em 2012 o Facebook manipulou o algoritmo usado para distribuir os posts no feed de notícias do usuário para verificar como isso afetou o seu humor.

O estudo, conduzido por pesquisadores associados ao Facebook, pela Universidade de Cornell, e pela Universidade da Califórnia, foi publicado em junho na 17ª edição dos Anais da Academia Nacional de Ciência.
Os pesquisadores pretendiam verificar se o número de palavras positivas ou negativas nas mensagens lidas pelos usuários resultaria em atualizações positivas ou negativas de seus posts nas redes sociais.
Observou-se que os usuários que tiveram o feed manipulado utilizaram palavras positivas ou negativas dependendo do conteúdo ao qual foram expostos.
Os resultados do estudo foram propagados quando a revista online Slate and The Atlantic abordou o assunto no sábado.
"Estados emocionais podem ser transferidos para os outros por meio do contágio emocional, levando as pessoas a experimentarem as mesmas emoções de modo inconsciente", afirmam os autores da pesquisa.
"Estes resultados provam que as emoções expressas pelos outros no Facebook influenciam nossas próprias emoções, o que evidencia o contágio em larga escala via redes sociais."
Enquanto outros estudos usam metadados para estudar tendências, este parece ser o primeiro a manipular dados para verificar se há reação.
A pesquisa é considerada legal de acordo com as normas do Facebook, mas seria ética?
"#Facebook FEED DE USUÁRIOS MANIPULADOS PARA EXPERIMENTO PSICOLÓGICO EM MASSA... Sim, está na hora de encerrar a conta do FB!", lia-se em post do Twitter.
Outros tweets usavam expressões como "super perturbador", "assustador" e "mau", assim como manifestações irritadas, para descrever o estudo.
Susan Fiske, professora da Universidade de Princeton que editou o artigo para publicação, disse a The Atlantic que ela ficou preocupada com a pesquisa e entrou em contato com os autores.
Eles disseram que o conselho institucional aprovou o estudo, já que "o Facebook manipula a atualização do feed dos usuários o tempo todo".
Fiske admitiu ter ficado "um pouco assustada" com o estudo.
O Facebook disse a The Atlantic que "considera cuidadosamente" a pesquisa e que há "um processo de avaliação interna".
O Facebook, maior rede social do mundo, informa ter mais de um bilhão de usuários ativos.
Fonte Globo.com