Os visíveis efeitos dos filtros invisíveis: Uma análise sobre os impactos dos algoritmos na nossa maneira de ver o mundo
Descrição do Produto
Os visíveis efeitos dos filtros invisíveis: Uma análise sobre os impactos dos algoritmos na nossa maneira de ver o mundo1 Thiago Nakano Alves Universidade de São Paulo Introdução O presente artigo propõe uma reflexão e análise crítica acerca da influência dos algoritmos e filtros personalizados presentes na internet, principalmente no Google e Facebook. A idéia é entender a origem dos filtros, seus impactos e benefícios pelas visões de pesquisadores sobre o tema, em especial Eli Pariser, autor do livro base da pesquisa "O Filtro Invisível o Que a Internet Está Escondendo de Você", publicado em 2011 (2012 no Brasil), e também pela visão dos próprios veículos. São muitos os impactos dos filtros: em nossa maneira de consumir notícias, entretenimento, na nossa forma de nos relacionar com amigos, na nossa maneira de descobrir novas coisas e, talvez a mais polêmica, na forma que consumimos e discutimos política. Alguns positivos, alguns negativos. A origem dos filtros Em meados dos anos 90, onde os americanos já tinham acesso a centenas de canais/conteúdo na TV, controlar apenas brilho e volume atraves do controle remoto já não era suficiente. Nesse contexto, Pariser (2012) comenta sobre a visão de Nicholas Negroponte, que já falava do conceito de personalização ao trazer a ideia dos agentes artificiais, que nada mais seriam que robos que organizariam os conteúdos que seriam mais interessantes aos usuários. Essa ideia trouxe muita controversa na época, alguns pesquisadores já questionavam a ideia de termos robos fazendo esse tipo de intermedio, mas, logo as empresas perceberam que Negroponte tinha razão e que as empresas que conseguissem criar relevância em um cenário de colápso de atenção, ganhariam muito dinheiro. Pariser (2012) relembra que "relevância" havia virado palavra de
1
Artigo para avaliação do curso "Cibercultura", parte da grade de conteúdo do curso de pósgraduação DIGICORP/ECAUSP, ministrado pela professora e pesquisadora Elizabeth Nicolau Saad Corrêa .
ordem nas empresas do Vale do Silício naquela época. A Microsoft criou o software "BOB" que ajudava a personalizar o sistema operacional. A Apple, 10 anos antes do Iphone, lançou o Newton, que era uma espécie de "assistente informatico pessoal". Todos sem muito sucesso basicamente pelo mesmo motivo: eles eram agentes não tão inteligentes, segundo Pariser (2012). Pariser (2012) conta como a Amazon foi uma das primeiras empresas a entender o conceito de relavância e aplicar de forma assertiva aos negócios: Em 1994, o presidente da Amazon já falava em trazer de volta os velhos tempos de livraria onde o livreiro te conhecia tão bem que que conseguia indicar titulos baseado em seus autores preferidos. Em 1995, quando a Amazon foi lancada, Pariser (2012) relembra que os usuários puderam experimentar a personalização na experiência de compra pela primeira vez sugerindo títulos relacionados, perfis de leitores etc. Em 97 a Amazon já havia vendido para 1 milhão de clientes e quanto mais eles vendiam, mais informações tinham para melhorar os filtros. Quando usamos o kindle, por exemplo, a Amazon captura dados como: trechos que destacamos, se lemos desde o inicio ou se pulamos para um capitulo específico. Tudo para melhorar a experiencia do usuário e vender mais. Pariser (2012) faz uma grande analise sobre o início do Google e como os algoritmos e filtros foram assets muito importantes naquela época. Pariser (2012) cita um trecho de uma entrevista dos fundadores do Google, muito curiosa, na qual falam:
Acreditamos que os mecanismos de busca financiados por propagandas são inteiramente parciais, favorecendo os anunciantes e se distanciando das necessidades dos consumidores. Quanto melhor for um mecanismo de busca, menos anúncios serão necessários para que o consumidor encontre o que procura… acreditamos que a questão da publicidade gera incentivos mistos; por isso, é fundamental que exista um mecanismo de busca competitivo que seja transparente e se mantenha dentro do ambito acadêmico. (Larry Page e Sergey Brin, fundadores do Google apud Pariser, 2012, location 426 kindle)
Em 97, Larry Page e Sergey Brin já falavam sobre relevancia dos buscadores, que naquela época, não conseguiam localizar a sí próprios. Foi ai que surgiu o pagerank , que não só considerava keywords da página, mas volume de cliques, indicações, entre outros. Pariser (2012)
conta que, pouco tempo depois, o Google já era o melhor buscador, já no domínio Google.com. Estudiosos diziam que o pagerank que havia sido o grande diferencial do Google, mas na verdade era apenas uma pequena parte do projeto. Para Pariser (2012), a verdadeira chave da relevância online eram dados e, em sua maioria, gerados pelo próprios usuário: se o usuário, por exemplo, clica no segundo link de um resultado de busca, indiretamente ele está indicando que o primeiro possa não ser tão relevante, como uma votação. A partir daí, o Google começou a guardar e usar todos os dados de todas as buscas como uma forma de aprimorar cada vez mais o algoritmo. Porém, Pariser (2012) lembra que esses dados nao eram suficientes para gerar insights mais pessoais de cada individuo. Então, em 2004, o Google lançou o Gmail, em seguida o GoogleApps. Pouco tempo depois o Google ja era capaz de identificar quais grupos o usuário pertencia e eram categorias bem nichadas. Tudo o que fazemos nas plataformas do Google dão a eles cada vez mais traços da nossa personalidade. Para Pariser (2012), o algoritmo do Google funcionava muito bem, mas a dificuldade era fazer o usuário revelar mais detalhes dos seus gostos e interesses informacoes que o usuário não buscaria. Pariser (2012) conta que em 2014, Mark Zuckerberg teve a ideia de, ao invés de analisar cliques para adivinhar os gostos das pessoas, simplesmente perguntar a elas. Além disso, diferente do Myspace, que era a rede social da época, ao ivés de incentivar amizades com novas pessoas, o Facebook queria reforcar os laços sociais já existentes na vida offline . Outra grande diferença, sendo Pariser (2012), era o feed de notícias, que organizava as novas informações e trazia logo na primeira página. Com o estouro do Facebook em 2006 os usuários ja tinham tanto conteudo que era difícil acompanhar todas as atualizações, então o Facebook criou o EdgeRank que categorizava as postagens mais e menos importantes baseados em diversos critérios que afinavam a relevância desse conteudo. Em 2010, Pariser (2012) lembra que o Facebook lancou o 'Facebook Everywhere" que tinha como objetivo fazer toda a rede ser social que permitia o usuários curtirem matérias em sites externos, além de conectar suas contas em outros aplicativos, como de musica, entretenimento gerando ainda mais dados para o Facebook afinar o filtro.
Toda essa busca por relevância faz as empresas buscarem cada vez mais dados para melhorarem nossa experiencia online e microsegmentar a publicidade e essa busca tem moldado a rede, influenciando os usuários em muito mais camadas do que imaginamos. Nesse contexto, apresentarei as principais ideias de Pariser (2012) quanto aos impactos dos filtros nas vidas dos usuários.
Os impactos dos filtros em nossas vidas Um ponto muito explorado por Pariser (2012) é a forma que nós consumimos notícias e como esse processo é impactado pelos filtros. O autor conta um pouco da história do nascimento do jornal e traz a principal mensagem de que os jornalistas possuem papel fundamental na formação da sociedade porque eles influenciam no conteúdo que vamos ler e esse conteúdo muda nossa visão de mundo, então, o papel de filtro, ou como ele chama "intermediário", sempre existiu. Pariser (2012) fala do processo de "Desintermediação" trazido pela internet. Um exemplo que ele da é a possibilidade ler um anúncio da casa branca na integra, sem precisar da visão do intermediario do jornal. So que na verdade, o filtro, o intermediario está ali, ele apenas mudou e agora é invisível. Sendo assim, para Pariser (2012), a desintermediaçao é como uma utopia visão da qual compartilho com o autor. Sendo assim, para Pariser (2012), a bolha dos filtros transforma nossa forma de ver o mundo, ao determinar quais tipos de conteúdos vemos e quais não vemos. Ainda nesse sentido, o filtro pode nos deixar mais exposto a determinado conteúdo (geralmente os de afinidade) e menos ou quase nada exposto a artigos e conteúdos de outros assuntos. Logo, ao analisarmos a questão da criatividade/curiosidade, que são aguçadas com o novo, o descobrimento, podem ser afetadas nesse processo dos filtros. Pariser (2012) cita Ryan Calo, professor de direito de Stanford, que fala: "Quando a tecnologia passa a nos mostrar o mundo, acaba por se colocar entre nós e a realidade, como a lente de uma camera. É uma posição poderosa, são muitas as maneiras pelas quais ela pode deformar a nossa percepção do mundo" (Ryan Calo apud Pariser, 2012, location 197 kindle)
Agora, analisando outras esferas de impacto dos filtros, Pariser (2012) acredita que os filtros podem acentuar o que ele chama de "viés da confirmação", que nada mais é que a questão dos filtros nos cercarem apenas as ideias das quais estamos acostumados. Por exemplo, ao analisar o feed de notícias do Facebook, muito provavelmente veremos postagens de pessoas com os mesmo interesses políticos, ou com os mesmos gostos musicais. Esse processo, segundo Pariser (2012), da confiança as nossas estruturas mentais e nos tira a vontade de aprender, reformando nossos conceitos e ideias pre existentes. Nesse cenário, como podemos, por exemplo, trabalhar o combate a violência contra a mulher nas rede sendo que, muito provavelmente, um criminoso não terá contato com esse tipo de conteúdo (de forma organica). Curiosamente, acabo se ser impactado pelo seguinte post no Facebook:
Imagem 1: Print screen da timeline Facebook
A imagem acima comprova duas coisas: 1. Pelo fato de eu interagir, comentar e engajar com conteúdos dessa categoria (luta contra machismo, homofobia, etc), o Facebook entendeu que um post de um amigo de amigo seria interessante para mim. E as outras pessoas menos engajadas com esse tipo de assunto (como por exemplo, os indivíduos que praticam abuso)? 2. A atuação dos filtros não é imperceptível para todas as pessoas. Pariser (2012) discute um outro ponto muito interessante que é a questão da identidade na rede. Para o autor, temos identidades diferentes, de acordo com a plataforma que estamos. Para o Google, como citado anteriormente, o usuário prove informações mais íntimas, mais reais. Já no Facebook, temos a oportunidade de criar essa identidade através de posts selecionados. Além disso, nossos likes vão dando ao Facebook diversas e diversas dicas de quem somos (ou como gostaríamos que as pessoas nos vissem). Nossas identidades moldam nossa mídia, e o contrario também acontece. Nesse contexto, Pariser (2012) reforça que entramos em um ciclo de nós mesmos e que se os ciclos de identidade não forem balanceados pela aleatoriedade nossa identidade real pode entrar em uma zona cinzenta.
O outro lado da bolha Para Shirky (2008), as plataformas digitais podem gerar grande impacto positivo na sociedade através da cultura da colaboração. Em linhas gerais, o autor considera que o novo paradigma da comunicação é direcionado para fins sociais e é baseado em plataformas sociais e de conteúdo amador criado pelos usuários. Nesse contexto, tudo é social: conteúdo, distribuição, interações, ações. As mídias sociais se integram fortemente na vida das pessoas e mudam o ambiente ao seu redor. Shirky (2008) defende que a sociedade não é apenas o produto de um individuo mas também de grupos que constituem essa sociedade. A internet seria apenas uma ferramenta facilitadora de um comportamento já existente, permitindo ainda formações de novos grupos e novos modelos de colaboração. Shirky (2008) aborda o temas dos filtros em uma visão um pouco mais otimista, ao comparar com a forma tratada por Pariser (2012). O autor explica as raízes da intermediação, assim como
Pariser (2012), ao lembrar dos processos das editoras (e produtoras musicais, redes de televisão, etc) ao filtrar um conteúdo bom ou não entendese bom como conteúdo com grande potencial de venda antes da edição. O filtro aqui era "qualidade" (uso aspas pois entendo qualidade como algo muito relativo). Isso acontecia, basicamente, pelos altos custos de produção e distribuição. As editoras tinham uma pressão grande de vender e não poderiam ter prejuízos. Para Shirky (2008), a internet mudou o processo de intermediação ao tornar os filtros sociais baseados em interesses dos próprios usuários na rede fazendo com que não exista filtro entre a produção do conteúdo e a publicação do mesmo, conforme trecho abaixo: (...) O panorama das mídias se transformam porque a comunicação pessoal e a publicação, anteriormente funções separadas, se fundem. O resultado é quebrar o padrão profissional da filtragem do bom e do medíocre antes da publicação; agora este mecanismo de filtragem é cada vez mais social, e acontece depois’ (Shirky 2008. p. 81).
Shirky (2008), em uma palestra para o Web 2.0 Expo in New York, em 2008, Shirky (2008) aborda uma visão interessante acerca do excesso de informação, dos filtros e privacidade: What we're dealing with now is not the problem of information overload, because we're always dealing (and always have been dealing) with information overload...Thinking about information overload isn't accurately describing the problem; thinking about filter failure is. (Transcrição de parte da palestra de Shirky 2008 apud www.cnet.com/news/shirkyproblemisfilterfailurenotinfooverload)
Para o autor, sempre estivemos expostos ao excesso de informação e que a seleção sobre qual informação é mais importante para nós o filtro sempre foi feita de forma organica na vida real, como o exemplo, se estamos em um restaurante, estamos expostos a uma grande quantidade de conversas, porém, selecionamos qual queremos escutar (idealmente a da pessoa da qual estamos acompanhados). Para Shirky (2008), o problema de excesso de informação na internet é um problema de filtros que não foram capazes de entender qual conteúdo seria realmente relevante para mim.
Shirky (2008) aborda o tema de privacidade também ligado aos filtros. Segundo o autor, os filtros são responsáveis por, de alguma forma, ajudar na privacidade na rede ao limitar que determinadas mensagens cheguem a determinados públicos, como exemplo, o autor cita uma amiga que havia terminado um noivado e precisava mudar o status de relacionamento no Facebook. A mesma não gostaria que todas sua rede soubesse da notícia, mas era importante que parte dela soubesse. Por isso, a moça utilizou de filtros de privacidade para limitar o reach da publicação. Nesse sentido, para Shirky (2008), os filtros estão nas nossas mãos, assim como os filtros da "vida real" aqueles, da conversa na rua. Entretanto, Shirky (2008) deixa aberta a questão: como podemos gerenciar os filtros a favor da privacidade na rede em meio a dezenas de políticas de privacidade? Em uma outra apresentação no TED, Shirky (2008) discursa sobre como plataformas sociais como Facebook e Twitter estão mudando o cenário político global ao permitirem que usuários tenham o poder de criar conteúdo e dialogar entre sí, desafiando os grandes produtores de conteúdo que, até então, detinham a informação e replicavam de uma forma massiva e filtrada e/ou censurada. Shirky (2008) levanta um interessante dilema, através da história da evolução dos meios até o século XX (escrita/impressa, telefone, cinema, Tv e Rádio), sobre como as mídias que permitem diálogo não permitem a criação de grupos e as mídias que são boas em criar grupos, não permitem diálogo (limitando a comunicação de uma mensagem única para todo o grupo) e é nesse paradoxo que a internet se apresenta como a primeira mídia que originalmente e genuinamente suporta a criação de grupos e a conversação ao mesmo tempo. André Lemos e Pierre Levy tratam uma questão mais técnica (visual) de como a informação de daria dentro do ciberespaço, ainda no contexto político, em seu livro "O futuro da Internet: em diareção a uma Ciberdemocracia Planetária": Na perspectiva histórica, a eclosão do ciberespaço persegue um movimento plurissecular de aumento da visibilidade e da transparência. No domínio científico, as técnicas de visualização ganham uma importância crescente: esquemas, mapas, fotos, filmes, simulações interativas pertencem cada vez mais ao quotidiano da atividade do pesquisador. As imagens traduzem e simplificam a percepção dos dados e são cada vez mais modeladas e performativas em computadores. (Lemos e Levy, 2010, página 61)
Porém, a visão otimista de Shirky (2008) sobre a internet (e os novos filtros) e a ideia de aumento de visibilidade e transparência de Lemos e Levy (2010) vão totalmente contra a visão mais realista (e talvez, técnica) de Pariser (2012). Na verdade, um dos motivos pelos quais Pariser (2012) escreveu seu mais famoso livro objeto de estudo do presente artigo foi justamente o fato de perceber que o Facebook havia começado a ocultar posts de amigos que tinham opiniões políticas opostas. O mesmo se aplica ao Google. Pariser (2012) critica massivamente os grandes veículos online e os programadores dos algoritmos os Árbitros da verdade ao entender que estamos totalmente imerso em bolhas de opiniões semelhantes e que cada vez mais esses filtros estarão afinados e nos isolando cada vez mais. Outro ponto importante é que tais empresas não se posicionam pelo reason why capitalista politicamente de forma explícita, mas influenciam muito na maneira que consumimos e, mais importante, discutimos política. 2015: O posicionamento do Facebook quanto aos filtros e a resposta de Eli Pariser
O livro de Eli Pariser foi escrito em 2011 e, no mesmo ano, o autor foi um dos speakers do TED, apresentação que foi uma das grandes alavancas para a exposição do autor e suas ideias. De lá pra cá, os filtros evoluíram muito, especialmente a favor da publicidade online, e de fato ainda não conseguimos sair das bolhas nas quais os filtros nos colocam. Parieser cita em entrevista a revista Época que, após o sucesso do livro e diversas conversas com engenheiros do Google para convencélos que existia um dilema ético na maneira que os resultados eram apresentados, a gigante do Vale do Silício " passou a permitir que as pessoas tivessem acesso aos resultados sem filtro mais facilmente. Algumas pesquisas que fizemos mostram que vários usuários preferem esses resultados " (Pariser, 2012, em entrevista a revista Época). Em 2015 foi a vez do Facebook se posicionar de forma diferente sobre os filtros. Baseados na polemica acerca da ameaça a polarização política causada pelos algoritmos, a empresa desenvolveu um estudo interno (com times de engenheiros do próprio Facebook) para entender o real impacto dos filtros na rede social. O estudo foi publicado na revista Science com o título de "Is Facebook keeping you in a political bubble?". Os pesquisadores usaram uma metodologia
mais avançada para entender o efeito dos filtros: ao invés de apenas categorizar os conteúdos por polarização política através de análise semântica, o time criou o chamado "alinhamento político", que consistia em entender a media de alinhamento político de todos os usuários que postaram aquela matéria. Nesse modelo, cada matéria chegava ao um score liberal e um score conservador. O facebook estava interessado em saber o potencial de alcance das materias com scores considerados "transversáis" (conteúdos políticos que chegaram a pessoas consideradas com alinhamento político liberal, mas também que chegaram a pessoas com alinhamento político considerado conservador). O resultado: ao comparar os dois grupos e os conteúdos recebidos em suas time lines, o Facebook concluíu que o algoritmo fez apenas 1% menos provável que os usuários fossem expostos a histórias politicamente transversais dados que vão contra parte da teoria de Pariser (2012). O autor teve acesso ao estudo completo do Facebook, cedido por executivos da própria empresa e, no mesmo ano, publicou em seu site uma resposta ao estudo com o título de " Did Facebook’s Big New Study Kill My Filter Bubble Thesis? Not really. Let’s dive into it and see why not ". No mesmo, Pariser (2015) detalha o estudo e, em resumo, o que o autor concluiu é que sim, usar o Facebook significa que você pode ver mais notícias que sejam populares entre amigos que compartilham suas posições políticas. Pariser (2015) conta que, em média, nós somos cerca de 6% menos propensos a ver conteúdo que o outro lado político favoreça. Nossas amizades pesam muito mais do que o algoritmo em si. Porém, o efeito pode ser ainda maior: para quem se descreve como liberal no Facebook o algoritmo reduz o conteúdo contrário em cerca de 8%, contra uma queda de 6% causada pelas próprias escolhas dos liberais sobre o que clicar. Para os conservadores, o efeito do filtrobolha é de cerca de 5%, e o efeito clique é cerca de 17%. No gráfico abaixo também baseado em dados do estudo do Facebook, Pariser (2015) mostra em números o potencial de alcance (potential from network) e o alcance real (exposed) dos conteúdos liberais e conservadores. Em resumo, o gráfico mostra que sim, somos expostos a uma parcela pequena de conteúdo político diferente da nossa visão mas, que esse cenário poderia ser muito diferente se analisarmos a coluna " randon " (conservadores e liberais veem quase a mesma quantidade de conteúdo conservador e liberal).
Imagem 2: Gráfico de potencial de alcance de conteúdos políticos, disponível em https://medium.com/backchannel/facebookpublishedabignewstudyonthefilterbubblehereswhatitsaysef31 a292da95#.b09wgoqdv
Conclusão Estamos cercados de filtros. Dentro e fora da internet, hoje e sempre, pelo simples fato de sermos incapazes de absorver todas as informaçoes ao nosso redor: filtramos as principais ideias de uma aula de quatro horas, filtramos os principais pontos de uma discussão, filtramos os amigos que queremos ter, os filmes que queremos ver. Existe uma limitação física. Nosso cérebro não é capaz de procesar todas as informações do mundo. Existe uma limitação espacial, lógica e até emocional para usarmos os filtros. Então, temos que admitir: os filtros desempenham um papel importante no mundo ao trazer a priorização . Os filtros nos ajudam com a personalizacao, ajuda a organizar nossas vidas, a priorizar, mas pagamos caro por isso. Pagamos por talvez nos limitarmos ao conhecido e pagamos com nossos dados pessoais: empresas como Google e Facebook podem saber mais sobre nós do que nos mesmos e isso é real. Dependendo dos filmes que assistimos, das musicas que ouvimos, do conteúdo que lemos, o Facebook talvez possa saber
antes de um diagnóstico médico que temos um quadro de ansiedade, por exemplo. Mas o Google e Facebook estão preocupado com dados que os ajudem a vender: esse é o negócio. Então, talvez um dia eu possa ver um anúncio no Facebook (ou talvez em um outdoor no ponto de onibus que reconheça minha face) de um terapeuta que atenda perto da minha casa, que aceite meu convenio e que ainda me de um desconto. Tudo isso porque o Facebook conseguiu compreender, de alguma forma, que eu tenho ansiedade. Existe um dilema ético complexo aqui que demanda mais estudo e discussão. Quanto aos filtros de informaçao, uma das analises mais interessantes de Pariser (2012), também citada por Shirky (2008), é que os filtros/mediação, sejam eles de conteúdo pelas editoras ou de censura política exemplo da China são filtros baseados em interesses (da industria capitalista, do governo autoritário), e isso é um problema. Nesse sentido, uma das perguntas que ficam ainda sem resposta é: a liberdade de escolha e, até de expressão, são uma utopia? Ainda sobre os impactos dos filtros, os mesmos podem delimitar nossa visão de mundo e fazer com que percamos nossa liberdade de escolha, o desenvolvimento do nosso senso crítico, pesquisador e até mesmo criativo. Os filtros também podem ajudar a acentuar os problemas sociais da vida offline na online. A geração mais conservadora presente no Facebook muito provavelmente não terá contato com os pensamentos da comunidade gls talvez, pelo contrário, rceberá em seu feed mensagens de intolerância e discriminação dos gays. Mas lembremos: embora criamos por humanos, os filtros são algoritmos, não humanos. E talvez esses filtros tenham muito mais poder do que imaginamos. Entretanto, há o outro lado da moeda, claro. Não podemos designar 100% da responsabilidade da nossa capacidade de aprendizado, descobrimento e afins, aos algoritmos. Existe um lado nosso pessoal que não deve se limitar a essas redes. Se queremos saber sobre as opiniões de partidos opostos, podemos encontrar essa informação em dezenas de lugares além do nosso feed de notícias do Facebook ou do resultado de busca do Google. Nos apoiar nos filtros é uma posição comoda, covarde e baseada apenas em uma visão funcionalista. Nesse sentido, a visão de Shirky
(2008) na qual entende a internet como um potencializador da capacidade humana, geradora de conexões e capaz de gerar valor com a colaboração, pode ter um sentido maior. Por fim, entender cada vez mais os filtros, questionar os gigantes do vale do silício, não nos deixar levar pelo ego massageado pelo viés da confirmação que os filtros pode nos proporcionar e entender que existe um mundo maior além da nossa "home page" é fundamental para que possamos seguir evoluindo e expandindo e não o oposto.
Referências bibliográficas
PARISER, Eli. O Filtro Invisível o Que a Internet Está Escondendo de Você. Rio de Janeiro: Jorge Zahar Editor ltda, 2012. LEMOS, Andre e LÉVY, Pierre. O Futuro da Internet: Em direção a uma Ciberdemocracia planetária. São Paulo: Paulus, 2010. SHIRKY, Clay. Here comes everybody: the power of organizing without organizations. Nova York: Penguin Books, 2008 How social media can make history. Disponível em: Acesso em 25 de Janeiro de 2016 "A
internet
esconde
quem
discorda
de
você".
Disponível
em:
Acesso em 25 de Janeiro de 2016 Shirky:
Problem
is
filter
failure,
not
info
overload.
Disponível
em:
Acesso em 25 de Janeiro de 2016
Eli Pariser on the Ethics of Algorithmic Filtering. Disponível em: Acesso em 25 de Janeiro de 2016 Is
Facebook
keeping
you
in
a
political
bubble?.
Disponível
em:
Acesso em 25 de Janeiro de 2016 Did Facebook’s Big New Study Kill My Filter Bubble Thesis? Disponível em: Acesso em 25 de Janeiro de 2016
Lihat lebih banyak...
Comentários