Os visíveis efeitos dos filtros invisíveis: Uma análise sobre os impactos dos algoritmos na nossa maneira de ver o mundo

June 1, 2017 | Autor: Thiago Nakano | Categoria: Facebook, Cibercultura, Sociología, Redes Sociais, Algoritimos, Filtros Digitales
Share Embed


Descrição do Produto

Os visíveis efeitos dos filtros invisíveis: Uma análise sobre os impactos dos algoritmos na  nossa maneira de ver o mundo1    Thiago Nakano Alves  Universidade de São Paulo     Introdução     O  presente  artigo  propõe  uma  reflexão  e  análise  crítica  acerca  da  influência  dos  algoritmos  e  filtros  personalizados  presentes  na  internet,  principalmente  no  Google  e  Facebook.  A  idéia  é  entender  a  origem   dos  filtros,  seus   impactos  e  benefícios  pelas  visões  de  pesquisadores  sobre   o   tema,  em  especial  Eli  Pariser,  autor  do  livro  base  da  pesquisa  "O  Filtro  Invisível  ­  o  Que  a  Internet  Está  Escondendo   de  Você",  publicado  em  2011  (2012  no  Brasil),  e   também  pela  visão  dos  próprios  veículos.  São  muitos  os  impactos  dos  filtros:  em  nossa  maneira  de  consumir  notícias,  entretenimento,  na  nossa  forma  de  nos  relacionar  com  amigos,  na  nossa  maneira  de  descobrir  novas  coisas  e,  talvez  a  mais  polêmica,  na  forma  que  consumimos   e  discutimos  política. Alguns positivos, alguns negativos.     A origem dos filtros     Em  meados  dos  anos  90,  onde  os  americanos  já  tinham acesso a centenas de canais/conteúdo na  TV,  controlar  apenas  brilho  e  volume  atraves  do  controle  remoto  já   não  era  suficiente.  Nesse  contexto,  Pariser  (2012)  comenta  sobre  a  visão  de  Nicholas  Negroponte,  que   já  falava  do  conceito  de  personalização  ao  trazer  a  ideia  dos  agentes  artificiais,  que  nada  mais  seriam  que  robos  que  organizariam  os  conteúdos  que  seriam  mais  interessantes  aos  usuários.  Essa  ideia  trouxe  muita  controversa  na  época,  alguns  pesquisadores  já  questionavam  a  ideia  de  termos  robos  fazendo  esse  tipo  de  intermedio,  mas,  logo  as  empresas perceberam que Negroponte tinha  razão e que as empresas que conseguissem criar relevância em um cenário de colápso de atenção,  ganhariam  muito  dinheiro.  Pariser  (2012)  relembra  que  "relevância"  havia  virado  palavra  de 

1

  Artigo para avaliação do curso "Cibercultura", parte da grade de conteúdo do curso de pós­graduação  DIGICORP/ECA­USP, ministrado pela professora e pesquisadora Elizabeth Nicolau Saad Corrêa .    

ordem  nas  empresas  do  Vale  do  Silício  naquela época. A Microsoft criou o software "BOB" que  ajudava  a  personalizar  o  sistema  operacional.  A  Apple,  10  anos  antes   do   Iphone,  lançou  o  Newton,  que  era  uma  espécie  de  "assistente  informatico   pessoal".  Todos  sem  muito  sucesso  basicamente pelo mesmo motivo: eles eram agentes não tão inteligentes, segundo Pariser (2012).     Pariser  (2012)  conta  como  a  Amazon  foi  uma  das  primeiras  empresas  a  entender  o  conceito  de  relavância  e  aplicar  de forma assertiva aos negócios: Em  1994,  o  presidente da Amazon já falava  em  trazer  de  volta  os  velhos  tempos  de  livraria  onde  o  livreiro  te  conhecia  tão  bem  que  que  conseguia  indicar  titulos  baseado  em  seus  autores  preferidos.  Em  1995,  quando  a  Amazon  foi   lancada,  Pariser  (2012)  relembra  que  os  usuários  puderam  experimentar  a  personalização  na  experiência  de  compra  pela  primeira  vez  ­  sugerindo  títulos  relacionados,  perfis  de  leitores  etc.  Em  97  a  Amazon  já  havia  vendido  para  1  milhão  de  clientes  e  quanto  mais  eles  vendiam,  mais  informações  tinham   para  melhorar  os  filtros.  Quando  usamos  o  kindle,  por  exemplo,  a  Amazon  captura  dados  como:  trechos  que  destacamos,  se  lemos  desde  o  inicio  ou  se  pulamos  para  um  capitulo específico. Tudo para melhorar a experiencia do usuário ­ e vender mais.     Pariser  (2012)  faz  uma  grande  analise  sobre  o  início  do  Google  e  como  os  algoritmos  e  filtros  foram  ​ assets  muito  importantes  naquela  época.  Pariser  (2012)  cita  um  trecho  de  uma  entrevista  dos fundadores do Google, muito curiosa, na qual falam:    

 

Acreditamos  que  os mecanismos de busca financiados por propagandas   são  inteiramente  parciais,  favorecendo os anunciantes e se distanciando  das  necessidades dos  consumidores.  Quanto melhor for um mecanismo  de   busca,  menos  anúncios  serão   necessários  para  que  o  consumidor  encontre  o   que  procura…  acreditamos  que  a  questão  da  publicidade  gera  incentivos  mistos;  por  isso,  é  fundamental  que  exista  um  mecanismo  de  busca  competitivo  que  seja  transparente  e  se  mantenha  dentro  do  ambito  acadêmico. (Larry Page e  Sergey  Brin, fundadores do  Google ​ apud​  Pariser, 2012, location 426 ­ kindle)  

Em  97,  Larry  Page  e  Sergey  Brin  já  falavam  sobre  relevancia  dos   buscadores,  que  naquela  época,  não  conseguiam  localizar  a  sí  próprios.  Foi  ai  que  surgiu  o  ​ pagerank​ ,  que  não  só  considerava  ​ keywords  da  página,  mas volume de cliques, indicações, entre outros. Pariser (2012) 

conta  que,  pouco  tempo  depois,  o  Google  já era o melhor buscador, já no domínio Google.com.  Estudiosos  diziam  que  o  ​ pagerank  que   havia  sido  o  grande  diferencial  do  Google,  mas  na  verdade  era  apenas  uma  pequena  parte  do  projeto.  Para  Pariser  (2012),  a  verdadeira  chave  da  relevância  online  eram  ​ dados  e,  em sua maioria, gerados pelo próprios usuário: se o usuário, por   exemplo,  clica  no  segundo  link   de um resultado de busca, indiretamente ele está indicando que o  primeiro  possa  não  ser  tão  relevante,  como  uma  votação.  A  partir  daí,  o  Google  começou  a  guardar  e  usar  todos  os   dados  de  todas  as  buscas como uma forma de aprimorar cada  vez mais o  algoritmo.  Porém, Pariser (2012) lembra  que esses dados nao eram suficientes para gerar ​ insights  mais  pessoais  de  cada  individuo.  Então,  em  2004,  o  Google  lançou  o  Gmail,  em  seguida  o  GoogleApps.  Pouco  tempo  depois  o  Google  ja  era  capaz  de  identificar  quais  grupos  o  usuário   pertencia  ­  e  eram  categorias  bem  nichadas.  Tudo o que fazemos nas plataformas do Google dão  a eles cada vez mais traços da nossa personalidade.      Para  Pariser  (2012),   o   algoritmo  do  Google funcionava muito bem, mas a dificuldade era fazer o  usuário  revelar   mais  detalhes  dos  seus  gostos  e  interesses  ­  informacoes  que  o  usuário  não  buscaria.  Pariser  (2012)  conta  que  em  2014,  Mark  Zuckerberg  teve  a  ideia  de,  ao  invés  de  analisar  cliques para adivinhar os gostos das pessoas, simplesmente perguntar a elas. Além disso,  diferente  do  Myspace,  que  era  a  rede  social  da  época,  ao ivés de incentivar amizades com novas  pessoas,  o  Facebook  queria  reforcar  os  laços  sociais  já  existentes  na  vida  ​ off­line​ .  Outra  grande  diferença,   sendo  Pariser  (2012),  era  o  feed  de  notícias,  que  organizava  as  novas  informações  e  trazia logo na primeira página.  Com  o  estouro  do  Facebook  em  2006  os  usuários  ja  tinham   tanto   conteudo  que  era  difícil  acompanhar  todas  as  atualizações,  então  o  Facebook  criou  o  EdgeRank  ­  que  categorizava  as  postagens  mais  e  menos  importantes  baseados  em  diversos  critérios  que  afinavam  a   relevância  desse  conteudo.  Em  2010,  Pariser  (2012)  lembra  que  o  Facebook  lancou  o  'Facebook  Everywhere"  que  tinha  como  objetivo  fazer  toda  a   rede  ser  social  ­  que  permitia  o  usuários  curtirem  matérias em sites externos, além de conectar suas  contas em outros aplicativos, como de  musica, entretenimento ­ gerando ainda mais dados para o Facebook afinar o filtro.    

Toda  essa  busca  por  relevância  faz  as  empresas buscarem cada vez mais dados para melhorarem  nossa  experiencia  online  e  microsegmentar  a  publicidade  e  essa  busca  tem  moldado  a  rede,  influenciando  os  usuários  em  muito  mais  camadas  do  que  imaginamos.  Nesse  contexto,  apresentarei  as  principais  ideias  de  Pariser  (2012)  quanto  aos  impactos  dos  filtros  nas  vidas  dos  usuários.    

Os impactos dos filtros em nossas vidas     Um  ponto  muito  explorado  por  Pariser   (2012)  é  a  forma  que  nós  consumimos  notícias  e  como  esse  processo  é  impactado  pelos  filtros.  O  autor  conta  um  pouco  da  história  do  nascimento  do  jornal  e  traz a  principal mensagem de que os jornalistas possuem papel fundamental na formação  da  sociedade  porque  eles  influenciam  no  conteúdo  que  vamos  ler  e  esse  conteúdo  muda  nossa  visão de mundo, então, o papel de filtro, ou como ele chama "intermediário", sempre existiu.   Pariser  (2012)  fala  do  processo  de  "Desintermediação"  trazido  pela  internet.  Um  exemplo  que  ele  da  é  a  possibilidade  ler  um  anúncio  da  casa  branca  na  integra,  sem  precisar  da  visão  do  intermediario  do  jornal.   So  que   na  verdade,  o  filtro,  o intermediario está ali, ele apenas mudou e  agora  é  invisível.  Sendo  assim,  para  Pariser  (2012),  a  desintermediaçao  é  como   uma  utopia  ­  visão da qual compartilho com o autor.     Sendo  assim,  para  Pariser  (2012),  a  bolha  dos filtros transforma nossa forma de ver o mundo, ao  determinar  quais  tipos  de conteúdos vemos e quais não vemos. Ainda nesse sentido, o filtro pode  nos  deixar  mais  exposto  a  determinado  conteúdo  (geralmente  os de afinidade)  e menos ou quase  nada  exposto  a  artigos  e  conteúdos  de  outros  assuntos.  Logo,  ao  analisarmos  a  questão  da  criatividade/curiosidade,  que  são  aguçadas  com  o  novo,  o  descobrimento,   podem  ser  afetadas  nesse  processo  dos  filtros.  Pariser   (2012)  cita  Ryan  Calo,  professor  de  direito  de  Stanford,  que  fala:   "Quando  a   tecnologia  passa  a  nos  mostrar  o  mundo,  acaba  por  se  colocar  entre  nós  e  a  realidade,  como  a  lente  de  uma  camera.  É  uma  posição poderosa, são muitas as  maneiras pelas quais ela pode deformar  a  nossa  percepção  do  mundo"  (Ryan  Calo  ​ apud Pariser, 2012, location  197 ­ kindle)  

Agora,  analisando  outras   esferas  de  impacto  dos  filtros,  Pariser  (2012)  acredita  que  os  filtros  podem  acentuar  o  que  ele  chama  de  "viés  da  confirmação",  que  nada  mais  é  que  a  questão  dos  filtros  nos  cercarem  apenas  as  ideias  das  quais estamos acostumados. Por exemplo, ao analisar o  feed  de  notícias  do  Facebook,  muito  provavelmente  veremos  postagens  de  pessoas  com  os  mesmo  interesses  políticos,  ou  com  os  mesmos  gostos  musicais.  Esse  processo, segundo Pariser  (2012),  da  confiança  as  nossas  estruturas  mentais  e  nos  tira  a  vontade  de   aprender,  reformando  nossos  conceitos  e  ideias  pre  existentes. Nesse cenário, como podemos, por exemplo, trabalhar o  combate  a  violência  contra  a  mulher  nas  rede  sendo  que,  muito  provavelmente,  um  criminoso  não  terá  contato  com  esse  tipo  de  conteúdo  (de  forma  organica).  Curiosamente,  acabo  se  ser  impactado pelo seguinte post no Facebook:    

  Imagem 1: Print screen da timeline Facebook  

     

A imagem acima comprova duas coisas:   1. Pelo  fato  de  eu  interagir,  comentar  e  engajar  com  conteúdos  dessa   categoria  (luta  contra  machismo,  homofobia,  etc),  o  Facebook  entendeu  que  um  post  de  um  amigo  de  amigo  seria  interessante  para  mim.  E  as  outras  pessoas  menos  engajadas  com  esse  tipo  de  assunto (como por exemplo, os indivíduos que praticam abuso)?   2. A atuação dos filtros não é imperceptível para todas as pessoas.      Pariser  (2012)  discute  um  outro  ponto  muito  interessante  que  é  a  questão  da  identidade na rede.  Para  o  autor,  temos  identidades  diferentes,  de  acordo  com  a  plataforma  que  estamos.  Para  o  Google,  como  citado  anteriormente,  o  usuário  prove  informações mais íntimas, mais reais. Já no  Facebook,  temos  a  oportunidade  de  criar  essa  identidade  através  de  posts  selecionados.  Além  disso,  nossos  ​ likes  vão  dando  ao  Facebook  diversas  e  diversas  dicas  de  quem  somos  (ou  como  gostaríamos  que  as  pessoas  nos  vissem).  Nossas  identidades  moldam  nossa  mídia,  e  o  contrario  também  acontece.  Nesse  contexto,  Pariser  (2012)  reforça  que  entramos  em  um  ciclo  de  nós  mesmos  e  que  se  os  ciclos  de  identidade  não  forem  balanceados  pela  aleatoriedade  nossa  identidade real pode entrar em uma zona cinzenta.    

O outro lado da bolha    Para  Shirky  (2008),  as  plataformas  digitais  podem  gerar  grande  impacto  positivo  na  sociedade  através  da  cultura  da  colaboração.  Em  linhas  gerais,  o  autor  considera  que  o novo paradigma da  comunicação  é   direcionado  para  fins  sociais  e  é  baseado  em  plataformas  sociais  e  de  conteúdo  amador  criado  pelos  usuários.  Nesse  contexto,  tudo  é  social:  conteúdo,  distribuição,  interações,  ações.  As  mídias  sociais  se  integram fortemente na vida das pessoas e mudam o ambiente ao seu  redor.  Shirky  (2008)  defende  que  a  sociedade  não  é  apenas  o  produto   de  um  individuo  mas  também  de  grupos  que  constituem   essa  sociedade.  A  internet  seria  apenas  uma  ferramenta  facilitadora  de  um  comportamento  já  existente,  permitindo  ainda  formações  de  novos  grupos  e  novos modelos de colaboração.   Shirky  (2008)  aborda  o  temas  dos  filtros  em  uma  visão  um  pouco  mais  otimista,  ao  comparar  com  a  forma  tratada  por  ​ Pariser  (2012).  O  autor  explica  as  raízes  da intermediação, assim como 

Pariser  (2012),  ao  lembrar  dos  processos  das  editoras  (e  produtoras musicais, redes de televisão,  etc)  ao  filtrar   um  conteúdo  bom  ou  não  ­  entende­se  bom como conteúdo  com grande potencial  de  venda  ­  antes   da edição. O filtro aqui era "qualidade" (uso aspas pois entendo qualidade como   algo  muito  relativo).  Isso  acontecia,  basicamente,  pelos  altos  custos  de  produção  e  distribuição.  As  editoras  tinham  uma  pressão  grande  de  vender  e  não  poderiam  ter  prejuízos.  ​ Para  Shirky  (2008),  a  internet  mudou  o  processo  de  intermediação  ao  tornar  os  filtros  sociais  ­  baseados  em  interesses  dos  próprios  usuários  na  rede  ­  fazendo  com  que  não  exista  filtro entre a produção do  conteúdo e a publicação do mesmo, conforme trecho abaixo:     (...)  O  panorama  das  mídias  se  transformam  porque  a  comunicação  pessoal  e  a  publicação,  anteriormente  funções  separadas, se fundem.  O resultado  é  quebrar o padrão profissional da  filtragem do bom e do  medíocre   antes  da   publicação;  agora  este  mecanismo  de  filtragem  é  cada vez mais social, e acontece depois’ (Shirky 2008. p. 81).  

 

Shirky  (2008),  em  uma  palestra  para  o  Web  2.0  Expo  in  New  York,  em  2008,  Shirky  (2008)  aborda uma visão interessante acerca do excesso de informação, dos filtros e privacidade:   What  we're  dealing  with  now  is  not  the  problem  of  information  overload,  because  we're always dealing (and always have  been dealing)  with  information  overload...Thinking  about  information  overload  isn't  accurately  describing  the   problem;  thinking  about  filter  failure  is.  (Transcrição  de  parte   da  palestra   de  Shirky  2008  ​ apud  www.cnet.com/news/shirky­problem­is­filter­failure­not­info­overload)  

Para  o  autor,  sempre   estivemos   expostos   ao  excesso  de  informação  e  que   a  seleção  sobre  qual  informação é mais importante  para nós ­ o filtro ­ sempre foi feita de forma organica na vida real,  como  o  exemplo,  se  estamos   em  um   restaurante,  estamos  expostos  a  uma  grande  quantidade  de  conversas,  porém,  selecionamos  qual  queremos  escutar  (idealmente  a  da pessoa da qual estamos  acompanhados).  Para  Shirky   (2008),  o  problema  de  excesso  de  informação  na   internet  é  um  problema  de  filtros  ­  que  não  foram capazes de entender qual conteúdo seria realmente relevante  para mim.    

Shirky  (2008)  aborda  o  tema  de  privacidade  também  ligado  aos  filtros.  Segundo  o  autor,  os  filtros  são  responsáveis  por,  de  alguma  forma,  ajudar  na  privacidade  na  rede  ao  limitar  que  determinadas  mensagens   cheguem  a  determinados  públicos,  como  exemplo,  o  autor  cita  uma  amiga  que  havia  terminado  um  noivado  e  precisava  mudar  o  status  de  relacionamento  no  Facebook.  A  mesma  não  gostaria que todas sua rede soubesse da notícia, mas era importante que  parte  dela  soubesse.   Por  isso,  a  moça  utilizou  de  filtros  de  privacidade  para  limitar   o   ​ reach  da  publicação.  Nesse   sentido,  para  Shirky  (2008),  os  filtros  estão  nas  nossas  mãos,  assim  como  os  filtros  da  "vida  real"  ­  aqueles,  da  conversa  na  rua.  Entretanto,  Shirky  (2008)  deixa  aberta  a   questão:  como  podemos  gerenciar os filtros a favor da privacidade na rede em meio a dezenas de  políticas de privacidade?     Em  uma  outra  apresentação  no  TED,  ​ Shirky  (2008)  discursa  sobre  como  plataformas  sociais  como  Facebook  e  Twitter  estão  mudando  o  cenário  político  global  ao  permitirem   que  usuários  tenham  o  poder  de  criar  conteúdo  e  dialogar  entre  sí,  desafiando  os  grandes  produtores  de  conteúdo  que,  até  então,  detinham  a  informação  e  replicavam  de  uma  forma  massiva  e  filtrada  e/ou  censurada.   Shirky  (2008)  levanta  um  interessante  dilema,  através  da  história  da  evolução  dos  meios  até  o  século  XX  (escrita/impressa,  telefone,  cinema,  Tv  e  Rádio),  sobre  como  as  mídias  que  permitem  diálogo  não  permitem  a  criação  de  grupos  e  as  mídias   que  são  boas  em  criar  grupos,  não permitem diálogo (limitando a comunicação de uma mensagem  única para todo  o  grupo)  e é nesse  paradoxo que a internet se apresenta como a  primeira mídia que originalmente  e genuinamente suporta a criação de grupos e a conversação ao mesmo tempo.   André  Lemos  e  Pierre  Levy  tratam  uma  questão  mais  técnica   (visual)  de  como  a  informação de  daria  dentro  do  ciberespaço,  ainda  no  contexto  político,  em  seu  livro  "O  futuro  da  Internet:  em  diareção a uma Ciberdemocracia Planetária":   Na  perspectiva  histórica,  a  eclosão  do ciberespaço persegue um  movimento  plurissecular  de  aumento  da  visibilidade  e  da   transparência. No domínio científico, as  técnicas de visualização  ganham  uma  importância  crescente:  esquemas,  mapas,  fotos,  filmes,  simulações  interativas  pertencem  cada  vez   mais  ao  quotidiano  da  atividade  do pesquisador. As imagens traduzem  e  simplificam  a   percepção  dos  dados  e  são   cada  vez  mais  modeladas  e  performativas  em  computadores.  (Lemos  e  Levy,  2010, página 61)  

Porém,  a  visão  otimista  de  Shirky  (2008)  sobre  a  internet  (e  os  novos  filtros)  e  a  ideia  de  aumento  de  visibilidade  e  transparência  de  Lemos  e  Levy  (2010)   vão  totalmente  contra  a  visão  mais  realista  (e  talvez,  técnica)  de  Pariser  (2012).  Na   verdade,  um  dos  motivos  pelos  quais  Pariser  (2012)  escreveu  seu  mais  famoso  livro  ­  objeto  de  estudo  do  presente  artigo  ­  foi  justamente  o  fato  de  perceber  que  o  Facebook  havia  começado  a  ocultar  posts  de  amigos  que  tinham  opiniões  políticas  opostas.  O  mesmo  se  aplica  ao  Google.  Pariser  (2012)  critica  massivamente  os  grandes  veículos  online  e  os  programadores  dos  algoritmos  ­  os  Árbitros  da  verdade  ­  ao  entender  que  estamos  totalmente  imerso  em  bolhas  de  opiniões   semelhantes  e  que  cada  vez   mais  esses  filtros  estarão  afinados  e  nos  isolando  cada  vez  mais.  Outro  ponto  importante  é  que   tais  empresas  não  se  posicionam  ­  pelo  reason  why  capitalista   ­  politicamente  de  forma  explícita,  mas  influenciam  muito  na  maneira  que  consumimos  e,  mais  importante,  discutimos política.      2015: O posicionamento do Facebook quanto aos filtros e a resposta de Eli Pariser     

O  livro  de  Eli Pariser foi escrito em 2011 e, no mesmo ano, o autor foi um dos ​ speakers do TED,  apresentação  que  foi  uma  das  grandes  alavancas  para  a  exposição  do  autor  e  suas  ideias.  De  lá  pra  cá,  os  filtros  evoluíram  muito,  especialmente  a  favor  da  publicidade   online,  e  de  fato  ainda  não  conseguimos  sair  das  bolhas  nas  quais  os  filtros  nos  colocam.  Parieser  cita  em  entrevista  a  revista  Época  que,  após o sucesso do livro e diversas conversas com engenheiros do Google para  convencé­los  que   existia  um  dilema  ético  na  maneira  que  os  resultados  eram  apresentados,  a  gigante  do  Vale  do Silício "​ passou a permitir  que as pessoas tivessem acesso aos resultados sem  filtro  mais  facilmente.  Algumas  pesquisas  que  fizemos  mostram  que  vários  usuários  preferem  esses resultados​ " (Pariser, 2012, em entrevista a revista Época).   Em  2015  foi  a  vez  do  Facebook   se  posicionar  de  forma  diferente  sobre  os   filtros.  Baseados  na  polemica  acerca  da  ameaça  a  polarização  política  causada  pelos  algoritmos,  a  empresa  desenvolveu  um  estudo  interno  (com times de engenheiros do próprio Facebook) para entender o  real  impacto   dos  filtros  na  rede  social.  O  estudo  foi publicado na revista Science com o título de  "Is  Facebook  keeping  you  in  a  political  bubble?".  Os  pesquisadores  usaram  uma  metodologia 

mais  avançada  para  entender o efeito dos filtros: ao invés de apenas categorizar os conteúdos por  polarização  política através de análise semântica,  o  time criou o chamado "alinhamento político",  que  consistia  em  entender  a  media  de  alinhamento  político  de  todos  os  usuários  que  postaram  aquela matéria. Nesse modelo, cada matéria chegava ao um score liberal e um score conservador.  O  facebook  estava  interessado  em  saber  o  potencial  de  alcance  das  materias  com  scores  considerados  "transversáis"  (conteúdos  políticos  que  chegaram  a  pessoas  consideradas  com  alinhamento  político  liberal,  mas  também  que  chegaram  a  pessoas  com  alinhamento  político  considerado  conservador).  O  resultado:  ao  comparar os dois grupos e os conteúdos recebidos em  suas  time  lines,  o  Facebook  concluíu   que  o  algoritmo  fez  apenas  1%  menos  provável  que  os  usuários  fossem  expostos  a  histórias  politicamente  transversais  ­  dados  que  vão  contra  ​ parte  da  teoria de Pariser (2012).   O  autor  teve  acesso  ao  estudo  completo  do  Facebook,  cedido por executivos da própria empresa  e,  no  mesmo  ano,  publicou  em  seu  site   uma  resposta  ao estudo com o título de "​ Did Facebook’s  Big  New  Study  Kill  My  Filter  Bubble  Thesis?  Not  really.  Let’s  dive  into  it and see why not​ ". No  mesmo,  Pariser  (2015)  detalha   o   estudo  e,  em  resumo,  o  que  o  autor  concluiu  é  que  sim,  usar o  Facebook  significa  que  você  pode  ver  mais  notícias  que  sejam  populares  entre  amigos  que  compartilham suas posições políticas.   Pariser  (2015)  conta  que,  em  média,  nós  somos  cerca  de  6%  menos  propensos  a  ver  conteúdo  que  o  outro lado político favoreça. Nossas amizades pesam muito mais do que o algoritmo em  si.  Porém,  o  efeito  pode  ser  ainda  maior:  para  quem  se  descreve  como  liberal  no  Facebook  o  algoritmo  reduz  o  conteúdo  contrário  em  cerca  de  8%,  contra  uma  queda  de  6%  causada  pelas   próprias  escolhas  dos  liberais  sobre o que clicar. Para os conservadores, o efeito do filtro­bolha é  de  cerca  de  5%,  e  o  efeito clique é cerca de 17%. No gráfico abaixo ­ também baseado em dados  do estudo do Facebook, Pariser (2015) mostra em números o potencial de alcance (potential from  network)  e  o  alcance  real  (exposed)  dos  conteúdos  liberais  e  conservadores.  Em  resumo,  o  gráfico  mostra  que  sim, somos expostos a uma parcela pequena de conteúdo político diferente da  nossa  visão  mas,  que  esse  cenário  poderia  ser  muito  diferente  se  analisarmos   a coluna "​ randon​ "  (conservadores e liberais veem quase a mesma quantidade de conteúdo conservador e liberal).  

  Imagem 2: Gráfico de potencial de alcance de conteúdos políticos, disponível em  https://medium.com/backchannel/facebook­published­a­big­new­study­on­the­filter­bubble­here­s­what­it­says­ef31 a292da95#.b09wgoqdv  

 

Conclusão     Estamos cercados de filtros.  Dentro e fora da internet, hoje e sempre, pelo simples fato de sermos  incapazes  de  absorver  todas  as  informaçoes ao nosso redor: filtramos as principais  ideias de uma  aula  de  quatro  horas,  filtramos  os  principais  pontos  de  uma  discussão,  filtramos  os  amigos  que  queremos  ter,  os  filmes  que  queremos  ver.  Existe  uma  limitação  física.  Nosso  cérebro  não  é  capaz  de   procesar  todas  as  informações  do  mundo.  Existe  uma  limitação  espacial,  lógica  e  até  emocional  para  usarmos   os  filtros.  Então,  temos  que  admitir:  os  filtros  desempenham  um  papel  importante  no  mundo  ao trazer a ​ priorização​ . Os filtros nos ajudam com a personalizacao, ajuda  a  organizar   nossas  vidas,  a  priorizar,  mas  pagamos  caro  por  isso.  Pagamos  por  talvez  nos  limitarmos  ao  conhecido  e  pagamos  com  nossos  dados  pessoais:  empresas  como  Google  e  Facebook podem saber  mais sobre nós do que nos mesmos ­ e isso é real. Dependendo dos filmes  que  assistimos,  das musicas que ouvimos, do conteúdo que lemos, o Facebook talvez possa saber 

antes  de  um  diagnóstico médico que temos um quadro de ansiedade, por exemplo. Mas o Google  e  Facebook  estão preocupado com dados que os ajudem a vender: esse é o negócio. Então, talvez  um  dia  eu  possa  ver  um  anúncio  no  Facebook  (ou talvez em um outdoor no ponto de onibus que  reconheça  minha  face) de um terapeuta que atenda perto da minha casa, que aceite meu convenio  e  que  ainda  me  de   um  desconto.  Tudo  isso  porque  o  Facebook  conseguiu  compreender,   de  alguma  forma,  que  eu   tenho  ansiedade.  Existe  um  dilema  ético  complexo  aqui  que  demanda  mais estudo e discussão.   Quanto  aos  filtros  de informaçao, uma das analises mais interessantes de Pariser (2012), também  citada  por  Shirky  (2008),  é  que  os  filtros/mediação,  sejam  eles  de  conteúdo   ­ pelas editoras ­ ou  de  censura  política  ­  exemplo  da  China  ­  são  filtros  baseados  em  interesses  (da   industria   capitalista,  do  governo  autoritário),  e  isso  é  um  problema. Nesse sentido, uma das perguntas que  ficam ainda sem resposta é: a liberdade de escolha e, até de expressão,  são uma utopia?    Ainda  sobre  os  impactos  dos  filtros,  os  mesmos  podem  delimitar  nossa  visão   de  mundo  e  fazer  com  que  percamos  nossa   liberdade  de  escolha,  o  desenvolvimento  do  nosso  senso  crítico,  pesquisador  e  até   mesmo  criativo.  Os  filtros  também  podem  ajudar  a  acentuar  os  problemas  sociais  da  vida  off­line  na  online.  A  geração  mais  conservadora  presente  no  Facebook  muito  provavelmente  não  terá  contato  com  os  pensamentos  da  comunidade  gls ­ talvez, pelo contrário,  rceberá  em  seu  feed  mensagens  de  intolerância  e  discriminação  dos  gays.  Mas  lembremos:  embora  criamos  por  humanos,  os  filtros  são   algoritmos,  não  humanos.  E  talvez  esses  filtros  tenham muito mais poder do que imaginamos.     Entretanto,  há o outro  lado da moeda, claro. Não podemos designar 100% da responsabilidade da  nossa  capacidade  de  aprendizado,  descobrimento  e  afins,  aos  algoritmos.  Existe  um  lado  nosso  pessoal  que  não  deve   se  limitar  a  essas  redes.  Se  queremos  saber  sobre  as  opiniões  de   partidos  opostos,  podemos  encontrar  essa  informação  em  dezenas  de  lugares  além  do  nosso  feed  de  notícias  do  Facebook  ou  do  resultado  de  busca  do  Google.  Nos  apoiar  nos  filtros é uma posição  comoda,  covarde  e  baseada  apenas  em  uma visão funcionalista. Nesse sentido,  a visão de Shirky 

(2008)  na  qual  entende  a  internet  como  um  potencializador  da  capacidade  humana,  geradora  de   conexões e capaz de gerar valor com a colaboração, pode ter um sentido maior.     Por  fim,  entender  cada  vez  mais  os  filtros,  questionar  os  gigantes  do  vale  do  silício,  não  nos  deixar  levar  pelo   ego  massageado  pelo  viés  da  confirmação que os filtros pode nos proporcionar  e  entender  que  existe  um  mundo  maior  além  da  nossa  "home  page"  é  fundamental  para  que  possamos seguir evoluindo e expandindo ­ e não o oposto.    

Referências bibliográficas    

PARISER,  Eli.  O  Filtro  Invisível  ­  o  Que  a  Internet  Está  Escondendo  de  Você.  Rio  de  Janeiro:  Jorge Zahar Editor ltda, 2012.     LEMOS,  Andre  e  LÉVY,  Pierre.  O  Futuro  da   Internet:  Em  direção  a  uma  Ciberdemocracia  planetária. São Paulo: Paulus, 2010.     SHIRKY,  Clay.  Here  comes  everybody:  the  power  of  organizing  without  organizations.  Nova  York: Penguin Books, 2008    How  social  media  can  make  history.  Disponível  em:    Acesso  em  25  de  Janeiro de 2016    "A 

internet 

esconde 

quem 

discorda 

de 

você". 

Disponível 

em: 

 Acesso em 25 de Janeiro de 2016    Shirky: 

Problem 

is 

filter 

failure, 

not 

info 

overload. 

Disponível 

em: 

  Acesso  em  25  de Janeiro de 2016 

  Eli Pariser on the Ethics of Algorithmic Filtering. Disponível em:  Acesso em 25 de Janeiro de 2016    Is 

Facebook 

keeping 

you 

in 



political 

bubble?. 

Disponível 

em: 

  Acesso em  25 de Janeiro de 2016    Did  Facebook’s  Big  New  Study  Kill  My  Filter  Bubble  Thesis?  Disponível  em:    Acesso em 25 de Janeiro de 2016 

Lihat lebih banyak...

Comentários

Copyright © 2017 DADOSPDF Inc.