Os filtros e a vida na rede: o que muda quando o ambiente de interação é mediado por agentes não-humanos

Share Embed


Descrição do Produto

FACULDADE CÁSPER LÍBERO

DÉBORA FRANCO MACHADO

Os filtros e a vida na rede: o que muda quando o ambiente de interação é mediado por agentes não-humanos

SÃO PAULO 2015

DÉBORA FRANCO MACHADO

Os filtros e a vida na rede: o que muda quando o ambiente de interação é mediado por agentes não-humanos

Trabalho de conclusão de curso de PósGraduação lato sensu apresentado à Faculdade Cásper Líbero como requisito parcial para a especialização em Jornalismo. Orientador: Prof. Dr. Liráucio Girardi Júnior

SÃO PAULO 2015

DÉBORA FRANCO MACHADO

Os filtros e a vida na rede: o que muda quando o ambiente de interação é mediado por agentes não-humanos

Trabalho de conclusão de curso de PósGraduação lato sensu apresentado à Faculdade Cásper Líbero como requisito parcial para a Especialização em Jornalismo. Orientador: Prof. Dr. Liráucio Girardi Júnior

____________________ Data da aprovação

Banca examinadora: ____________________ Prof. Dr. Liráucio Girardi Júnior Faculdade Cásper Líbero

SÃO PAULO 2015

AGRADECIMENTOS Agradeço aos meus pais, Norma e Jovenil. Sem o apoio de vocês eu nunca teria conseguido dar início a esse novo rumo da minha vida. Agradeço à Nina, que não me deixou desistir e foi a minha maior companheira nesses últimos anos. Por fim, não tenho palavras para agradecer ao Liráucio, meu orientador, que tratou esse trabalho com tanto carinho, ministrou suas aulas com tanto entusiasmo e me inspirou a levar essa pesquisa adiante.

RESUMO Esta monografia é resultado de um estudo sobre os filtros que permeiam a rede e a forma como eles mudam o ambiente de interação digital, que passa a ser mediado por agentes não-humanos. Baseando-se em teóricos que se dedicam a estudar a rede, como Lev Manovich, Lawrence Lassig, Manual Castells, Steven Johnson, Yochai Benkler e Eli Pariser serão abordados o histórico da rede, as possíveis transformações na comunicação com o uso do Big Data, os diferentes tipos de filtros que organizam a rede e como as novas tecnologias possibilitam uma nova forma de curadoria de conteúdo, além de mudar o valor da informação. Com isso, será mostrada a importância do estudo e entendimento da rede. Palavras chave: redes; filtros; curadoria; big data; agentes

ABSTRACT

This paper is the result of a study about the filters that permeate the network and the way they change the digital interaction evironment, which becomes mediated by non human agents. Based on theories of authors that are dedicated to studying the network, as Lev Manovich, Lawrence Lassig, Manual Castells, Steven Johnson and Yochai Benkler, and specially Eli Pariser, it will adress the history of the network, the possible transformations in communication with the use of Big Data, the different kinds of filter that organize the network and how new technologies enable a new form of content curation and changes the value of information With that it will be shown the importance of the study and understanding of the network. Keywords: network; filters; curation; big data; agents

LISTA DE ILUSTRAÇÕES

  Figura 1 – Exemplo de recomendações da Amazon   Figura 2 – Ilustração que exemplifica o sistema de recomendações da Amazon   Figura 3 – Parte da equação usada pelo algoritmo Page Rank   Figura 4 – Equação que representa o EdgeRank   Figura 5 – Página do Scoop.it  

 

SUMÁRIO

19 19 21 23 29

1 Introdução   2 O histórico da rede 2.1 Períodos históricos de transição 2.2 A democratização da rede 3 Big Data e as consequências da personalização 3.1 Big Data 3.2 Personalização 4 Algoritmos 4.1 Ideologia algorítmica 4.2 Amazon Recommendations, Google Page Rank e Facebook Edge Rank 5 Curadoria de conteúdo e agregadores 5.1 Curadoria 5.2 De Gatekeeper à Gatewatcher   Conclusão   Referências

9 12 12 13 17 17 20 24 24 27 33 33 37 40 43

 

9  

1 INTRODUÇÃO

Nesta pesquisa, procuro entender como os filtros e algoritmos da rede, que funcionam como agentes que selecionam o que é mostrado e o que é ocultado enquanto navegamos na web – especialmente em redes sociais, mecanismos de busca e portais de notícias – podem mudar a forma como nos comunicamos e recebemos informação. No segundo capítulo, mostro como as mudanças tecnológicas sempre causaram estranheza por aqueles que não possuíam um conhecimento técnico sobre elas, e como elas afetaram a sociedade. Tais mudanças variam de cultura para cultura. A prensa gráfica, por exemplo, teve consequências diferentes no letramento em países onde a religião encorajava a leitura individual, como na Prússia, na Escócia e na Inglaterra, e em países onde a religião desencorajava a leitura não mediada dos textos, como na França e na Espanha. Os efeitos do uso da rede também não podem ser generalizados, visto que seu uso acontece em sociedades que possuem diferentes culturas e históricos. Para entender esses momentos de transição do passado, e também a situação atual, é necessário um aprofundamento no histórico da rede, já estudado por pesquisadores como Pierre Lévy, Steven Johnson e Manuel Castells, e Yochai Benkler. Uma das maiores que mudanças que a sociedade em rede proporcionou foi a possibilidade de todo leitor ser também um produtor de conteúdo. Isso transformou a situação de escassez da mídia de massa para uma abundância de dados e conexões, alterando a relação um-todos dos meios de comunicação convencionais para a relação todos-todos possível somente em uma rede distribuída como a internet. Com isso, a quantidade de dados armazenados na rede, assim como tecnologias para analisa-los, cresceram exponencialmente, dando origem ao termo Big Data.

 

10  

No terceiro capítulo, é possível observar como com a tecnologia atual e o alto investimento em armazenamento de Big Data, qualquer dado que um indivíduo produz na rede já pode ser analisado. Empresas como o Facebook, Google e Amazon foram pioneiros no uso de Big Data e só chegaram ao sucesso que possuem hoje com o uso de seus algoritmos sofisticados, como o Google Page Rank e o Facebook Edge Rank. Contudo, o poder de análise e armazenamento de dados ainda está nas mãos de grandes corporações, repetindo a lógica monopolista das mídias de massa. A falta de transparência das empresas que armazenam os dados dos usuários já é objeto de pesquisa de diversos pesquisadores nas áreas de Ciências Políticas, Sociais e Comunicação. Se na sociedade em rede todo leitor também é produtor de conteúdo e dados, alterando a relação um-todos da mídia de massa para o todos-todos possível em uma rede distribuída como a internet, a consequência que a comunicação pela rede terá em cada indivíduo só pode ser medida com base nos dados que o mesmo produz nela. No quarto capítulo, explico como funcionam os agentes que se alimentam dessa abundância de dados para automaticamente delegar ações, chamados algoritmos. Os algoritmos, ao filtrar informações e tentar criar uma página mais personalizada para cada usuário, tem o poder de fabricar novos públicos e criar bolhas de interesses – de alto valor para os anunciantes – difíceis de serem penetradas caso não haja conhecimento do funcionamento destes agentes. Por outro lado, essa nova forma de receber informação, mediada por agentes não-humanos, também permite que o comunicador exerça um novo papel: o de curador. Os mesmos algoritmos, que em algumas situações podem restringir o acesso à informação, quando em mãos de um profissional que domine estes recursos e saiba usar seu conhecimento comunicacional em conjunto com mecanismos de filtragem e coleta de informação consegue criar uma narrativa relevante para seus leitores. Por fim, ao entender como os filtros – indispensáveis na rede – podem

 

11  

mudar a forma como nos comunicação, é possível definir novos caminhos para a comunicação.

 

12  

2 O HISTÓRICO DA REDE

2.1 Períodos históricos de transição

A história das sociedades ao redor do mundo e suas culturas são marcadas por longos períodos de transição na forma como nos comunicamos. Ao pensar nas mudanças, é costume analisarmos mais o aspecto negativo do que o positivo da situação, e muito se fala sobre o impacto que tais mudanças podem causar. Pierre Levy (2003) aponta que a crença de que uma nova tecnologia possa causar um "impacto" em uma sociedade é inadequada, visto que as tecnologias são produtos de uma sociedade e de uma cultura e o próprio uso intensivo de ferramentas constitui a humanidade enquanto tal (junto com a linguagem e as instituições sociais complexas). Nesse sentido: "as verdadeiras relações, portanto, não são criadas entre ‘a’ tecnologia (que seria da ordem da causa) e ‘a’ cultura (que sofreria os efeitos), mas sim entre um grande número de atores humanos que inventam, produzem, utilizam e interpretam de diferentes formas as técnicas". (Levy, 2003, p. 23) A crítica e a aversão às novas mídias já estava presente na sociedade séculos antes do surgimento da internet. No século XVI as classes mais altas começavam a debater sobre os efeitos prejudiciais dos romances sobre os leitores e das peças teatrais sobre seu público. O arcebispo de Milão, São Carlo Barromeo chegou a descrever as peças de teatro como "uma liturgia do diabo” (BRIGGS, 2006, p.12). A desconfiança da veracidade das informações recebidas através de uma nova mídia tampouco é novidade. Em From Memory to Written Record Michael Clanchy mostra que na Inglaterra, em 1101, muitas pessoas confiavam mais nas palavras ditas pelo bispo do que em um documento escrito pelo Papa, que descreviam como "peles de carneiros castrados escurecidas com tinta” (BRIGGS, 2006, p.20). Até hoje são estudadas as consequências sociais e psicológicas do letramento – tanto em sua forma analógica, quanto digital. O antropólogo Jack

 

13  

Goody, ao analisar as listas escritas no antigo Oriente Médio, afirma que a cultura escrita foi extremamente importante para a emergência do pensamento abstrato e crítico, adquirido pelos leitores sem a mediação de um líder religioso (BRIGGS, 2006). Em 1550 escritores reclamavam que havia "tantos livros que não há nem tempo de ler os livros" (BRIGGS, 2006, p.27). Os escribas e principalmente os homens da Igreja, cujo negócio e posição social estavam sendo ameaçados, também não ficaram felizes com a nova tecnologia que permitia que leitores com posições sociais mais baixas na hierarquia cultural e social pudessem estudar os textos religiosos por conta própria. Um dos grandes exemplos de como a técnica pode mudar uma estrutura cultural é a ideia de que a Reforma Protestante não teria existido sem a invenção da prensa gráfica por Gutemberg, em 1945. O escritor Steven Johnson 1 explica que parte dessa aversão às novas tecnologias vem do fato de que nenhuma forma cultural significativa brota plenamente realizada. "Há sempre um período em que as divisões entre os diferentes gêneros, convenções ou tipos de meio são menos definidos. Esse momento pode ser desorientador e confuso para as sociedades que o experimentam." (Johnson, 2001, loc. 610)

2.2 A democratização da rede

Os militares, em 1945, na Inglaterra e nos Estados Unidos, foram alguns dos primeiros grupos a utilizar um tipo específico de máquina chamada de computador que na época não passava de uma calculadora programável capaz de armazenar programas (LEVY, 2004, p.31). E foram as pesquisas militares que impulsionaram a evolução da tecnologia informática na Segunda Guerra Mundial. Um dos percursores foi o matemático Norbert Wiener, que desde 1942 realizava pesquisas com programação de máquinas computadoras e com mecanismos de controle para                                                                                                                 1  As  citações  retiradas  de  e-­‐books,  consultados  no  dispositivo  Kindle,  serão  identificadas  com  loc.,   abreviação  de  location,  ao  invés  de  p.,  visto  que  o  dispositivo  não  possui  a  opção  de  mostrar  o  número  de  

 

14  

a artilharia antiaérea, e que mais tarde cunhou o termo Cibernética para definir sua linha de pesquisa. Como explica Joon Ho Kim (2004, p.200) “eles cunharam o termo cybernetics derivado do grego kubernetes, palavra utilizada para denominar o piloto do barco ou timoneiro, aquele que corrige constantemente o rumo do navio para compensar as influências do vento e do movimento da água”. Nesse período, as demandas militares para a construção de computadores estavam associadas, também, às pesquisas de Claude Shannon para os Laboratório Bell (Estados Unidos) e Alan Turing, em Bletchley Park (Inglaterra). Este último, foi um dos maiores responsáveis pela quebra do código de criptografia alemão conhecido como Enigma. Já o uso civil do computador só disseminou-se a partir dos anos 60, quando grupos de pesquisadores e estudantes de universidades da Califórnia uniram-se para criar um novo conceito de computador e um novo propósito a eles, além dos principais protocolos de redes digitais que conhecemos hoje. Os primeiros estudos sobre a rede não teriam tido sucesso se não fosse por sua multidisciplinaridade – princípio que já havia sido fundamental para o êxito dos aliados na II Grande Guerra. Os participantes do projeto eram cientistas de diferentes áreas, como a psicologia, a física, a matemática e até a biologia. Todos tinham algo a acrescentar à rede, fato que daria início ao conceito que Pierre Levy chamaria futuramente de Inteligência Coletiva. O microcomputador só surgiu na década seguinte, em 1970, e marcou uma nova fase de automação da produção industrial, tanto nas linhas de produção como também em alguns setores terciários, como os bancos. A partir daí o foco da evolução tecnológica passou a ser o ganho de produtividade por meio do uso dos aparelhos eletrônicos. A noção de tempo, tanto no âmbito social quanto profissional, voltava a acelerar. Assim como a informática, a internet também tem suas origens no Departamento de Defesa dos Estados Unidos, mais especificamente na ARPA (Advanced Research Projects Agency). A ARPA foi formada em 1958 com a missão de desenvolver pesquisas, principalmente no mundo universitário, com objetivo de ultrapassar o avanço tecnológico militar da União Soviética. Em setembro de 1969 a

 

15  

Arpanet, a primeira rede de computadores do mundo, foi criada. A rede surgiu com o intuito de unir todos os grupos de pesquisa do projeto para o compartilhamento online de seus resultados. A Guerra Fria forneceu um contexto em que havia forte apoio popular e governamental para o investimento em ciência e tecnologia de ponta, particularmente depois que o desafio do programa espacial soviético tornouse uma ameaça à segurança nacional dos EUA. Nesse sentido, a Internet não é um caso especial na história da inovação tecnológica, um processo que geralmente está associado à guerra: o esforço científico e de engenharia feito em torno da Segunda Guerra Mundial constituiu a matriz para as tecnologias da revolução da microeletrônica, e a corrida armamentista durante a Guerra Fria facilitou seu desenvolvimento (CASTELLS, 2003, p.22).

Castells (2003) mostra que, assim como na história do telefone, a Internet é uma tecnologia social. Deste modo, os usuários tem um papel importante na configuração dessa de tecnologia, adaptando-a a seus usos e valores e acabando por transformá-la. Mas seu caso é especial. Ele acredita que foi por isso que a Internet cresceu, e continua crescendo, numa velocidade sem precedentes. Para que essa sequência ocorra, três condições são necessárias: primeiro, a arquitetura de interconexão deve ser ilimitada, descentralizada, distribuída e multidirecional em sua interatividade; segundo, todos os protocolos de comunicação e suas implementações devem ser abertos, distribuídos e suscetíveis de modificação (embora os criadores de protocolos e implementações para redes conservem a propriedade de parte de seu software); terceiro, as instituições de governo da rede devem ser montadas em conformidade com os princípios, enraizados na internet, da abertura e da cooperação (CASTELLS, 2003, p.28).

No início dos anos 90 a Arpanet já havia sido retirada de circulação e a internet começava a crescer rapidamente com diversos provedores privados de serviços montando suas próprias redes e criando suas próprias portas de comunicação. Os primeiros nós da rede se formaram na Universidade da Califórnia em Los Angeles, no Stanfort Research Institute, em Santa Barbara e na Universidade de Utah. Até hoje a Califórnia – especialmente a região do Vale do Silício – é o polo com a maior concentração de empresas e grupos de pesquisas focados na internet e na cultura de rede (FAIRLIE, 2014). O pesquisador e professor de direito de Harvard, Lawrence Lessig (2006),

 

16  

conhecido por seu pioneirismo no estudo sobre a rede, mostra que a queda de importantes regimes comunistas foi essencial para a euforia ao redor de uma "nova sociedade" que a internet poderia representar. No meio dos anos 90, logo quando essa euforia pós comunista estava começando a perder força, surgiria no ocidente uma outra "nova sociedade," para muitos tão empolgante quanto as novas sociedades prometidas pela Europa pós comunista. Essa era a internet, ou como eu definirei mais a frente, ‘ciberespaço’. Primeiro nas universidades e centros de pesquisa, e depois por toda a sociedade em geral, o ciberespaço se tornou um novo alvo para a utopia libertária. Aqui a liberdade do Estado 2 reinaria (LESSIG, 2006, loc. 155, tradução nossa).

O modo de vida acelerado, principalmente nas grandes metrópoles e centros urbanos, caracterizado pela divergência entre o tempo gerenciado para o trabalho e o tempo direcionado às atividades sociais e à família, também moldam a forma que a rede é organizada hoje em dia. O que não significa que a sociedade atual seja reclusa. Com a baixa dos preços de smartphones e crescente abrangência do wi-fi em lugares públicos, a vida na rede também impulsiona a vida na cidade. Em 2014 três em cada quatro celulares vendidos no Brasil foram smartphones. Dos quase 18 milhões de aparelhos que deixaram as lojas entre abril e junho de 2014, 4,6 milhões eram celulares simples e 13,3 milhões tinham acesso à internet (MATIAS, 2014). Com a possibilidade de se comunicar com diversas pessoas, criando comunidades e uma base extensa para a troca de mensagens, as barreiras entre o espaço público e o espaço privado são cada vez mais difíceis de serem definidas na rede.

                                                                                                                2  “About a decade ago, in the mid-1990s, just about the time when this postcommunist euphoria was beginning to wane, there emerged in the West another “new society,” to many just as exciting as the new societies promised in post-communist Europe. This was the Internet, or as I’ll define a bit later, “cyberspace.” First in universities and centers of research, and then throughout society in general, cyberspace became a new target for libertarian utopianism. Here freedom from the state would reign.”

 

 

17  

3 BIG DATA E AS CONSEQUÊNCIAS DA PERSONALIZAÇÃO

3.1 Big Data

Um dos primeiros pesquisadores a popularizar a análise dos softwares de automação que a internet nos oferece - e que passam despercebidos no nosso diaa-dia - foi o americano Steven Johnson (2001). Em seu livro Cultura da Interface: como o computador transforma nossa maneira de criar e comunicar ele mostra como o design de interface evoluiu nas últimas décadas e deixou de ser um código binário de funções meramente arquitetônicas. Hoje a interface está mais próxima do indivíduo, adquiriu temperamento e aptidão para aprender e não é meramente vista como um lugar ou um espaço. "O controle tátil, imediato da interface tradicional dá lugar a um sistema mais oblíquo, em que nossos comandos são peneirados através de nossos representantes, como numa burocracia do desktop" (JOHNSON, 2001, loc. 2609-2611). O que se pode encontrar na Internet são "personalidades digitais" que podem ser chamadas de agentes. O agente é um software que auxilia o usuário da rede em suas tarefas diárias. Eles podem trabalhar apenas nos bastidores, automaticamente, como ajudantes invisíveis, ou quando solicitados pelo usuário. Johnson acredita que os agentes podem ser divididos em três grupos: o agente “pessoal”, o agente “viajante” e o agente “social”. O agente "pessoal" pode ser considerado inofensivo. Ele se instala no computador e observa as atividades do usuário para poder sugerir formas de facilitar suas atividades quando solicitado. O agente "viajante", por outro lado, vaga pela internet em busca da informação solicitada e volta para “contar’ o que encontrou. Já, o agente "social" teria um propósito bem diferente e seria mais “inteligente”. Ele também viaja pela internet atrás de informações, mas tem a habilidade de conversar com outros agentes e receber feedback. É o mais autônomo dos três e está sempre sofrendo modificações (JOHNSON, 2001 loc. 2580-2585). O agente "social" pode ser comparado aos softwares utilizados para organizar as informações que

 

18  

recebemos em redes sociais como o Facebook ou escolhendo o que vamos ouvir em programas como o Spotify. Por mais “inteligente” e autônomo que os agentes – ou os softwares – sejam, eles continuam sendo criados por humanos e por isso ainda são produtos de uma sociedade, e não deveriam ser estudados apenas por um viés tecnológico. Eles não surgem de uma só mente, mas de um grupo de pessoas que se baseiam nos desejos e necessidades de um outro grupo de pessoas, que são sempre expandidos para continuar competindo com outros produtos. O software já pode ser visto como uma camada que permeia todas as áreas da sociedade contemporânea (MANOVICH, 2011). Com o surgimento das redes sociais e blogs, que possibilitam que qualquer um coloque alguma informação na rede, o trabalho dos softwares passou a ficar mais fácil e muito mais refinado. A partir do momento em que todo participante da rede deixa de agir passivamente e torna-se não apenas receptor como também produtor de conteúdo e dados, a quantidade de informações que a rede armazena a respeito de cada usuário passa a crescer exponencialmente todos os dias. A possibilidade de armazenar essa quantidade gigantesca de dados e analisa-los por meio do reconhecimento de padrões – seja para fins comerciais ou acadêmicos – deu origem ao conceito Big Data. Big Data é um termo aplicado a conjuntos de dados cujo tamanho é maior do que as ferramentas de software comumente utilizados são capazes de capturar, gerenciar e processar os dados dentro de um tolerável decorrido tempo.

Os

tamanhos

de

Big

Data

estão

em

constante

movimento, atualmente variando de algumas dezenas terabytes para muitos petabytes de dados em um único conjunto de dados (MANOVICH, 2014, tradução nossa).

3

O termo Big Data pode ser definido como "a maximização do poder de                                                                                                                 3  “Big Data is a term applied to data sets whose size is beyond the ability of commonly used software tools to capture, manage, and process the data within a tolerable elapsed time. Big data sizes are a constantly moving target currently ranging from a few dozen terabytes to many petabytes of data in a single data set”.

 

 

19  

computação e precisão algorítmica para reunir, analisar e comparar grandes conjuntos de dados" além de "identificar padrões para fazer reivindicações econômicas, sociais, técnicas e legais” (BOYD, 2014). Ou seja, o termo não se refere apenas à quantidade de dados, mas sim à criação de mecanismos complexos para analisa-los. O Big Data chega com o mito de que grandes conjuntos de dados oferecem uma forma mais elevada de inteligência e conhecimento que pode gerar compreensões com objetividade e precisão antes impossíveis. Qualquer pessoa que use a internet ou um smartphone é produtor de conteúdo, seja deixando pegadas digitais ou criando e compartilhando conteúdo próprio em blogs e redes sociais. O que torna a tarefa de conseguir cada vez um número maior de informação sobre um grupo de indivíduos mais fácil a cada dia. O usuário da rede compartilha essas informações voluntariamente, portanto quem captura e organiza esses dados, na maioria das vezes, não precisa pedir permissão para usa-los, deixando o processo mais rápido e mais próximo à realidade (MANOVICH, 2014). As áreas de marketing e publicidade são as mais beneficiadas pelo Big Data. O mercado de empresas especializadas na captação, gerenciamento e análise dessas informações está cada dia mais lucrativo. Nos Estados Unidos uma pesquisa feita pela Vantage revelou que 67% das empresas já fazem uso do Big Data, entre elas a American Express, MasterCard, Johnson & Johnson, GE e Warner. 45% gastam mais de $10 milhões por ano com esse tipo de serviço (VANTAGE, 2014). A previsão é que o investimento mundial em análise de Big Data chegue a $50 bilhões até 2017 (KELLY, 2014). Apesar disso, o Big Data não está disponível para os pesquisadores acadêmicos da mesma forma que está para as grandes empresas de mídias sociais. Algumas empresas divulgam parte dos seus dados através do API (Application Programming Interface) de seus sites, mas essa informação já pode aparecer filtrada, ocultando dados que possam prejudicar seus negócios ou diminuir o lucro de empresas parceiras, que lucram com serviços específicos de análise de dados. Outro problema que pode ser identificado é a falta de conhecimentos técnicos para lidar com os programas de análise de dados dentro dos laboratórios de pesquisa das

 

20  

universidades. Os cientistas especializados em lidar com algoritmos e Big Data estão trabalhando para as grandes empresas e não na pesquisa em Ciências Sociais. É extremamente importante que pesquisadores das áreas humanas comecem a usar a análise de dados e softwares de visualização em seus trabalhos diários, tornando suas análises quantitativas e qualitativas muito mais objetivas e eficiente do que se estivessem trabalhando em dupla com um programador sem o conhecimento de humanas (MANOVICH, 2014).

3.2 Personalização

A

rede

armazena

uma

quantidade

de

informação

nunca

antes

disponibilizada ao ser humano. Com o aumento da quantidade de obras escritas no século XVI houve a necessidade de criação de obras específicas de referências, atlas, enciclopédias e bibliotecas, organizadas de tal modo que as informações relevantes pudessem ser acessadas mais facilmente. No caso dos meios digitais e da internet, não é possível encontrar caminhos na rede sem o uso de softwares e algoritmos que filtrem as informações antes de apresentá-las ao usuário. Cada tecnologia traz consigo novos métodos e modos de transmissão e filtragem de informação que mudam a forma que interagimos e assimilamos essas informações (WELLMON, 2012). Hoje em dia não é possível imaginar informação digital sem filtros. À medida que a convergência entre a cultura e a linguagem digital binária se intensifica, os filtros ganham uma maior importância e passam a assumir papéis

culturais

cada

vez

mais

diversificado,

abrangendo

áreas

como

entretenimento, política, jornalismo e educação (JOHNSON, 2001) . Após o ano 2000, tanto a capacidade dos computadores quanto a quantidade de dados armazenados na rede cresceu exponencialmente (HILBERT; LÓPEZ, 2014). Com isso, cresceu também a possibilidade de personalização dessa informação em diferentes sites e redes sociais.

 

21  

Pariser afirma que "para uma porcentagem cada vez maior de pessoas, feeds de notícias como o do Facebook estão se transformando em sua fonte principal de informações – 36% dos americanos com menos de trinta anos de idade leem suas notícias em redes sociais" (PARISER, 2012, loc. 126-129). Quase meio milhão de pessoas adere ao site a cada dia. O Facebook é a rede social mais utilizada também pelos brasileiros, que gastam em média 12,5 horas por mês na rede, o que a caracteriza como um dos principais motivos de acesso à rede (COMSCORE, 2014). Algo em torno de 100 milhões de buscas são feitas no Google todo mês (GOOGLE, 2014). Apesar disso, o usuário comum pouco sabe sobre os códigos e algoritmos que possibilitam esse tipo de serviço. Para Lawrence Lessig (2006) "o código é a lei", o que significa que em um ambiente onde sua existência depende do código (neste caso, de programação) – sem código não há rede – e onde o código determina quais as formas de convivência e define os caminhos que serão escolhidos, escondendo ou revelando o que for necessário, o código se torna a lei. Ele explica: O software ou hardware que faz do ciberespaço o que ele é constituído por um conjunto de restrições sobre como você pode se comportar. A essência dessas restrições pode variar, mas são vividas como condições no seu acesso ao ciberespaço. (…) O código ou software ou arquitetura ou protocolo definem esses recursos, que são selecionados por programadores. Eles restringem certos comportamentos ao fazer outros comportamentos possíveis ou impossíveis. O código firma alguns valores e tornam outros valores impossíveis. Neste contexto, ele é também regulamentação, assim como a arquitetura de espaços reais são 4 regulamentação (LESSIG, 2006, loc. 2299-2307, tradução nossa).

A sua maior crítica em relação ao código é a falta de transparência. Os                                                                                                                 4  “The software and hardware that make cyberspace what it is constitute a set of constraints on how you can behave. The substance of these constraints may vary, but they are experienced as conditions on your access to cyberspace. In some places (online services such as AOL, for instance) you must enter a password before you gain access; in other places you can enter whether identified or not. In some places the transactions you engage in produce traces that link the transactions (the “mouse droppings”) back to you; in other places this link is achieved only if you want it to be.17In some places you can choose to speak a language that only the recipient can hear (through encryption); In other places encryption is not an option.19The code or software or architecture or protocols set these features, which are selected by code writers. They constrain some behavior by making other behavior possible or impossible. The code embeds certain values or makes certain values impossible. In this sense, it too is regulation, just as the architectures of real-space codes are regulations.”  

 

22  

códigos se tornam praticamente invisíveis a quem não tem conhecimento técnico do assunto, tornando a regulamentação imposta pelo código também invisível. "Se o código regulamenta, então pelo menos em um contexto crítico, o tipo de código que regulamente é extremamente importante (LESSIG, 2006, loc. 2541-2542, tradução nossa). O ativista político Eli Pariser (2012) também acredita que a falta de transparência dos códigos pode trazer inúmeros danos à sociedade. Em seu livro O Filtro Invisível sua maior preocupação é a personalização de conteúdo na internet, que muitas vezes funciona de forma invisível ao usuário, e filtra “o que não interessa ao leitor”, criando uma bolha de interesse cada vez mais difícil de ser rompida. Por personalização entende-se o serviço oferecido por diversas empresas online, usando os dados de seus clientes, armazenados em seus bancos de Big Data, para criar um conteúdo personalizado – ou seja, que varia de usuário para usuário. Um processo de seleção que busca facilitar e automatizar a indicação de referências interessantes para um determinado perfil de usuário. Essa nova forma de distribuir conteúdo é especialmente interessante aos anunciantes, que também podem mostrar uma publicidade personalizada para cada usuário (PARISER, 2012). Quando deixados por conta própria, os filtros de personalização servem como uma espécie de autopropaganda invisível, doutrinando-nos com as nossas próprias ideias, amplificando nosso desejo por coisas conhecidas e nos deixando alheios aos perigos ocultos no obscuro território do desconhecido. Na bolha dos filtros, há menos espaço para os encontros fortuitos que nos trazem novas percepções e aprendizados (PARISER, 2012, loc. 214-218).

Assim, certos filtros podem criar um ambiente com objetivos opostos àqueles propostos pelos criadores da internet, particularmente, no que diz respeito à pluralidade de opiniões e acesso à informação. Ao colocar o usuário em um ambiente sempre familiar, a personalização não dá espaço para o aprendizado a partir de culturas e informações que não façam parte de seu repertório e acaba transformando o ambiente digital em um lugar mais passivo, com difícil acesso à diversidade de sugestões e opiniões. Além disso, a criatividade também acaba sendo afetada, abrindo espaço para a passividade na aquisição de informações.

 

23  

Pariser acredita que “quando temos uma grande quantidade de conteúdo relevante ao alcance da mão, há poucas razões para explorarmos lugares mais distantes” (2012, loc. 1272-1274).

 

24  

4 ALGORITMOS 4.1 Ideologia algorítmica Para estudar a forma que os filtros atuam na rede é preciso entender o papel que os algoritmos desempenham nela. Algoritmos são processos codificados para transformar dados de entrada em uma saída desejada, com base em cálculos específicos: um “programa”. Ou seja, é uma sequência de instruções criada para realizar uma tarefa. Os algoritmos estão presentes em praticamente todas as funções que executamos na rede. Nos mecanismos de busca, eles ajudam a navegar dentre o universo de informação presente na web. Nos sites de compras, eles sugerem produtos que podem ser relevantes para clientes que efetuaram uma determinada compra. Dentro na nossa caixa de e-mail eles ajudam a definir o que é importante e o que é spam. São os algoritmos que definem quais informações são relevantes e quais não precisam ser exibidas (GILLESPIE, 2014). É importante notar que todo algoritmo carrega em si um propósito, uma ideologia (MAGER, 2015). Apesar de ser executado por uma máquina, ele foi criado por humanos para executar uma função proposta por uma pessoa, uma empresa ou um governo - com objetivos específicos. Portanto, sua função não deve ser tratada como meramente tecnológica, mas também social e de relevância pública e política (GILLESPIE, 2014). O americano Tarleton Gillespie (2014), professor no Departamento de Comunicação da Universidade de Cornell, destaca seis dimensões politicamente relevantes para o estudo dos algoritmo: os padrões de inclusão, os ciclos de antecipação, a avaliação de relevância, a promessa da objetividade algorítmica, o emaranhamento com a prática e a produção de públicos calculados. Padrões de inclusão Algoritmos costumam ser projetados para serem valorizados pelo seu funcionamento automatizado, objetivo e sem a necessidade de intervenção ou supervisão humana. Por isso eles costumam ser vistos como códigos totalmente neutros, que não sofrem interferência humana. Porém, seus códigos são

 

25  

modificados diariamente para atender novas demandas e solucionar problemas específicos. Gillespie dá como exemplo a forma como o Youtube retira vídeos com teor pornográfico de sua lista de “mais assistidos” e como o Twitter exclui palavrões que possam vir a aparecer na lista dos Trending Topics. Ciclos de antecipação Para personalizar a experiência do usuário e ter clicks mais assertivos, os algoritmos são projetados para antecipar a escolha do usuário, seja sugerindo a frase a ser digitada a alguém ou mostrando a próxima notícia a ser lida. Para isso, é necessário o conhecimento dos dados de atividade do usuário naquele instante, de suas atividades na web no passado e também de dados já coletados previamente de outros usuários estatisticamente parecidos com ele, baseando-se em dados estatísticos e demográficos. Com o objetivo de que esses dados sejam coletados com maior facilidade e precisão, serviços como Google e Facebook estão constantemente pesquisando novas ferramentas e serviços que funcionem dentro de sua própria infraestrutura técnica, onde o usuário pode navegar com maior rapidez e usufruir de melhores serviços caso continue conectado ou logado. No caso do Google, seus serviços de busca, e-mail, mapas, nuvem e notícias funcionam em conjunto, tendo assim a possibilidade de armazenar uma quantidade de dados ainda mais complexa de cada usuário. No caso do Facebook, seus botões de “curtir” e “compartilhar” espalhados por blogs e sites de notícia facilitam o compartilhamento de conteúdo em sua rede social, e também servem como uma ferramenta de rastreamento da atividade de seus usuários. Isso permite que o provedor ou a plataforma criem um padrão ou perfil cada vez mais abrangente de cada usuário. A avaliação da relevância Uma das funções mais comuns do algoritmo é avaliar quais informações são mais ou menos relevantes para o usuário, para assim definir o que deve ser destacado e o que pode ser omitido. Os critérios usados para essa seleção raramente são divulgados publicamente. Gillespie destaca que o entendimento do termo “relevante” é fluído, e costuma ser confundido com “satisfação”.

 

26  

Como não há uma métrica independente para quais exatamente são os resultados de busca mais relevantes para uma determinada consulta, os engenheiros devem decidir quais resultados aparentam ser “certos” e ajustar seu algoritmo para obter este resultado, ou fazer alterações com base em evidências de seus usuários, tratando clicks rápidos e sem uma segunda busca como uma aproximação, não da relevância exatamente, 5 mas da satisfação (GILLESPIE, 2014, p.9, tradução nossa).

A promessa da objetividade algorítmica “Mais do que meras ferramentas, os algoritmos são estabilizadores de confiança”, explica Gillespie (2014, p. 13, tradução nossa). E para isso, é preciso que sejam vistos como imparciais, “livres de subjetividade, erro ou tentativa de influência”6. Os termos usados para demonstrar relevância, como top stories, trends ou “melhores” normalmente são avaliados como “neutros”, como se a escolha da nomenclatura fosse um processo não sujeito a questões de interpretação. No jornalismo, a objetividade também é usada para passar confiança e legitimar o conhecimento. Mas diferentemente da narrativa jornalística, que possui como ética o exercício de distanciamento de suas próprias posições políticas e ideológicas ao fazer escolhas, o algoritmo é visto como naturalmente neutro, produto da máquina, distante das mãos humanas. Emaranhamento com a prática Assim como Pierre Lévy (2004), Gillespie também evita o termo “impacto” e “efeito” para falar sobre as mudanças sociotecnologicas que acompanham os algoritmos. “Emaranhamento” 7 seria um termo mais adequado, visto que o usuário está constantemente – e voluntariamente – trocando dados com a rede.

                                                                                                                5  “As there is no independent metric for what actually are the most relevant search results for any given query, engineers must decide what results look "right" and tweak their algorithm to attain that result, or make changes based on evidence from their users, treating quick clicks and no follow-up searches as an approximation, not of relevance exactly, but of satisfaction.”

  6  More than mere tools, algorithms are also stabilizers of trust, practical and symbolic assurances that their

evaluations are fair and accurate, free from subjectivity, error, or attempted influence.

7  Em inglês o autor usa o termo “Entanglement”.

 

27  

4.2 Amazon Recommendations, Google Page Rank e Facebook Edge Rank. Amazon Recommendations O presidente da Amazon nos anos 90, Jeff Bezos, foi um dos primeiros a ver nos algoritmos uma forma de aumentar os lucros de seu e-commerce. No início, sua ideia era trazer a venda de livros online de volta ao tempo das pequenas livrarias, onde o dono conhecia seu cliente e conseguia fazer sugestões de compra baseando-se em seus gostos pessoais e compras anteriores. Bezos começou com uma pequena lista de vinte produtos, entre música, roupas e eletrônicos que poderiam ser vendidos online. Para sua surpresa, os livros eram os mais procurados. Talvez, por não precisarem prova-los ou testá-los, as pessoas se acostumaram rapidamente à compra de livros online. No início, os investidores não ficaram interessados em colocar dinheiro em algo tão retrógrado quanto livros, mas Bezos não desistiu de sua ideia. Em 1994 (PARISER, 2012), pesquisadores do Centro de Estudos de Palo Alto já estavam trabalhando em um programa de filtragem colaborativa inovador chamado Tapestry. A principal função do Tapestry era rastrear a reação da pessoa aos e-mails recebidos em massa, detectando quais mensagens eram reabertas, respondidas ou apagadas. Ele detectava padrões que conseguiam separar os emails com a maior probabilidade de serem lidos e coloca-los no topo da caixa de entrada. Os que provavelmente não seriam lidos iam para o fundo. Essas informações ajudavam a organizar a caixa de entrada dos usuários fazendo-os economizar tempo ao ler o turbilhão de e-mail que chegava todos os dias em suas caixas. Segundo seus criadores, o correio eletrônico era apenas um dos exemplos de funcionalidade do Tapestry, que consegue lidar com qualquer fluxo de documentos eletrônicos recebidos. Durante anos, formas de filtragem coletiva como o Tapestry se mantiveram restritas a pesquisadores de software e estudantes universitários. Ao ser lançada, em 1995, a Amazon foi pioneira ao utilizar métodos de filtragem colaborativa (também desenvolvidos em Palo Alto/ Califórnia/EUA) para recomendar livros que o usuário poderia estar interessado. Aos poucos, o algoritmo de recomendações da

 

28  

Amazon passou a armazenar não apenas os dados de compras feitas por cada usuário, mas a identificar usuários com gostos semelhantes e sugerir ao usuário A compras que o usuário B, com preferências similares às suas, fez.

Figura 1 – Exemplo de recomendações da Amazon

Figura 2 – Ilustração que exemplifica o sistema de recomendações da Amazon Em três anos Bezos já havia chegado a um milhão de clientes. A empresa foi uma das primeiras a entender que quanto mais dados de seus clientes puder armazenar, maior será a relevância de suas sugestões. Na Amazon, a busca de mais dados sobre o usuário é interminável: quando você lê um livro em seu Kindle, os dados sobre as frases que realçou, as páginas que virou e se começou a leitura do início ou preferiu antes folhear

 

29  

o livro são todos enviados de volta aos servidores da Amazon, sendo então usadas para indicar quais livros você talvez leia a seguir (PARISER, 2012, loc. 397)

Hoje a personalização da Amazon já atingiu um nível ainda mais lucrativo ao possibilitar que editoras paguem para ter seus livros promovidos como se fossem recomendações do software da Amazon, sem a necessidade de avisar ao usuário que se trata de uma recomendação comprada. Google Page Rank O Google é uma das primeiras empresas que vêm à mente ao pensar no consumo de informação previamente filtrada por algoritmos. Foi inspirando-se na ferramenta de recomendações da Amazon que Larry Page e Sergey Brin, matemáticos e fundadores do Google, criaram o PageRank. Ao invés de usar algoritmos para descobrir o que as pessoas gostariam de comprar decidiram criar uma forma eficiente para pesquisa de sites na internet. Em 1997, ano em que o PageRank foi criado, já existiam outras ferramentas de busca de sites em funcionamento. A maioria desses mecanismos funcionava com o uso de palavraschave e acabava sendo ineficaz em definir a relevância de um site em comparação a outros. O diferencial do Google foi criar um algoritmo que conseguisse selecionar os links mais relevantes dentre as dezenas de milhares de documentos com a mesma palavra-chave usada para cada busca (PARISER, 2012). Foi em Stanford, onde ambos estavam terminando suas teses de doutorado, que a ideia de trabalhar com o número de citações para definir a relevância de um link surgiu. Ambos perceberam que seus professores contavam quantas vezes seus artigos científicos haviam sido citados por terceiros e enxergavam esse número como um índice de importância de cada artigo. Viram que o mesmo pensamento poderia ser aplicado a páginas da web: as páginas citadas por muitas outras páginas seriam mais importantes e relevantes na hora da busca.

 

30  

Figura 3 – Parte da equação usada pelo algoritmo Page Rank Apesar de ser o buscador mais usado no mundo inteiro, Page afirmou em uma entrevista cedida em 2009 que apenas 5% do caminho para a criação mecanismo de busca ideal estava criado. “Queremos criar o mecanismo de busca ideal, capaz de entender qualquer coisa… há quem chame isso de inteligência artificial”, completa (PARISER, 2012, loc. 480). Para criar o mecanismo ideal capaz de entender qualquer coisa é preciso ter o maior número de dados possíveis sobre o indivíduo que está fazendo a busca, visto que a mesma palavra pode ter significados diferentes para cada pessoa. Na era do Big Data, essa tarefa não é difícil. A maneira que Sergey e Larry encontraram para coletar esses dados foi colocar o Google como plataforma para dezenas de serviços online. O Gmail rapidamente se tornou o serviço de e-mail mais usado no mundo (MOLLA, 2015), o Chrome também se tornou o navegador preferido, representando 34,49% de todo o tráfego de sites monitorados (MÜLLER, 2015). O Youtube, também sob o domínio do Google, recebe mais de um bilhão de usuários por mês (TERRA, 2015). Mas foi apenas em 2012 que a empresa divulgou uma nota sobre as mudanças em seus termos de serviço, informando que a partir de então todos os dados coletados em seus mais de 70 serviços seriam armazenados e analisados juntos, debaixo do teto de uma única política de privacidade para a maioria deles (GOOGLE, 2012). Estar diretamente ligado aos serviços com o maior número de usuários da rede deixa a tarefa de coleta de dados muito mais fácil e detalhada para o Google, criando uma busca cada vez mais personalizada para cada usuário. Facebook Edge Rank Um dos algoritmos de filtragem mais eficiente em uso atualmente é o EdgeRank, criado pelo Facebook. É ele que define quais postagens aparecem ou

 

31  

não no feed de notícias do usuário. Os fatores que definem quais postagens são relevantes e merecem destaque no feed são: afinidade, tipo de conteúdo e tempo. Quanto mais próxima a amizade e maior o tempo de interação entre duas pessoas, maior a probabilidade de sua postagem ser mostrada. Alguns tipos de postagens, como atualização de relacionamento são priorizadas; e as postagens mais recentes são sempre vistas como mais relevantes. Pouco se sabe com exatidão quais dados são levados em consideração para fazer essa conta, mas os algoritmos estão em atualização constante. Quanto mais dados forem fornecidos ao Facebook, mais sofisticado será o EdgeRank (PARISER, 2012).

Figura 4 – Equação que representa o EdgeRank. O Facebook é uma das empresas que mais investe em estudos – que costumam causar polêmica pela falta de transparência – para aperfeiçoar seus algoritmos. Um dos mais controversos aconteceu em 2012, quando cerca de 155 mil usuários tiveram seu news feed manipulado durante uma semana. Em alguns momentos postagens com conteúdo emocional positivo foi omitido, em outros, postagens com conteúdo emocional negativo foi omitido. O estudo comprovou a hipótese de que o estado emocional de um usuário pode ser transmitido para outro pela rede. Ao serem expostos uma quantidade menor de conteúdo positivo a maior parte dos usuários passou a se expressar com postagens negativas. O mesmo aconteceu ao serem expostos a um maior conteúdo positivo. O estudo também mostrou que usuários que são impactados com poucas postagens de conteúdo

 

32  

pessoal em seu newsfeed, também tem menor probabilidade de publicar conteúdo de caráter pessoal. Somente dois anos após o experimento os usuários foram noticiados sobre o que havia acontecido (KRAMER; GUILLORY; HANCOCK, 2014). Novamente o que mais preocupa não são os métodos utilizados para fazer o experimento, e sim a falta de transparência ao realizá-lo. Tais estudos, apesar de polêmicos, mostram às empresas as diversas possibilidades de influenciar efetivamente o usuário com anúncios e promoções de forma sutil, facilitando estratégias de marketing. Estudos e pesquisas para mapear o público alvo não são nenhuma novidade para os veículos de comunicação, mas somente agora, com a enorme quantidade de dados armazenados à disposição, uma empresa é capaz de saber exatamente quem é, do que gosta, o que quer e o que seu público alvo está sentindo no exato momento. Isso, sem ter a necessidade de fazer qualquer pergunta. Pariser explica: Considere as implicações, por exemplo, de sabermos que certos clientes compram produtos compulsivamente quando estão estressados ou quando estão se sentindo mal consigo mesmos, ou até quando estão um pouco embriagados. Se o perfil de persuasão permite que um aparelho de coaching grite “você consegue” às pessoas que gostam de reforço positivo, em teoria isso também poderia ser usado por politicos para que fizessem propaganda com base nos medos e pontos fracos de cada eleitor (2012, loc. 1647-1650).

Apesar de tais problemas, é importante lembrar que a rede é maleável e também está em constante mudança. A rede que é usada agora não é a mesma que será usada no futuro, e as tecnologias que responsáveis pelos malefícios dos filtros também podem ser usadas para otimizar a vida do usuário de forma benéfica. Mas para isso é preciso frisar a importância de se saber como a rede e seus códigos funcionam. Em outras palavras, é cada vez mais importante termos um nível básico de alfabetização algorítmica. Os cidadãos cada vez mais terão que julgar sistemas informáticos que afetam a vida pública e nacional. E mesmo que você não seja fluente a ponto de ler milhares de linhas de código, os conceitos básicos – como trabalhar com variáveis, ciclos e memória – podem esclarecer o funcionamento desses sistemas e revelar onde pode haver erros (PARISER, 2012, loc. 3078).

 

33  

5. CURADORIA DE CONTEÚDO E AGREGADORES 5.1 Curadoria A cada dois dias, mais de cinco exabytes (um exabyte = um bilhão de gigabytes) de informação são emitidos digitalmente (SAAD, 2012). Em uma rede onde a cada sessenta segundos mais de 70 domínios são criados, 98 mil tweets e 1500 posts de blogs são publicados, seria ingênuo imaginar a possibilidade de viver sem algum sistema de filtragem de informação (XAVIER, 2014). Vimos anteriormente os efeitos prejudiciais que certos filtros podem causar quando deixados trabalhar sozinhos, ou apenas visando o lucro de agências publicitárias. Por outro lado, quando em mãos de um comunicador com conhecimento da rede, os mesmos filtros podem ser extremamente benéficos e cada vez mais necessários. O profissional que domina o recurso pode utilizar seu conhecimento comunicacional junto a mecanismos de filtragem e coleta de informação para criar uma narrativa relevante para seu público alvo. O curador tem características de mediador e essa é uma atividade central na cultura contemporânea. Talvez não se trate mais de produzir novas formas, mas arranjá-las em novos formatos, como os artistas contemporâneos, que reprogramam o fazer artístico e, assim, “(...) não compõem, mas programam formas: em vez de transfigurar um elemento bruto (a tela branca, a argila), eles utilizam o dado (Bourriaud, p. 13, 2009).

A origem do termo curadoria está vinculada ao ato de curar, zelar, vigiar por algo. Um conceito que remete aos campos do Direito e das ordens monásticas. Com as mudanças sociais, o termo também acabou adquirindo novos significados e passou a relacionar-se com o campo das artes, dos museus e de seus respectivos acervos. Tal definição pode ser aplicada no campo da comunicação, no atual contexto da sociedade informativa, visto que a informação também pode ser entendida como um bem do patrimônio individual imaterial contemporâneo (SAAD, 2012).

 

34  

Autores como Rosembaum (2011) e Beiguelman (2011) apontam o crescimento da atribuição de curadoria de informação ao imenso volume de dados na web. Rosembaum (2011) chama esse volume de informações que continua a crescer de “tsunami de dados” e Bieguelman (2011) de “dadosfera” (SAAD, 2012). Apesar de rápida e eficaz, a tecnologia utilizada para filtrar informações na rede baseia-se na coleta de dados que já foram divulgados pelo usuário, ou seja, está sempre olhando para o passado. Já o papel do comunicador como curador é, com base nos mesmos dados, olhar para o futuro, e funcionar como uma fonte de novas informações que possam tirar o usuário da “bolha” tão criticada por Pariser (2012), deixando-o mais exposto a surpresas. O filósofo canadense David Weinberg enxerga a curadoria como uma forma de trazer à tona, novamente, a qualidade da rede como conectora de mentes, que juntas podem trabalhar melhor do que individualmente. A curadoria de informação exemplifica a eficácia de criar uma narrativa usando como fonte um mosaico de informações disponíveis na rede. Hoje, conhecimento é propriedade da rede, e esta engloba negócios, governos, mídias, museus, coleções curadas e mentes comunicativas. Em algumas circunstâncias, o conhecimento como propriedade da rede tem mais significado como um tipo de saber do que aquele das multidões. E, como veremos adiante, não é apenas em determinadas circunstâncias que grupos são mais inteligentes que seus membros em separado. Ou seja, a mudança na infraestrutura do conhecimento está alterando sua forma e natureza. Na medida em que o conhecimento ocorre em conexão, a pessoa mais inteligente de uma sala não é aquela sentada à nossa frente, e também não é o conhecimento de todos daquela sala. A pessoa mais inteligente da sala é a própria sala: a rede que agrega pessoas e ideias e as conecta àquelas que estão do lado de fora. Isso não significa que a rede está se tornando um supercérebro. É o conhecimento que está se tornando inextricável – literalmente, algo impensável – à rede. Nossa tarefa é saber como construir salas inteligentes, ou seja, como construir redes que nos tornem mais inteligentes, e se isso for feito de forma inadequada, a rede pode fazer de nós pessoas cada vez mais ignorantes. Conhecimento em rede é menos preciso, porém, mais humano (Weinberger, 2012, loc. 139148, Apud. SAAD, 2012).

Segundo Giselle Beiguelman, professora da FAU/USP e pesquisadora do

 

35  

grupo COM+ da ECA/USP, existem três tipos de atividades curatoriais nas quais podem se inserir os comunicadores: o curador como filtro, representado pela frase “eu sou o que eu linko”; o curador agenciador com a frase “as coisas são como eu as linko”; e o curador como plataforma com a frase “as coisas são como você linka” (SAAD, 2012, p. 36). O curador como filtro tem a função de juntar as melhores informações (neste caso, links) referentes a um determinado tema; o curador agenciador cria uma narrativa que varia de acordo como ele as organiza; e o curador como plataforma deixa a organização de informações na responsabilidade do usuário, atuando como uma plataforma de mediação. É o caso de sites como o Scoop.it, onde o usuário define o assunto que quer pesquisar e a plataforma indica as informações mais relevantes. Segundo Adriana Amaral, diretora do da Associação Brasileira dos Pesquisadores em Cibercultura (ABCiber), o curador também pode funcionar como crítico ou como recomendador. No modelo curador como crítico, recupera-se a dimensão crítica da curadoria para o contexto da web. (...) a curadoria, além de selecionar e compartilhar os dados, ainda os subverte para um comentário ou crítica, entendida aqui como desde um comentário textual, como uma alteração na imagem ou o uso de ironias e outras figuras de linguagem. (...) Já a recomendação enquanto curadoria está relacionada aos filtros de informação cuja função tem a ver com o gosto ou a construção de perfis de consumo. Esse processo é feito tanto através de softwares de recomendação, caracterizados por agentes inteligentes que tentam antecipar os interesses do consumidor nos ambientes digitais e prever seus gostos a fim de recomendar novos produtos (SAAD, 2012, p. 46).

Scoop.it Ao misturar algoritmos com agregação de sites, alguns sites e aplicativos ajudam o trabalho do curador profissional ou amador – aquele que quer ter controle sobre o conteúdo que consome na web sem correr o risco de perder informações importantes. Com o slogan “você é o conteúdo que publica”, o Scoopp.it é uma das ferramentas mais inovadoras no setor, atraindo mais de 75 milhões de usuários nos primeiros dezoito meses após seu lançamento e influenciando diversas plataformas

 

36  

que surgiram posteriormente no mesmo formato. Se Clay Shirky dizia que a "curadoria começa quando a busca para de funcionar" (DECUGIS, 2015), foi pensando nos problemas que as pessoas encontram ao buscar conteúdo específico na imensidão de dados existentes na internet que o Scoop.it foi criado. "o scoop.it nasceu da ideia que algoritmos, sozinhos, não conseguem organizar a internet em um lugar mais inteligente e relevante”, explica Guillaume Decugis, CEO da empresa, “por isso começamos a criar uma plataforma que une a tecnologia de interpretação de big data com o poder da mente humana." Ele chama essa mistura de homem e algoritmo de Humanrithm e propõe que os engenheiros e programadores não se esqueçam que pessoas também podem mudar e melhorar códigos e esse encontro não deve ser uma luta do homem versus máquina, e sim um trabalho de mutua ajuda. “Os dados não se espalham sozinhos, são as pessoas que fazem isso”, completa. O scoop.it funciona parte como um agregador de conteúdo, parte como um mecanismo de busca. Você cria uma página, dando preferência à um tema específico definido por algumas palavras-chave, onde você adiciona links que achar relevante. Ao mesmo tempo os algoritmos da ferramenta possibilitam que a plataforma sugira links relacionado à sua página, usando como base de dados o material já publicado e as palavras-chave definidas pelo usuário. Na plataforma você não segue usuários ou amigos, como costuma acontecer em outras redes sociais, e sim tópicos de seu interesse.

 

37  

Figura 5 – Página do Scoop.it8 Também foi Clay Shirky que disse que o problema da rede não está na “sobrecarga de informação” (information overload), termo cunhado pelo escritor Alvin Toffler, e sim na “filtragem insuficiente” (filter failure). E é a humanização dos filtros, que permite que seus usuários tenham certo controle sobre a filtragem, que faz do Scoop.it uma ferramenta de sucesso.

5.2 De Gatekeeper à Gatewatcher No âmbito da Teoria da Comunicação e nas redações jornalísticas o curador que filtra quais notícias serão publicadas no veículo pode ser chamado de gatekeeper. Em um jornal, tanto os editores quanto os chefes e diretores de redação podem ser gatekeepers, pois todos tem algum poder de seleção em suas mãos. O termo gatekeeping apareceu pela primeira vez, no contexto da comunicação, pelo professor de jornalismo da Universidade de Boston, David                                                                                                                 8  Uma  página  do  Scoop.it  com  os  links  das  referências  usadas  para  essa  pesquisa  está   disponível  em:  http://www.scoop.it/t/monografia-­‐by-­‐debora-­‐franco-­‐machado  

 

38  

Manning White (1950), em 1950. O professor e pesquisador Axel Bruns explica:

Gatekeeping na sua forma clássica foi um resultado do sistema de produção, distribuição e consumo das notícias que existia durante o apogeu da época da mídia de massa. As práticas de gatekeeping eram simplesmente uma necessidade prática: os jornais impressos e os noticiários na rádio e na televisão nunca poderiam oferecer mais que uma seleção redigida com muito aperto das notícias do dia; as avaliações de quais eram as matérias mais importantes para o conhecimento das audiências (isto é, quais eram as matérias que poderiam ser comprimidas para caber no espaço total disponível para conteúdo noticioso na publicação ou na transmissão pela rádio ou TV) tinham que ser feitas.” (BRUNS, 2015, p.122)

A partir da década de 90, o relacionamento entre a mídia e a sua audiência já começa a mudar, possibilitando uma maior participação do público. Essa mudança se tornou mais visível com a democratização da rede e a maior disponibilidade das plataformas de mídias sociais, que tornaram possível a divulgação de notícias em tempo real em um ambiente onde qualquer usuário, esteja ele inserido em um veículo de comunicação ou não, pode produzir o seu próprio conteúdo. O gatekeeper, que possuía o poder de seleção e pré-filtragem, passou a não ser mais regra para a publicação de uma notícia. Se por um lado o gatekeeping é um processo criado em um ambiente comunicacional marcado pela escassez de espaço de publicação e meios de difusão - que trazia inúmeras vantagens comerciais, principalmente para a mídia de massa - a rede passou a proporcionar uma abundância de informação, onde a pré-filtragem não é mais necessária. O pósfiltro tornou-se essencial. Bruns nomeou esse novo processo Gatewatching.

No âmago de ambas estas mudanças que deixam o gatekeeping para trás está uma prática que se pode descrever utilmente como gatewatching. Naturalmente, os usuários envolvidos em organizar e fazer a curation da torrente das matérias noticiosas disponíveis e das informações que têm valor como notícias que estão atualmente disponíveis em uma multidão de canais, não têm condições de guardar – de controlar – os portões de quaisquer destes canais; entretanto, o que eles têm condições de fazer é de participar em um esforço distribuído e folgadamente organizado de observar – de acompanhar – quais as informações que passam por estes canais; quais são os comunicados para imprensa que são feitos pelos atores públicos, quais são os relatórios que são publicados pelos pesquisadores acadêmicos ou pelas organizações da indústria, quais são as intervenções que são feitas pelos lobistas e políticos" (BRUNS, 2015, p.124)

 

39  

CONCLUSÃO

Os autores Evgeny Morozov e Eli Pariser criaram analogias diferentes para uma visão muito parecida sobre os efeitos dos filtros de informações existente na internet. Se para Pariser a personalização de informações cria uma bolha, para Morozov ela acaba com o que restava de um espírito do flâneur (neste caso, digital), tão descrito nas narrativas de Baudelaire e Walter Benjamin. Benjamin, inspirado em Charles Baudelaire, enxergava o flâneur como aquele que caminhava sem rumo pelas ruas de Paris, observando os transeuntes e as vitrines, sem um objetivo específico e sim aberto a novas descobertas. A rua se torna moradia para o flâneur, que, entre as fachadas dos prédios, sente-se em casa tanto quanto o burguês entre suas quatro paredes. Para ele, os letreiros esmaltados e brilhantes das firmas são um adorno de parede tão bom ou melhor que a pintura a óleo no salão do burguês; muros são a escrivaninha onde apoia o bloco de apontamentos; bancas de jornais são suas bibliotecas, e os terraços dos cafés, as sacadas de onde, após o trabalho, observa o ambiente. Que a vida, em toda a sua diversidade, em toda a sua inesgotável riqueza de variações, só se desenvolva entre os paralelepípedos cinzentos e ante o cinzento pano de fundo do despotismo: eis o pensamento político secreto da escritura de que faziam parte as fisiologias (Benjamin, 1989, p. 35).

Para Morozov "o traço que marca o passeio do flâneur é o fato de ele não saber o que é que lhe interessa mais". Ele cita o autor alemão Franz Hessel, que colaborava ocasionalmente com Walter Benjamin: "para flanar, é preciso que não haja nada muito definido na cabeça”. Morozov também compara as mudanças na organização da rede com as transformações de Paris na segunda metade do século 19. Ambas influenciaram a forma que nos locomovemos. Se na capital francesa a culpa das transformações como a demolição de ruas estreitas para a passagem de carros, construções de praças amplas que impediam barricadas revolucionárias e a iluminação de rua a gás que tornavam o passeio pelas ruas incômodo se dá aos barões da época, na web também é possível encontrar barões do mundo digital que programam o rumo dos usuários.

 

40  

A racionalização da vida urbana conduziu os flâneurs ao subterrâneo, obrigando-os a se refugiar num tipo de flanar interno, cujo apogeu é o exílio autoimposto de Marcel Proust em seu quarto (situado, voilà, no bulevar Haussmann). Algo parecido aconteceu na internet. Transcendendo sua brincalhona identidade original, a rede não é mais para passear – virou lugar de cumprir tarefas. Ninguém mais navega. A popularidade dos aplicativos – que conduzem àquilo que queremos sem que seja necessário abrir o browser, faz do flanar online algo cada vez menos provável. (MOROZOV, 2015)

O urbanismo não é o único fator de mudança que pode ser comparado à organização da web. A velocidade do tempo – ou a velocidade que enxergamos o tempo – também foi alterando a forma que vivenciamos a experiência da cidade e do "navegar" na internet. Se a lentidão do caminhar proporcionava tempo para o flâneur enxergar a cidade ao seu redor, a lentidão da conexão discada e onde a busca de informações exigia um esforço maior alertava o usuário para o fato de que estava sentado na frente de um computador. Eli Pariser, autor de A Bolha dos Filtros, concorda com a visão de Morozov. Por outro lado, ele mostra que com um pouco mais de esforço ainda é possível flanar pela web. Mas para isso é preciso entender como a rede é organizada, conhecer seus padrões e criar uma rotina para burlar esse mecanismo. Em outras palavras, é cada vez mais importante termos um nível básico de alfabetização algorítmica. Os cidadãos cada vez mais terão que julgar sistemas informáticos que afetam a vida pública e nacional. E mesmo que você não seja fluente a ponto de ler milhares de linhas de código, os conceitos básicos – como trabalhar com variáveis, ciclos e memória – podem esclarecer o funcionamento desses sistemas e revelar onde pode haver erros (PARISER, loc. 3078 , 2012).

O primeiro passo é mudar o caminho feito online. Entrar em sites que não costumam despertar seu interesse, trocar a passividade pela atividade. Pariser compara essa ação com o hábito de escolher caminhos diferentes para voltar para casa do trabalho, abrindo-se assim um espaço para novas descobertas e ideias. Acima de tudo, é necessário lembrar que, ao entende-lo, podemos direcionar o código para o nosso bem. A máquina, o código e os algoritmos dependem de nossos cliques e dados para funcionar.

 

41  

É difícil mudar de hábitos. Porém, à semelhança do que ocorre quando escolhemos um novo caminho para ir ao trabalho e passamos a conhecer melhor o lugar em que vivemos, ao variar nossos percursos on-line, a chance de encontrar novas ideias e pessoas aumenta drasticamente. Se estendermos nossos interesses em novas direções, daremos ao código de personalização mais amplitude com a qual trabalhar. (PARISER, loc. 3011, 2012)

Em seu livro You are not a Gadget: A Manifesto, o escritor Jaron Lanier (2010) nos lembra de algo que pode parecer óbvio: não somos um aplicativo. Alguns estudiosos e muitos aficionados pelas novas descobertas cibernéticas – como por exemplo o estudo da Singularidade – tendem a enxergar o computador e a rede como um universo paralelo, independente do pensamento humano e das mudanças sociais. Isso cria uma ilusão de que a tecnologia é a salvação de todos os problemas. Ao mesmo tempo, pode passar ao usuário uma sensação de submissão perante à máquina. Fazendo-o esquecer que a máquina, sem o input humano, não tem significado. Quando os desenvolvedores das tecnologias digitais projetam um programa que requer que você interaja com um computador como se ele fosse uma pessoa, eles pedem que você aceite, em algum canto do seu cérebro, que você também pode ser visto como se fosse um programa (LANIER, 2010, p. 19).

Apesar de caminharem por linhas de pesquisa e pensamentos distintos Pariser, Morozov e Lanier acreditam que é impossível pensar na rede sem pensar no homem. A rede se inspira na experiência social e depende dela para existir. Por isso, é importante lembrar que, mesmo as tecnologias tendo influência direta em nossas vidas, somos nós, humanos que definiremos qual será o seu caminho. Para a rede ser modificada, é preciso entende-la. E para ter uma visão mais complexa sobre o que muda quando a rede é mediada por agentes não humanos é necessário voltar às origens plurais e interdisciplinares da cibercultura, assim como já acontece na Comunicação.

 

42  

REFERÊNCIAS

BEIGUELMAN, Gisele. Curadoria de informação. Palestra, USP, 2011. Disponível em: . Acesso em: 16 nov. 2014. BENJAMIN, Walter. Charles Baudelaire, um lírico no auge do capitalismo. São Paulo: Brasiliense, 1989. BENKLER, Yochai. The Wealth of Networks: how social production transforms markets and freedom. New Haven: Yale University Press, 2006. Kindle Edition. BOURRIAUD, Nicolas. Pós-produção. Como a arte reprograma o mundo contemporâneo. São Paulo: Martins Fontes, 2009. BOYD, Danah; CRAWFORD,Kate. Critical Questions for Big Data. Information, Communication & Society. v. 15. Disponível em: . Acesso em: 10 nov. 2014. BRIGGS, Asa; BURKE, Peter. Uma história social da mídia: de Gutenberg à Internet. 2. ed. rev.ampl. Rio de Janeiro: Jorge Zahar, 2006. BRUNS, AXEL. Gatekkeping, Gatewatching, Realimentação em tempo real: novos desafios para o Jornalismo. Brazilian Journalism Research, 7(2), pp. 119-140. Disponível em: < http://eprints.qut.edu.au/49482/>. Acesso em 19 mai. 2015. CASTELLS, Manuel. A galáxia da internet: reflexões sobre a internet, os negócios e a sociedade. Rio de Janeiro: Jorge Zahar, 2003. CORREA, Elizabeth Saad (org). Curadoria digital e o campo da comunicação. São Paulo: e-book, 2012. DECUGIS, Guillaume. Humanrithm: why data without people is not enough – and how algorithms lost the Content Curation battle. Disponível em: . Acesso em: 21 jan. 2015. FAIRLIE, R. W. and CHATTERJI, A. K. High-Technology Entrepreneurship in Silicon Valley. Journal of Economics & Management Strategy. v.22. Disponível em: . Acesso em: 10 nov. 2014.

 

43  

GILLESPIE, Tarleton. The Relevance of Algorithm. Media Technologies: Essays on Communication, Materiality, and Society. Cambridge, MA: MIT Press, 2014. Disponível em: . Acesso em: 6 jun. 2015. GOOGLE. O consumidor brasileiro agora é hiper. Disponível em: . Acesso em: 11 nov. 2014. ________. Updating our privacy policies and terms of service. Disponível em: < http://googleblog.blogspot.co.uk/2012/01/updating-our-privacy-policies-andterms.html>. Acesso em: 19 jan. 2015. JARON, Lanier. You are not a Gadget: A Manifesto. São Paulo: Saraiva, 2010. JOHNSON, Steven. Cultura da Interface: como o computador transforma nossa maneira de criar e comunicar. Rio de Janeiro: Jorge Zahar, 2001. Kindle Edition. KELLY, Jeff. Big Data Vendor Revenue and Market Forecasr 2013-2017. Disponível em: . Acesso em: 10 nov. 2014. KIM, Joon Ho. Cibernética, ciborgues e ciberespaço: notas sobre as origens da cibernética e sua reinvenção cultural. Horizontes Antropológicos, Porto Alegre, ano 10, n. 21, p. 199-219, 2004. KRAMER, Adam; GUILLORY, Jamie; HANCOCK, Jeffrey. Experimental evidence of massive-scale emotional contagion through social networks. PNAS. vol. 111. Disponível em: < www.pnas.org/content/111/24/8788>. Acesso em: 15 nov. 2014 LESSIG, Lawrence. Code version 2.0. Nova York: Basic Books, 2006. Kindle Edition. LÉVY, Pierre. Cibercultura. São Paulo: Ed. 34, 2004. MAGER, Astrid. ALGORITHMIC IDEOLOGY. Information, Communication & Society. Disponível em: . Acesso em: 6 jun. 2015. MANOVICH, Lev. El lenguaje de los nuevos medios de comunicación: la imagen en

 

44  

la era digital. Barcelona: Paidós. 2011. MANOVICH, Lev. Trending: The Promises and the Challenges of Big Social Data. Debates in the Digital Humanities. Disponível em: . Acesso em: 10 nov. 2014. MATIAS, Alexandre. Cidadania Digital. Disponível em: . Acesso em: 10 nov. 2014. MOLLA, Rani. Gmail finally beats Hotmail according to third party data chart. Disponível em: . Acesso em: 13 jan. 2015. MOROZOV, Evgeny. A segunda morte do flanêur. Disponível em: . Acesso em: 11 jan. 2015. MÜLLER, Leonardo. Chrome é o navegador mais utilizado na internet, mas perde participação. Disponível em: . Acesso em: 13 jan. 2015. PARISER, Eli. O Filtro Invisível: o que a internet está escondendo de você. Rio de Janeiro: Jorge Zahar, 2012. Kindle Edition. TERRA. Youtube chega a um bilhão de usuários ativos ao mês. Disponível em: . Acesso em: 13 jan. 2015. VANTAGE, New. Big Data Executive Survey 2014: An Update on the Progress of Big Data in the Large Corporate World. Disponível em: . Acesso em: 10 nov. 2014. WEINBERG, D. Too Big to Know. Basic Books, 2012. Kindle Edition. WHITE, D M. The Gatekeeper: A Case Study in the Selection of News. Journalism Quaterly, vol. 27, n. 4, p.382-394, 1950. XAVIER, Renato. A importância da curadoria de conteúdo. Disponível em: .

 

Acesso em: 15 nov. 2014.

45  

Lihat lebih banyak...

Comentários

Copyright © 2017 DADOSPDF Inc.