Big Data & IoT: uma perspectiva a partir da disciplina de Arquitetura da Informação

Share Embed


Descrição do Produto

Big Data & IoT: uma perspectiva a partir da disciplina de Arquitetura da Informação1,2 Gilberto L. Fernandes Mamede Lima-Marques Gilberto L. Fernandes Mestre em Arquitetura da Informação pela Faculdade da Ciência da Informação da Universidade de Brasília – UnB (2014) e pesquisador do Centro de Pesquisas em Arquitetura da Informação – CPAI da UnB. Graduado em Engenharia Eletrônica pela Universidade Federal do Rio de Janeiro – UFRJ (1980) e especialista em Engenharia de Sistemas, com ênfase em inteligência artificial e redes neurais, pelo Instituto Alberto Luiz Coimbra de Pós-Graduação e Pesquisa de Engenharia – Coppe/UFRJ (1990). Atua há cerca de 38 anos no mercado de tecnologia da informação, nas áreas de engenharia de software, implantação de processos de desenvolvimento e gestão do ciclo de vida de aplicações de software.

Mamede Lima-Marques Mestre e doutor em Ciência da Computação pela Université Paul Sabatier – Toulouse III – França, com especialização em Ciência da Computação e pós-doutorado em Lógica Aplicada, ambos pela Universidade Estadual de Campinas – Unicamp (1989, 1992). Graduado em Eletrônica pelo Centro Federal de Educação Tecnológica de Minas Gerais – CEFET-MG e em Filosofia pela Pontifícia Universidade Católica de Campinas – PUCCampinas. É professor titular do Departamento de Ciência da Informação e Documentação da Universidade de Brasília – UnB. É consultor nacional e internacional, destacando-se trabalhos em órgãos do setor público, entre os quais Ministério da Educação, Setor Educacional do Mercosul – SEM, Instituto Nacional de Pesquisas Educacionais – Inep, Ministério da Saúde, Secretaria de Segurança Pública de São Paulo e Ministério da Justiça.

1

Este trabalho foi financiado com subvenção do Centro de Pesquisas em Arquitetura da Informação (CPAI), Faculdade de Ciência da Informação, Universidade de Brasília (UnB). 2 O presente texto é composto pelo segundo capítulo do livro Análise da informação para tomada de decisão: desfios e soluções (TARAPANOFF, 2015), acrescido de material apresentado no Seminário IoT & Big Data, ocorrido no Centro de Pesquisas em Arquitetura da Informação (CPAI), Faculdade de Ciência da Informação, Universidade de Brasília (UnB), em 18/09/2015.

Resumo Este trabalho tem por objetivo reconhecer os fenômenos tecnológicos e sociais presentes na Internet das Coisas e no Big Data, estudá-los e avaliar o seu potencial impacto, riscos e oportunidades, sob as perspectivas da sociedade civil, do mercado empresarial e da indústria de tecnologia em especial. Procura ainda apontar e explicar que tipos de aplicações vinculadas à Internet das Coisas e ao Big Data poderão proporcionar os melhores diferenciais competitivos. Palavras-chaves: Internet das Coisas. Big Data. Arquitetura da informação. Tecnologia da informação. Ciência da informação. Inteligência artificial. Realidade aumentada.

Abstract This study has the purpose to recognize the technological and social phenomena present in the Internet of Things and Big Data, to study them and their potential impact, risks and opportunities from the perspectives of the civil society, the corporate market and the technology industry in particular. This work also attempts to point out and explain what kind of applications, related to Internet of Things and Big Data, may provide the best competitive advantages. Keywords: Internet of Things. Big Data. Information architecture. Information technology. Information science. Artificial intelligence. Augmented reality.

1 Introdução O domínio da tecnologia, desde tempos imemoriais, tem sido sinônimo de poder, permitindo à espécie humana controlar a natureza à sua volta e seus próprios semelhantes. Para o homem das cavernas, o controle do fogo ou a habilidade para construir a ponta de sua lança com uma pedra afiada poderiam significar a diferença entre viver ou morrer para todo o seu grupo. A história tem mostrado, ao longo do tempo, que ligeiras vantagens tecnológicas podem representar a distância entre o domínio ou a submissão e o desparecimento de povos inteiros. Por outro lado, para ter um real impacto e importância para o ser humano, a tecnologia precisa sempre servir a uma finalidade social. Desse modo, quando a tecnologia se aplica em quebrar ou reduzir barreiras de tempo e espaço, como é o caso dos meios de transporte e de comunicação, esse impacto é significativamente maior, pois enseja revoluções, algumas vezes pequenas, outras vezes de grandes proporções, atingindo todas as áreas da atividade humana e gerando enormes oportunidades de mudança e desenvolvimento. Como marcos importantes da civilização, destacam-se os eventos de introdução da roda, do estribo, das velas navais, das locomotivas, das estradas de ferro, do automóvel, do avião e das viagens espaciais, assim como o foram a linguagem, a escrita, a imprensa, o telégrafo, o telefone, o rádio, a televisão, o computador e a internet, com todos os seus desdobramentos, incluindo a Internet das Coisas e o Big Data, temas deste trabalho.

2 Um novo ambiente de competição Não é por acaso que as maiores corporações do planeta têm suas atividades ligadas às áreas de comunicações e transportes. O surgimento do telégrafo deu origem à Western Union, que rapidamente se tornou a maior empresa do planeta. O telefone superou tecnologicamente o telégrafo, e a Bell Telephone Company, antecessora da AT&T, constituída em 1877 para explorar comercialmente essa nova invenção, logo superaria a Western Union na posição de maior corporação global. Em um processo com características que nos permitem pensar numa espécie de darwinismo econômico, intensificado após o início da globalização, empresas como Shell, Exxon, Toyota, Volkswagen, GM, Samsung, Apple, NTT, AT&T, Telefônica, HP, IBM, Microsoft, Amazon e Google mantêm-se e revezam-se, durante as últimas décadas, nas primeiras posições desse ranking mundial (Fortune, 2013).

A visão da Sloan Foundation3 sobre a utilização da tecnologia, parcialmente transcrita a seguir, corrobora o posicionamento adotado nesta introdução: [...] tecnologia é a aplicação da ciência, engenharia e organizações industriais para criar um mundo mais apropriado ao ser humano. Isto tornou possível, nas nações desenvolvidas, um padrão de vida inconcebível há um século. O processo, entretanto, não é isento de tensões; por sua natureza, a tecnologia provoca mudanças na sociedade e agride convenções. Afeta praticamente todos os aspectos das atividades humanas: instituições públicas e privadas, sistemas econômicos, redes de comunicação, estruturas políticas, associações internacionais, a organização das sociedades, e as condições da vida humana. Este efeito não ocorre apenas em um sentido; assim como a tecnologia muda a sociedade, também as estruturas sociais, atitudes e demais características da vida humana afetam a tecnologia. Mas, talvez porque a tecnologia seja tão rapidamente e completamente assimilada, a profunda interação desta com a sociedade, na história moderna, não venha sendo suficientemente reconhecida. (Riordan; Hoddeson, 1997, p. ix, tradução nossa)

O advento do Big Data, por suas características e possibilidades de aplicação nas mais diversas áreas da atividade humana, impõe desafios de ordem técnica, social, política e legal. Fundamentalmente, tecnologias não são boas ou más, sendo essas características associadas ao uso que delas se faz. As inovações que se apresentam neste início de século, com a disseminação quase onipresente de computadores, redes de comunicação, dispositivos móveis e da computação em nuvem4 e, agora, com o Big Data, podem oferecer um potencial quase ilimitado de aplicações, assim como riscos de acidentes ou de utilização com fins não pacíficos, com efeitos igualmente perigosos. Os riscos e benefícios que poderão resultar do uso de aplicações com acesso às bases de dados classificadas como Big Data justificam plenamente o estudo, a análise e um amplo debate sobre os eventuais impactos desses avanços tecnológicos, que serão tratados ao longo do texto. Estes possíveis impactos igualmente justificam que a presente discussão seja estendida não somente aos profissionais de tecnologia e aos executivos de empresas interessados nos benefícios econômicos que podem advir de vantagens competitivas oferecidas pelo Big Data, mas também a agências governamentais, economistas, políticos e juristas. Portanto, o objetivo deste trabalho é reconhecer os fenômenos presentes no Big Data, estudá-los e avaliar o seu potencial impacto, riscos e oportunidades, sob os pontos de vista da sociedade civil, da indústria de tecnologia e do mercado empresarial. 3

A Sloan Foundation é uma organização norte-americana sem fins lucrativos, com sede em Nova York, centrada no apoio e financiamento da educação e de pesquisas nas áreas de ciência, tecnologia, engenharia, matemática e economia. 4 Segundo o NIST (National Institute of Standards and Technology), computação em nuvem, ou cloud computing, “é um modelo que possibilita o acesso, de modo conveniente e sob demanda, a um conjunto de recursos computacionais configuráveis (como redes, servidores, infraestrutura de armazenamento, aplicações e serviços)”.

3 Conceitos de referência Para que seja alcançado um entendimento o mais próximo possível daquele pretendido, a seguir são apresentadas algumas definições de termos e conceitos que serão utilizados ao longo do texto.

3.1 Big Data O termo Big Data tem sido empregado com distintos significados, dependendo do contexto: ora se refere à prática de salvar e armazenar indefinidamente dados dos mais variados tipos, ou às próprias bases de dados com características específicas de volume e diferentes formatos, que excedem a capacidade de processamento de ferramentas tradicionais, como bancos de dados baseados no padrão SQL5, ora diz respeito ao próprio fenômeno de explosão da geração de dados; pode fazer referência também a aspectos tecnológicos e de infraestrutura e, ainda, a determinados tipos de aplicação que se beneficiam de um ambiente em que convergem diferentes tecnologias. Apesar de ainda não haver um conceito consolidado sobre o Big Data, algumas de suas características aparecem mencionadas em grande parte da bibliografia referente ao assunto. Entretanto, a característica mais presente na literatura, e certamente um componente importante e que será analisado em profundidade, a do volume de dados, não é necessariamente determinante para o enquadramento de aplicações sob essa denominação, havendo exemplos reais de bases de dados que podem ser classificadas como Big Data, mas que não apresentam volume na casa dos petabytes ou exabytes6. A seguir, listamos algumas das principais características do Big Data, que podem ser facilmente comprovadas por meio de dados estatísticos, disponíveis na internet7: •

variedade de fontes e formatos de dados, com massiva predominância de

dados não estruturados; •

geração de dados por empresas, por organizações e pelo cidadão;



velocidade de geração de dados considerada alta em relação aos sistemas

transacionais tradicionais, em vários casos de forma contínua, determinando, assim, a necessidade de processamento em tempo real;

5

SQL (Structured Query Language, ou Linguagem de Consulta Estruturada) é a linguagem declarativa padrão para consultas em bancos de dados relacionais. Desenvolvido no início da década de 1970, o SQL tem sua concepção original baseada na álgebra relacional. 6 1 zettabyte = 1 mil exabytes = 1 milhão de petabytes = 1 bilhão de terabytes = 1 trilhão de gigabytes. 7 Ver Hilbert; López, 2011; Statistic Brain, 2013, 2015a, 2015b, 2015c.



volume de dados resultante principalmente da presença de dados não

estruturados e de suas taxas de geração por usuários; •

complexidade técnica, motivada pela combinação dos fatores aqui listados,

como volume e variedade de fontes de dados, necessidade de processamento em tempo real, reconhecimento e análise de padrões. Como mencionado na introdução deste artigo, a História nos ensina que certas mudanças tecnológicas podem vir acompanhadas por mudanças sociais, culturais, políticas e econômicas. O Big Data, mais que a convergência de um conjunto de tecnologias, oferece tanto às empresas como aos cidadãos, ou consumidores finais, um ambiente fértil à inovação, que certamente impulsionará mudanças nos âmbitos social, cultural, político, jurídico e econômico. Conforme afirmava Marshall McLuhan (1911-1980), filósofo da teoria da comunicação canadense, "É o ambiente que muda as pessoas, e não a tecnologia" (McLuhan; Staines, 2005, p. 267). Como evidência de alterações recentes em nosso ambiente cotidiano, podemos citar a enorme quantidade de registros que são efetuados, a cada minuto, em decorrência das interações sociais e econômicas de bilhões de pessoas em todo o mundo, por meio de uma série crescente de mecanismos, como telefones celulares, dispositivos diversos de acesso à internet (computadores, tablets etc.), redes sociais, cartões de crédito e débito, equipamentos médicos, etiquetas de RFID8, câmeras de vídeo e radares de vias públicas, GPS e até Smart TVs. O registro dessas interações resulta em volumes de dados inéditos, e com crescimento acelerado, que precisam ser coletados, armazenados, analisados e processados, conforme demonstram algumas estatísticas apresentadas na seção específica para essa finalidade. No entanto, muitas das abordagens que tratam do Big Data têm sua ênfase justamente nas questões relacionadas à coleta, armazenagem, análise e processamento de dados, as quais são pertinentes, necessárias, mas não suficientes para o entendimento do alcance e o aproveitamento do potencial desse novo ambiente que se denomina de Big Data. Nesse cenário, algumas questões imperativas se apresentam. Primeiramente, apesar da relativa complexidade tecnológica, a dificuldade maior não reside na coleta, armazenagem, análise e processamento dos dados. Em função do volume de dados, em muitos casos, absurdamente elevado e da diversidade de fontes, é fácil nos perdermos nesse oceano de dados, sem a obtenção de resultados relevantes. Essa possibilidade 8

RFID (Radio-Frequency Identification, ou identificação por radiofrequência) é um sistema de identificação automática que tem como principal componente uma etiqueta dotada com um dispositivo de sensoriamento remoto por meio de sinais de rádiofrequência. Essa etiqueta pode ser utilizada em embalagens, produtos diversos, vestimentas, animais e até mesmo em pessoas.

decorre justamente do fato de que as melhores oportunidades de benefícios e os diferenciais competitivos estão intimamente associados ao tipo de dificuldade mencionada acima. Para que padrões escondidos possam ser revelados, e talvez seja este o maior potencial de aplicações na era do Big Data, torna-se prioritário saber o que e onde procurar. E, quando se está perdido, mapas são de inegável importância. No caso em questão, os mapas são as formas de visualização desses dados, conferindo uma posição de destaque às interfaces que permitirão o acesso aos sistemas que se utilizam dessas bases de dados, assim como à arquitetura da informação que será empregada em todas as etapas e componentes desses sistemas. A engenharia de extração de conhecimento útil dessas bases de dados é denominado de data mining. Em segundo lugar, embora inúmeros filmes e livros de ficção científica ou de suspense apresentem algoritmos capazes de detectar padrões, e por mais atraente que isso possa parecer, ainda não temos como minerar dados algoritmicamente para obtenção de padrões originais, em situações de grande complexidade, por maior que seja a força bruta de processamento. Algoritmos trabalham com padrões previamente determinados e catalogados, sendo, na melhor das hipóteses, levemente adaptativos. Os resultados que podem ser obtidos com algoritmos rígidos serão tão menos significativos quanto maior for a necessidade de integrar dados de fontes e formatos diferentes. Em uma época em que mais da metade da movimentação das bolsas de valores norte-americanas e londrina é comandada por algoritmos de negociação (trading algorithms)9 e em que mais de 60% dos aluguéis de filmes da Netflix são realizados por meio de sugestões oferecidas por algoritmos a seus usuários, além de diversos outros exemplos semelhantes, certamente a capacidade de desenvolver algoritmos para a análise de

padrões

previamente

detectados

constitui

uma

importante

ferramenta

de

competitividade entre as empresas que compartilham mercados específicos. Entretanto, o principal fator de competitividade no cenário do Big Data reside, como veremos ao longo deste texto, na inovação e descoberta de novos padrões. A dimensão dos fatores envolvidos para a obtenção de valor em aplicações de Big Data, principalmente para a percepção de padrões inéditos ou adaptativos, torna fundamental a interação dessas aplicações com o ser humano e sua capacidade intuitiva de associar dados, testar hipóteses, identificar relações e perceber tais padrões. Desse modo, o design de interfaces de baixo atrito, que privilegiam a interatividade homemmáquina e favorecem a cooperação entre o poder de processamento das máquinas e a intuição humana, assume um papel de relevância, sendo este o motivo de tão grande

9

Ver Vermeulen, 2013; Dayal et al., 2012.

expectativa causada pelo anúncio de dispositivos como o Google Glass, lançado no início de 2014, e de similares lançados posteriormente.

3.2 “Prossumidor” A ideia do “prossumidor”10, neologismo formado pelas palavras produtor e consumidor, foi apresentada por McLuhan, provavelmente pela primeira vez, em uma conferência pública realizada em Nova York, em 7 de maio de 1966 (McLuhan; Staines, 2005, p. 113-135). Transcrevemos, a seguir, um pequeno trecho dessa conferência: A estranha dinâmica ou padrão da informação eletrônica consiste em envolver o público cada vez mais como parte da força de trabalho, em vez de apenas lhe atirar coisas como objetos de consumo ou entretenimento. A tendência é envolver o público como força de trabalho [...]. Você faz o trabalho. E estamos chegando a isso. Tempo virá em que será possível informar o público da televisão ou de formas similares sobre os grandes problemas da física, da ciência, seja o que for, e convidá-los a dar sua resposta a esses problemas [...].

McLuhan, como poucos, foi de precisão cirúrgica em suas previsões. Como exemplo, podemos citar o caso de jogos de computador criados para resolver problemas para os quais somente a força bruta de supercomputadores é insuficiente. Em maio de 2008, foi lançado por pesquisadores da Universidade de Washington, como parte de um projeto de pesquisa experimental, o Foldit, um quebra-cabeça on-line colaborativo para testar possíveis configurações da estrutura de proteínas previamente selecionadas. Nesse jogo, o ser humano participa com sua capacidade criativa, enquanto os computadores da universidade verificam a possibilidade de existência no mundo real de cada configuração estrutural sugerida. Resultados experimentais mostram que esse método de trabalho, baseado em uma simbiose homem-máquina, “derrota os supercomputadores em 50% das vezes e empata em outros 30%” (Sankar, 2012). Em 2011, três jogadores decifraram em dez dias a estrutura de uma proteína retroviral presente em símios da espécie Rhesus, diretamente relacionada à Aids. A resolução desse problema havia ocupado anteriormente a comunidade científica por uma década inteira, sem a obtenção de uma solução (Foldit, 2013; Sankar, 2012). Apesar de a ideia original do “prossumidor” estar associada a McLuhan, credita-se a criação do termo a Alvin Tofler (1980), em seu livro A terceira onda, no qual já chamava a atenção para a dissolução progressiva da fronteira que separava o produtor do consumidor, com uma crescente participação do “prossumidor”. Segundo o autor, este pode ser um importante marco econômico: “Algumas vezes, mudanças históricas

10

Em inglês, prosumer.

gigantescas são simbolizadas por mudanças minúsculas no comportamento cotidiano” (Tofler, 1980, p. 266). Tradicionalmente, o fluxo de dados tinha um sentido único, com as empresas e as organizações de mídia disponibilizando seus dados para o consumo de seus usuários. Atualmente, os dados produzidos por usuários e consumidores finais representam cerca de dois terços de todos os dados globais produzidos, o dobro da quantidade produzida por estas mesmas empresas e organizações (Gantz; Reinsel, 2013). O simples fato de alguém acessar a internet faz com que também esteja gerando dados. No cenário do Big Data, o consumidor/produtor de dados passa a ter um papel central em todo o processo. Um exemplo representativo do papel e atuação de “prossumidores” é a enciclopédia virtual Wikipédia.

3.3 Interação homem-computador e realidade aumentada Em seu livro 2001: uma odisseia no espaço (Clarke, 2013) e, posteriormente, no filme homônimo, Sir Arthur C. Clarke (1917-2008), um dos expoentes máximos da ficção científica, tem em HAL 9000 um de seus principais personagens. HAL é um supercomputador autônomo responsável por toda a operação e funcionamento da nave espacial Discovery e representava as expectativas da época sobre a evolução da ciência da computação e da inteligência artificial. Uma definição atual e apropriada para inteligência artificial seria a capacidade não de simular os processos mentais humanos em computadores com a atual arquitetura, desenvolvida por John von Neumann (1903-1957) e Alan Turing (1912-1954), mas de realizar esses processos mentais, tal como de fato eles ocorrem, em dispositivos não cerebrais que os suportem. Esse modelo é denominado de inteligência artificial forte, enquanto os sistemas especialistas, como aplicações para jogar xadrez, que, apesar de terem a capacidade de aprendizado, não emulam processos mentais humanos, são denominados de inteligência artificial fraca. O projeto e a construção dos computadores digitais atualmente em uso foram precedidos por teorias computacionais e modelos algorítmicos que descreviam o processo lógico a ser implementado. A máquina de Turing, apresentada no artigo intitulado “Computing Machinery and Intelligence” (Turing, 1950), é o modelo lógico abstrato, o DNA por assim dizer, que dá forma à estrutura dos computadores digitais e fundamenta a ciência da computação (Fernandes; Lima-Marques, 2012, p. 53). Nesse artigo, com uma abordagem tanto filosófica quanto técnica, Turing tentou responder à questão “As máquinas podem pensar?” e também deu início formal ao estudo da inteligência artificial.

Do mesmo modo como ocorreu com os computadores digitais, o desenvolvimento de dispositivos que possam implementar de forma plena a inteligência artificial, nos moldes descritos anteriormente, deverá ser precedido por um entendimento profundo dos processos mentais humanos e pela construção de teorias e modelos que os representem (Fernandes; Lima-Marques, 2012). A disciplina de Arquitetura da Informação, tema da seção posterior a esta, tem contribuído efetivamente, por meio de uma abordagem transdisciplinar, para o desenho dessas teorias e modelos. A

atenção da comunidade científica para as questões relacionadas ao

entendimento da arquitetura cerebral pode ser medida pela dimensão do projeto europeu Human Brain Project11 e dos projetos norte-americanos Human Connectome Project12 e Brain Project13, todos com o objetivo de mapear a arquitetura e a conectividade do cérebro humano. Considera-se o conjunto desses projetos como o de maior envergadura da humanidade, de todos os tempos, milhares de vezes maior que o projeto de mapeamento do genoma humano. Trata-se de projetos que envolvem centenas de centros de pesquisa espalhados pelo mundo e que contam com o aporte financeiro da ordem de centenas de bilhões de dólares. Contudo, apesar de todo o esforço e investimento que está sendo realizado em pesquisas sobre o cérebro humano e a despeito dos resultados já alcançados em diversas áreas, com prognósticos animadores para a cura de doenças como Alzheimer, Parkinson e alguns tipos de autismo, é provável que o entendimento do funcionamento dessa incrível máquina produzida pela natureza, em profundidade suficiente para a criação de modelos que permitam o desenvolvimento de dispositivos que possam suportar a execução de processos mentais tal como ocorrem no cérebro humano, ainda demore algumas décadas, talvez mais. Desse modo, uma alternativa mais viável para suportar as necessidades computacionais para a obtenção plena dos benefícios oferecidos por aplicações de Big Data talvez seja uma aproximação da simbiose homem-computador, conforme proposto pelo físico, matemático e psicólogo norte-americano Joseph Carl Robnett Licklider (19151990), ainda na década de 1960 (Licklider, 1960, 1965, 1968)14. A ideia de Licklider sobre a simbiose homem-computador vai muito além da simples extensão dos sentidos ou das capacidades mentais do ser humano, assumindo o conceito biológico de uma associação íntima com fins de cooperação e benefícios mútuos. Os principais pontos dessa associação, de acordo com a concepção de Licklider, estão listados a seguir (Licklider, 1960, p. 4-7; 1968, p. 21-28): 11

Ver Human Brain Project, 2015. Ver NIH Blueprint for Neuroscience Research, 2015. 13 Ver NIH, 2015. 14 Joseph C. R. Licklider é considerado um dos principais idealizadores da rede ARPANet, precursora da internet. 12



facilitar ao ser humano o pensamento criativo, a percepção de insights, a

formulação de perguntas e hipóteses; •

permitir a cooperação entre homens e computadores, para a análise, o

entendimento, a tomada de decisão e o controle de situações de alta complexidade, sem a dependência de programas e algoritmos rígidos, previamente desenvolvidos; •

permitir a interação e troca de informações em tempo real, de forma tão ou

mais eficaz do que entre seres humanos. Segundo Licklider (1960), os problemas que podem ser descritos e modelados de modo a permitir a construção de algoritmos e programas para posterior processamento não justificariam o investimento necessário ao desenvolvimento de um modelo computacional com as características descritas anteriormente. Para Licklider, o reconhecimento de padrões adaptativos ou inovadores era um dos principais tipos de problemas que deveriam ser tratados sob o paradigma da simbiose homem-computador. Em seu tempo, a tecnologia necessária ainda não estava disponível, e os custos envolvidos com dispositivos de memória e de armazenamento, para não citar outros, tornavam inviável a implementação de projeto tão ambicioso. No entanto, para Licklider, a proposta de uma parceria estreita homem-computador mostrava-se mais factível do que o sonho ainda mais distante dos entusiastas da inteligência artificial. Licklider não tinha meios confiáveis para estimar quando sua visão poderia começar a ser implementada ou tornar-se realidade, mas, para ele, estes seriam anos de intensa atividade intelectual, conforme o trecho de seu artigo transcrito a seguir: “That would leave, say, five years, to develop man-computer symbiosis and 15 years to use it. The 15 may be 10 or 500, but those year should be intellectually the most creative and exciting in the history of mankind.” (Licklider, 1960, p. 5)15. Nos dias atuais, grande parte dos obstáculos técnicos ou tecnológicos apontados por Licklider já foi superada, e os custos decaíram desde então, segundo a Lei de Moore16. É possível que estejamos vivendo a época histórica prevista por Licklider, em seu texto, citado no parágrafo anterior. Entretanto, para concretizar efetivamente a simbiose homem 15

“Isso pode levar, digamos, cinco anos para o desenvolvimento da simbiose homem-computador e 15 anos para a sua utilização. Estes 15 anos podem tornar-se 10 ou 500, mas esses anos deverão ser intelectualmente os mais criativos e excitantes na história da humanidade” [tradução nossa]. 16 Lei de Moore - Em abril de 1965, o então presidente da Intel, Gordon Earle Moore, profetizou que a quantidade de transistores que poderiam ser colocados em uma mesma área dobraria a cada 18 meses mantendo-se o mesmo custo de fabricação. Depois dessa data, a solução para manter o processamento dos processadores é fazer uso intenso de paralelismo, como hoje é implementado em placas de vídeo, otimização dos sistemas operacionais e softwares, processadores dedicados ou mesmo alterar a tecnologia utilizada, mudando do silício para outras técnicas e materiais que já se mostram passíveis de se implementar na prática, como grafeno e computação quântica. Disponível em: . Acesso em 7 de abril de 2015

computador, conforme a concepção de Licklider, ainda resta solucionar alguns desafios de grande complexidade técnica. Um deles, certamente, é conseguir permitir que algoritmos para o reconhecimento de novos padrões possam ser construídos, reprogramados ou adaptados, pela simples interação com o usuário de uma aplicação, a partir de seus insights, enquanto examina determinada situação. Outra questão, quase que consequência da anterior, a construção de interfaces homem-computador com capacidade de comunicação similar ou superior à existente entre seres humanos, tem recebido muita atenção e investimentos. Embora ainda estejamos distantes de algo como o que foi implementado (em ficção) em HAL 9000, estamos percorrendo de forma acelerada o caminho que nos separa daquela realidade. No momento atual, talvez uma das melhores opções de interface interativa, que se aproxima das características de uma parceria homem-computador, como descrito anteriormente, seja a realidade aumentada (RA). Com a RA, a ideia é enriquecer a percepção

humana

da

realidade,

ao

adicionar

em

tempo

real

informações

computadorizadas complementares àquelas que podem ser obtidas diretamente pelos sentidos sensoriais humanos, criando um ambiente híbrido, pela combinação de elementos virtuais com elementos do mundo real. O tipo de aplicações de RA que nos interessa, neste estudo, ultrapassa largamente a leitura de “QR codes”, a inserção de medidas de distância em jogos de futebol televisionados ou mesmo video games que utilizam óculos ou capacetes, em ambientes fechados e controlados. As pesquisas de ponta nessa área concentram-se em aplicações de RA que permitam a seus usuários interagir em ambientes abertos com a aplicação de RA, com o próprio ambiente e com outros seres humanos presentes no ambiente. Inúmeros são os tipos de aplicações que poderão se beneficiar com o uso dessa tecnologia. Basta imaginarmos as possibilidades que se abrem com a visualização de informações em óculos translúcidos, como o Google Glass e dispositivos semelhantes, ou por meio de projeções holográficas em três dimensões17, ou simplesmente com projeções no para-brisa de automóveis, de modo a torná-los verdadeiras telas de navegação, trazendo novas informações ao motorista, em tempo real, de acordo com suas reações, sua localização e com dados coletados nos diversos sensores do veículo e da via ou estrada. Esse tipo de aplicação poderá antecipar ao motorista a aproximação de outro veículo ou de uma curva, por exemplo, antes que possam ser percebidos pelo condutor. Se quisermos nos aventurar um pouco mais, podemos nos lembrar dos painéis

17

Recentemente, a empresa japonesa Panasonic anunciou que pretende disponibilizar para a Copa do Mundo de Futebol de 2022 projeções holográficas em 3D dos jogos, em tempo real, de modo que possam ser assistidos em outros estádios ou mesmo na superfície de uma mesa ou no chão da sala dos telespectadores.

translúcidos do filme Minority Report que permitiam a seus usuários um tipo de interação impensável pouco tempo atrás. Naturalmente, dispositivos e aplicações de RA poderão ser utilizados como a camada de apresentação e interação de aplicações relacionadas ao Big Data, principalmente para a análise e reconhecimento de padrões.

3.4 Internet das Coisas - IoT 3.4.1 Características A Internet das Coisas (IoT) consiste de uma grande variedade de objetos com minúsculas fontes de alimentação, sensores dos mais diversos tipos embutidos e integrados, endereços de internet e comunicação via RFID, wi-fi ou bluetooth, armazenamento e comunicação em nuvem, integração de diversos tipos de software e hardware, apps para dispositivos móveis, conversores de sinais elétricos em sinais digitais, e processamento analítico dos dados coletados e armazenados. Refrigeradores, torradeiras, máquinas de lavar roupa, máquinas de lavar louça, escovas de dente, relógios de pulso, sensores de sinais vitais, fechaduras, portões de garagem, termostatos, luzes, estão entre alguns dos objetos que passarão a ter identidade e comunicação pela internet. Não somente os phones serão smart, mas todos os objetos do dia a dia. Alguns desses dispositivos terão simplesmente a função de coletar dados de seus usuários, enquanto outros poderão ter ações real time pré-definidas. Esses dispositivos permitirão que se saiba se você dormiu bem, se escova direito seus dentes, se está devidamente hidratado, se tem feito exercícios físicos adequadamente, se seus sinais vitais estão normais ou se há alguma emergência e deve ser efetuada uma chamada automáticas para auxílio médico. O fato dessa tecnologia ser chamada de Internet das Coisas e não de Coisas Conectadas à Internet, nos indica o tipo de objetivo que pretende ser alcançado nessa nova onda de aplicações baseadas na Internet – a interconectividade de praticamente todas as coisas à nossa volta, que se tornarão na prática, os olhos e ouvidos da internet. 3.4.2 Alguns Dados •

Estimativas indicam um número atual de 10 bilhões de dispositivos conectados à Internet. Um número que já é maior que o números de pessoas no planeta.



Estas mesmas estimativas apontam um crescimento vertiginoso, devendo alcançar um número entre 26 e 50 bilhões desses dispositivos em 2020, portanto daqui a somente 5 anos.



Desses 26 bilhões a 50 bilhões de dispositivos, somente 1 bilhão serão de computadores pessoais, tablets e smartphones.



Na prática, existe a intenção de dar um endereço de internet a qualquer objeto produzido. Desse modo, a comunicação entre objetos será bem mais intensa do que entre pessoas, e a internet precisará dispor de banda mais larga, tornando-se pervasiva e ubíqua.



Estima-se ainda que nos próximos cinco anos serão lançados ao espaço mais de mil nano-satélites para viabilizar a comunicação desses bilhões de novos dispositivos.



Talvez seja ainda difícil imaginarmos todo o impacto dessa nova infraestrutura de comunicação. Mas o que podemos afirmar com certeza é que todos esses dispositivos irão gerar muitos dados, oceanos de dados, e também muitos metadados.



As coisas a nossa volta, que fazem parte do nosso dia a dia corriqueiro, serão os olhos e ouvidos da Internet. A discussão sobre as implicações de toda essa infraestrutura de comunicação sobre a privacidade é algo que deve merecer especial atenção.



Em 2014, o Google comprou uma empresa de automação doméstica por cerca de US$3,8 bilhões. Isso permitirá ao Google saber quando você está em casa, em que cômodo você está, se está dormindo ou acordado, quando você sai de casa, quando abre a geladeira, acende a luz, liga o micro-ondas ou a TV. A Amazon tem esse mesmo tipo de interesse.

3.4.3 IoT – Segurança e Privacidade Um ponto que também merece reflexão é que dados são conteúdo, enquanto metadados são contexto. Metadados podem ser muito mais reveladores que dados, especialmente quando coletados de forma agregada. Computadores são mais eficientes lidando com metadados do que manipulando conversações. Quando há apenas uma pessoa sob vigilância, o conteúdo de conversas, mensagens de texto e e-mails podem ser mais importantes que seus metadados. Porém, quando uma população inteira está sob vigilância, os metadados têm um significado bem mais importante e útil. A IoT poderá se tornar a mais eficiente infraestrutura de vigilância de massas jamais concebida e construída. Segundo o ex-Conselheiro Geral da NSA Stewart Baker, “Metadados dizem absolutamente tudo sobre a vida de alguém. Se você tiver suficientes metadados você não precisa de conteúdo.”

3.4.4 IoT – Tecnologia desruptiva? A IoT é constituída pela utilização conjunta de várias tecnologias comuns, como RFID, wi-fi, bluetooth e os mais diversos tipos de sensores, também sem grandes inovações. Desse modo, a IoT não possui características técnicas intrínsecas que possam ser classificadas como desruptivas. Entretanto, muito tem sido dito sobre a disrupção que será causada pela expansão da IoT, e que esta será a norma nos anos vindouros. Esta aparente contradição nos indica que não se trata de uma tecnologia desruptiva, mas sim dos modelos de negócio que serão viabilizados e que utilizarão a IoT. Tal disrupção provavelmente ocorrerá em um período de transição para um novo estilo de vida, seja na vida pessoal, profissional, social, política ou econômica. •

Exemplos de negócios desruptivos: •

UBER: a maior empresa de taxis, que no presente momento não possui um único automóvel;



Booking: a maior empresa de hotelaria, sem possuir um único quarto de hotel:



AirBNB: a maior administradora de imóveis, , sem possuir um único imóvel;



Bancos digitais, sem agências

3.4.4 IoT & Big Data A IoT, através de sua vasta rede de sensores, irá gerar streamings contínuos de dados, com quantidades absurdamente grandes de dados estruturados e não estruturados, que deverão ser coletados e armazenados em nuvem e, em muitos casos analisados em real-time. A prática de salvar e armazenar indefinidamente dados de todos os tipos é chamada de Big Data, e a engenharia de extração de informação útil desses dados armazenados é denominado de data mining. As evidências da formação desses oceanos de dados, a partir do registro de operações financeiras, utilização de dispositivos de comunicação, como celulares e tablets, além de uma infinidade de sensores, como câmaras de vídeo, radares e outros, já foram mencionadas anteriormente. Desse modo, a IoT implica na utilização e expansão em ritmo idêntico de Big Data.

3.5 Arquitetura da informação A arquitetura da informação (AI) pode ser definida como

uma metodologia de desenho que se aplica a qualquer ambiente informacional, sendo este compreendido como um espaço localizado em um contexto; constituído por conteúdos em fluxo; que serve a uma comunidade de usuários. A finalidade da Arquitetura da Informação é, portanto, viabilizar o fluxo efetivo de informações por meio do desenho de ambientes informacionais. (Lacerda, 2005, p. 132)

Caracteriza-se, ainda, como “[...] o ato de escutar, o ato de construir, o ato de habitar e o ato de pensar a informação como atividade de fundamento e de ligação hermenêutica de espaços, desenhados ontologicamente para desenhar” (Lima-Marques, 2011, p 311- 319, tradução nossa). A arquitetura da informação pode ser considerada como disciplina quando o termo refere-se a um esforço sistemático de identificação de padrões e criação de metodologias para a definição de espaços informacionais, cujo propósito é a representação e manipulação de informações; bem como a criação de relacionamentos entre entidades linguísticas para a definição desses espaços da informação. (Albuquerque; Siqueira; Lima-Marques, citados por Siqueira, 2008, p. 33)

Trata-se de uma área interdisciplinar e que tem diversos profissionais envolvidos em sua implementação. Aplica métodos e conceitos advindos da ciência da informação e de outras áreas, tais como vocabulários controlados, esquemas de classificação, modelos mentais e interação homem-máquina. É, em primeiro lugar, um processo, em segundo, uma prática (profissão) e, por fim, uma disciplina. A prática fortalece a disciplina e promove seu desenvolvimento. São objetivos da arquitetura da informação: desenvolver ambientes de informação semanticamente relevantes; modelar informação em ambientes que possibilitem sua criação, gestão e compartilhamento pelos usuários; e promover a melhoria da comunicação, da colaboração e do intercâmbio de experiências. A informação só existe em contextos específicos, para “comunidades de significado”, caso contrário, seria somente um aglomerado de dados. A arquitetura da informação é baseada na visão humanista, segundo a qual as pessoas estão em primeiro lugar e a tecnologia vem em seguida; desse modo, deve estar de acordo com as necessidades de informação dos usuários, que necessitam de informação certa no tempo certo (Ranganathan, 1963). Como disciplina, tem por objeto a informação, sua estrutura e configuração nos diferentes fenômenos que a manifestam. Do ponto de vista tecnológico, pode ser vista como um conjunto de métodos e técnicas para o desenho de ambientes de informação. Os modelos desenvolvidos para projetar uma arquitetura da informação partem de conceitos teóricos e transformam-se em um sistema de informação, uma coleção de componentes inter-relacionados (equipamentos, programas, procedimentos, bases de dados) que trabalham juntos para coletar, processar, armazenar e distribuir informação. Dessa forma,

a tecnologia da informação (TI) é o mecanismo produtor da atividade de coleta e tratamento de dados que gera saídas de informação e as dissemina para os usuários. Para construir tais sistemas, é necessário: •

determinar os problemas de informação;



aplicar as teorias para nortear o desenvolvimento das soluções; e



integrar as soluções e validá-las dentro de uma arquitetura de informação específica. Sob a perspectiva das organizações sociais ou da sociedade da informação, a

arquitetura da informação pode ser associada a uma visão de mundo, entendida como um conjunto de ações aplicadas a um espaço de informação determinado, de modo a transformá-lo em sistema de informação. Na atualidade, o domínio de modelos de informação é vital para a sobrevivência das organizações; toda estrutura econômica está suportada por padrões de informação. Dominar o ciclo de vida da informação desde sua origem, seus padrões de organização, suas representações em modelos adequados, que possibilitem a compreensão de fenômenos e a tomada de decisões, tem sido o esforço constante das organizações desde o final do século XX. Contudo, a quantidade de informação tem se mostrado demasiada para a capacidade humana de consumi-la. A profusão de informação e a relevância dela sobre temas específicos suscitaram o desenvolvimento da tecnologia e ciência da informação e, mais especificamente, da arquitetura da informação, como instrumento para reduzir a dispersão da informação e torná-la mais adequada ao entendimento humano. O cenário do Big Data, por um lado, é composto pela convergência de diversas tecnologias, que aliam facilidades de mobilidade, de cloud computing, de interfaces para a interação homem-computador em tempo real e da conectividade de uma infinidade de sensores e dispositivos. Por outro lado, desenha-se um cenário de desafios, alguns de ordem técnica, como o excesso de dados gerados e a consequente dificuldade para filtrar e processar o que de fato seja relevante, e outros causados pelo processo de mudanças sociais e econômicas, em pleno andamento, propiciadas por um novo ambiente informacional que altera os papéis e a forma de relacionamento entre os entes envolvidos. Em conjunto, esses fatores fazem da disciplina de arquitetura da informação uma ferramenta das mais necessárias para o aproveitamento do potencial de competitividade empresarial representado pelo Big Data.

3.6 Uma correlação entre os conceitos O fato de gerar dados no próprio ato de consultá-los transforma o papel passivo do usuário, ou cidadão, no papel ativo do “prossumidor”. Essa mudança, associada à necessidade de processamento em tempo real, característica básica do Big Data, força o uso de uma via de mão dupla para o tráfego de dados, bem como o uso de interfaces cada vez mais interativas e amigáveis, tornando o computador um instrumento tanto de processamento como de comunicação. Aplicações de RA, como as citadas anteriormente, exemplificam bem essa afirmação. A comunicação, com o sentido utilizado no parágrafo anterior, diferentemente da simples troca de informações entre um transmissor e um receptor, pressupõe uma interação criativa, atuando como um catalisador para o surgimento de novas ideias (Licklider, 1968, p. 21), tal como ocorre entre seres humanos. Processos criativos para o desenvolvimento de novas aplicações, nas mais diversas áreas da atividade humana, como os que podem ser propiciados por uma estreita cooperação homem-computador, constituem um fator dos mais relevantes dentre aqueles que oferecem vantagens competitivas às empresas que operam neste início do século XXI, em cenários que, muito em breve, se aproximarão aos dos filmes de ficção científica mencionados ao longo deste texto. O desenho de aplicações de software, para maximizar suas chances de sucesso, deve estar centrado nas necessidades e características de seus usuários e deve ser modelado de acordo com o ambiente informacional no qual interagem os seus entes. Entre as atribuições da disciplina de arquitetura da informação está o estabelecimento das corretas relações entre os entes que compõem um cenário, ou espaço de informação, e da distinção entre seus papéis. Em tempos de Big Data e do uso de aplicações de RA, em que usuários assumem novos papéis e interagem em um contexto em pleno processo de transformação, tratar de modo eficiente todos esses pontos torna-se ainda mais vital do que já tem sido.

4 Impactos do Big Data Tomando por base os conceitos tratados na seção anterior, passaremos, na sequência, a examinar os possíveis impactos do Big Data, organizados como riscos, desafios e oportunidades, sob a ótica do cidadão, da indústria de TI e do mercado empresarial em geral.

4.1 Na sociedade civil O ser humano, por natureza, costuma oferecer alguma resistência à mudança. O processo de introdução de novas tecnologias, conforme mencionado no início deste trabalho, não escapa desse padrão, podendo provocar tensões sociais enquanto durar sua acomodação. Ao associarmos o Big Data à Internet das Coisas (IoT)18, os efeitos, tanto benéficos como seus riscos, são potencializados. Estimativas calculam em cerca de dez bilhões o número atual de dispositivos conectados a internet. Este número já supera o número total de habitantes do planeta e algumas previsões estimam que alcance a marca de trinta bilhões em 2020 (Schneier, 2015,). Conforme esclarece Schneier (2015), “o que sabemos é que eles todos (os dispositivos) irão produzir dados, muitos dados. As coisas em nossa volta se tornarão os olhos e ouvidos da Internet”. Ainda segundo Goodman (2015), “Nossas redes elétricas, redes de controle de tráfico aéreo, sistemas de controle de incêndio, e até mesmo elevadores estão todos criticamente dependentes de computadores. A cada dia, nós conectamos mais e mais de nossas vidas diárias à rede mundial de informações sem pararmos para pensar em seu significado.” “Quanto mais conectamos nossos dispositivos e nossas vidas à rede global de informações – seja por meio de telefones celulares, redes sociais, elevadores, ou automóveis autômanos – mais vulneráveis nos tornarmos” (tradução dos autores).

Analisaremos nesta seção alguns dos potenciais riscos e benefícios do Big Data para o cidadão.

4.1.1 Riscos Em 1949, George Orwell19 publicou o livro 1984, no qual inseriu o personagem O Grande Irmão, representado por um grande olho que tudo observa (Orwell, 2014). Nessa história, Orwell retrata um governo totalitário e repressivo que tenta controlar a vida de todos os cidadãos, monitorando-os permanentemente com o uso de câmeras de vídeo. A previsão de Orwell de monitoração de cidadãos demorou cerca de duas décadas, além da época em que se passa o romance, para tornar-se realidade. Porém, é provável que nem o próprio Orwell pudesse imaginar o grau de monitoração que viria a existir. Atualmente 18 O termo “Internet das Coisas" (ou Internet of Things, IoT, em inglês) foi proposto em 1999 por Kevin Ashton, do MIT (Massachusetts Intitute of Tecnologia), Seu objetivo é conectar dispositivos, sensores e itens de uso cotidiano à internet, por meio de conexões wi-fi e RFID (Radio-Frequency IDentification), formando um sistema global de captação contínua de dados. 19

George Orwell, como ficou conhecido, é na verdade o pseudônimo do escritor inglês Eric Arthur Blair.

somos monitorados não somente pelos governos, mas também por empresas, não apenas por meio de câmeras de vídeo, mas por meio de uma infinidade de dispositivos, como GPS, telefones celulares, cartões de crédito e provedores de internet. Aonde vamos, com quem falamos, o que acessamos na internet, hábitos de consumo, todos esses dados são registrados minuto a minuto. A legislação de cada país determina que empresas de telefonia celular e provedoras de internet sejam obrigadas a guardar as informações de uso de seus usuários por um prazo que varia de seis meses a dois anos. O Projeto de Lei do Marco Civil da Internet, uma espécie de constituição da internet, que se encontra na pauta de votação da Câmara dos Deputados, em Brasília, prevê um aumento no prazo de guarda dos dados de usuários de seis meses para um ano. A Polícia Federal defende que esse projeto de lei seja

estendido

também

a

provedores

de

conteúdo,

aumentando-se,

assim,

o

monitoramento de atividades de todos os cidadãos. Recentemente, a NSA (National Security Agency), a agência norte-americana de segurança da informação, com creditada capacidade para interceptar a comunicação de quem quer que seja, admitiu, após acusações que lhe foram feitas, que monitora as atividades, incluindo a localização, de cerca de cinco bilhões de celulares por dia. A LG também foi obrigada a admitir que, por meio de seus televisores de última geração, está coletando e enviando à empresa dados que vão além dos hábitos televisivos de seus usuários, incluindo arquivos de pastas compartilhadas em computadores pessoais ao seu alcance. A quantidade e a diversidade de informações sobre a população sob domínio de governos e empresas expõem a sociedade civil a uma redução acentuada de sua privacidade e a riscos elevados na manutenção de suas garantias fundamentais e de liberdade, principalmente na eventualidade de governos totalitários e antidemocráticos. Nesse sentido, temos uma questão interessante para refletir, apresentada por Malte Spitz (2012), pesquisador alemão que estuda o impacto do Big Data na sociedade: nos dias atuais, praticamente cada cidadão carrega consigo um telefone celular; caso fosse essa a realidade em 1989, teria sido possível a derrubada do muro de Berlim ou a Stasi, a temida polícia política da antiga Alemanha Oriental, teria tido os meios de impedir o evento e prender os principais líderes do movimento? A Figura 2.1, construída com base em uma lista de registros de ligações telefônicas, mostra a visualização do relacionamento entre os respectivos usuários do serviço de telefonia móvel (Spitz, 2012). Além de expressar a facilidade existente na atualidade para monitorar praticamente toda a população mundial, a figura 2.1 também ilustra o poder da visualização para melhorar o entendimento, principalmente de situações de alta complexidade, quando comparada com a análise de uma lista de registros.

Figura 2.1 – Redes de conexões de usuários de telefonia celular

Fonte: Spitz, 2012.

4.1.2 Benefícios A seguir, listamos alguns dos potenciais benefícios do Big Data à população em geral (Canton, 2015; Goodman, 2015; Schneier, 2015): •

luta contra o crime organizado e grupos terroristas;



combate a fraudes financeiras;



combate a epidemias;



controle preventivo de grupos de riscos de determinadas doenças;



localização e atendimento imediato em casos de mal súbito ou emergências

diversas; •

planejamento de investimentos em infraestrutura;



planejamento de ações em caso de acidentes ou catástrofes naturais.

Nessa

lista

de

potenciais

benefícios,

a

maioria

dos

itens

apoia-se

no

reconhecimento de padrões. E, mais uma vez, deparamo-nos com a necessidade da participação do ser humano para a identificação de padrões inéditos. Em grandes volumes de dados, com crescimento acelerado e originados de fontes diversas, componentes constituintes de novos padrões ficam cada vez mais escondidos, aumentando a dificuldade em percebê-los. No caso de adversários adaptativos, como grupos organizados que planejam e executam fraudes financeiras e atos terroristas, evitando ou raramente apresentando um padrão repetitivo que algoritmos computacionais possam identificar,

tornam-se fundamentais, para o sucesso das ações de combate a essas práticas, a participação do ser humano e a eficiência de interfaces colaborativas para a interação homem-máquina.

4.2 Na indústria de tecnologia A indústria de TI tem procurado responder adequadamente aos desafios do fenômeno do Big Data, nada modestos, lançando tecnologias específicas para atender às necessidades de infraestrutura e de técnicas para o armazenamento e a análise dados, em dimensões inéditas em sua breve história. Algumas dessas situações desafiadoras apresentam tanto componentes de risco como oportunidades de crescimento e ganhos.

4.2.1 Desafios e oportunidades Em termos de armazenamento, o modelo relacional, proposto em 1969 e implementado nos principais bancos de dados disponíveis no mercado, foi desenhado para tratar apenas dados estruturados, com objetivos definidos de suportar de modo eficiente a categorização e a normalização desse tipo de bases de dados. Apesar de extremamente bem sucedido, tanto tecnicamente como comercialmente, o modelo relacional não foi projetado para tratar dados não estruturados ou suportar uma escalabilidade até a ordem de petabytes, ou mais, tendo seu desempenho fortemente afetado nessas condições. As estruturas tradicionais de indexação e os correspondentes mecanismos de busca e recuperação são inadequados nessas circunstâncias. A resposta da indústria de TI a esses desafios traduz-se no lançamento de diversos modelos de bancos de dados apropriados ao armazenamento de dados não estruturados, denominados NoSQL (Not only SQL), projetados para uma escalabilidade compatível com as necessidades do Big Data, já comercialmente disponíveis. Em termos da análise de dados, tornou-se necessário repensar as técnicas que vêm sendo empregadas em bases relacionais, em razão das novas exigências de velocidade para suportar o tratamento de dados em tempo real. O modelo tradicional de mineração de dados foi desenvolvido com a perspectiva de filtrar os dados gerados pelos diversos sistemas transacionais, copiar os dados resultantes numa base analítica, atualizada periodicamente, ou data warehouse, e depois aplicar queries a essa base. O problema desse tipo de solução é que na prática os relatórios analíticos são produzidos com base em dados estáticos, refletindo a realidade de horas ou dias anteriores. Para resolver essa questão, surgiu o conceito de stream processing, um novo paradigma de processamento paralelo, no qual, em vez da aplicação de queries a bases previamente

organizadas, e estáticas, ocorre que o fluxo contínuo de dados, ou streaming data, passa por uma série de operações previamente determinadas. Também nesse caso, a indústria de TI já oferece ferramentas voltadas para o tratamento analítico de dados, compatíveis com as características do Big Data, como Haddop e MapReduce20. Outro desafio técnico imposto pelo Big Data é a criação, gestão e aplicação de cópias de segurança, em um cenário de fluxo constante de dados, em volumes e velocidades elevadas, em que deixa de existir a figura da janela de tempo para a realização de backup off-line. Entretanto, independentemente das iniciativas e progressos já alcançados pela indústria de TI, é preciso considerar a possibilidade de estarmos vivendo um momento histórico, como o descrito no início deste trabalho, no qual a introdução de uma nova tecnologia tem o potencial de alterar o equilíbrio social e econômico em diversos setores da atividade humana, tornando mais nítidos os efeitos de um processo econômico darwinista. Considerando essa perspectiva, apresentamos a seguir alguns pontos que, ao mesmo tempo, podem significar desafios, riscos e oportunidades para os atores envolvidos: •

desafios de ordem técnica ainda a serem solucionados de forma eficiente: o

interfaces interativas de baixo atrito;

o

técnicas e ferramentas de backup;



pessoal qualificado insuficiente;



crescimento acelerado de aplicações e do surgimento de novas empresas,

agravando a competição tanto por mercados específicos como por mão de obra qualificada; •

momento histórico de volatilidade tecnológica, com risco de surgimento e

rápido desaparecimento de inúmeros produtos e, eventualmente, de suas respectivas empresas; •

momento de disputa intensa entre as empresas bem-sucedidas com o

lançamento de novos produtos, as quais com o tempo deverão ser incorporadas por outras maiores, restando, ao final desse período de maior instabilidade, apenas as

20

Hadoop consiste basicamente em uma infraestrutura que permite o processamento massivamente paralelo, utilizando um grande número de computadores (nós), que podem estar em uma mesma rede local, formando um cluster, ou geograficamente distribuídos, constituindo um grid. MapReduce é uma plataforma para o desenvolvimento de aplicações voltadas para o processamento distribuído de grandes volumes de dados, estruturados ou não. Hadoop e MapReduce são projetos originalmente concebidos pela Fundação Apache. Ver Apache Software Foundation (2015a, 2015b).

empresas que melhor conseguirem se adaptar ao novo cenário tecnológico e econômico.

4.3 No mercado empresarial em geral Com o objetivo de conhecer melhor os seus antigos e potenciais novos clientes para maximizar as vendas de produtos e serviços, as empresas terão como observar e coletar uma grande variedade de dados sobre hábitos de consumo, quer seja on-line, que seja presencialmente. Poderão reconhecer clientes facialmente e gravar as imagens e comentários destes enquanto estiverem dentro ou na frente de uma loja, banco ou supermercado, obtendo suas impressões sobre produtos, atendimento e instalações. Poderão, ainda, avaliar o atendimento de cada vendedor e a reação de cada consumidor, sugerir em tempo real a compra de algum item ou mesmo oferecer promoções instantâneas e exclusivas. Os profissionais de marketing não poderão reclamar da falta de informações sobre o mercado ou do perfil de seus clientes. A ficção apresentada no filme Minority Report está próxima de tornar-se realidade. Entretanto, o aproveitamento eficiente de todo esse potencial de marketing depende de uma série de fatores tecnológicos e humanos, listados a seguir. 2.4.3.1 Riscos A maior parte dos riscos apontados para a indústria de TI está igualmente presente para a totalidade do mercado. A seguir, destacamos alguns desses riscos: •

pessoal despreparado para explorar as novas tecnologias;



pessoal despreparado para a análise eficiente da grande quantidade de

dados coletados e a inferência de padrões de consumo; •

necessidade

de

reagir

rapidamente,

atuando

no

mercado,

preferencialmente, de forma proativa.

4.3.2 Oportunidades Como mencionado anteriormente, acreditamos que as melhores oportunidades para a obtenção de vantagens competitivas com o Big Data estarão centradas na capacidade de reconhecimento de padrões, principalmente na identificação de padrões inéditos ou adaptativos. No entanto, como ilustram os exemplos citados ao longo do texto, novas aplicações surgem a todo momento e em todas as áreas de atividades econômicas.

Considerações finais O Big Data, enquanto restrito a bases de dados de grande volume, ainda que se considerem as exigências de infraestrutura e ferramentas para seleção, coleta e armazenamento especialmente projetadas, não constitui fator efetivo de competitividade, configurando apenas um potencial a ser aproveitado por sistemas e aplicações. Algoritmos para o reconhecimento de padrões certamente oferecerão vantagens competitivas em diversas áreas da atividade humana, porém os maiores benefícios poderão ser obtidos pela detecção de padrões inéditos ou adaptativos, que poderão posteriormente ser tratados por algoritmos específicos, por meio de uma simbiose homemmáquina. As aplicações que fizerem uso do Big Data em conjunto com modelos de realidade aumentada poderão oferecer as melhores condições de efetividade na análise de cenários de elevada complexidade, e, portanto, de competitividade, quando envolverem o ser humano em um processo colaborativo. Desse modo, as soluções devem ser desenhadas considerando-se a participação central do ser humano, com especial atenção às interfaces interativas que possam privilegiar sua capacidade criativa e associativa. Neste cenário de introdução de novas tecnologias, a História nos ensina que os detalhes podem significar importante vantagem competitiva, a diferença entre o sucesso e o fracasso, entre o crescimento e o desaparecimento de empresas. Desse modo, torna-se necessário aperfeiçoar o projeto de cada componente do processo, desde a produção de dados por diversos atores e dispositivos, os mecanismos de coleta desses dados de diferentes formatos, os mecanismos de seleção e armazenamento, as ferramentas para a análise e a construção de algoritmos para o reconhecimento de padrões e as interfaces para a apresentação desses dados e a interação com as aplicações, de forma a permitir a tomada de decisão mais inteligente. A matéria-prima de todo esse processo, os dados, e o fator de maior relevância, o envolvimento do ser humano, devem ser tratados como os elementos mais importantes, e, nessa perspectiva, a arquitetura da informação constitui a mola mestra, subjacente a todos os aspectos relacionados ao Big Data. Para finalizar, ressaltamos que, para aproveitarem a janela de oportunidades do Big Data e se beneficiarem de seu potencial competitivo, as empresas devem ser proativas, sendo necessário reconhecer os fenômenos por trás do Big Data, estudá-los em profundidade e avaliar seriamente seus impactos. Reagir será contraproducente.

Questões para estudos futuros •

Avaliar os impactos políticos e jurídicos do Big Data;



Avaliar fragilidades tecnológicas e seu impacto em uma sociedade cada vez

mais tecnologicamente dependente (Qual seria, por exemplo, o impacto em toda a sociedade humana de um colapso da internet e dos meios de comunicação eletrônica, por um período prolongado?); •

Avaliar as técnicas e ferramentas disponíveis para a criação e gestão de

cópias de segurança (backup); •

Avaliar a vida útil e analisar os aspectos tecnológicos e econômicos da

obsolescência acelerada dos dispositivos de armazenamento de dados, na perspectiva do Big Data; •

Analisar, sob o domínio da arquivologia, as técnicas e mecanismos de

coleta, armazenamento e recuperação de dados, na perspectiva do Big Data; •

Modelar uma arquitetura da informação para o Big Data.

Referências APACHE

SOFTWARE

FOUNDATION.

Hadoop.

Disponível

em:

. Acesso em: 11 fev. 2015a. _____.

MapReduce

tutorial.

Disponível

em:

. Acesso em: 11 fev. 2015b. CANTON, J. Future Smart: Managing the Game-Changing Trends that Will Transform Your World. Boston: Da Capo Press, 2015. Livro eletrônico. CLARKE, S. A. C. 2001: uma odisseia no espaço. 1. ed. São Paulo: Aleph, 2013. DAYAL, R. et al. Risk Report 2012-2013: An Inflection Point in Global Banking. BCG – The

Boston

Consulting

Group,

2012.

Disponível

em:

. Acesso em: 11 fev. 2015. FERNANDES, G. L.; LIMA-MARQUES, M. Em busca de um modelo fenomenológico do

mecanismo

de

apreensão

humana.

Disponível

em:

. Acesso em: 11 fev. 2015. FOLDIT. The Science Behind Foldit. Washington: Foldit, 2013. Disponível em: . Acesso em: 11 fev. 2015. FORTUNE. Global 500. USA: CNN Money, 2013. GANTZ, J.; REINSEL, D. The Digital Universe in 2020: Big Data, Bigger Digital Shadows, and Biggest Growth in the Far East. [S.l.]: IDC, Dec. 2012. Disponível em: . Acesso em: 8 dez. 2013. GOODMAN, M. Future crimes: everything is connected, everything is vulnerable and and what we can do about it. New York: Doubleday, 2015. Livro Eletrônico. HILBERT, M.; LÓPEZ, P. The World’s Technological Capacity to Store, Communicate, and Compute Information. Science, v. 332, n. 6025, p. 60-65, Apr. 2011. Disponível em: . Acesso em: 11 fev. 2015. HUMAN BRAIN PROJECT. Disponível em: . Acesso em: 11 fev. 2015.

LICKLIDER, J. C. R. Man-Computer Partnership. International Science and Technology, May 1965. Disponível em . Acesso em 30/03/2015. _____. Man-Computer Symbiosis. Transactions on Human Factors in Electronics, v.

HFE-1,

p.

4-11,

Mar.

1960.

Disponível

em:

. Acesso em: 11 fev. 2015. LICKLIDER, J. C. R.; TAYLOR, R. W. The Computer as a Communication Device. Science

and

Technology,

Apr.

1968.

Disponível

em

. Acesso em: 11 fev. 2015. LIMA-MARQUES, M. Outline of a Theoretical Framework of Architecture of Information: a School of Brasilia Proposal. In: BÉZIAU, J.; CONIGLIO, M. E. (Ed.). Logic Without Frontiers: Festschrift for Walter Alexandre Carnielli on the Occasion of his 60th Birthday. London: College Publications, 2011. (Tribute Series, v. 17). LACERDA, F. O.. Arquitetura da informação: aspectos epistemológicos, científicos e práticos. 2005. 190 f. Dissertação (Mestrado em Ciência da Informação) – Universidade de Brasília, Brasília, DF, 2005. MCLUHAN, S.; STAINES, D. McLuhan por McLuhan: conferências e entrevistas inéditas do profeta da globalização. Rio de Janeiro: Ediouro, 2005. MELL, P.; GRANCE, T. The NIT Definition of Cloud Computing: Recommendations of the National Institute of Standards and Technology. Gaithersburgh, MD: US Department of Commerce; National Institute of Standards and Technology, Sept. 2011. Special

Publication

800-145.

Disponível

em:

. Acesso em: 11 fev. 2015. NIH BLUEPRINT FOR NEUROSCIENCE RESEARCH. The Human Connectome Project. Disponível em: . Acesso em: 11 fev. 2015. NIH – National Institutes Of Health. The Brain Initiative. Disponível em: . Acesso em: 11 fev. 2015. ORWELL, G. Nineteen Eighty-four (1984). Adelaide: University of Adelaide, 2014. Disponível em: . Acesso em:

11 fev. 2015. RANGANATHAN, S. R. Documentation and Its Facets: Being a Symposium of Seventy Papers by Thirty-two Authors. [S.l.]: Asia Publishing House, 1963. RIORDAN, M.; HODDESON, L. Crystal Fire: the Birth of the Information Age. New York: Norton, 1997. SANKAR, S. The Rise of Human-computer Cooperation. Edinburgh, Scotland: TED, June

2012.

Palestra.

Disponível

em:

. Acesso em: 11 fev. 2015. SIQUEIRA, A. H. A lógica e a linguagem como fundamentos da Arquitetura da Informação. 141 f. Dissertação (Mestrado em Ciência da Informação) – Faculdade de Economia, Administração, Contabilidade e Ciência da Informação e Documentação, Universidade

de

Brasília,

Brasília,

DF,

2008.

Disponível

em:

. Acesso em: 11 fev. 2015. SCHNEIER, B. Data and Goliath: the hidden battles to collect your data and control your world. New York: W. W. Norton & Company, 2015. Livro eletrônico. SPITZ, M. The Dark Side of Data. Edinburgh, Scotland: TED, June 2012. Palestra. Disponível

em:

.

Acesso em: 11 fev. 2015. STATISTIC

BRAIN.

Facebook

Statistics.

Jan.

27,

2015a.

Disponível

em:

. Acesso em: 11 fev. 2015. _____. Google Annual Search Statistics. Jan. 9, 2015b. Disponível em: . Acesso em: 11 fev. 2015. _____.

Netflix

Statistics.

May

3,

2013.

Disponível

em:

. Acesso em: 11 fev. 2015. _____. Total Number of Pages Indexed by Google. Jan. 9, 2015c. Disponível em: . Acesso em: 11 fev. 2015. TARAPANOFF, K. Análise da informação para tomada de decisão: desfios e soluções. Curitiba: Ed. Intersaberes 2015. TOFLER, A. A terceira onda. Rio de Janeiro: Record, 1980. TURING, A. M. Computing Machinery and Intelligence. Mind, JSTOR New Series, v. 59,

n.

236,

p.

433-460,

Oct.

1950.

Disponível

em:

. Acesso em: 11 fev. 2015. VERMEULEN, C. Algorithmic Trading: The New Way of Investing for Peak Performance. Nov. 2013. Disponível em: . Acesso em: 11 fev. 2015.

Lihat lebih banyak...

Comentários

Copyright © 2017 DADOSPDF Inc.