MEIO HOMEM, MEIO MÁQUINA: O COMPUTADOR E OS HÍBRIDOS

Share Embed


Descrição do Produto

MEIO HOMEM, MEIO MÁQUINA: O COMPUTADOR E OS HÍBRIDOS Ivan da Costa Marques1 (HCTE/UFRJ) Isabel Cafezeiro2 (HCTE/UFRJ, IC/UFF, CMPDI/UFF) RESUMO Abordamos aqui situações em que o computador favorece mostrar e problematizar dicotomias constitutivas dos conhecimentos científicos modernos, tais como a separação entre a coisa e a ideia, entre mãos e olhos, de um lado, e mente e linguagem, de outro, entre o maquínico e o humano, entre o natural e o político, etc. Interessa-nos alcançar diálogos entre os conhecimentos das ciências ocidentais modernas e outros conhecimentos e aqui, envolvendo os computadores, ensaiamos movimentos, ainda que preliminares e modestos, tendo em conta esse interesse. É portanto com essa inclinação que este ensaio busca identificar situações limites de dicotomias fundadoras das ciências da computação. Ao mostrar seus limites, isto é, ao mostrar passagens em que elas perdem suas correspondências no mundo das práticas computacionais, mostramos que estas dicotomias estão no conhecimento (ideia) e não no mundo (coisa). Vemos tais passagens como lugares e ocasiões de tomada de linhas de fuga para maneiras de pensar para além daquelas dicotomias modernas, maneiras “que abrem mais espaço para outros valores que toda hora encontramos mas que não necessariamente se alojaram confortavelmente nos referenciais oferecidos pela modernidade.” (Latour, 2013:11) PALAVRAS CHAVE: Computador, dicotomias, híbridos, fronteiras do conhecimento

A COMPUTAÇÃO E O LEGADO DA MODERNIDADE Em meados do século XX um respeitado grupo de “cientistas lógicos” europeus (H. Hahn, O. Neurath e R. Carnap), assumindo o papel de porta-vozes do Círculo de Viena, publicou o manifesto “A Concepção Científica do Mundo” (Carnap,1929), 1

2

Ivan da Costa Marques é professor associado do programa de Pós-Graduação em História das Ciências e das Técnicas e Epistemologia da Universidade Federal do Rio de Janeiro. ([email protected]) Isabel Cafezeiro é professora associada do Instituto de Computação da Universidade Federal Fluminense, do Curso de Mestrado Profissional em Diversidade e Inclusão, e professora colaboradora do HCTE ([email protected])

1

buscando tornar acessível ao público geral o que viam como princípios básicos da concepção científica. Este documento apresentava as diretrizes básicas daquilo que identificavam como “prática científica”: uma busca, através do “método”, da “verdade”, da “certeza”, do “conhecimento objetivo” em suma, “do conhecimento sem nenhum rastro do sujeito que conhece”3. O Círculo de Viena veio a reforçar os quatro preceitos da lógica que René Descartes (1637) havia proposto no século XVII: evidenciar, analisar, ordenar ou sintetizar e classificar ou enumerar.

Estas bases estruturantes conduzem a um esforço de delimitação de fronteiras, ou “disciplinarização”, característico da era moderna, que tem como consequência a concepção

de

entidades

puras,

ou

seja,

entidades

que

se

enquadram

confortavelmente em alguma classificação. Este esforço de classificação, ou de construção de fronteiras bem delimitadas, está inevitavelmente atrelado ao raciocínio dicotômico uma vez que, de modo geral, busca separar nitidamente o que está dentro do que está fora, a parte do todo ou, em exemplos específicos, o objetivo do subjetivo, as humanas das exatas, a mente do corpo, a natureza da sociedade, dentre outras dicotomias.

O poeta irreverente Gregório de Matos já indicava naquele mesmo distante século XVII que pode haver inconsistência em se estabelecer fronteiras separando partes. E não somente isto, mas também indicava que ignorar diferenças concebendo o todo como uma unidade também pode manifestar inconsistência: O todo sem a parte não é todo, A parte sem o todo não é parte, Mas se a parte o faz todo, sendo parte, Não se diga, que é parte, sendo todo. Gregório de Matos, (1636-1696)

Parte e todo, juntos, formam um híbrido: não se separam, pois um não faz sentido sem o outro. É precisamente este o significado da palavra: um cruzamento de espécies. Admitir um híbrido significa reconhecer a mistura, e portanto, admitir diferenças, mas não separá-las, porque ao separar a parte do todo, perdem-se as duas. Assim, reconhecendo partes e todo, mas problematizando a construção e a 3

“To be objective is to aspire to knowledge that bears no trace of the knower” (Daston & Galison, 2007)

2

precisão das fronteiras que delimitam, categorizam, estruturam, sistematizam, purificam, argumentamos pela hibridização.

Prosaicamente somos levados a considerar novas entidades (muito prosaicamente, um telefone que é também um computador) para as quais não encontramos um lugar confortável nas classificações pré estabelecidas. Essas entidades, antes mesmo de serem definidas (classificadas), agem no encontro das categorias que usualmente consideramos para classificá-las como novos membros nessas categorias (comunicação e computação). Os estudos sociais das ciências e das tecnologias (Estudos CTS) das últimas décadas constatam a hibridez das entidades do mundo moderno, isto é, a impossibilidade de bem compreendê-las se nelas dissociarmos sujeito e objeto, corpo e mente, natureza e sociedade, ciências humanas e ciências exatas, dentre outras dicotomias da modernidade (Latour, 2005, Shapin, 2010).

A constatação da ação destas entidades híbridas, que resistem às divisões categóricas, e portanto à formalização, nos leva imediatamente a problematizar também aquilo que nos acostumamos a enxergar como “puro”, ou o que tomamos como completamente capturado, definível e adequado a ser compreendido em termos de um conjunto finito de categorias, de uma coreografia definida com poucos elementos. Esta problematização desestabiliza as bases d“A Concepção Científica do Mundo”, pois, com o perdão da brevidade, “qualquer sistema que trate a individuação como uma classificação (e vimos que sempre é o caso) está arriscado a ver sua estrutura posta em questão cada vez que admite um novo membro.” (LéviStrauss, 1989 apud Sá,2013) É PRECISO SER MEIO HOMEM MEIO MÁQUINA4

A aproximação entre a lógica dos 0's e 1's e a materialidade dos circuitos digitais 4

Subtítulo baseado no epigrama de Alan Perlis: “To understand a program you must become both the machine and the program”. Alan Perlis era, já em 1968 um pesquisador renomado. Na contramão de grande parte da comunidade acadêmica, Perlis se mostrava bastante mobilizado pela visão da computação como um campo híbrido de conhecimentos. Seus epigramas ainda hoje causam reações irritadas aos que consideram a computação como ciência exata.

3

presentes nos computadores, reduz o salto entre abstração e matéria (ideia e coisa). O computador é um híbrido, uma mistura de racionalidade matemática e materialidade. A hibridização aí se torna mais facilmente visível. Em particular, a colaboratividade materializada nas tecnologias de informação e comunicação, manifesta-se claramente como um fenômeno híbrido, um lugar onde o “humano” (no caso, a racionalidade matemática, a ideia) se imbrica intimamente com o “não humano” (no caso, a materialidade dos semi-condutores, a coisa). Nesta condição, a colaboratividade provoca questionamentos e rejeição por parte de quem se mantém aderente às usuais dicotomias modernas.

Neste artigo abordamos dois casos em que o computador indica a impossibilidade de se considerar entidade puras, levando-nos a argumentar que é mais produtivo reconhecer que as ações se realizam efetivamente no encontro das categorias. O primeiro caso se refere a uma contestação à forte tendência vigente nos anos 1970 de utilização de métodos formais para assegurar a corretude de sistemas computacionais.

Neste

episódio,



comentado

em

Scientiarum

anterior

(Cafezeiro&Marques,2011), a colaboratividade foi apontada como alternativa eficaz na obtenção de sistemas confiáveis em contraposição à visão dominante na época de que somente os métodos de provas formais seriam adequados para atestar a confiabilidade de sistemas. O caso ilustra a forte rejeição ao recurso de abordagens colaborativas, já que elas lançam mão de estratégias sociais, diferentes das usualmente compreendidas como ciência exata. Em outras palavras, no primeiro caso a colaboratividade ameaçou abalar a dicotomia técnico-social e foi rejeitada.

O segundo caso focaliza uma situação recente em que a colaboratividade compensa a incapacidade dos computadores de fazer certas induções. Os humanos então colaboram com a máquina realizando a parte da tarefa que, vamos argumentar, envolve a indução. Este trabalho misto, colaborativo, gera uma entidade híbrida, meio homem meio máquina, que nos leva a refletir sobre a dicotomia humanomáquina.

QUANDO

A

CIÊNCIA

DA

COMPUTAÇÃO 4

SE

ENVERGONHOU

DO

COMPUTADOR5

Embora tradicionalmente situada dentre as ciências exatas, uma análise cuidadosa dos documentos de configuração da área6 denuncia que, em anos anteriores à década de 70, considerar a computação como uma disciplina híbrida, receptiva a processos sociais como a colaboração, não chegava a ser um absurdo. Porém o ano de 1968 representou um marco rumo ao estabelecimento da computação como ciência exata, quando, em uma conferência de 1968 promovida pela OTAN para discutir os destinos da área, sobressaiu-se um grupo de cientistas que viam na “exatidão” da matemática a chave do sucesso na formação profissional da área de computação, em particular da engenharia de software.

A disputa estabelecida na conferência da OTAN em 68 tonou-se uma questão explícita na edição do ano seguinte, prevalecendo, embora de forma não unânime, a visão matemática da computação. Ao final da década de 70, a autoridade da matematização despertava ainda reações bastante enfáticas, como no famoso artigo “Social Processes and Proofs of Theorems and Programs” (DeMillo et al,1979) onde os autores questionaram a eficácia das provas formais, o que irritou marcadamente a comunidade de formalistas. Note-se que os autores foram suficientemente ousados a ponto de situar processos sociais ao lado das provas formais já no título do artigo.

É surpreendente o fato de que já em 1979, quando a colaboratividade, enquanto sub-área de pesquisa da computação era ainda embrionária, os autores tenham invocado mecanismos claramente colaborativos para atacar o ponto chave da disputa, a confiabilidade dos sistemas computacionais. Embora estas ideias não tenham ecoado na época, vemos hoje que “expor o software a processos sociais”, como argumentaram no artigo, parece ser a tendência para o desenvolvimento de 5 6

Baseado no epigrama de Alan Perlis: “Computer Science is embarrassed by the computer” Consideramos os relatórios das conferências promovidas pela OTAN em 68/69, e algumas das propostas de currículos publicadas pela ACM a partir de 1965. A partir de 2001 os relatórios da “Joint Task Force on Computing Curricula” ACM/IEEE também fornecem informações relevantes sobre a evolução da área. No cenário nacional o currículo de referência da Sociedade Brasileira de Computação (SBC) permite constatar a estreita aderência aos parâmetros internacionais.

5

software seguro, e hoje podemos constatar que a colaboratividade está presente em muitas das soluções mencionadas no artigo. (Cafezeiro&Marques,2012)

Os rumos que a computação veio a assumir nas décadas seguintes (80 e 90) com a disseminação dos computadores, e principalmente, as novas formas de interação proporcionadas pela Internet, causaram um reposicionamento da comunidade da computação quanto ao entendimento da própria área, retomando a importância da hibridização dos saberes. Nos anos 2000, podemos começar a ver em currículos mais recentes a presença de conhecimentos considerados “humanísticos”, bem como a configuração de sub-áreas de pesquisa onde se reconhece que questões consideradas “sociais” têm importância na conformação das propostas de questões usualmente consideradas “técnicas”.

Assim, aos poucos, vêm surgindo as abordagens ditas sociotécnicas da computação, centradas na percepção (expressa na fusão de duas palavras em uma única) de que “social” e “técnico” formam um corpo único, e portanto, é limitante a concepção de um “social” que exista (que aja) sem um “técnico” e vice-versa. Isto difere de abordagens em que se consideram “impactos” do técnico sobre o social (ou vice-versa), que pressupõem a supremacia de um campo, de modo que possa causar efeitos sobre o outro7. O modelo chamado de “difusão da tecnologia” acolhe melhor as abordagens vinculadas à noção de “ impacto”, já que, assumindo-se que o “técnico” e o “social” são categorias essencialmente distintas, faz sentido considerar os impactos da técnica sobre a sociedade e somente nestes impactos se confinaria o “encontro” das áreas. Já a abordagem sociotécnica, ou seja, a consideração de que “social” e “técnico” formam um imbricamento em constante processo de comodificação, possibilitou a DeMillo et al. a constatação de que os mecanismos sociais poderiam participar dos processos de certificação em pé de igualdade com as provas formais, assumindo um papel de “técnica” tanto quanto a matemática em 7

O Currículo de referência aprovado pela SBC em 2003 ainda se baseia em uma abordagem de “impactos” para justificar a presença de conteúdos humanísticos nos cursos de Sistemas de Informação: “Na área humanística, recomenda-se que sejam abordados aspectos relativos aos impactos e efeitos do processo tecnológico sobre a sociedade, as organizações e as pessoas. Neste sentido, o currículo pode proporcionar uma formação abrangente, a partir de um elenco de matérias escolhidas entre filosofia, sociologia e ética.”

6

que se sustentam as provas. QUANDO É O HOMEM QUE SE AJUSTA, NÃO A MÁQUINA8 Em sua edição de 04 de Junho de 20139, o jornal carioca O Globo narrou os novos rumos de pesquisa do premiado cientista da computação guatemalteco Luís von Ahn, criador das letras distorcidas que frequentemente somos obrigados a decifrar e digitar para acessar algumas páginas da internet: as captchas (Completely Automated Public Turing test to tell Computers and Humans Apart). O trabalho de Ahn realça a complexidade da distinção humano-máquina.

Em 1950, apostando na hipótese de que a mente humana poderia ser simulada pelos computadores, Alan Turing criou um jogo que denominou “imitation game”, hoje conhecido como o teste de Turing10, objetivando responder a pergunta “Podem as máquinas pensar?”

Apostando na hipótese de que as máquinas não são capazes de fazer induções que permitam identificar as letras a partir das formas distorcidas, o mecanismo de captchas tem um objetivo que de certa foram inverte o de Turing: procura identificar (a presença de) um humano, enquanto o “imitation game” propunha identificar a máquina. Ao atuar no sentido de detectar algo que seja considerado humano, as captchas colaboram no sentido de elucidar questões semelhantes ao que Turing formulou em 1950, e que são até hoje alvo de muito debate sobre os limites da Inteligência Artificial.

A matéria publicada em O Globo relatou a inquietação de Ahn ao considerar a perda de tempo (por parte dos usuários) envolvida no ato de digitar os caracteres. Ahn, 8 9

10

Epigrama de Perlis: “In man-machine symbiosis, it is man who must adjust: The machines can't.” http://oglobo.globo.com/tecnologia/apos-digitalizar-livros-combatendo-spams-criador-do-duolingoquer-traduzir-web-ensinando-linguas-8575890 “I propose to consider the question, 'Can machines think ?' This should begin with definitions of the meaning of the terms 'machine' and 'think'. (…) Instead of attempting such a definition I shall replace the question by another, which is closely related to it and is expressed in relatively unambiguous words. The new form of the problem can be described in terms of a game which we call the 'imitation game'.”(Turing,1950, p 432)

7

então, propõe compensar esta perda associando à esta atividade a realização de algum “trabalho útil”, por exemplo, um auxílio na disponibilização gratuita de textos na Internet pela Google. Os textos ficam muitas vezes incompletos porque os scanners não conseguem identificar automaticamente certas palavras. O mecanismo de Ahn atua em meio ao fato de que, dada uma imagem não muito clara, as pessoas elaboram sugestões que permitem identificar de que palavra se trata. Ahn propôs exibir estas palavras não decifradas pelos scanners ao lado das captchas, de modo que, para acessar uma página, uma pessoa digita, além da captcha, uma tentativa de decifrar uma palavra que os scanners não foram capazes de decifrar (as recaptchas). Se o usuário acerta a digitação da captcha, o sistema assume que também acertou a decifração da recaptcha e incorpora a palavra decifrada ao texto a ser disponibilizado (Ahn et al,2008). Estes “chutes” proveem à máquina justamente aquilo cuja ausência a caracteriza como máquina: a capacidade de indução. Tendo um componente a mais em seu motor: uma imensidão de cérebros, a máquina pode concluir seu trabalho de tradução automática.

Esta situação cria um quadro em que pessoas agem no sentido de realizar uma determinada tarefa visualizando apenas um fragmento do seu todo. Se mantida a dicotomia humano x máquina, as pessoas são como peças, que fornecem à máquina o resultado de um tipo de ação que os humanos, pelo menos no tanto quanto se conhece atualmente, executam de maneira distinta da máquina: a indução. Assim, da mesma forma que no caso relatado na seção anterior, estamos diante de uma situação em que processos (pelos menos ao que se conhece) não capturados pela mecânica agem imbricados a mecanismos, se colocando como parte no todo do aparato computacional. Esta configuração nos aponta uma outra questão relacionada ao estabelecimento de fronteiras. A proposta de Ahn configura um trabalho evidentemente colaborativo, mas quem colabora com quem? Poder-seia dizer: É o humano que colabora com a máquina, ou o inverso, a máquina que colabora com o humano?

Hoje os híbridos se tornam cada vez mais evidentes, por exemplo, um humano com um marcapasso, em que a parte máquina se coloca a serviço imediato da parte 8

humana, adicionando-se a ela, suprindo-lhe, mecanicamente, uma deficiência. Porém, a proposta de Ahn traz à cena dos debates sobre os limites da IA uma situação inusitada: aqui, é a parte humana que se coloca a serviço imediato da parte máquina, adicionando-se a ela, suprindo-lhe, intuitivamente, uma deficiência. Isto reposiciona em tempos atuais a proposição de Turing: I believe that at the end of the century the use of words and general educated opinion will have altered so much that one will be able to speak of machines thinking without expecting to be contradicted. (Turing,1950,p 442).

Diante deste panorama, como se pode então, como queria Turing, estabelecer com precisão as definições de “máquina” e “pensar” (ou “humano”)? Delimitar estas fronteiras já não se faz mais tão útil, uma vez que o que se tem em questão é um híbrido, algo que nega as essências, algo que nem chega a ser tão máquina, nem tão homem.

Novamente argumentamos: É mais produtivo não considerar as fronteiras como rígidas, definitivas ou “naturais” porque isso dificulta a percepção da ação conjunta de um campo e/com o outro. Alternativamente, ao considerar-se o imbricamento, verifica-se mais claramente o constante processo de co-conformação.

9

REFERÊNCIAS

AHN, L., Maurer, B., McMiller, C. Abrahan, D., Blum, M., 2008, reCAPTCHA: HumanBased Character Recognition via Web Security Measure. Science v321 12 Sept 2008 ACM CURRICULUM COMMITTEE ON COMPUTER SCIENCE. An Undergraduate Program in Computer Science--Preliminary Recommendation . ACM. V. 8 N. 9 / September, 1965.pp 543 -552 CAFEZEIRO, I, MARQUES, I. 2012.,When ‘Pure Mathematical Objectivity’ is no Longer Enough. The IV Inter. Conf. on Adv. in System Testing and Validation Lifecycle. (Portugal, 63-67,2012) VALID '12 CAFEZEIRO, I, MARQUES, I. 2011 , Da corte suprema, a matemática, à matemática nos tribunais. Scientiarum Historia IV, Rio de Janeiro, 2011. CARNAP, R. NEURATH, O. AND HAHN, H. 1929 La concepción científica del mundo: el Círculo de Viena. Trad. Lorenzano. Revista Redes, v9, n18, 2002: 103-149. SBC-SOCIEDADE BRASILEIRA DE COMPUTAÇÃO. Currículo de Referência da SBC para Cursos de Graduação em Computação e Informática. Versão 1999, submetida à assembléia em 2003 DE MILLO, R. A, LIPTON, R. J. & PERLIS,A. J.: Social Processes and proofs of theorems and programs, Communications of the ACM 22,1979: 271-280. DASTON, L., & PETER GALISON, P. 2007. Objectivity. New York: Zone Books. DJKSTRA, E. W. 1977 A political pamphlet from the Middle Ages, EWD638. LATOUr, B. 2005. Reassembling the social: An introduction to actor-networktheory.Oxford Univ. Press. LATOUR, B. 2013. An Inquiry into Modes of Existence : An Anthropology of the Moderns. Cambridge, MA: Harvard University Press. LÉVI-STRAUSS, C. 1989. O Pensamento selvagem. Campinas: Papirus Editora. SÁ, G. 2013 No mesmo galho – antropologia de coletivos humanos e animais. Rio de Janeiro: 7 Letras Editora. SHAPIN, S. 2010. Never pure: Historical studies of science as if it was produced by people with bodies, situated in time, space, culture, and society, and struggling for credibility and authority. Baltimore, Md.: Johns Hopkins University Press. OTAN, Software Engineering: Report of a Conference Sponsored by the NATO Science Committee, Garmisch, Germany, 7-11 Oct. 1968, Rome, Italy, 27th to 31st October 1969 , Scientific Affairs Division, NATO. Peter Naur and Brian 10

Randell (Eds.). TURING, A.: Computing machinery and intelligence. Mind, 59, 433-460 (1950).

11

Lihat lebih banyak...

Comentários

Copyright © 2017 DADOSPDF Inc.