Superinteligência: Possibilitador e Risco para a Existência de um Futuro da Humanidade

May 24, 2017 | Autor: Pablo Rolim | Categoria: Philosophy of Artificial Intelligence, Existential Risks, AI Safety
Share Embed


Descrição do Produto

Superinteligência: Possibilitador e Risco para a Existência de um Futuro da Humanidade Autor: Pablo Rafael Rolim dos Santos ¹ Orientador: Prof. Dr. Rogério Passos Severo ² Área de conhecimento: Filosofia

Tema: A perspectiva do desenvolvimento de um

Objetivo: Analisar a plausabilidade da hipótese

mercado de sistemas autônomos nos impõe a necessidade da análise das possíveis consequências que esses possam trazer para a humanidade. Entre os temas de pesquisa que esse cenário nos impõe, o mais severo trata da possibilidade que sejam criados sistemas inteligentes não alinhados aos valores morais humanos que, não intencionalmente, possam causar a extinção de nossa espécie ou a drástica diminuição da qualidade de vida. O que os classifica como um Riscos existencial.

de superinteligência, os possíveis impactos sociais da existência de sistemas superinteligentes e as estratégias de mitigação de riscos existentes nesse cenário.

Um risco existencial é todo aquele risco que pode extinguir a existência da espécie humana ou reduzir de forma drástica e definitiva seu potencial de desenvolvimento futuro. Esses riscos atingem a humanidade de forma transgeracional, pois afetam não apenas a geração no qual ocorrem, mas também todas as possíveis gerações futuras – que não ocorrerão ou estarão severamente debilitadas por ele –, e são terminais ou infernais, pois não há capacidade de recuperação uma vez que se esteja extinto ou terminalmente talhado de crescimento futuro. Esse cenário extremo advém da análise da hipótese de superinteligência, que sustenta que caso sejam criadas máquinas equivalentes à inteligência humana, essas terão a possibilidade de se autoaprimorar de forma a estender sua capacidades cognitivas e seu raio de ação, superando vastamente as capacidades cognitivas humanas. Dadas as consequências dessa hipótese, fazse necessário antecipar formas de mitigar os riscos consequentes da existência desses sistemas mesmo no caso em que a probabilidade da realização desse cenário seja pequena.

Referências bibliográficas: BOSTROM, N. Superintelligence: Paths, danger, strategies. Oxford: Oxford University Press, 2014. BOSTROM, N; CIRKOVIC, M (ed). Global Catastrophic Risk. Oxford: Oxford University Press, 2008. ANDERSON, M; ANDERSON, S (ed). Machine Ethics. Cambridge: Cambridge University Press, 2011. FLORIDI, L. The 4th Revolution: How the infonosphere is reshaping human reality. Oxford: Oxford University Press, 2014.

¹ Aluno do Programa de Pós-Graduação em Filosofia UFSM ² Professor de Filosofia do Departamento de Filosofia da UFSM

Lihat lebih banyak...

Comentários

Copyright © 2017 DADOSPDF Inc.