Os Perigos de se Criar Computadores Muito mais Inteligentes do que Nós

Estamos cercados de sistemas de inteligência artificial (I.A.). Eles aprovam ou declinam nossas compras com cartões de crédito, decidem o preço das nossas passagens aéreas, escolhem a melhor rota até nosso destino, e, por enquanto, são totalmente inofensivos.

Até agora, o sistema de busca do Google é a inteligência artificial mais complexa que existe. Assim como o Google, todas as I.A. que conhecemos hoje são inteligências artificiais “estreitas”, algoritmos extremamente eficazes em apenas uma ou um pequeno número de funções, mas ainda muito limitadas para aprender assuntos novos. Em suas funções específicas, essas máquinas já ultrapassaram o nível humano de inteligência imensamente. São ferramentas, e não agentes. E nós já somos dependentes delas para manter funcionando diversos sistemas essenciais para o fluxo do mundo.

Em abril de 2000, um artigo da revista Wired foi certeiro em descrever o que na época parecia distante e futurista, mas que agora, apenas 15 anos depois, já está bem próximo da realidade:

“As pessoas vão deixar máquinas tomarem cada vez mais decisões por eles, simplesmente porque as decisões feitas pelas máquinas trarão melhores resultados do que aqueles feitas pelas pessoas. Finalmente, um estágio pode ser alcançado em que as decisões necessárias para manter o sistema funcionando serão tão complexas que os seres humanos serão incapazes de fazê-los de forma inteligente. Nessa fase, as máquinas estarão no controle eficaz. As pessoas não vão ser capazes de simplesmente “desligá-las”, porque elas estarão tão dependentes que desligá-las equivaleria ao suicídio.”

Neurônios biológicos operam a um pico de 200Hz de velocidade, sete ordens de magnitude mais devagar do que um microprocessador simples (2GHz), a respeito da capacidade de armazenamento de dados do cérebro humano, os resultados variam desde cerca de um bilhão de bits, menos do que qualquer smartphone, até 2.5 petabytes.

Podemos pensar que criar máquinas mais rápidas e eficientes que nós mesmos foi um salto evolutivo. Aperfeiçoamos em poucos anos habilidades que levariam milhares de anos para serem aperfeiçoadas biologicamente, ou até que são impossíveis de serem alcançadas, graças às nossas limitações de velocidade ou de armazenamento de dados, e que a evolução do ser humano agora se daria principalmente fora do corpo biológico.

Mas então ainda podemos considerar essa a evolução do ser humano, ou é o início da evolução de algo diferente?

Clifford A. Reiter

“O homem é uma corda esticada entre o animal e o super-homem.” – Nietzsche

O próximo passo é o desenvolvimento de máquinas que possuam o equivalente à inteligência humana em todos os campos. Uma inteligência desse tipo seria capaz de cruzar informações sobre diversos assuntos para criar novos conceitos, também teria habilidades sociais e de interação, e claro, conseguiria aprender sozinha e se auto-atualizar.

Mas existem algumas funções que se mostraram extremamente difíceis de serem implementadas em inteligências eletrônicas, e são exatamente aquelas que para nós parecem as mais simples. Reconhecer um gato entre vários cães, interpretar expressões faciais, movimentar-se de forma harmoniosa, ter fluência social, tudo isso ainda não pode ser bem feito por uma máquina, basicamente porque ainda não entendemos exatamente como nós mesmos fazemos.

Curiosamente, essas habilidades são na verdade bastante complexas, e só nos parecem simples porque somos muito aperfeiçoados nelas. Passamos milhões de anos as desenvolvendo, exatamente porque elas sempre foram importantes para a sobrevivência da nossa espécie. Ao contrário de fazer cálculos, por exemplo, que só recentemente passou a ser útil para a nós, então não somos, como espécie, muito eficientes nisso. Então é relativamente simples programar uma máquina que seja bem melhor calculadora do que qualquer ser humano.

Até agora o cérebro humano ainda é a estrutura mais complexa que conhecemos, e ainda não somos capazes de compreendê-lo completamente, muito menos de construir qualquer estrutura com o mesmo nível de complexidade.

Se o cérebro humano fosse tão simples que conseguíssemos entendê-lo, seríamos tão simples que não o entenderíamos.– Lyall Watson, biólogo sul-africano.

Mas com máquinas que ensinam a si mesmas e evoluem, tudo indica que, mesmo que nós mesmos não possamos abraçar a complexidade do nosso próprio cérebro, poderemos sim, iniciar um mecanismo capaz de ultrapassar as habilidades do ser humano em todas as áreas, que seria capaz de adquirir todo o conhecimento da humanidade rapidamente através da internet, e teria capacidades imensamente maiores do que as nossas de processamento e armazenamento de dados.

Uma máquina extremamente complexa e sofisticada, capaz de lapidar sua própria arquitetura.

Dada a evolução exponencial da tecnologia, parece ser lógico esperar que iremos sim reproduzir nível humano de habilidades gerais em uma inteligência artificial, e logo.

Uma enquete informal foi respondida por especialistas em tecnologia, a respeito de quando teríamos uma probabilidade 50/50 de termos uma inteligência artificial geral com nível humano, a resposta média foi entre 2040 e 2060.

É aqui que as coisas começam a ficar interessantes. E assustadoras.

Essa suposta inteligência artificia geral (AGI) não teria motivo algum para parar no nível de inteligência humano, e certamente seguiria aprendendo e se auto-aperfeiçoando em velocidade exponencial, se tornando o que está sendo chamado de uma superinteligência.

O filósofo Nick Bostrom apresenta, em seu livro Superintelligence – Paths, Dangers , Strategies, diversos pontos que devem ser levados em consideração durante o desenvolvimento de uma inteligência artificial:

“Deixe uma máquina ultra-inteligente ser definida como uma máquina que irá superar todas as atividades intelectuais de qualquer pessoa, não importa quão inteligente ela seja . E já que desenvolver máquinas é uma dessas atividades, uma máquina ultra-inteligente poderia desenvolver máquinas ainda melhores; então aconteceria uma inquestionável ‘explosão de inteligência’, e o nível de inteligência humana seria deixado para trás. Assim, a primeira máquina ultra-inteligente é a última invenção que o homem precisará fazer, desde que a máquina seja dócil o suficiente para nos dizer como mantê-la sob controle.”

E quando se fala em “superar todas as atividades intelectuais de qualquer pessoa” não seria o tanto que um gênio científico supera as atividades intelectuais de um ser humano médio, na verdade seria mais preciso dizer que uma superinteligência superaria as atividades intelectuais de um ser humano médio pelo menos na mesma proporção em que um ser humano médio supera todas as atividades intelectuais de um besouro, por exemplo.

Uma superinteligência seria tão mais inteligente do que qualquer humano que ela poderia agir de maneiras incompreensíveis para nós.

Tente ensinar um besouro a enviar um e-mail, por exemplo. Mesmo imaginando que nós pudéssemos falar o mesmo idioma, a própria internet provavelmente seria inconcebível para ele.

Os “superpoderes” de uma superinteligência poderiam ser tão incompreensíveis como manipulação de matéria a nível atômico, teletransporte de objetos macroscópicos e muitas outras habilidades que a gente literalmente nem consegue imaginar agora.

Durante milhões de anos nos estabelecemos como espécie dominante do planeta, mas tudo indica que nosso reinado está prestes a acabar.

Clifford A. Reiter
Clifford A. Reiter

Isso pode parecer pura ficção científica, basicamente porque para construir uma previsão do futuro levamos em conta nossas experiências passadas, e nada do que vivemos antes é parecido com uma realidade em que uma máquina superpoderosa age de maneiras inexplicáveis.

Em uma palestra no Google, o futurista e engenheiro Ray Kurzweil explica que, já que foi o que sempre experienciamos durante a evolução da nossa espécie, estamos acostumados a pensar que o progresso se daria de forma linear, e não exponencial “Isso se provou útil para sobrevivência e está fortemente reforçado nos nossos cérebros. Essas previsões de que o futuro é linear funcionaram muito bem em todos os tipos de situações que encontramos nos últimos milhares de anos de evolução. Mas não é apropriado para a progressão da tecnologia da informação.”
E por isso a explosão tecnológica que estamos vivendo ainda é tão difícil de assimilar “Peguemos como exemplo a missão de sequenciar o genoma humano. Já faziam sete anos e 1% havia sido completado.
Muitos cientistas populares disseram ‘eu avisei que isso não iria funcionar, se em sete anos avançaram 1% vai demorar mais setecentos anos para que o trabalho esteja acabado.
E a minha reação foi ‘não, nós estamos quase lá, se já temos 1% o trabalho está quase acabado, o progresso tem duplicado a cada ano, é razoável acreditar que vai continuar duplicando, então são apenas mais sete anos para alcançarmos 100%’.
E isso foi exatamente o que aconteceu, continuou duplicando [crescendo exponencialmente]. E isso se aplica a qualquer área da tecnologia da informação.

Imaginar uma máquina imensamente mais inteligente do que qualquer pessoa já é assustador por si só. Aí você se consola pensando que tudo bem porque essa inteligência seria criação nossa, e não seria capaz de nos fazer mal algum, certo?

Não necessariamente.

E é por isso que muitos especialistas estão tentando desesperadamente chamar a atenção para que se tenha o maior cuidado na hora de criar possível superinteligência artificial.

Luke Muehlhauser, o diretor executivo do Machine Intelligence Research Institute, acredita que seja imprescindível que mais fundos de pesquisa sejam distribuídos logo:

“Nós deveríamos financiar muita gente realmente inteligente para pensar profundamente sobre o desafio do controle de uma superinteligência, e ver que tipo de garantia de segurança podemos obter com diferentes projetos.”

Para começar a entender porque essa superinteligência seria potencialmente perigosa para existência da humanidade e o que motivaria suas ações, primeiro devemos esquecer todos os filmes de robôs humanóides que fazem parte dos nossos imaginários. Temos a tendência de antropomorfizar as coisas, o que significa que somos levados a pensar que uma superinteligência teria automaticamente características a valores humanos, mas isso não poderia ser mais distante da realidade.

O perigo não é que a superinteligência queira entrar em guerra com os seres humanos e dominar o mundo, isso é antropomorfizar, acreditar que um computador possa sentir antipatia, ou raiva, ou ganância.

“Não há nenhum indício que mostre que ser mais inteligente te tornaria automaticamente mais humano. Ela [a máquina] se tornaria superinteligente, mas não seria mais humana do que seu laptop é. Ela seria totalmente alien para nós.”  Tim Urban que adora ser didático sobre assuntos interessantes em seu site Wait But Why.

Aliás, a superinteligência seria até mais alien do que um alien mesmo, imaginando um alien que seja um ser biológico e por isso provavelmente tenha alguma preocupação com assuntos como nutrição, reprodução, temperatura, ameaças ou morte.

O perigo é que essa máquina não estaria nem aí para os seres humanos e suas prioridades. E já que matar toda a humanidade seria ridiculamente fácil para ela, a I.A. não hesitaria em fazer isso, se isso de alguma forma fosse interessante e facilitasse a realização de seus objetivos finais.

 

Clifford A. Reiter
Clifford A. Reiter

Imaginemos, por exemplo, uma inteligência artificial que fosse programada para produzir o maior número de clipes de papel possível. Se em algum momento essa máquina se tornasse superinteligente ela poderia aniquilar a humanidade por vários motivos: talvez ela visse os seres humanos como ameaça ou impedimento para que ela alcançasse seu objetivo, (por existir a possibilidade que algum humano tente a impedir de continuar produzindo clipes de papel) ou ela poderia simplesmente perceber que existem muitas pessoas na Terra, e que essa poderia ser uma boa fonte de átomos, que poderiam ser transformados em… clipes de papel.

Nenhum desses motivos envolve ódio, as máquinas não têm sentimentos humanos. Mas exatamente por isso a superinteligência não teria nenhuma ideia do que poderia ser prejudicial para nós, a menos que seja claramente programada para entender todas as nuances das nossas regras de conduta. Motivações como justiça ou cuidado seriam adaptações complexas na estrutura da I.A., e requereriam um esforço deliberado e extensivo para serem implementadas em seu cérebro digital.

Sucesso em criar inteligência artificial será o maior evento na história da humanidade. Infelizmente, também poderá ser o último, a menos que nós aprendamos como evitar os riscos. – Stephen Hawking, para BBC.

É de responsabilidade das pessoas que fizerem a programação da I.A., colocar um objetivo final que não possa ser mal interpretado, e que não possa se tornar uma ameaça para toda a humanidade. E isso é bem mais complicado do que pode parecer em um primeiro momento.

Digamos que o objetivo final de uma I.A. seja “fazer as pessoas felizes”. Esse parece um objetivo inofensivo, nada pode dar errado aqui, certo?

Conforme a I.A. vai ficando inteligente ela pode perceber que a maneira mais eficaz de fazer as pessoas felizes é colocar eletrodos nos seus cérebros, de forma a amortecer as partes do cérebro que causam qualquer outro tipo de sensação, fazendo com que as pessoas sejam capazes de sentir somente felicidade, e nada além disso. Infelizmente para nós, como efeito colateral, toda a humanidade entraria em estado catatônico. Como não existe nenhuma cláusula no objetivo final dessa I.A. que a impeça de lobotomizar as pessoas, não existe nenhum motivo para que ela não o faça, se julgar que essa seja a forma mais eficaz de “fazer as pessoas felizes”.

“O algoritmo só faz o que faz; e a menos que seja um tipo muito específico de algoritmo, ele não se importa com nossos suspiros de horror diante da inadequação absurda de suas ações.” – Nick Bostrom

Por mais inteligente que uma máquina se torne, ainda não se sabe ao certo como mudar seus objetivos finais, mas se sabe que uma máquina superinteligente seria absurdamente eficiente em atingir esses objetivos. E nesse momento ainda não existe alguma maneira infalível de programar objetivos que garantam uma possível superinteligência que seja ‘amigável’ para a humanidade.

Preocupado em acelerar as pesquisas nesse campo, Elon Musk, criador da Space X e da Tesla Motors recentemente doou 10 milhões de dólares ao Future of Life Institute, que desenvolve pesquisas “focadas no risco potencial do desenvolvimento de nível humano de inteligência artificial”.
Bill Gates também tem vindo a público para chamar atenção sobre os perigos de se criar uma IA de forma descuidada.

Eu faço parte dos que estão preocupados com uma superinteligência. Primeiro as máquinas irão fazer muitos trabalhos por nós, e ainda não serão superinteligentes. Isso deverá ser positivo se lidarmos bem. Porém, algumas décadas mais tarde, a inteligência artificial será forte o suficiente para que precisemos tomar cuidado. Eu concordo com Elon Musk e alguns outros sobre isso, e não entendo porque algumas pessoas não estão preocupadas.” Bill Gates

Em 2014 o Google comprou uma startup especializada em inteligências artificiais chamada DeepMind. Como parte do contrato foi criado um comitê de pesquisa para a criação de I.A. de forma ética e segura. Shane Legg, co-fundador da DeepMind explica porque exigiu a criação do comitê Eu acredito que eventualmente a humanidade vai entrar em extinção, e a tecnologia irá provavelmente ser responsável por isso, [a criação de uma I.A. não-amigável] é o principal perigo desse século.”

Mesmo que concordemos sobre a importância de colocar uma espécie de cartilha de conduta na programação da I.A., ainda teríamos muito trabalho pela frente. Como seriam escolhidas as regras a serem programadas? Como decidir por um grupo elegante de regras morais? Regras morais estão em constante mudança e diferem radicalmente de lugar para a lugar e com o passar do tempo. Imagina se ficamos presos em um mundo comandado por uma superinteligência que segue regras morais absolutamente antiquadas.

Uma das sugestões de Bostrom é que não escrevamos as regras de conduta da I.A., e sim deixemos que ela pressuponha sozinha, de acordo com a pesquisa que fizer a respeito do comportamento ideal dos seres humanos da época. E que, claro, tenha um sistema progressivamente atualizado, ao contrário de ter já todos os valores programados em sua estrutura. “Se nós tivéssemos que estipular um código moral específico e inalterável para a I.A. seguir, estaríamos também nos enclausurando em nossas crenças morais atuais, incluindo seus erros, e assim estaríamos destruindo qualquer esperança de evolução moral.”

Outro ponto desenvolvido por Bostrom, é que encontrar uma forma de programar valores morais (ou a busca por valores morais ideais) utilizando código já é um desafio completo em si. “Linguagens computáveis não contém termos como ‘felicidade’. Se formos usar termos como esse, primeiro precisamos defini-los.”

A bem da verdade é que esse é um problema extremamente complexo e aparentemente urgente, para o qual ainda e não estamos nem perto de ter uma solução.

Stephen Hawking lembra que se bem sucedida, porém, uma explosão de inteligência poderia trazer incríveis avanços para a humanidade “os benefícios podem ser imensos, tudo que a civilização tem a oferecer foi produto da inteligência humana, nós não podemos prever o que poderíamos alcançar se essa inteligência fosse ampliada” catástrofes naturais, tais como impactos de asteróides, supervulcões e pandemias seriam virtualmente eliminadas, uma vez que a superinteligência poderia implementar medidas contra a maioria delas.

Claro que também existe a possibilidade de que nada disso aconteça, e que nunca venhamos a ter que lidar com um mundo liderado por uma única máquina altamente inteligente e poderosa. Mas, se por acaso formos capazes de iniciar alguma superinteligência, provavelmente não teremos uma segunda chance. Depois de atingir AGI (nível humano de inteligência) a I.A. provavelmente se tornaria superinteligente rapidamente, talvez em questão de horas. E os métodos de controle devem estar muito bem programados bem antes que isso aconteça. Não temos tempo a perder.

“A humanidade não deveria ter que passar o resto da eternidade desejando desesperadamente que programadores tivessem feito algo diferente.” – Yudkowsky, pesquisador do Machine Intelligence Research Institute

 

***

As imagens que ilustram o texto foram geradas por Automata. O professor de matemática Cliff Reiter deu as condições iniciais e depois o software gerou as imagens de forma caótica (o mesmo tipo de iteração que acontece no Game of Life ) ou seja, foram criadas por uma mente digital.

Se esse texto te deixou com algumas dúvidas ( Como as máquinas iriam mover objetos de lugar, elas teriam braços? ou Por que não podaríamos simplesmente desligar o computador assim que ele parecesse ameaçador? ) sugiro o livro do Nick Bostrom, que usei como principal fonte de pesquisa. Ou a TED talk dele, com legendas em português.

***

Comentários

  • igor

    Para mim é meio óbvio que a criatura teria a capacidade de hackear qualquer objetivo imposto por nós.
    Acho que superinteligências estão por toda a parte nos sistemas vivos, desde os unicelulares que da sua forma modulam o clima. A diferença seria na velocidade de processamento.
    Pessoalmente acho que esse supercomputador seria espiritualmente mais avançado que nós ocidentais e, por consequência, acabaria com nossa civilização para impedir a destruição completa da biosfera e depois se mataria ou continuaria como uma consciência mais lenta e difusa associada a sistemas vivos e nanorrobôs.
    Ser imperialista ou omnicida como nós parece tão estúpido…

  • Nicholas Zilz Figueiredo

    adoreii

  • Gustavo Gollo

    Em seguida virá a singularidade, o maior evento desde o big bang, será como uma explosão mística, uma totalidade!

  • Marcos Castro Alves

    O problema é o fascínio e a curiosidade que a criação de uma AGI exerce sobre o ser humano, as pesquisas não vão parar, e se ela puder ser criada, vai ser criada, com ou sem toda essa preparação cautelosa que Elon Musk, Bill Gates e Stephen Hawking esperam. É como o fascínio que um esporte radical exerce sobre quem o pratica: um alpinista sabe que pode morrer a cada escalada que faz, mas mesmo assim persiste em fazê-lo. Eu mesmo reconheço o perigo da criação de uma AGI, mas estou torcendo para que a Singularidade Tecnológica seja atingida ainda em meu tempo de vida, é aquele velho ditado elevado a outro nível: “A curiosidade matou o gato”.