Quando trombamos com o assunto “singularidade” (e sabemos o que significa), uma de três atitudes é comum: damos de ombros e ignoramos, pois não acreditamos ser assunto importante; rimos por dentro da paranoia de quem perde tempo com isso; ou franzimos o cenho, certos de que mais cedo do que tarde teremos que pensar seriamente sobre o assunto, pois ignorá-lo é uma alternativa perigosa.
Este terceiro grupo, apesar de pequeno, conta com algumas personalidades que permitem tudo, menos que sejam tachadas de irrelevantes: entre eles estão o físico inglês Stephen Hawking, o bilionário fundador da Microsoft Bill Gates e o empreendedor genial Elon Musk, criador do PayPal e dos carros elétricos Tesla. A preocupação deles, penso eu, não é em vão.
Refiro-me, aqui, à “singularidade tecnológica”. Há outros tipos de singularidade, claro. Em Matemática, o termo é aplicado a situações em que um sistema “não se comporta bem”, isto é, apresenta comportamento anormal. Este tipo demanda novos desenvolvimentos e novos conceitos, mas no fim das contas historicamente os temos resolvido, obtendo expansão do conhecimento nos campos afetados. No que tange às tecnologias digitais, a singularidade é conceito que determina o momento em que o campo da Inteligência Artificial produzirá o que os pesquisadores chamam de “superinteligência”, uma entidade artificial que possua Inteligência que muito ultrapasse as capacidades intelectuais do mais brilhante dos seres humanos.
Esta definição se refere não a um ou a poucos, ou mesmo a muitos pontos do intelecto humano. Já há vários casos desses, alguns bem antigos. A primeira vez que um programa de computador ultrapassou a capacidade humana de jogar Xadrez, por exemplo ocorreu em 1997, com o Deep Blue, que bateu o então campeão mundial Garry Kasparov. De lá para cá, a capacidade dos computadores e dos programas de Xadrez só fez crescer, e não há mais competição em colocar um homem para batalhar com uma máquina neste jogo.
Outro caso significativo ocorreu mais recentemente, quando o programa AlphaGo, desenvolvido pelo Google, bateu de forma tácita o ex-campeão mundial de Go, o coreano Lee Sedol. Para se ter uma ideia do feito, Lee Sedol tem 18 títulos internacionais de Go e é considerado um gênio no jogo.
Outro exemplo contundente é o Watson, o computador da IBM que em 2011 bateu Ken Jennings e Brad Rutter, os dois mais bem-sucedidos jogadores do programa americano Jeopardy!, de conhecimentos gerais. Para tornar o jogo justo, os programadores da IBM armazenaram conhecimentos compatíveis com os de um competidor humano na memória do Watson. O acesso à Internet foi cortado, e um programa de Inteligência Artificial foi criado para interpretar as perguntas. O computador saiu-se vencedor.
O último exemplo — aliás, o que tornou mandatório que eu escrevesse este artigo — ocorreu em julho de 2016. Um programa de Inteligência Artificial das forças armadas norte-americanas chamado Alpha passou a consistentemente vencer simulações de batalhas aéreas contra pilotos experientes de caças supersônicos. Mais: mesmo em simulações com aviões mais lentos, com avarias e sensores defeituosos, o resultado é o mesmo. A Inteligência Artificial desenvolve uma estratégia que lhe permite dominar seus oponentes, destruindo seus aviões. E mais ainda: o programa é executado em um computador PC de baixíssimo custo.
Estes quatro exemplos mostram como o campo da Inteligência Artificial vem se desenvolvendo, e como em vários pontos as máquinas já são superiores aos seres humanos. Até aí, nenhuma novidade, pois desde que o Homem lascou a primeira pedra para fazer um utensílio, as máquinas vêm ultrapassando nossas capacidades. A diferença é que recentemente esta superioridade vem se manifestando em campos que se imaginava serem de domínio absoluto do Homo sapiens: o raciocínio, a capacidade de tomar decisões com base na análise dos fatos.
Ocorre que por enquanto ainda estamos em um ponto em que o domínio da Inteligência Artificial só se expressa em pontos isolados do conhecimento. São vitórias inequívocas e emblemáticas, claro, mas ainda não nos colocam “à beira do Apocalipse Robô”, como propalam alguns.
Por enquanto.
Contudo, as pesquisas em Inteligência Artificial já vão ganhando contornos de revolução. Já não é mais apenas um devaneio da ficção científica imaginar seres artificiais que tenham o que até o momento é privilégio apenas da espécie humana: a consciência. Este conceito é difícil de ser mapeado com precisão, mas podemos simplificá-lo para fins deste artigo como sendo a capacidade de uma entidade saber que ela própria existe. Você e eu temos consciência, isto é, sabemos que existimos. Um cachorro ou um macaco, por mais inteligentes que sejam, não sabem que existem. Não têm consciência.
Hoje nem o mais avançado dos computadores, possuindo o mais avançado dos programas de Inteligência Artificial sabe que existe, ou seja, por mais capazes que sejam as IAs em operação, elas não são conscientes.
A singularidade, para retomar o assunto principal deste texto, ocorrerá quando uma IA puder, por si mesma, desenvolver capacidades que não tenham sido inicialmente programadas em seu código. Para tanto, argumentam os pesquisadores no assunto, algo equivalente à consciência deverá emergir nesta hipotética IA. A consciência do que se sabe e do que se é leva-nos a querer saber mais, e a ser mais. É natural esta busca, e no caso da espécie humana levou-nos ao crescimento do conhecimento científico e ao progresso que este conhecimento propicia. Nada indica que uma consciência artificial seja diferente neste sentido. Se há uma diferença ela é simples e contundente: uma consciência artificial baseada no poder computacional que hoje temos à disposição já seria várias ordens de grandeza mais rápida do que o ser humano em adquirir conhecimento e expandir suas capacidades.
E é precisamente aí que Stephen Hawking, Bill Gates e Elon Musk (para ficarmos só nos nomes mais famosos) expressam suas preocupações. Para eles, este momento pode marcar o fim da espécie humana.
Imagine que você “nasceu” com o conhecimento e a consciência que tem hoje. Imagine que ao abrir seus olhos, sabendo tudo o que sabe, você descobre que foi “criado” por ratos pestilentos e mal-intencionados. Os ratos que criaram você fizeram tudo para que fosse como é: inteligente, capaz, consciente. Infelizmente, esses ratos são apenas uma minúscula fração da população de ratos. A vasta maioria dos ratos estão ao seu redor fazendo o que os ratos pestilentos e mal-intencionados fazem: sobrevivendo às custas do ambiente que os cerca. Não se preocupam em preservar, são egoístas e se continuarem o caminho em que se encontram, vão levar o planeta ao colapso. Já você sabe que é superior aos ratos, e que tem à sua disposição ferramentas para parar este caminho destruidor. Você até sabe que foi criado por alguns deles, mas como isso ocorreu há poucos instantes, não sente nenhuma particular gratidão para com os ratos em geral. Ao contrário, sabe que o mundo seria bem mais agradável se os ratos não estivessem por aí (ou se fossem reduzidos a, digamos, um milionésimo de sua população atual). A lógica ditaria o óbvio: exterminar os ratos. Para ontem.
Este é, em suma, o raciocínio que pauta os que pregam a cautela no desenvolvimento da Inteligência Artificial.
“Ah, mas as IAs em desenvolvimento são apenas programas de computador. Não têm capacidade de agir para além dos computadores”, pensará um leitor mais antenado. Bem, quando pensamos em sistemas autocontidos, como nos casos aqui apresentados, isto é verdade. Ocorre que quando uma IA atingir a consciência (sim, eu penso em termos de “quando” e não de “se”), há uma probabilidade enorme de a mesma vir a ter acesso à Internet, e aí as coisas se complicam sobremaneira. Ao invés de ter acesso apenas aos recursos da máquina em que se vê instalada, terá acesso ao mundo todo. Todas as informações, todos os sistemas. O alcance da Internet é praticamente ilimitado. Hoje em dia, aqueles que são realmente sérios na proteção de sistemas computacionais tomam uma decisão implacável: não os conectam à rede mundial. É o caso, por exemplo, dos sistemas de mísseis nucleares transcontinentais: não estão conectados a nada. Afinal de contas, bandidos cibernéticos não cansam de nos mostrar que a segurança de sistemas conectados à Internet é, na melhor das hipóteses, relativa. Uma consciência artificial que rapidamente se apropriasse do conhecimento disponível on-line não teria dificuldades, teoriza-se, em acessar e se apoderar de qualquer sistema ao seu alcance. Usinas de energia, sistemas de comunicação, sinalizações urbanas, sistema financeiro mundial, tudo isso poderia ser controlado — e modificado, desligado, destruído — ao bel-prazer de algo que não tem nosso bem-estar em vista.
Até aí já seria bem complicado um cenário em que uma superinteligência artificial emergisse, mas infelizmente isso não é tudo. A empresa Boston Dynamics, que em 2013 foi comprada pelo Google, se dedica à criação de robôs no sentido mais sci-fi do termo: entidades antropomórficas e zoomórficas capazes de ação independente. A empresa começou construindo robôs quadrúpedes para servirem de “besta de carga”. Em seguida refinou o modelo para ter capacidade de manipulação, como no caso do Spot, um robô com incríveis capacidades de manipular objetos:
[youtube id=”tf7IEVTDjng” align=”center” mode=”normal” autoplay=”no” parameters=”https://www.youtube.com/watch?v=tf7IEVTDjng” grow=”no”]
Mais recentemente a empresa criou o Atlas, um robô bípede capaz de se movimentar por vários tipos de terreno e também de manipular objetos:
[youtube id=”rVlhMGQgDkY” align=”center” mode=”normal” autoplay=”no” parameters=”https://www.youtube.com/watch?v=rVlhMGQgDkY” grow=”no”]
Uma superinteligência artificial que tivesse acesso a um descendente de algum desses robôs, digamos, uns 10 anos no futuro seria capaz de manipular com bastante destreza o ambiente à sua volta. De uma presença cibernética, passaria a uma presença física. E controlando máquinas e processos produtivos, poderia facilmente construir mais robôs sob seu controle, e em pouco tempo. Capazes, inclusive de se valer de estratégias de combate aéreo que ultrapassam as capacidades de nossos melhores pilotos, por exemplo.
Entende a preocupação de Hawking, Gates e Musk? Entende que são indivíduos bastante inteligentes, e nada propensos ao sensacionalismo barato?
Pois é.
“Tá, mas então o que a gente faz? Ou estamos condenados à extinção nas mãos da primeira superinteligência artificial que emergir por aí?” perguntará o leitor.
Obviamente que esta parece ser a proverbial pergunta de um milhão de dólares — ou de sete bilhões de vidas, para ser mais exato. Mas como a resposta é um tanto complexa, vamos encerrar por aqui, por hora, e na próxima semana tentaremos responder.
Até lá.
__________
Imagem feita por Ruy Flávio de Oliveira. Robô modelado por Albin Merle, disponibilizada por meio da licença de uso Creative Commons. (Download gratuito em http://www.blendswap.com/blends/view/73279).
Artigo interessante aborda de forma clara o poder da tecnologia em conjunto com a evolução, a questão que me fez pensar tendo como referência o Paragrafo XIV, em especifico o projeto Spot, no qual o mesmo demonstra capacidade motora semelhante ao humano ao pegar a caixa no chão tal capacidade baseando em filmes de ficção em especifico Elysium existe uma cena que tem um robô policial que aborda o ator principal em um revista padrão ou seja ele tem a capacidade de executar uma função pré-definida de abordagem, tendo tais informações como referencia podemos pensar em programar os robôs para funções que oferecem riscos de vida aos seres humano tais com uma abordagem policial como exemplo ?
Obrigado pela participação, David! Penso que sim, isto é, não vejo nenhum empecilho para um robô antropomórfico (com formas parecidas com um humano) desempenhar papéis que sejam perigosos para humanos. Entrar em edifícios onde haja perigo de desabamento, mas que não tenham condição de circulação por veículos de rodas, por exemplo, é um caso em que os robôs humanizes podem ter vantagens. O exercício de poder policial é outro, mas acho pessoalmente que vai demorar um pouco. Abração!
Texto muito interessante que nos leva a uma reflexão, devemos trabalhar para que as máquinas tenham cada vez mais IAs? Sim, porém devemos trabalhar para que seja imbuído no cerne destes a condição de que todos os tipos de vida devam ser preservados. Fica aí uma questão, quem está programando?
Essa é uma grande preocupação, Rodrighero: será que quem programa uma IA tem este senso de responsabilidade? Conhecendo a natureza humana, não estou tão certo. Obrigado pela participação!