A relação humana — na média, é bom explicar — com a tecnologia tende a ser bipolar. Por um lado, estamos sempre abertos às melhorias e facilidades que a tecnologia nos traz, e mesmo dispostos a nos entreter com as possibilidades quase que de ficção científica que algum desenvolvimento tecnológico oferece para um futuro talvez não muito distante. Por outro lado, quando alguém tenta, ainda que timidamente, explicar a maravilha tecnológica, expondo-nos a conceitos de física, química, matemática, ou computação, perdemos o interesse e rapidamente mudamos de assunto.
Há, contudo, uma terceira via, mais rara: existem aqueles que não são nem pesquisadores interessados na ciência por trás da nova tecnologia — e, é bom frisar, a quem devemos todo o progresso de que podemos desfrutar — nem usuários frugais dessa mesma tecnologia, ávidos por novidades e com o tempo de atenção comparável ao de peixinhos dourados, movendo-se sofregamente de novidade em novidade, de meme em meme. Falo aqui daqueles que possuem uma dose adequada de curiosidade para se interessar a olhar mais de perto para a novidade tecnológica, um certo grau de treinamento técnico, que permita brincar mais a fundo com a tal novidade, e uma quantidade saudável de criatividade, permitindo que enxerguem novas formas de aplicar a novidade, geralmente com resultados surpreendentes e importantes.
A tecnologia a que me refiro é a Inteligência Artificial, especificamente as redes neurais desenvolvidas com a técnica Long Short Term Memory (LSTM). Suas aplicações recentes incidem em campos do conhecimento tão distintos e interessantes, como a criação de música erudita (tendo em mente o estilo de ninguém menos que Bach e Mozart), ou a investigação de veracidade do fenômeno dito mediúnico de produção de textos (tendo como alvo a obra de ninguém menos do que o médium mineiro Chico Xavier).
Para implementar sua rede neural, faça assim:
- Baixe e compile o código da rede neural LSTM de Andrej Karpathy (mais sobre ele daqui a pouco);
- Escolha um assunto qualquer que tenha bastante exemplos para treinar sua rede neural, digamos postagens do seu blogueiro preferido. Aqui temos um requisito importante: para que bons resultados sejam produzidos, é necessário que haja uma grande quantidade de material de exemplo. As redes LSTM funcionam bem com conjuntos de dados de, pelo menos, 1 milhão de caracteres.
- Alimente o material de entrada na rede neural, e deixe que ela própria se “treine” com base nesse material por algumas horas.
- Peça em seguida à sua rede treinada que produza material semelhante ao que ela absorveu.
- Maravilhe-se com o resultado.
Exemplos dos resultados obtidos com essa técnica não param de pipocar por aí desde 2015, quando Andrej Karpathy publicou seu artigo e disponibilizou o código de sua rede neural LSTM. Karpathy é PhD pela prestigiosa Universidade de Stanford, e hoje é diretor de projetos de inteligência artificial na Tesla, trabalhando no carro autoguiado de Elon Musk.
Antes de apresentar alguns exemplos, é importante observar que os resultados devem ser analisados mantendo-se dois pontos importantes em mente:
- As redes neurais LSTM não enxergam informações, semântica, língua, lógica ou nada que possa ser interpretado de um texto (ou de uma cadeia qualquer de caracteres), mas sim produzem resultados caractere a caractere. Nesse sentido, para criar a palavra “sentimento”, a rede neural usa suas regras para criar letra por letra, e a palavra “sentimento” surge, letra a letra, da aplicação dessas regras. Em outras palavras: a rede neural não sabe o que é “sentimento”, nem que essa sequência de letras forma uma palavra, nem em que contexto essa palavra faz sentido.
- As redes neurais melhoram seus resultados com o tempo, isto é, quanto mais tempo passam “treinando”, melhores são os resultados obtidos. A maioria dos resultados apresentados até agora foram obtidos com treinamentos que vão de alguns poucos minutos a algumas poucas horas. Ou seja: em apenas algumas horas já é possível obter resultados coerentes.
O seguinte trecho foi produzido com base na análise do livro “Guerra e Paz”, de Liev Tolstói A rede neural, após passar alguns minutos analisando a escrita de Tolstói (em uma tradução para o idioma inglês), produziu o seguinte trecho
tyntd-iafhatawiaoihrdemot lytdws e ,tfti, astai f ogoh eoase rrranbyne ‘nhthnee e plia tklrgd t o idoe ns,smtt h ne etie h,hregtrs nigtike,aoaenns lng
Nessa primeira tentativa, o que se tem não se parece nada com o idioma inglês, e muito menos com a escrita rebuscada de Tolstói. Parece que a rede neural já percebeu que os caracteres devem ser agrupados e separados por espaços em branco, mas quase nada além disso. Contudo, não nos desesperemos. Depois de mais alguns minutos de treinamento, o resultado já muda de figura:
we counter. He stutn co des. His stanted out one ofler that concossions and was to gearang reay Jotrets and with fre colt otf paitt thin wall. Which das stimn
Aqui já vemos pontuação sendo usada corretamente (letra maiúscula depois do ponto final), além de várias palavras que fazem parte da língua inglesa. Nada que faça sentido, ainda, mas já é um progresso. Ao final de algumas horas, o resultado já parece bem promissor:
“Why do what that day,” replied Natasha, and wishing to himself the fact the princess, Princess Mary was easier, fed in had oftened him.
Pierre aking his soul came to the packs and drove up his father-in-law women.
Aqui a rede neural já consegue criar frases inteiras com sentido gramatical, uso correto de aspas (segundo as regras do idioma inglês), e poucas palavras que não fazem sentido. Dá para confundir com Tolstói? Não, claro que não. Mas já não dá para dizer que é um texto totalmente sem sentido, isso com apenas poucas horas de treinamento.
Recentemente o mesmo mecanismo foi usado pelo estudante universitário Cary Young, que alimentou horas e horas de músicas de Bach e Mozart na mesma rede neural, obtendo resultados interessantes. Bem, um pouco menos que interessantes após alguns minutos de treinamento. Ouça os primeiros 5 segundos do vídeo, para entender:
Depois de um dia de treinamento, este é o resultado produzido, com obras de Bach e Mozart (pode clicar, é outra parte do mesmo vídeo):
É Bach? Não. É Mozart? Claro que não. Mas só os muito cínicos vão dizer que não passa por música barroca.
Ainda mais recentemente este mecanismo foi usado aqui no Brasil, e com um objetivo no mínimo inusitado. A empresa Stilingue (pronuncia-se como “bilíngue”, e não como “estilingue”) usou a rede neural de Andrej Karpathy para testar nada menos que a psicografia de Chio Xavier. O médium mineiro escreveu 412 livros, mas afirmava que absolutamente nenhum deles era de sua autoria: eram livros psicografados, isto é, escritos por suas mãos, mas vindos das mentes de espíritos desencarnados.
A Stilingue testou três dos autores psicografados por Chico Xavier: os espíritos André Luiz, Emmanuel e Humberto de Campos. Após horas e horas de treinamento com textos dos três autores, a rede neural conseguiu produzir textos de Emmanuel com 5% de taxa de erro; textos de Emmanuel com 22% de taxa de erro; e textos de Humberto de Campos (para quem a amostra era menor), com 32% de taxa de erro.
O teste mais interessante realizado foi a tentativa de produzir textos de um autor espiritual com o modelo gerado para outro autor. Ao usar o modelo de Emmanuel para produzir textos de André Luiz, por exemplo, a taxa de erro foi às alturas, o que também ocorreu com as outras “misturas” possíveis. Dá para concluir que a psicografia de Chico Xavier é um fenômeno genuíno, por esse método? Não, claro que não. Mas dá para concluir que os estilos de escrita dos três autores espirituais são fundamentalmente diferentes, o que já é um resultado mais que interessante. O próprio pessoal da Stilingue conclui, usando a frase famosa de Monteiro Lobato:
“Se Chico Xavier produziu tudo aquilo por conta própria, então ele merece ocupar quantas cadeiras quiser na Academia Brasileira de Letras.”
Noves fora, a inteligência artificial continua avançando, e aquela antiga reclamação de que o computador pode ser até muito rápido em fazer cálculos, mas não é capaz de criar nada, já é patentemente falsa. Não cabe (ainda) juízo de valores se aquilo que um computador cria é de boa qualidade ou não, mas é notório que a primeira barreira — e, muitos dirão, a mais difícil — ele já venceu.
Pronto, agora você já pode fazer sua piadinha sobre a Skynet.
Comments: no replies