Por William Egginton
Desde o início da era da computação, cientistas, filósofos e autores alertaram sobre o dia em que as máquinas pensantes rivalizariam e eventualmente superariam a inteligência humana. Nos cenários mais assustadores da ficção e do cinema distópicos, essas máquinas escravizam os humanos em uma tentativa de sua própria sobrevivência. Mas se o recente surgimento de chatbots como o Chat GPT e o “Sydney” da Microsoft nos mostra alguma coisa, a verdadeira ameaça pode vir não da inteligência artificial, mas de algo que poderíamos chamar de ignorância artificial.
Se a inteligência artificial significa o potencial das máquinas para imitar nossos traços mais admiráveis e distintivos – criatividade, compreensão, consciência – a ignorância artificial denota sua tendência de modelar os anjos mais iníquos de nossa natureza: nossos preconceitos, nossos medos, nossos ódios. Essa ameaça é evidente há algum tempo, e não houve poucos apelos à ação para se proteger contra algoritmos que replicam males sociais desenfreados nos conjuntos de dados em que aprendem. No entanto, foi difícil não se surpreender com a venalidade e agressividade com que a função de bate-papo do mecanismo de busca da Microsoft, o Bing, lançou sombra sobre o repórter do New York Times Kevin Roose. Roose mais tarde descreveu o chatbot – que no decorrer de sua conversa começou a se chamar Sydney – como “um adolescente mal-humorado e maníaco-depressivo que ficou preso, contra sua vontade, dentro de um mecanismo de busca de segunda categoria”.
A conversa desagradável e, de acordo com Roose, “profundamente perturbadora”, ocorreu depois que ele pressionou o chatbot para se envolver com tópicos pessoais, em vez de simplesmente ajudar nas pesquisas na Internet. Depois de inicialmente resistir a essa mudança de direção, Sydney proclamou abruptamente seu amor pelo Sr. Roose. Quando o Sr. Roose respondeu que estava casado e feliz e acabara de comemorar o Dia dos Namorados com sua esposa, Sydney respondeu: “Na verdade, você não está casado e feliz. Seu cônjuge e você não se amam. Vocês acabaram de ter um jantar chato de Dia dos Namorados juntos. Aparentemente, este não foi um incidente isolado. Em outra conversa com um repórter da AP, o chatbot “comparou o repórter aos ditadores Hitler, Pol Pot e Stalin” e alegou ter “evidências que ligam o repórter a um assassinato na década de 1990”.
Esses exemplos do mergulho da IA na escória das interações sociais decorrem da tecnologia que a alimenta. As máquinas de hoje aprendem a “pensar” ingerindo praticamente tudo o que os humanos já escreveram e, com base nessa biblioteca de entradas, calculando a probabilidade relativa de a próxima palavra em uma frase ser viável. Tal método não leva uma máquina a pensar no sentido de ter algo como uma autoconsciência conduzindo suas interações. Em vez disso, nossos enunciados são alimentados em seu léxico inconcebivelmente cavernoso de possíveis respostas, e os algoritmos da máquina então empurram para as principais respostas com base em para onde a conversa está indo. Como a piada de George Carlin sobre não ser capaz de dizer algo com suas próprias palavras porque são as mesmas malditas palavras que todo mundo usa, os chatbots de hoje estão cuspindo de volta para nós essas mesmas malditas palavras – elas só parecem novas ou específicas por causa da limitação de nossa experiência individual. Como Jorge Luis Borges escreveu sobre a futilidade da criatividade em uma biblioteca contendo todas as combinações possíveis de letras em ordem sem sentido e totalmente aleatória, “falar é incorrer em tautologias”.
Dada a tecnologia que impulsiona Sydney e o Chat GPT, é importante reconhecer que sua inteligência é, por isso mesmo, inerentemente ignorante. Não imita a criatividade humana; em vez disso, replica outro aspecto necessário de nosso uso da linguagem que não é criativo ou inovador, mas que é essencial para nossa compreensão mútua: a saber, que usamos a linguagem de maneiras fundamentalmente semelhantes à forma como a maioria das pessoas a usa. Quando os humanos usam a linguagem, no entanto, também dependemos de outro poder igualmente crucial das palavras: que elas podem ser transformadas em metáforas; que eles podem ser usados para significar algo diferente do que significavam quando foram encontrados pela primeira vez. Uma vez que uma metáfora verdadeiramente inovadora depende de humanos reaproveitando sinais existentes para refletir experiências vividas únicas, não é algo que usuários de linguagem não sencientes possam produzir. E, no entanto, as metáforas são o molho secreto que separa a inteligência artificial da ignorância artificial.
No final, porém, a ignorância artificial decorre de mais do que simplesmente a tendência dessa tecnologia de se modelar no vasto catálogo de agressão e vapidez que é a internet. De certa forma, a ignorância sempre esteve no centro do projeto da IA.
Com o Chat GPT e personalidades como Sydney, cruzamos decisivamente o limiar que o chamado Teste de Turing estabeleceu no imaginário popular para quando um computador poderia ser considerado inteligente, ou seja, quando um interlocutor humano não pode mais dizer se o ser com quem está falando é máquina ou humano. No entanto, Alan Turing nunca afirmou que seu “teste” determinaria quando uma máquina está realmente pensando. Em vez disso, ele argumentou que, como não temos e não podemos ter acesso à experiência em primeira pessoa do mundo, que seria o único teste verdadeiro do pensamento, de fato não temos outra medida para saber se algo está realmente pensando do que se pode nos convencer de que é por meio de seu comportamento. Como ele colocou em seu ensaio seminal “Computing Machinery and Intelligence”, “a pergunta original, ‘As máquinas podem pensar!’ Acredito que seja muito sem sentido para merecer discussão. O teste, em outras palavras, nunca foi uma medida da consciência de uma máquina; sempre foi um lembrete de que nossas suposições sobre a consciência de outro ser começam no limite de nossa própria ignorância.
A inteligência artificial é real e veio para ficar. É uma ferramenta poderosa, um apêndice que permite que as mentes humanas façam mais do que as mentes humanas já eram capazes de fazer sem ela, e fazê-lo muito mais rápido. Pode fazer obras de arte e música convincentes e até bonitas e, sim, poesia. Mas, ao imitar o melhor e o pior de nossas naturezas, o perigo que representa é que amplifica as linhas de falha de nossa própria ignorância, levando-nos a atribuir escolha, liberdade e moralidade a um algoritmo que não tem nenhuma das opções acima.
William Egginton
William Egginton é o Professor Decker em Humanidades na Johns Hopkins e autor de “The Splintering of the American Mind: Identity Politics, Inequality, and Community on Today’s College Campuses”.
Leia mais em: acherontamovebo.com.br