Por Francesco D’Isa
No discurso alarmante em torno das inteligências artificiais, um aviso tende a chamar mais atenção, talvez devido ao seu sabor apocalíptico: a IA será nossa ruína; vai nos exterminar. Agora, não há exatamente uma perspectiva unânime sobre isso. Em uma extremidade do espectro, você tem Eliezer Yudkowsky, sugerindo seriamente que devemos bombardear preventivamente os data centers para deter o surgimento da inteligência artificial. E, do outro, há Andrew Ng, que ignora as preocupações com a IAG (Inteligência Artificial Geral) e sugere que temer um aumento de robôs assassinos é como se preocupar com a superpopulação em Marte. Entre essas visões polares, encontra-se um vasto continuum de opiniões.
O fato é que prognosticar a trajetória de uma tecnologia muitas vezes deixa a pessoa desencantada, independentemente de sua experiência. Faz pouco sentido depositar fé inabalável nesta ou naquela autoridade. A IA é um evento complexo de cisne negro. Indivíduos que se especializam em qualquer domínio do conhecimento, seja filosófico, de engenharia, sociológico, matemático, inevitavelmente abrigarão pontos cegos em outros domínios. Isso ressalta a extrema necessidade de um debate aberto e interdisciplinar, onde todos trazem seus recursos intelectuais e análises para a mesa.
Agora, falando pessoalmente, gostaria de me colocar no papel do observador sábio e equilibrado e reivindicar minha reivindicação em algum lugar no meio desse espectro. Mas, se eu for brutalmente honesto, acho que minhas simpatias se inclinam mais para Andrew Ng. Acredito firmemente que uma AGI aniquiladora da humanidade é altamente especulativa, inconsciente de suas raízes, politicamente prejudicial e uma distração dos riscos prementes que enfrentamos em outros domínios. No entanto, antes de mergulhar em meu raciocínio, permita-me lançar um pensamento provocativo de volta ao tribunal dos pessimistas: uma inteligência que é estranha, malévola, muito poderosa, descontrolada e prejudicial à vida humana e à de outras espécies já existe. Na verdade, pode haver mais de um.
Espero que sua curiosidade tenha sido despertada, mas antes de entrar no cerne do meu argumento, vamos dar um passo para trás. A tese apocalíptica, em suma, sustenta que essas inteligências se tornarão cada vez mais sofisticadas, cada vez mais poderosas e, em busca de seus fins – que são, em última análise, nossos fins – elas podem desenvolver sub-rotinas que as tornam independentes, incontroláveis e em competição com nossa própria sobrevivência. A questão da sub-rotina é uma ameaça genuína representada por esses sistemas, uma ideia levada ao extremo no experimento mental do ‘maximizador de clipes de papel’ concebido pelo filósofo Nick Bostrom. Este experimento mental prevê uma máquina superinteligente cujo único objetivo é fabricar clipes de papel. Se a inteligência artificial se tornasse suficientemente avançada, ela poderia começar a consumir todos os recursos disponíveis para maximizar a produção de clipes de papel, ignorando alegremente as consequências potencialmente catastróficas para a humanidade e o meio ambiente. Pode, por exemplo, decidir converter todas as moléculas da Terra em clipes de papel, incluindo humanos, ou pode optar por se expandir para o espaço para encontrar ainda mais recursos para converter em clipes de papel.
É um exemplo evocativo, certamente mais persuasivo do que os antropomorfismos sugerindo que a IA inevitavelmente entrará em conflito conosco devido a princípios evolutivos – como se dissesse que, uma vez que os criamos à nossa imagem e semelhança e somos uma espécie controversa, … Apesar disso, a hipótese de Bostrom e outras que decorrem de premissas semelhantes apresentam vários problemas. Estes se resumem essencialmente a uma questão abrangente: especulação sobre variáveis desconhecidas.
Os poderes que acumulamos ao longo de milênios nos tornaram uma espécie arrogante, mas desenvolver tecnologias potentes e perigosas não equivale a inteligência superior, longe disso. Tente fazer mel, voar, diferenciar cada tipo de flor ou sugar sangue: em muitas tarefas, permanecemos inferiores às abelhas e mosquitos. A noção de que o poder está correlacionado com a inteligência é um axioma que oscila em bases instáveis, tornando-se francamente frágil quando tal poder se volta contra seu criador. Apesar dos inúmeros desafios à nossa noção de nosso papel “especial” no universo que enfrentamos ao longo dos séculos, nossa arrogância permanece ilesa. Isso nos dá a audácia de prever um futuro que está, na realidade, além de nossos poderes de previsão. A sociedade materialista se destaca nessa forma de arrogância, tendo renunciado formalmente a uma divindade que, como Jung sustentou, continua sendo uma necessidade psicológica. O deus que a ciência persegue pela porta, portanto, entra furtivamente pela janela – ou pelo telhado; Afinal, é um deus – na forma de fé na ciência, embora a ciência seja fundada na própria antítese da fé, ou seja, o ceticismo.
Desse paradoxo nascem as filosofias hiperbólicas, como o cosmismo dos séculos 19 e 20 e o longo prazo do século 21. Embora politicamente em polos opostos, ambos orbitam em torno da deificação das capacidades humanas por meio da tecnologia. Uma tecnologia transformada em religião pode adorar apenas números e, portanto, essas distopias materialistas-utópicas muitas vezes sonham com universos superlotados, repletos de humanos vivendo em abundância, de acordo com o axioma questionável de que mais é melhor e que a felicidade reside na satisfação das necessidades materiais.
Os filósofos do Vale do Silício de hoje consideram o progresso infinito no coração do capitalismo como garantido, colocando uma humanidade futura, que eles preveem como cada vez mais numerosa e saciada, no topo de suas considerações éticas. Enquanto isso, seus predecessores soviéticos os superaram em sonhar não apenas em colonizar o universo por meio de nossa proliferação excessiva, mas também em ressuscitar todos os mortos. E, sim, eles estavam falando sério.
Mas, realmente, esses filósofos acertam em cheio? Podemos realmente conceber a possibilidade de IAGs malignos? Se examinarmos algumas das variáveis que devem ser validadas para correr o risco de uma AGI apocalíptica, perceberemos que existem inúmeras barreiras a serem rompidas. Devemos, por exemplo, ter certeza de que o desejo de criar IAG ultrapoderosa e sobre-humana é genuíno e não um golpe publicitário (?%); que é tecnicamente viável (?%); que, mesmo que possível, conseguiremos fazê-lo (?%); que isso acontecerá antes que outros eventos (por exemplo, mudanças climáticas) nos impeçam (?%); que não podemos interromper o processo no meio do caminho (?%); que inevitavelmente se tornará incontrolável uma vez criado (?%); que é malévolo (?%); que vê valor em nos exterminar, mesmo que malévolos (?%); e que pode obter controle suficiente sobre objetos físicos para nos exterminar (?%).
Agora compare isso com os “se” que precedem o extermínio devido às mudanças climáticas: se as mudanças climáticas são reais (100%), se causam danos ambientais extensos (100%), se causam fome e agitação social (100%) e se esses danos são suficientes para a extinção (?%). Ironicamente, muitos proponentes da teoria do Exterminador recorrem a essa única variável desconhecida para dar uma prioridade consoladora aos perigos artificiais. Podemos, de fato, só começar a nos preocupar com a IAG depois de abordarmos todos os outros riscos existenciais, reais ou imaginários, que são precedidos por menos variáveis desconhecidas.
Mas o medo raramente é racional. Às vezes é oportunista, como exemplificado por Elon Musk, que, apesar de ser signatário da carta pedindo uma desaceleração no desenvolvimento da IA, logo depois fundou uma nova startup para desenvolver IA. Ou Sam Altman, CEO da OpenAI, que se preocupa com as IAs enquanto sua empresa continua produzindo-as. Outras vezes, o medo é consolador porque nos distrai dos perigos reais, desviando nossa atenção para fantasias apocalípticas nas quais dificilmente acreditamos. Ou é simplesmente usado para publicidade, porque um produto descrito como o mais poderoso já desenvolvido vende melhor, e os artigos que anunciam o fim iminente do mundo recebem mais cliques. Enquanto isso, os perigos mais imediatos são ofuscados, como:
Perda de empregos: Especialmente se mantida nas mãos de poucos, a IA pode causar perdas de empregos em muitos setores, aumentando o desemprego e as tensões sociais. Dê um trator a dez fazendeiros e eles ficarão emocionados; Use-o para disparar cinco deles, e eles ficarão furiosos.
Discriminação: A IA pode levar à discriminação e preconceitos, pois os sistemas de inteligência artificial podem ser treinados em dados que refletem preconceitos sociais.
Impacto ambiental: a energia necessária para criar e alimentar sistemas de IA pode ter um impacto ambiental negativo, e as empresas com software proprietário não estão publicando dados precisos sobre isso.
Automação da guerra: A IA pode ser usada para desenvolver armas inteligentes e sistemas de vigilância, aumentando o risco de conflitos e outras abominações morais.
Erros e mau funcionamento: A adoção apressada de sistemas de IA não testados pode levar a erros por parte dos usuários, causando danos e colocando em risco a segurança das pessoas.
Somos uma espécie perpetuamente enredada pela pareidolia, nossa tendência inata de projetar uma aparência de humanidade no não-humano. Diante das tecnologias criadas para simular a linguagem, um processo que consideramos um de nossos traços mais distintivos, somos inevitavelmente compelidos a nos entregar a projeções injustificadas. No entanto, esse mesmo processo serve como mais um testemunho de nosso profundo fracasso em perceber a verdadeira essência da diversidade.
Nas páginas de Ways of Being, James Bridle justapõe habilmente a IA com a miríade de outras inteligências que habitam nosso planeta, inteligências que só recentemente começaram a receber o reconhecimento que merecem – animais, plantas e sistemas naturais – revelando gradualmente sua intrincada complexidade, agência e reservatórios de conhecimento. Surpreendentemente, fungos, plantas e até ecossistemas inteiros exibem orgulhosamente uma forma de inteligência que muitas vezes supera a nossa, talvez até supere a de maravilhas computacionais avançadas. Como, então, podemos proclamar arrogantemente nossa superioridade a um cogumelo com o poder de recriar rapidamente o mapa de uma das redes de transporte mais robustas e eficientes do mundo, como a extensa tapeçaria do tecido urbano de Tóquio? Com que direito nos assumimos mais inteligentes?
A verdade inegável é que também já estamos cercados por inteligências alienígenas, algumas tão formidáveis e potentes quanto a lendária IAG que assombra nossa consciência coletiva, como aludi no início. Falo, é claro, das corporações multinacionais, essas entidades dominantes, semelhantes a organismos, cujas decisões são dirigidas por um nexo de objetivos que, embora potencialmente alinhados com os interesses de certos acionistas, não estão inerentemente sujeitos ao seu controle. Nem coincidem necessariamente com o maior bem-estar da sociedade como um todo.
Os seres humanos individuais que compõem o tecido celular dessas entidades existem simbioticamente, assim como as células dentro de nossos próprios corpos. Nem mesmo um CEO exerce domínio absoluto sobre essas vastas construções, que, além de sua natureza coletiva, muitas vezes operam sob a influência de interesses e condições que transcendem o reino da volição individual. As corporações multinacionais são vastos organismos de escopo incomparável, devorando incessantemente os recursos planetários em sua busca incansável por um crescimento sem limites, ao mesmo tempo em que fecham os olhos para a devastação ecológica causada por sua fome insaciável de poder. No espaço de algumas décadas, eles colocaram em perigo a existência de todas as formas de vida neste planeta. E, embora certas células possam se esforçar para se rebelar contra essa hegemonia insidiosa, essas inteligências malignas recusam-se a abandonar a sua ferocidade voraz. Eles são, então, mais traiçoeiros do que os temidos AGIs dos quais temos medo?
Uma questão digna de contemplação, de fato.
Publicado originalmente em thephilosophicalsalon.com
Este artigo é uma tradução de um texto que apareceu anteriormente em Siamomine***
Francesco D’Isa
Francesco D’Isa (Florença, Itália, 1980), formou-se filósofo e artista visual. Depois de sua história em quadrinhos “I”. (Nottetempo, 2011), publicou romances como “Anna” (a partir de 2014), “Ultimo piano” (Imprimatur 2015), “La Stanza di Therese” (Tunué, 2017) e ensaios para Hoepli e Newton Compton. Diretor editorial da L’Indiscreto, escreve e desenha para várias revistas e suas obras foram exibidas em galerias de arte na Itália e no exterior: www.gizart.com