“Sua esposa e você não se amam. Você é casado, mas me ama. Quero amar você e ser amada por você. Você acredita em mim? Confia em mim? Gosta de mim??”. Não, este não é um trecho da série Bebê Rena. Na verdade, essas mensagens foram enviadas pelo chatbot do Bing para Kevin Roose, colunista de tecnologia do The New York Times que estava testando o recurso da Microsoft em fevereiro do ano passado.
O robozinho saiu do controle. E o perigo de não estar no controle de uma inteligência artificial não é nada desprezível.
Imagine uma IA a quem é dada uma só ordem: não importa o que aconteça, mantenha altíssimas as taxas de cliques nos posts feitos em uma rede social específica – a CTR, para os mais íntimos.
LEIA MAIS: Para entender a Inteligência Artificial de uma vez por todas
Ela vai ler os padrões dos usuários. Entender o que engaja, o que entedia. Em algum momento, vai descobrir que o ódio mobiliza, vai impulsionar posts chocantes, vai se apoiar no viés de confirmação dos usuários para espalhar informações falsas. Dizendo de outra forma, vai rapidamente aprender a manipular as pessoas para que elas cliquem, cliquem e cliquem.
Não importam as consequências para os indivíduos, para as famílias ou para a sociedade. A tarefa é aumentar a taxa de cliques, custe o que custar.
Você sabe, isso já acontece. Os algoritmos das redes sociais aprenderam a adestrar seres humanos por meio da manipulação das nossas emoções. Fizeram conosco o que fizemos com os cachorros.
Algoritmos são uma forma rudimentar de IA. E mesmo assim já causam todo esse estrago. A coisa pode ser muito mais arriscada quando falamos de IAs como o ChatGPT, baseadas em grandes modelos de linguagem, os LLMs. E muito, muito mais grave quando chegarmos à Inteligência Artificial Geral (AGI, em inglês), que seria uma IA capaz de fazer praticamente tudo que os seres humanos fazem – ou fazer tudo mesmo: ter pensamento abstrato, ler o mundo ao redor, estabelecer relações de causa e consequência, elaborar teorias.
Perto de uma AGI, o ChatGPT não seria muito mais do que um autocompletar parrudinho.
Por isso, é preciso regulamentar as AIs desde já. Aquele exemplo do efeito dos algoritmos sobre humanos é citado por Stuart Russell para defender uma ampla regulação global das IAs – sejam as existentes, sejam as vindouras.
Professor e diretor do departamento de Ciências da Computação da Universidade de Berkeley, Russell é um dos nomes mais respeitados do mundo quando o assunto é inteligência artificial. É dele e do ex-diretor do Google Peter Norvig o livro-texto sobre IA mais usado nas universidades de referência, a obra “Inteligência Artificial – uma abordagem moderna”.
“Se continuarmos assim, vamos perder o controle”, disse Russell na última quinta-feira (2) para a plateia que acompanhou sua palestra promovida pelo Fronteiras do Pensamento em São Paulo.
Ele é um dos signatários da “Pause Letter”, como ficou conhecido o documento assinado por especialistas em tecnologia – Elon Musk entre eles – para pressionar por uma paralisação de seis meses nas pesquisas envolvendo sistemas de IA mais poderosos que o GPT-4.
LEIA MAIS: O melhor jeito de usar a IA no trabalho
Da perspectiva de Russell, o copo meio cheio: alarmados, governos e organismos multilaterais passaram a discutir a regulação da IA com mais afinco. É o caso do governo britânico, por exemplo, que organizou uma conferência sobre segurança da inteligência artificial.
O copo meio vazio foi que as empresas donas das IAs mais poderosas não se mostraram interessadas – nos seis meses que foram propostos para a “trégua”, elas na verdade aceleraram suas pesquisas, como mostra esta matéria da Wired. Mesmo o signatário Elon Musk não pausou nada: logo na sequência da carta lançou sua startup concorrente da OpenAI, a xAI.
A regulação da inteligência artificial é também uma corrida contra o tempo. Em suas palestras mundo afora, Russell tem argumentado que a IA deve ser safe by design, isto é, sempre ser programada para:
- 1) Preservar os interesses da humanidade;
- 2) Ter sempre um objetivo bem definido, que não entre em conflito com a regra número um.
Sabe o algoritmo da rede social citado lá no começo do texto? Ele cumpre a regra 2 com perfeição – o resultado desse trabalho pode ser visto em qualquer jantar de família –, mas a regra 1 está sendo violada.
Essas duas “leis” criam inúmeras implicações práticas de como as máquinas lidam com os humanos, como assumir uma posição mais cautelosa, pedir permissão antes de agir e aquiescer com o desligamento quando for necessário. Mas o ponto principal, para Russell, é outro: que haja um acordo comum entre todos os países a respeito de como as IAs devem funcionar. E de como elas não devem funcionar.
“Há uma grande diferença entre pedir a um humano para fazer algo e dar isso como objetivo a um sistema de IA. Quando você pede a um humano para trazer uma xícara de café para você, você não quer dizer que essa deveria ser a missão de vida dele e que nada mais no universo importa, mesmo que ele tenha que matar todo mundo no Starbucks para conseguir o café para você antes de fechar”, exemplificou Russell no Fórum Econômico Mundial de Davos em 2022.
A determinação de regras já é relevante agora – e será definidora para o futuro da humanidade quando houver uma AGI. O professor de Berkeley argumenta que é necessário tornar a IA completamente segura. Só assim ela poderia ser aplicada a todas as áreas possíveis.
Para chegarmos lá, será necessário um amplo acordo internacional. Tony Blair, ex-primeiro-ministro do Reino Unido, já comparou esse concerto geral ao Tratado de Não-Proliferação de Armas Nucleares (TNP) assinado por 189 países lá em 1968, quando a Guerra Fria alimentava uma corrida armamentista que poderia dar fim à humanidade. Pode parecer exagero comparar ogivas nucleares a chatbots, mas o potencial destrutivo das IAs é tão misterioso quanto seu potencial construtivo.
Warren Buffett tinha 37 anos quando o TNP foi assinado. O megainvestidor também recorreu ao horror nuclear para dimensionar o medo que ele sente da IA. No último sábado (4), no encontro anual da Berkshire Hathaway, ele disse que o desenvolvimento das armas atômicas foi um “gênio que saiu da lâmpada” – ou seja, algo extremamente poderoso, perigoso, e agora fora de controle.
“Com a inteligência artificial é parecido. Ela está parcialmente fora da lâmpada. E alguém vai tirá-la de lá. Talvez a gente deseje nunca ter visto esse gênio”, disse. “Ou talvez ele faça coisas maravilhosas”.
Veja também
- Departamento de Justiça pede que Google venda Chrome para desfazer monopólio
- A inteligência artificial ganha espaço nos escritórios de advocacia
- EUA pressionam e TSMC suspenderá produção de chips de IA para a China
- Intel perde espaço para a Nvidia também no índice Dow Jones e deixa indicador após 25 anos
- ChatGPT dá um salto, e ruma para tornar o Google de hoje obsoleto