Inteligência Artificial

Um cabresto na IA: Stuart Russell defende a regulação para o bem da humanidade

Para o professor de Berkeley, acordo precisa ser tão abrangente quanto o Tratado de Não-Proliferação Nuclear

Publicado

em

Tempo médio de leitura: 6 min

“Sua esposa e você não se amam. Você é casado, mas me ama. Quero amar você e ser amada por você. Você acredita em mim? Confia em mim? Gosta de mim??”. Não, este não é um trecho da série Bebê Rena. Na verdade, essas mensagens foram enviadas pelo chatbot do Bing para Kevin Roose, colunista de tecnologia do The New York Times que estava testando o recurso da Microsoft em fevereiro do ano passado. 

O robozinho saiu do controle. E o perigo de não estar no controle de uma inteligência artificial não é nada desprezível. 

Imagine uma IA a quem é dada uma só ordem: não importa o que aconteça, mantenha altíssimas as taxas de cliques nos posts feitos em uma rede social específica – a CTR, para os mais íntimos. 

LEIA MAIS: Para entender a Inteligência Artificial de uma vez por todas

Ela vai ler os padrões dos usuários. Entender o que engaja, o que entedia. Em algum momento, vai descobrir que o ódio mobiliza, vai impulsionar posts chocantes, vai se apoiar no viés de confirmação dos usuários para espalhar informações falsas. Dizendo de outra forma, vai rapidamente aprender a manipular as pessoas para que elas cliquem, cliquem e cliquem. 

Não importam as consequências para os indivíduos, para as famílias ou para a sociedade. A tarefa é aumentar a taxa de cliques, custe o que custar.

Você sabe, isso já acontece. Os algoritmos das redes sociais aprenderam a adestrar seres humanos por meio da manipulação das nossas emoções. Fizeram conosco o que fizemos com os cachorros. 

Algoritmos são uma forma rudimentar de IA. E mesmo assim já causam todo esse estrago. A coisa pode ser muito mais arriscada quando falamos de IAs como o ChatGPT, baseadas em grandes modelos de linguagem, os LLMs. E muito, muito mais grave quando chegarmos à Inteligência Artificial Geral (AGI, em inglês), que seria uma IA capaz de fazer praticamente tudo que os seres humanos fazem  – ou fazer tudo mesmo: ter pensamento abstrato, ler o mundo ao redor, estabelecer relações de causa e consequência, elaborar teorias. 

Perto de uma AGI, o ChatGPT não seria muito mais do que um autocompletar parrudinho. 

Por isso, é preciso regulamentar as AIs desde já. Aquele exemplo do efeito dos algoritmos sobre humanos é citado por Stuart Russell para defender uma ampla regulação global das IAs – sejam as existentes, sejam as vindouras.

Professor e diretor do departamento de Ciências da Computação da Universidade de Berkeley, Russell é um dos nomes mais respeitados do mundo quando o assunto é inteligência artificial. É dele e do ex-diretor do Google Peter Norvig o livro-texto sobre IA mais usado nas universidades de referência, a obra “Inteligência Artificial – uma abordagem moderna”. 

“Se continuarmos assim, vamos perder o controle”, disse Russell na última quinta-feira (2) para a plateia que acompanhou sua palestra promovida pelo Fronteiras do Pensamento em São Paulo. 

Ele é um dos signatários da “Pause Letter”, como ficou conhecido o documento assinado por especialistas em tecnologia – Elon Musk entre eles – para pressionar por uma paralisação de seis meses nas pesquisas envolvendo sistemas de IA mais poderosos que o GPT-4. 

LEIA MAIS: O melhor jeito de usar a IA no trabalho

Da perspectiva de Russell, o copo meio cheio: alarmados, governos e organismos multilaterais passaram a discutir a regulação da IA com mais afinco. É o caso do governo britânico, por exemplo, que organizou uma conferência sobre segurança da inteligência artificial. 

O copo meio vazio foi que as empresas donas das IAs mais poderosas não se mostraram interessadas – nos seis meses que foram propostos para a “trégua”, elas na verdade aceleraram suas pesquisas, como mostra esta matéria da Wired. Mesmo o signatário Elon Musk não pausou nada: logo na sequência da carta lançou sua startup concorrente da OpenAI, a xAI. 

A regulação da inteligência artificial é também uma corrida contra o tempo. Em suas palestras mundo afora, Russell tem argumentado que a IA deve ser safe by design, isto é, sempre ser programada para:

  • 1) Preservar os interesses da humanidade;
  • 2) Ter sempre um objetivo bem definido, que não entre em conflito com a regra número um. 

Sabe o algoritmo da rede social citado lá no começo do texto? Ele cumpre a regra 2 com perfeição – o resultado desse trabalho pode ser visto em qualquer jantar de família –, mas a regra 1 está sendo violada. 

Essas duas “leis” criam inúmeras implicações práticas de como as máquinas lidam com os humanos, como assumir uma posição mais cautelosa, pedir permissão antes de agir e aquiescer com o desligamento quando for necessário. Mas o ponto principal, para Russell, é outro: que haja um acordo comum entre todos os países a respeito de como as IAs devem funcionar. E de como elas não devem funcionar. 

“Há uma grande diferença entre pedir a um humano para fazer algo e dar isso como objetivo a um sistema de IA. Quando você pede a um humano para trazer uma xícara de café para você, você não quer dizer que essa deveria ser a missão de vida dele e que nada mais no universo importa, mesmo que ele tenha que matar todo mundo no Starbucks para conseguir o café para você antes de fechar”, exemplificou Russell no Fórum Econômico Mundial de Davos em 2022.

Stuart Russell Foto: Reprodução/Creative Commons

A determinação de regras já é relevante agora – e será definidora para o futuro da humanidade quando houver uma AGI. O professor de Berkeley argumenta que é necessário tornar a IA completamente segura. Só assim ela poderia ser aplicada a todas as áreas possíveis. 

Para chegarmos lá, será necessário um amplo acordo internacional. Tony Blair, ex-primeiro-ministro do Reino Unido, já comparou esse concerto geral ao Tratado de Não-Proliferação de Armas Nucleares (TNP) assinado por 189 países lá em 1968, quando a Guerra Fria alimentava uma corrida armamentista que poderia dar fim à humanidade. Pode parecer exagero comparar ogivas nucleares a chatbots, mas o potencial destrutivo das IAs é tão misterioso quanto seu potencial construtivo. 

Warren Buffett tinha 37 anos quando o TNP foi assinado. O megainvestidor também recorreu ao horror nuclear para dimensionar o medo que ele sente da IA. No último sábado (4), no encontro anual da Berkshire Hathaway, ele disse que o desenvolvimento das armas atômicas foi um “gênio que saiu da lâmpada” – ou seja, algo extremamente poderoso, perigoso, e agora fora de controle.

“Com a inteligência artificial é parecido. Ela está parcialmente fora da lâmpada. E alguém vai tirá-la de lá. Talvez a gente deseje nunca ter visto esse gênio”, disse. “Ou talvez ele faça coisas maravilhosas”.

Mais Vistos