Inteligência Artificial

Para CEO do Google, viés da IA Gemini é inaceitável

Em memorando aos funcionários, Sundar Pichai apontou que a ferramenta tem viés preconceituoso, uma vez que ofendeu usuários.

Publicado

em

Tempo médio de leitura: 5 min

Um memorando aos funcionários do Google aponta que o CEO da gigante de tecnologia, Sundar Pichai, apontou erros no Gemini, bot de inteligência artificial da companhia. Por isso, a big tech colocou o recurso de imagens em “stand-by” para fazer mais testes.

Segundo Pichai, a ferramenta tem viés preconceituoso, uma vez que ofendeu os usuários. O site “Semafor” antecipou a notícia e a “CNBC” repercutiu integralmente.

“Sei que algumas de suas respostas ofenderam nossos usuários e mostraram preconceito – para ser claro, isso é completamente inaceitável e erramos”, disse Pichai. “Nenhuma IA é perfeita, especialmente nesta fase emergente do desenvolvimento da indústria, mas sabemos que a nossa barra é alta.”

Sundar Pichai – Foto: David Paul Morris/Bloomberg

O Gemini foi lançado pelo Google no começo de fevereiro em substituição ao Bard, lançado há quase um ano. O novo produto cobra pouco menos de US$ 20 mensais pelo acesso à ferramenta, cuja projeção é que alcance bilhões de usuários, segundo o Google.

A questão é que inconsistências nas respostas dadas pelo bot, em especial, na ferramenta que gera imagens, foram relatadas por pessoas que utilizaram o Gemini.

Segundo relatos que viralizaram na internet, em alguns casos, o bot se recusou a retratar pessoas brancas quando solicitado a criar imagens de vikings, nazistas e do Papa, por exemplo.

A controvérsia aumentou quando se descobriu que o Gemini estava criando respostas de texto questionáveis, como equiparar a influência de Elon Musk na sociedade com a do ditador alemão Adolf Hitler.

Esses comentários geraram duras críticas, especialmente dos conservadores, que acusaram o Google de ter um preconceito anti-branco.

Em memorando, Pichai afirmou que as equipes têm trabalhado ininterruptamente para resolver os problemas e que a empresa vai implementar um conjunto claro de ações e mudanças estruturais, bem como “processos de lançamento aprimorados”.

Segundo relatos em redes sociais, a pressão sobre o Google para lançar um Chatbot de IA em resposta a OpenAI no mercado estaria criando uma dor de cabeça para a empresa no mercado.

Crise de confiança

Mas a controvérsia do Gemini fala de um problema maior em IA: como os usuários podem confiar nos modelos de IA?

Segundo apontou o cofundador e CEO da Humane Intelligence, Rumman Chowdhury, em artigo da “Fast Company”, é preciso desafiar a noção de que esses modelos de IA devem ser historicamente precisos.

“Esta é uma ferramenta de imaginação e criação, não um sistema de recuperação de informação. Na ausência de uma compreensão da intenção dos usuários, não podemos e não devemos afirmar que a precisão histórica é um requisito”.

Mas outros interlocutores e especialistas apontam que o problema esbarra em uma questão estrutural de como as empresas que desenvolvem produtos comerciais sem muita transparência fazem escolhas em diferentes níveis do processo de desenvolvimento. O que por sua vez, impacta nos dados gerados via IA.

Sundar Pichai – Foto: Kyle Grillot/Bloomberg

Veja abaixo o memorando do Google na íntegra:

“Quero abordar os problemas recentes com respostas problemáticas de texto e imagem no aplicativo Gemini (anteriormente Bard). Eu sei que algumas de suas respostas ofenderam nossos usuários e mostraram preconceito – para ser claro, isso é completamente inaceitável e erramos.

Nossas equipes têm trabalhado 24 horas por dia para resolver esses problemas. Já estamos vendo uma melhoria substancial em uma ampla variedade de prompts. Nenhuma IA é perfeita, especialmente nesta fase emergente do desenvolvimento da indústria, mas sabemos que a fasquia é elevada para nós e iremos mantê-la durante o tempo que for necessário. E revisaremos o que aconteceu e garantiremos que consertaremos em grande escala.

A nossa missão de organizar a informação mundial e torná-la universalmente acessível e útil é sacrossanta. Sempre procuramos fornecer aos usuários informações úteis, precisas e imparciais em nossos produtos. É por isso que as pessoas confiam neles. Esta deve ser a nossa abordagem para todos os nossos produtos, incluindo os nossos produtos emergentes de IA.

Estaremos conduzindo um conjunto claro de ações, incluindo mudanças estruturais, diretrizes de produtos atualizadas, processos de lançamento aprimorados, avaliações robustas e equipes vermelhas, além de recomendações técnicas. Estamos analisando tudo isso e faremos as alterações necessárias.

Mesmo enquanto aprendemos com o que deu errado aqui, também devemos aproveitar os anúncios técnicos e de produtos que fizemos em IA nas últimas semanas. Isso inclui alguns avanços fundamentais nos nossos modelos subjacentes, por exemplo, a nossa descoberta da janela de contexto longo de 1 milhão e os nossos modelos abertos, ambos bem recebidos.

Sabemos o que é necessário para criar excelentes produtos que são utilizados e apreciados por milhares de milhões de pessoas e empresas e, com a nossa infraestrutura e experiência em investigação, temos um trampolim incrível para a onda da IA. Vamos nos concentrar no que é mais importante: criar produtos úteis que mereçam a confiança de nossos usuários”.

Mais Vistos