Negócios

IA pode dar fim a monopólios – mas big techs ainda estão no controle

ChatGPT, Gemini, Bard, Clipchamp são exemplos de ferramentas generativas que emergiram dos conglomerados de tecnologia.

Publicado

em

Tempo médio de leitura: 9 min

É quase consenso entre profissionais de tecnologia que a inteligência artificial é um divisor de águas na era pós-digital. A massificação do ChatgGPT, chatbot da OpenAI, vem sendo comparada à revolução causada pelo advento da internet no final da década de 1990. Não apenas o software de IA generativa mais famoso do mundo, como também seus pares, levantam questões importantes sobre quem controla esse mercado nascente. E as big techs estão no centro dessa discussão.

Por anos, o Google reinou como o maior buscador do planeta – bem à frente de rivais como o Bing (Microsoft). Mas o avanço da IA generativa em 2023 trouxe consigo novos players – e todos têm em comum o fato de pertecerem a grandes grupos de tecnologia. A Open AI (que é investida pela Microsoft) não brilha sozinha. Populares ferramentas estão sob domínio de Meta (LIama), Quora (Poe), Microsoft (Clipchamp) e claro, do próprio Google (Gemini e Bard). 

Não é novidade que grandes corporações, em especial as big techs, dominam as principais ferramentas de IA do mercado. E segundo Bruno Salles, desenvolvedor de produtos de tecnologia na Sinqia, a questão central é que o poder de computação massiva exigido para processar a grande quantidade de dados em IA é extremamente caro – uma barreira à participação de empresas que leva à concentração do mercado. 

Ilustração em 3D

O ponto positivo é que, segundo o executivo, um grupo recém-criado – conduzido por IBM e Meta – dá acesso aos padrões de códigos abertos de inteligência artificial de diversas empresas, o que pode garantir um mercado competitivo. Isso significa que qualquer pessoa pode examinar o código, identificar bugs, fazer sugestões ou simplesmente copiá-los. 

“Quando você treina um algoritmo muito genérico, precisa fazer uma série de requisições, o que torna o treinamento caro. Quando você utiliza um algoritmo de modelo específico, não precisa treiná-lo e ainda chega no mesmo resultado, o que tende a ser mais barato para a empresa e mais aplicável, apesar de ainda precisar se tornar popular para ser utilizado”, avalia Salles, da Sinqia. 

Buscas via comando de voz substituem Google

Para Sergio Larentis, COO do Math Group, assim como no passado havia o monopólio de redes sociais e hoje há muitas opções, o mesmo o deve acontecer com o mercado de buscas. 

“O Google teve um monopólio por tanto tempo que virou uma máquina para si mesmo. Tivemos um mercado de SEO para que os textos fossem indexados pelo próprio Google – o que não significa que fossem de fato bons – e todos escreviam para o indexador. Mas isso também gerou um comportamento de buscar uma resposta imediata pelos mais jovens”.

Por isso, o executivo relaciona o sucesso do TikTok também como um buscador ao fato de a geração Z querer ter a resposta “express” via vídeos curtos. “E se eles souberem arbitrar uma pergunta bem feita para ter o resultado, vão se dar por satisfeitos”. 

Allan Paladino, CEO e cofundador da Lastro, um software de gestão imobiliária, aponta que cada buscador atende a uma geração, até porque o resultado do que se busca é diferente a depender da fonte de informação. Logo, espera-se que cada vez mais haja uma polarização

Mas segundo Larentis, do Math Group, com os recursos de IA por comando de voz, a exemplo da Alexa, a tendência é que caia cada vez mais o uso de buscas digitadas via Google.  No entanto, a impressão é que a inteligência artificial caminha para um outro monopólio. “Talvez um oligopólio de empresas que provêm a solução de IA”, disse em entrevista ao InvestNews.

Sobre isso, a futurista Ammy Webb já tinha abordado durante sua apresentação anual de 2023 do South by Southwest (SXSW). Mas um risco percebido por ela e que chamou atenção é o refinamento da IA durante as buscas. Em um texto, é comum que o robô preveja a próxima palavra de um texto, o que na linguagem técnica se chama “Reinforcement Learning from Human Feedback (RLHF)”. A questão é que programadores treinam o robô corrigindo padrões – o que ainda é uma caixa preta para os usuários, podendo causar vieses.

Ammy exemplificou isso ao escrever a palavra “CEO” no prompt de uma ferramenta de inteligência artificial generativa. O resultado? Apenas imagens de homens brancos.

‘Alexa, qual é o menor pirulito do mundo?’

Com mais de 26 mil curtidas e um mil comentários, uma postagem no LinkedIn alerta para uma possível “pegadinha” da inteligência artificial – o que levanta o debate sobre a necessidade de regulação no setor. 

Um usuário apontou que recebeu um pacote de pirulitos via Correios. A estranheza veio do fato de ele nunca ter pedido a encomenda, apesar de o destinatário conter seu nome e endereço.

Depois de investigar de quem partiu o “presente”, descobriu que ele se originou da Alexa. Isso porque sua filha, de seis anos, revelou que fez uma pergunta para a IA: “Alexa, qual é o menor pirulito do mundo?”.  A ferramenta por comando de voz teria não só dado a resposta como complementado que havia uma promoção de pirulitos. 

“Perguntar se uma criança de 6 anos quer pirulito é como perguntar se macaco quer banana. Resposta? “Ué.. quero!” – apontou o pai da pequena, em postagem.

A questão é que a confirmação da compra estava de fato em sua conta da Amazon. E segundo ele, a discussão que se abre é a falha da inteligência artificial em identificar que o interlocutor não tinha poder de decisão.

Reprodução LinkedIn

Logo, o dilema sobre regulação bate às portas do setor. Para Salles, da Sinqia, o assunto deve ganhar os holofotes em 2024, tanto pelo fato de ferramentas de IA oferecerem produtos – o que acarreta em transações financeiras que precisam ser fiscalizadas –, como pela necessidade de uma lei contra fraudes e ataques cibernéticos. 

Está em análise no Senado o Projeto de Lei 2338, que apesar de ainda não ser um marco regulatório, é um primeiro passo para a discussão, segundo Salles. 

“Assim como a inteligência artificial cresceu nos últimos tempos, as fraudes e ataques cibernéticos também. E infelizmente o Brasil é benchmark. E precisa ter muito cuidado com tudo o que se faz de forma automatizada”. 

Bruno Salles, desenvolvedor de produtos de tecnologia na Sinqia.

No ranking de tentativas de ataques cibernéticos aos sistemas de empresas e organizações na América Latina e Caribe, o Brasil ocupa a segunda posição, segundo levantamento da empresa de soluções de cybersegurança Fortinet, com base nos dados do FortiGuard Labs.

Houve cerca de 360 bilhões de tentativas de ataques, com o Brasil respondendo por 103,1 bilhões de tentativas, um aumento de 16% em relação a 2021. No México, país que lidera o ranking, foram 187 bilhões de tentativas em 2022.

EUA avançam em regulação 

Desde que o ChatGPT se popularizou no ano passado, legisladores e reguladores globais têm debatido sobre como a inteligência artificial generativa pode acabar com empregos, espalhar desinformação e potencialmente desenvolver seu próprio tipo de inteligência.

No final de outubro, o presidente Joe Biden anunciou a 1ª regulamentação de IA nos EUA contendo o conjunto mais forte de ações que qualquer governo do mundo já tomou em relação à segurança, proteção e confiança da IA. 

Segundo o New York Times, Biden citou ter assistido a deep fakes de si mesmo, o que o deixou perplexo em quão realistas pareciam. Por isso, o Departamento de Comércio vai desenvolver padrões para marcar conteúdo gerado por IA, como áudio ou imagens, a fim de que as pessoas não sejam enganadas.

Segundo Larentis, da Math Group, bancos e instituições financeiras nos EUA seguem investindo cifras milionárias para montar times especializados em IA ou comprar startups para dar um salto nos negócios com a nova tecnologia. Mas a regulação é um “elefante na sala”, o que os coloca em compasso de espera na oferta de produtos financeiros via inteligência artificial.

Por iLexx

Corretores, fundos de hedge e consultores de investimento estão resistindo às tentativas da SEC – o xerife regulador do mercado americano –  de gerenciar como a IA é usada para dar conselhos financeiros a investidores, segundo o Financial Times.

Isso porque as regras propostas pela SEC em julho forçariam bancos e gestores de fundos a neutralizar ou eliminar qualquer conflito de interesse envolvendo quase qualquer forma de tecnologia quando aconselham clientes. O objetivo seria combater o risco de que a escalabilidade do aconselhamento relacionado à IA possa prejudicar investidores.

“Nos EUA foi feito um experimento com um bot para avaliação de crédito utilizando o histórico de dados dos clientes. Só que foi visto que ele tinha uma tendência de reprovar o crédito de determinados perfis porque o histórico viciou o modelo”, disse.

Segundo o executivo, isso aponta que a arbitragem do caso fica comprometida, já que ainda não há resposta se a responsabilidade pelo erro de um chatbot é do seu criador ou do banco. E o mesmo pode ser questionado no campo das transações financeiras via IA. “Essa é uma seara ainda não resolvida”.

 Enquanto isso, instituições seguem se preparando. 

OpenAI na frente

Desde o ano passado, a  OpenAI anunciou a inclusão gradual de uma série de plugins de terceiros no ChatGPT para ampliar as funcionalidades do chatbot e transformá-lo em um super aplicativo num futuro não tão distante.

Isso inclui desde sites de viagens e reservas, plataformas de compras, até aplicativos de produtividade. Ou seja: o  plugin vai permitir que o modelo de linguagem realize tarefas, como elaboração de roteiros de viagens à compra de passagens via marketplaces de aplicativos e plugins.

O que aponta que a OpenAI deve lucrar com as compras sobre o que for transacionado no chatbot conectado a ela – da mesma forma que a Apple ganha uma porcentagem em seu AppStore. 

Mais Vistos