Bilionário processa Facebook para ter seu rosto retirado de golpes de IA
Processo de executivo de mineração é um dos primeiros a ameaçar as proteções de imunidade do segmento de tecnologia
Todos os dias, 24 horas por dia, um pequeno grupo de profissionais de segurança cibernética vasculha o Facebook procurando o rosto de seu chefe, um bilionário australiano que está determinado a levar a gigante das redes sociais à justiça.
Como financistas americanos como Bill Ackman, Andrew Forrest diz que passou anos tentando fazer com que a Meta Platforms, controladora do Facebook, fizesse mais para impedir anúncios que usam sua imagem para promover esquemas de investimento fraudulentos.
No entanto, ao contrário de outros adversários da Meta, o executivo de mineração prometeu gastar grandes somas em sua campanha legal. Seu processo federal nos EUA contra a Meta alega que os sistemas de anúncios baseados em inteligência artificial da empresa ajudam a criar e difundir os anúncios falsos.
LEIA MAIS: O legado conturbado da família fundadora da Tyson Foods
Esse é um dos primeiros casos em anos que parece estar a caminho de derrubar as proteções de imunidade concedidas às empresas de tecnologia que hospedam conteúdo gerado pelo usuário. No mês passado, um juiz federal negou os pedidos de arquivamento do processo feitos pela Meta. A empresa recorreu.
As proteções resistiram a vários desafios judiciais nos últimos anos, e especialistas jurídicos dizem que o caso é um dos primeiros em que a IA participa de litígios relacionados à lei de 1996, muitas vezes chamada de Seção 230.
Forrest disse que não se importa com o custo e promete levar a luta até o fim, acreditando que a Meta deve ser forçada a fazer mais para policiar sua plataforma.
“Não posso acreditar que o conselho de administração de qualquer empresa permitiria conscientemente que pessoas inocentes e vulneráveis perdessem suas economias para aumentar os próprios lucros corporativos”, disse Forrest.
A Meta não respondeu aos pedidos de comentários.
Anúncios fraudulentos de celebridades proliferaram nas redes sociais nos últimos anos, com golpes de criptomoedas sendo divulgados nas plataformas X e Snapchat, de acordo com pesquisadores de segurança cibernética e blockchain. Os golpes nos aplicativos da Meta usam anúncios para atrair as vítimas a ingressar em grupos de bate-papo, como por exemplo, no WhatsApp, onde são direcionadas para investimentos duvidosos. Os esquemas custaram milhões de dólares a pequenos investidores.
Eric Goldman, professor da Faculdade de Direito da Universidade de Santa Clara, disse que ficou surpreso com a decisão do juiz no caso Forrest, já que outro juiz decidiu em 2009 que o Google não era responsável por anúncios que promoviam toques de celular fraudulentos.
Uma faceta importante do caso de Forrest é se os tribunais verão o conteúdo gerado por IA como originário do usuário que fornece informações — um golpista neste caso — ou do modelo da Meta. Em 2009, o juiz disse que o autor teria que estabelecer o envolvimento do Google na “criação ou desenvolvimento” das palavras usadas nos anúncios.
LEIA MAIS: Os déspotas corporativos são bons — mas não para sempre
A Meta e outras plataformas há muito se defendem com sucesso contra ataques à Seção 230, mas as empresas estão enfrentando pressão em várias frentes, que buscam responsabilizá-las por certos conteúdos de usuários. Uma ação de acionistas foi movida este ano por empresas de investimento que alegam que a Meta falhou em proteger os usuários do tráfico humano e da exploração sexual infantil.
Entre 2018 e 2019, três mulheres anônimas processaram o Facebook nos tribunais do Texas, alegando que foram atraídas para o tráfico sexual quando menores por homens que se conectaram com elas no Instagram e no Facebook. Em 2021, a Suprema Corte do Texas rejeitou as alegações de negligência e responsabilidade pelo produto, sustentando que elas se enquadravam na Seção 230. A Suprema Corte se recusou a ouvir o caso em 2022.
Forrest, cujo patrimônio líquido é de cerca de US$ 14 bilhões, gastou mais de US $ 5 milhões em honorários advocatícios até agora. O segundo homem mais rico da Austrália, que acumulou sua riqueza administrando uma empresa de mineração de minério de ferro, é amplamente visto no país como um executivo de negócios agressivo que não foge de longas batalhas legais. Sua empresa, a Fortescue Metals Group, há anos está envolvida em um conflito com o povo indígena Yindjibarndi da Austrália, que alega que a Fortescue não compensou os povos nativos pelo uso da terra, afirmação que a empresa nega.
Forrest abordou o Facebook pela primeira vez sobre os perfis falsos em 2014, quando sua equipe de segurança privada o alertou sobre o problema.
Os executivos da época o orientaram a criar uma conta oficial para que a empresa tivesse um ponto de referência para a comparação com as contas falsas. Apesar disso, perfis falsos continuaram aparecendo na plataforma.
Frustrado com o que viu como a inação da Meta, Forrest decidiu investir mais recursos na luta.
Por volta de 2019, ele criou uma sala para essa missão, com quatro a sete profissionais de segurança cibernética em Perth, na Austrália, que vasculham as plataformas da Meta em busca de perfis e anúncios falsos com sua imagem e os denunciam à empresa. O centro de monitoramento cibernético funciona 24 horas por dia e cada funcionário tem duas telas. A frente da sala possui quatro telas de 250 cm por 125 cm que percorrem os sites da Meta e salas de bate-papo. Ele gastou US$ 10 milhões para manter a equipe até agora.
Os anúncios falsos usam o nome e a imagem de Forrest para atrair usuários que clicam neles para terem acesso a salas de bate-papo privadas. “Veja isso antes que os banqueiros façam seu próximo movimento — diz Andrew Forrest”, é um dos anúncios do Facebook referenciados no processo.
O bilionário também envolveu as autoridades australianas, enviando membros de sua equipe de segurança privada para trabalhar com a Polícia Federal australiana e rastrear os sindicatos do crime internacional que supostamente estão por trás dos anúncios.
LEIA MAIS: Starlink, de Elon Musk, avança na área rural do Brasil e desperta atenção do governo
Uma das principais afirmações de Forrest é que as ferramentas de anúncios de IA da Meta permitiram que golpistas criassem e distribuíssem anúncios falsos em larga escala. O Facebook lançou novas ferramentas em outubro, que permitem que anunciantes selecionados gerem várias versões de texto se receberem uma sequência de cópias originais. A empresa anunciou em maio que os recursos aprimorados de anúncios de IA generativa permitiriam que os anunciantes criassem variações de uma imagem com base nas solicitações do usuário.
Seu advogado, Simon Clarke, disse que o número de anúncios falsos aumenta sempre que o nome de Forrest está no noticiário.
“Está sendo uma longa batalha desde que os golpes de investimento começaram em 2019. Eles só aumentaram e ganharam destaque com a inteligência artificial”, afirmou Forrest.
Escreva para Alex Perry em [email protected]
traduzido do inglês por investnews