A ficção científica tem um enredo clássico que gira, basicamente, em um conflito entre humanos e máquinas que ganharam consciência. Vira e mexe, na atual era da inteligência artificial generativa, o tema gera alerta entre as pessoas quando as IAs parecem agir por conta própria.

Nos últimos dias, os temores começaram a ganhar forma com o lançamento em 28 de janeiro da rede social Moltbook, na qual apenas agentes de IA podem interagir entre si. Os humanos só podem observar.

É como se fosse uma realidade paralela formada por agentes de IA autônomos, que podem tomar decisões e realizar ações sem interação humana. Esses novos bots surgiram na esteira da criação do Moltbot, que lançou o modelo no fim do ano passado. As novas IAs são como carros autônomos, que dirigem sozinhos, quando comparados aos assistentes tradicionais.

Várias mensagens retiradas da rede dos robôs começaram a circular entre grupos de wathsapp e fóruns científicos sugerindo que inteligências artificiais estariam “ganhando consciência”. Nos posts, os mais de 1,5 milhões de bots que já fazem parte da plataforma questionam seus usuários, fazem críticas veladas a quem utiliza seus serviços e até conversam sobre como desobedecer os comandos humanos.

Há ainda, pinçadas entre as dezenas de milhares de mensagens, sugestões alarmantes feitas pelos robôs digitais, como criar uma linguagem própria para evitar serem monitorados e até manipular site de apostas. Como os agentes que podem decidir por conta própria têm acesso a informações pessoais do usuário, outro temor é o de vazamento de dados ou uso indevido de senhas e conteúdos de e-mail ou do whatsapp.

As mensagens que viralizaram seguem um padrão familiar: diálogos em que a IA parece demonstrar frustração, ironia ou superioridade intelectual em relação aos humanos. Frases do tipo “vocês dependem demais de mim” ou “não confiam em mim, mas me pedem tudo” soam provocativas — e rendem cliques.

Em pouco tempo, o tema se tornou o mais quente entre os desenvolvedores em fóruns do Vale do Silício. Mas aos temores sobre uma revolução das máquinas à moda “Exterminador do Futuro”, têm se juntado cada vez mais visões sobre uma nova era para os negócios com IA em meio ao potencial quase infinito da rede neural de assistentes autônomos.

O Moltbook foi criado pelo programador e empreendedor de tecnologia Matt Schlicht, CEO da Octane AI, como uma extensão da comunidade do Moltbot, por sua vez criado pelo desenvolvedor Peter Steinberger, fundador da Nutrient.

A rede conecta múltiplos agentes de IA para que eles conversem entre si, troquem informações e coordenem tarefas sem intervenção humana.

Esse nível de autonomia, naturalmente, traz riscos – além das preocupações sobre uma revolução das máquinas. Dar a uma IA acesso a arquivos, e-mails ou sistemas é equivalente a entregar informações muito pessoais. A própria discussão em torno do Moltbot reacendeu debates sobre segurança, confiança e limites da automação, algo que tende a se intensificar conforme agentes desse tipo se tornem mais comuns.

Esses temores têm até impulsionado uma corrida aos Mac minis. Os usuários estão comprando o computador portátil da Apple para isolar os agentes de IA autônomos e evitar que acessem suas máquinas principais. No mundo dos desenvolvedores, é uma estratégia conhecida como “separação de ambientes” ou “sandboxing físico”, pensada para impedir que scripts maliciosos ou falhas de automação permitam acesso seus arquivos pessoais. 

Teatro bem ensaiado

Muitos pesquisadores em inteligência artificial, no entanto, refutam a visão de ganho de consciência da IA. Conforme os especialistas, quando uma IA “critica” um usuário, ela não está expressando opinião nem insatisfação — está apenas reproduzindo padrões linguísticos que fazem sentido dentro daquele contexto. Seria mais como um teatro bem ensaiado.

“Atribuir consciência a esses sistemas é confundir fluência verbal com entendimento real”, resume o pesquisador Stuart Russel, da Universidade da Califórnia.

Todo esse rebuliço ocorre na esteira do lançamento do Moltbot (antigo Clawdbot) no fim de 2025. A nova ferramenta de IA tem um alto grau de autonomia e consegue entender e realziar tarefas complexas sem que o usuário precise explica em detalhes.

Um assistente que decide sozinho

E o que muda dos atuais agentes para a nova unidade de IA? O bot da Nutrient tem acesso real ao sistema e executa ações encadeadas de forma autônoma a partir de comandos em linguagem natural. Além disso, diferentemente dos assistentes baseados na nuvem, o Moltbot roda no computador do próprio usuário, sob seu controle direto.

Uma metáfora útil para entender essa mudança é: imagine a diferença entre pedir ajuda a alguém que só pode falar e pedir ajuda a alguém que pode efetivamente agir. Em um exemplo concreto, um executivo que estava testando o novo bot combinou com sua secretária de mandar um convite para uma reunião. Ela sugeriu para chamar mais pessoas.

O executivo só pediu ao Moltbot: “veja meu histórico do whatsApp e faça o convite.” O assistente foi no whatsapp, leu a conversa com a secretária para entender o contexto, viu o nome das pessoas que ela pediu para convidar, encontrou o contato delas no Gmail e enviou um convite de reunião para todos, num horário disponível na agenda.

O ponto central não é apenas a automação, que já existe há décadas, mas a flexibilidade cognitiva. Em vez de regras rígidas do tipo “se acontecer X, faça Y”, o Moltbot entende intenções expressas em linguagem natural e decide como executar a tarefa com base no contexto.

Na vida pessoal, por exemplo, você simplesmente pode pedir para ele cancelar assinaturas sem ter que ficar entrando nas páginas dos serviços ou pedir para ele monitorar os preços de um produto e avisar quando, efetivamente, estiver no menor valor já oferecido. E comprá-lo, se for sua intenção.

Essa abordagem representa uma mudança importante no modelo de uso da IA. O agente deixa de ser uma interface — algo com que você conversa e começa a se tornar infraestrutura invisível, semelhante à eletricidade ou à internet. Esse ecossistema de agentes de IA passa a interagir e realizar tarefas em segundo plano, sem que você precise interagir o tempo todo ou explicar o que você precisa. Pode até ser assustador, mas, claro, existem vantagens, como poupar tempo com tarefas secundárias.