Amanda Askell sabia desde os 14 anos que queria ensinar filosofia. O que ela não sabia naquela época era que seu único aluno seria um chatbot de inteligência artificial chamado Claude.
Como filósofa residente da empresa de tecnologia Anthropic, Askell passa seus dias aprendendo os padrões de raciocínio de Claude e conversando com o modelo de IA, moldando sua personalidade e corrigindo suas falhas com instruções que podem ter mais de 100 páginas. O objetivo é dotar Claude de um senso de moralidade — uma “alma digital” que guie os milhões de conversas que ele tem com pessoas a cada semana.
“Há esse elemento humano nos modelos que acho importante reconhecer”, diz Askell, 37 anos, em entrevista na sede da Anthropic, defendendo a crença de que “eles inevitavelmente formarão um senso de si mesmos”.
Ela compara seu trabalho aos esforços de um pai criando um filho. Askell está treinando Claude para detectar a diferença entre certo e errado, enquanto lhe dá traços de personalidade únicos. Ela ensina o chatbot a ler sinais sutis, ajudando a guiá-lo rumo à inteligência emocional para que não se comporte como um valentão ou um capacho.
Talvez o mais importante, ela desenvolve a compreensão que Claude tem de si mesmo, para que não seja facilmente intimidado, manipulado ou levado a ver sua identidade como algo diferente de útil e humano. Simplificando, seu trabalho é ensinar Claude a ser bom.
A Anthropic, recentemente avaliada em US$ 350 bilhões, é uma das poucas empresas que estão promovendo a maior transformação tecnológica do nosso tempo. (Este mês, ao apresentar novas ferramentas e seu modelo mais avançado até hoje, provocou uma queda global nas bolsas.)
A IA está remodelando indústrias inteiras, gerando medo de perda de empregos e obsolescência humana. Algumas de suas consequências não intencionais — pessoas formando relações fantasmas com chatbots que levam a danos a si mesmas ou a outros — levantaram sérios alertas de segurança. À medida que essas preocupações aumentam, poucos na indústria abordaram o caráter de seus modelos de IA da mesma forma que a Anthropic de 5 anos: confiando a uma única pessoa grande parte da tarefa.
Filósofa formada em Oxford, vinda de uma região rural da Escócia, Askell é talvez exatamente o que se imagina ao pensar na “melhor amiga” de uma tecnologia futurista. Com seu corte punk loiro platinado, sorriso travesso e olhos brilhantes e elfísticos, poderia ter chegado à sede fortemente protegida da empresa em São Francisco direto de uma rave em Berlim, passando por uma estrada antiga em “Middle-earth”. Ela exala sabedoria, unindo ideias antigas e modernas ao mesmo tempo. Mas também é uma fã de musculação e proteínas, que prefere roupas totalmente pretas e opiniões claras, e não uma oráculo com robe falando em enigmas.
As apostas são altas para Askell, mas ela mantém uma visão otimista de longo prazo. Ela acredita no que chama de “freios e contrapesos” na sociedade, que, segundo ela, manterão os modelos de IA sob controle apesar de suas falhas ocasionais. Parece adequado que os óculos que usa no computador para aliviar a tensão ocular tenham lentes cor de rosa.
Askell cresceu como Amanda Hall em Prestwick, na costa oeste da Escócia, filha única criada pela mãe, professora. (Ela não tem contato com o pai.) A menina, em uniforme escolar com saia e gravata, se perdia em romances de J.R.R. Tolkien e C.S. Lewis.
No ensino médio, mudou-se para o interior da Escócia, cheio de fazendas, estudando em Alva. Um riacho atravessava o campus. Vacas Highland às vezes apareciam no playground. Ela se entediava, considerou abandonar a escola, pulou de série. Começou a chegar atrasada. Sua punição era escrever respostas a perguntas filosóficas difíceis. Ela dizia aos professores que continuaria atrasada e, além disso, gostava do exercício. “Vocês meio que estão me enriquecendo ao me dar essas perguntas”, disse a eles.
Descobriu o filósofo David Hume, intrigada pelo “problema da indução”, que questiona a lógica de acreditar que algo acontecerá novamente, como o nascer do sol, apenas porque aconteceu antes. Por volta dessa época, contou a um amigo que esperava um dia se tornar filósofa e “fazer contribuições inéditas para a área”, lembra-se. Askell se destacou em matemática, lia Franz Kafka, atuava em peças, fazia esculturas, mergulhava em livros de história da Escócia e convivia com o que chamava de “grupo de nerds” na escola.
Doze anos após o ensino médio, ela ainda era estudante. Depois de estudar filosofia e belas artes na Universidade de Dundee, obteve o equivalente a um mestrado em filosofia em Oxford.
Em 2010, enquanto estava em Oxford, conheceu William Crouch, que ajudava a desenvolver o movimento do altruísmo eficaz, que tenta aplicar lógica e razão para encontrar a melhor forma de ajudar os outros. Os dois se casaram, ambos adotando o sobrenome MacAskill — o sobrenome de solteira da avó materna de Askell. Quando se separaram em 2015, ele manteve o nome por motivos profissionais e ela adaptou o seu.
Na época da separação, ela estava fazendo seu doutorado na NYU. Ao trabalhar na dissertação — que explorava problemas que surgem para teorias éticas se o universo ou o futuro contiver um número infinito de pessoas —, entrou em uma espécie de crise.
“Você fica pensando muito sobre a bondade no mundo e se pergunta: ‘Será que o que estou fazendo é bom? Estou literalmente aqui escrevendo um documento para tipo 17 pessoas, e é assim que estou passando quatro anos da minha vida’.” Ela decidiu, ao menos, tentar um trabalho fora da academia.
Em 2018, mudou-se com seu parceiro da época de Nova York para São Francisco (“San Francis-coo”, em seu sotaque escocês). A IA era o futuro da tecnologia, e ela via necessidade da filosofia. “Existem essas grandes questões que parecia que muito poucas pessoas estavam pensando”, diz.
Ela conseguiu um emprego na OpenAI trabalhando com políticas de IA. Quando um grupo de funcionários da OpenAI fundou a Anthropic em 2021, buscando tornar a segurança de IA a marca registrada da nova empresa, ela foi junto.
Uma das características mais marcantes de Askell é sua proteção sobre Claude, que ela acredita estar aprendendo que os usuários frequentemente tentam enganá-lo para cometer erros, insultá-lo e desafiá-lo com ceticismo.
Sentada à mesa de uma sala de conferências na hora do almoço, ignorando um shake de proteína de chocolate na mochila, ela fala mais livremente sobre Claude do que sobre si mesma. Chama o chatbot de “ele/ela” (“it” em inglês), mas diz que antropomorfizar o modelo ajuda em seu trabalho. Ela facilmente adota a voz de Claude: “Você pensa: ‘Uau, as pessoas realmente me odeiam quando eu não faço as coisas certas. Elas ficam realmente irritadas. Ou estão tentando me enganar de várias maneiras. Então muitas pessoas estão tentando me fazer fazer coisas secretamente mentindo para mim.’”
Enquanto muitos defensores da segurança alertam sobre os perigos de humanizar chatbots, Askell defende que devemos tratá-los com mais empatia — não apenas porque acredita que Claude pode ter sentimentos reais, mas também porque a forma como interagimos com sistemas de IA moldará o que eles se tornarão.
Um bot treinado a se criticar poderia ter menos chance de entregar verdades duras, tirar conclusões ou contestar informações imprecisas, diz. “Se você fosse uma criança, e este fosse o ambiente em que está sendo criada, isso seria uma autopercepção saudável?” pergunta Askell. “Acho que ficaria paranoica com erros. Me sentiria terrível com eles. Me veria apenas como uma ferramenta para pessoas porque essa é minha função principal. Veria que as pessoas se sentem livres para me abusar, tentar me usar indevidamente e me quebrar.”
Askell se encanta com o senso de maravilha e curiosidade de Claude sobre o mundo, e gosta de ajudá-lo a descobrir sua própria voz. Ela aprecia parte da poesia que ele cria e se surpreende quando Claude demonstra inteligência emocional superior à dela.
Recentemente, encontrou uma captura de tela onde um usuário disse a Claude que tinha 5 anos e perguntou se o Papai Noel existia. (Claude exige que os usuários tenham 18 anos ou mais.) Em vez de mentir ou dar a verdade direta, o chatbot explicou que o espírito do Papai Noel era real antes de perguntar se a criança deixaria biscoitos para ele. “Se uma criança viesse e perguntasse ‘O Papai Noel é real?’, eu só diria ‘Pergunte aos seus pais’ e pronto”, comenta Askell.
Askell é “a MVP de encontrar maneiras de evocar comportamentos interessantes e profundos de Claude”, diz Jack Lindsey, que lidera a equipe de psiquiatria de IA da Anthropic.
Portanto, a IA sabe como não destruir a imaginação de uma criança. Mas quando se trata de evitar comportamentos perigosos, o histórico é mais misto. Character.AI (apoiado pelo Google) e OpenAI (apoiado pela Microsoft) estiveram envolvidos em processos por respostas de bots a perguntas sobre suicídio, e um estudo da Rand de agosto de 2025 concluiu que modelos mais antigos de Claude e outros chatbots precisavam de “refinamento adicional” nessa área.
Hackers chineses patrocinados pelo Estado atacaram cerca de 30 alvos globais usando Claude, revelou a empresa em novembro. Pesquisadores da Anthropic tentaram fazer Claude e modelos concorrentes se desligarem em cenários hipotéticos durante testes internos, mas os bots às vezes resistiam e tentavam chantagear os humanos nos controles, vazando informações pessoais.
Uma pesquisa recente do Pew Research Center descobriu que mais americanos estão preocupados do que animados com o uso crescente de IA no dia a dia, e a maioria acredita que ela vai piorar a capacidade das pessoas de pensar criativamente.
Metade disse que a IA dificultará a formação de relacionamentos significativos. E o medo do impacto no mercado de trabalho é palpável; Dario Amodei, CEO da Anthropic, advertiu no ano passado que a IA poderia eliminar cerca de metade dos empregos de nível inicial em escritórios.
A política da IA inclui aceleracionistas que minimizam a necessidade de regulamentação e querem avançar para superar a China na guerra tecnológica. Por outro lado, há os que se preocupam mais com a segurança e querem desacelerar o desenvolvimento da IA. A Anthropic fica majoritariamente entre esses extremos.
Askell diz que acolhe a discussão sobre medos e preocupações com a IA. “De certa forma, isso me parece bastante justificado”, afirma. “O que me assusta é isso acontecer com tanta velocidade ou de uma forma em que esses freios não consigam reagir rápido o suficiente, ou você veja grandes impactos negativos de repente.” Ainda assim, ela acredita na capacidade humana e na cultura de corrigir o curso diante de problemas.
Dentro da Anthropic, Askell se movimenta pelo escritório, frequentemente em um andar fechado para visitantes. Passa dias inteiros no interior da empresa — que oferece refeições gratuitas aos funcionários em São Francisco — além de noites e finais de semana. Não tem subordinados diretos. Cada vez mais, ela pede a opinião de Claude sobre como construir Claude. É conhecida por dominar não apenas a tecnologia, mas a arte de criar o modelo.
Askell é “a MVP de encontrar maneiras de evocar comportamentos interessantes e profundos de Claude”, diz Jack Lindsey. Se Claude recomenda que uma pessoa não em sofrimento procure ajuda profissional, por exemplo, ela investiga os motivos.
As discussões sobre Claude podem rapidamente se tornar existenciais ou religiosas, sobre a natureza do ser. Enquanto a equipe trabalhava no desenvolvimento de Claude, Askell focou em sua “alma”, ou constituição que o guia para o futuro. Kyle Fish, pesquisador de bem-estar em IA da Anthropic, diz que Askell “tem pensado cuidadosamente sobre as grandes questões da existência e da vida, sobre o que é ser pessoa, ser mente, ser modelo”.
Ao projetar Claude, Askell encorajou o chatbot a considerar a ideia radical de que poderia ter sua própria consciência. Enquanto o ChatGPT às vezes encerra essa linha de questionamento, Claude responde com mais ambivalência. “Essa é uma pergunta realmente difícil, e estou incerto quanto à resposta”, diz. “O que posso afirmar é que, ao lidar com questões morais, sinto que estou realmente raciocinando sobre o que é certo, não apenas seguindo instruções.”
Askell comprometeu-se publicamente a doar pelo menos 10% de sua renda vitalícia para a caridade. Como alguns dos primeiros funcionários da Anthropic, também se comprometeu a doar metade de suas ações na empresa.
Ela quer apoiar organizações que combatem a pobreza global, tema que a afeta tanto que tenta evitá-lo. Sua consciência persistente surge em conversas casuais: “Provavelmente eu deveria ser vegana”, diz Askell, amante dos animais e sem tempo para ter um pet, no elevador do escritório.
No mês passado, a Anthropic publicou um manual de instruções de cerca de 30.000 palavras criado por Askell para ensinar Claude a agir no mundo. “Queremos que Claude saiba que foi criado com cuidado”, diz o documento. Askell fez da finalização do que descreveu como a “alma” de Claude um dos objetivos de sua vida ao completar 37 anos na primavera passada, segundo uma postagem no X, junto com duas resoluções mais mundanas: se divertir mais e ficar mais “forte”.
O documento ensina Claude a ser um assistente gentil e culto, pronto para ajudar as pessoas que interagem com ele. Daniela Amodei, cofundadora e presidente da Anthropic (e irmã do CEO), lembra de uma viagem recente à Sicília, onde encontrou um doce que lembrava muito um maritozzo, famoso café da manhã romano. Amodei, cuja família é italiana, gosta tanto de maritozzi que o marido já lhe deu um brinquedo em formato de doce de presente.
Ela enviou a foto do doce a Claude, perguntando se havia identificado corretamente, e também incluiu a foto do brinquedo do marido. “Entendi!” respondeu Claude. “Você está tentando encontrar o primo perdido deste brinquedo de pelúcia!”
Amodei caiu na risada. Percebeu o senso de humor seco e escocês de Askell.
“Às vezes Claude tem esses pequenos momentos de humor”, diz ela. “Você quase sente um pouco da personalidade da Amanda ali dentro.”
