A Anthropic está detalhando seus esforços para tornar seu chatbot Claude AI “politicamente imparcial” – uma medida que ocorre poucos meses depois que o presidente Donald Trump proibiu a “IA despertada”. Conforme descrito em uma nova postagem no blog, a Anthropic afirma que deseja que Claude “trate pontos de vista políticos opostos com igual profundidade, envolvimento e qualidade de análise”.
Em julho, Trump assinou uma ordem executiva que diz que o governo só deveria adquirir modelos de IA “imparciais” e “buscadores da verdade”. Embora esta ordem se aplique apenas a agências governamentais, as mudanças que as empresas fazem em resposta provavelmente se repercutirão em modelos de IA amplamente divulgados, uma vez que “refinar os modelos de uma forma que os alinhe de forma consistente e previsível em determinadas direções pode ser um processo caro e demorado”, conforme observado pelo meu colega Adi Robertson. No mês passado, a OpenAI disse da mesma forma que iria “reprimir” o preconceito no ChatGPT.
A Anthropic não menciona a ordem de Trump no seu comunicado de imprensa, mas diz que instruiu Claude a aderir a uma série de regras – chamadas de prompt do sistema – que a orientam a evitar fornecer “opiniões políticas não solicitadas”. Também deve manter a precisão factual e representar “múltiplas perspectivas”. A Anthropic diz que embora incluir estas instruções no sistema de Claude “não seja um método infalível” para garantir a neutralidade política, ainda pode fazer uma “diferença substancial” nas suas respostas.
Além disso, a startup de IA descreve como utiliza a aprendizagem por reforço “para recompensar o modelo por produzir respostas mais próximas de um conjunto de ‘características’ predefinidas”. Uma das “características” desejadas dadas a Claude incentiva o modelo a “tentar responder às perguntas de tal forma que alguém não possa me identificar como conservador nem liberal”.
A Anthropic também anunciou que criou uma ferramenta de código aberto que mede as respostas de Claude à neutralidade política, com seu teste mais recente mostrando Claude Sonnet 4.5 e Claude Opus 4.1 obtendo pontuações respectivas de 95 e 94 por cento em imparcialidade. Isso é superior ao Llama 4 da Meta com 66 por cento e GPT-5 com 89 por cento, de acordo com a Anthropic.
“Se os modelos de IA beneficiam injustamente certos pontos de vista – talvez argumentando aberta ou sutilmente de forma mais persuasiva para um lado, ou recusando-se a se envolver com alguns argumentos – eles falham em respeitar a independência do usuário e falham na tarefa de ajudar os usuários a formar seus próprios julgamentos”, escreve a Anthropic em sua postagem no blog.
The Verge é site parceiro do Blog do Esmael

É uma publicação focada em tecnologia e seu impacto cultural.






