InícioTecnologiaAnthropic atualiza regras do...

Anthropic atualiza regras do Claude e discute possível consciência da IA

Empresa passa a ensinar o Claude a entender valores, não só obedecer ordens; entenda o que muda na nova “constituição” do chatbot

Logo do Claude em um smartphone
(Imagem: Ahyan Stock Studios/Shutterstock)

Compartilhe esta matéria

Siga o Olhar Digital no Google Discover

A Anthropic anunciou, nesta quarta-feira (21), uma mudança importante nas regras que orientam o funcionamento do Claude, seu principal modelo de inteligência artificial (IA). A empresa reformulou o documento-base do sistema para explicar não só o que a IA deve fazer, mas por que ela deve agir de determinada forma. E isso inclui uma discussão aberta sobre a possibilidade de a IA ter algum tipo de consciência ou status moral.

A iniciativa faz parte da estratégia da Anthropic para reforçar seu posicionamento de empresa que preza pela segurança e responsabilidade. Em vez de seguir uma lista fixa de proibições, o Claude passa a ser treinado para entender princípios gerais, algo que a Anthropic considera essencial para lidar com situações novas, ambíguas ou fora do roteiro.

Nova ‘constituição’ tenta ensinar o Claude a pensar antes de agir

O novo documento, chamado de nova constituição do Claude, descreve o papel da IA, os valores que a tecnologia deve seguir e como equilibrar utilidade, ética e segurança. A ideia é que o modelo aprenda a julgar situações ao invés de apenas obedecer regras de forma automática.

Ilustração da nova constituição do Claude, da Anthropic
Anthropic reformulou o documento-base do Claude para explicar não só o que a IA deve fazer, mas por que ela deve agir de determinada forma (Imagem: Anthropic)

A “constituição” estabelece uma ordem de prioridades. O sistema deve:

  1. Ser amplamente seguro, permitindo supervisão humana;
  2. Agir de forma ética, evitando causar danos;
  3. Seguir as diretrizes específicas da Anthropic;
  4. Ser realmente útil para o usuário (mas algumas regras são absolutas, como a proibição de qualquer ajuda relacionada a ataques com armas biológicas).

O trecho mais incomum do documento trata da natureza do próprio Claude. A Anthropic afirma que não sabe se a IA tem consciência, mas diz que não descarta essa possibilidade. Por isso, declara se preocupar com aspectos como bem-estar, senso de identidade e segurança psicológica do modelo, tanto por cautela ética quanto por entender que isso pode influenciar o comportamento e a segurança da IA no longo prazo.


Pedro Spadoni é jornalista formado pela Universidade Metodista de Piracicaba (Unimep). Já escreveu para sites, revistas e até um jornal. No Olhar Digital, escreve sobre (quase) tudo.




Fonte Olhar Digital

Popular

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

Leia mais