Legal & Trust

Ética de IA

Versão 1.0 · Março 2026

"A grande vantagem competitiva dos próximos anos não virá de quem adotou IA mais cedo. Virá de quem construiu infraestrutura cognitiva com mais profundidade — e com mais responsabilidade."

Construímos sistemas que tomam decisões, executam ações e interagem com pessoas em nome das organizações. Essa responsabilidade está no centro de cada decisão de arquitetura que tomamos — não é nota de rodapé em contrato. Recusamos projetos que violem estes princípios, mesmo que sejam lucrativos.

Seis princípios que guiam nossa prática

  • IA a serviço das pessoas. Todo sistema que construímos deve beneficiar quem o utiliza. Eficiência operacional não pode vir à custa de bem-estar, dignidade ou autonomia humana.
  • Transparência radical. Usuários que interagem com nossos agentes têm o direito de saber que estão interagindo com IA. Não construímos sistemas que se façam passar por humanos de forma enganosa.
  • Decisões auditáveis. Cada decisão relevante de um agente deve ser rastreável. Usamos LangSmith e observabilidade total para garantir que nenhuma caixa-preta afete pessoas sem possibilidade de revisão.
  • Controle humano real. Autonomia de agentes é calibrada conforme o risco. Quanto maior o impacto de uma decisão, maior o envolvimento humano exigido. Não entregamos autonomia sem trilhas de supervisão adequadas.
  • Equidade e não discriminação. Avaliamos viés em modelos antes do deploy. Não implementamos sistemas que discriminem com base em raça, gênero, origem ou qualquer outra característica protegida.
  • Privacidade por design. Proteção de dados é dimensão arquitetural, não camada posterior. Minimizamos coleta, aplicamos criptografia e documentamos cada fluxo de dados.

O que não construímos

Sistemas de vigilância e monitoramento invasivo sem consentimento; automação discriminatória em triagem de crédito, RH ou acesso a serviços; ferramentas de geração ou amplificação de desinformação; agentes com autonomia total para decisões irreversíveis de alto impacto sem revisão humana obrigatória; deepfakes e identidades sintéticas com intenção de enganar.

Nossos compromissos práticos

Realizamos avaliação de impacto ético antes de cada deploy. Documentamos limitações e cenários de falha de cada agente (model card). Executamos testes adversariais e red teaming antes do go-live. Incluímos mecanismo de override humano em todo sistema implementado. Exigimos divulgação clara de IA em todas as interfaces que usam nossos agentes.

Frameworks de referência

LGPD (Lei nº 13.709/2018) · ISO/IEC 42001:2023 · NIST AI RMF · UNESCO Recomendação sobre Ética da IA (2021) · PL 2338/2023 (Marco Legal da IA no Brasil).

Canal de ética

etica@agenciacognitiva.com — Denúncias tratadas com sigilo. Nenhum denunciante de boa-fé sofrerá retaliação.

Falar agora