GOVERNANÇA DE IA: COMECE ANTES DE ESCALAR

Lucas Fogaça20 de março de 20267 min de leitura
governançacomplianceLGPDética

O erro mais caro em IA não é técnico — é de governança

Nos últimos dois anos, acompanhei de perto dezenas de implementações de IA em empresas brasileiras. As que falharam raramente falharam por problemas técnicos. Falharam porque ninguém definiu quem era responsável quando o modelo errava. Ninguém documentou que dados estavam sendo usados para treinar o quê. Ninguém pensou no que aconteceria quando a ANPD batesse na porta.

Governança de IA não é um luxo para depois que você escalar. É o alicerce que permite escalar sem que tudo desmorone. E digo isso com a experiência de quem passou por ambientes altamente regulados — no Bradesco Seguros e no Itaú, governança não era opcional. Era a condição de existência de qualquer projeto.

Por que "depois a gente organiza" não funciona

A lógica parece razoável: "vamos primeiro provar que a IA funciona, depois cuidamos da governança." O problema é que decisões tomadas sem governança criam dívida técnica e jurídica que cresce exponencialmente.

Três cenários que vi acontecer:

  • Uma empresa usou dados de clientes para fine-tuning sem consentimento adequado. Quando descobriram, tiveram que descartar o modelo inteiro e recomeçar. Custo: 8 meses de trabalho.
  • Um chatbot de atendimento começou a dar respostas juridicamente vinculantes que a empresa não havia autorizado. Sem governança, ninguém tinha definido os limites do que o sistema podia afirmar.
  • Uma equipe de dados treinou um modelo de scoring que perpetuava viés contra determinados perfis demográficos. Sem processo de auditoria, o viés só foi detectado depois de 6 meses em produção.

Esses não são cenários hipotéticos. São padrões que se repetem quando a governança é tratada como afterthought.

Os frameworks que todo líder precisa conhecer

OWASP LLM Top 10

O OWASP Top 10 for LLM Applications é o ponto de partida para entender os riscos de segurança específicos de sistemas baseados em modelos de linguagem. Os riscos mais críticos para contexto enterprise:

  • Prompt Injection: manipulação do comportamento do modelo através de inputs maliciosos. É o equivalente ao SQL Injection para LLMs e deve ser tratado com a mesma seriedade.
  • Sensitive Information Disclosure: o modelo vazando dados sensíveis que estavam no contexto de treinamento ou nos dados de retrieval.
  • Supply Chain Vulnerabilities: riscos associados a modelos de terceiros, APIs externas e bibliotecas de código aberto.
  • Excessive Agency: o modelo tomando ações além do escopo autorizado quando integrado com ferramentas e sistemas.

Cada um desses riscos tem contramedidas específicas que devem ser implementadas desde o primeiro deploy, não depois.

NIST AI Risk Management Framework

O framework do NIST (AI RMF 1.0) oferece uma estrutura mais abrangente, organizada em quatro funções:

  • Govern: estabelecer políticas, papéis e processos de governança
  • Map: identificar e documentar os riscos específicos do seu contexto
  • Measure: quantificar e monitorar os riscos identificados
  • Manage: implementar controles e processos de mitigação

O que gosto nesse framework é que ele não é prescritivo — oferece uma estrutura adaptável ao porte e maturidade da organização. Uma startup de 20 pessoas e um banco de 50.000 funcionários podem usar o mesmo framework com níveis diferentes de formalização.

LGPD e IA: o que ninguém está falando

A LGPD tem implicações diretas e sérias para qualquer sistema de IA que processa dados pessoais. E no Brasil, a maioria das implementações de IA em contexto corporativo toca dados pessoais em algum ponto.

Pontos que exigem atenção imediata:

Base legal para processamento por IA. O consentimento dado para um propósito não se estende automaticamente para treinamento de modelos. Se seus dados de CRM foram coletados para relacionamento comercial, usá-los para fine-tuning exige nova base legal.

Direito à explicação. O Art. 20 da LGPD garante ao titular o direito de solicitar revisão de decisões automatizadas. Se seu modelo de scoring nega crédito ou prioriza atendimento, você precisa ser capaz de explicar por quê. Modelos black-box são um risco jurídico real.

Relatório de Impacto à Proteção de Dados (RIPD). Para tratamentos de alto risco — e muitas aplicações de IA se qualificam — a ANPD pode exigir RIPD. Melhor ter um pronto antes que peçam.

Transferência internacional de dados. Se você usa APIs de LLMs hospedados no exterior (OpenAI, Anthropic, Google), dados pessoais estão sendo transferidos internacionalmente. Isso requer salvaguardas específicas sob a LGPD.

Como construir um comitê de ética em IA

Não precisa ser burocrático. Precisa ser funcional. Na Frame8, recomendamos uma estrutura enxuta:

  • Um representante de tecnologia (entende as capacidades e limitações)
  • Um representante jurídico/compliance (entende as obrigações regulatórias)
  • Um representante de negócio (entende o impacto nas operações e clientes)
  • Um representante de RH/pessoas (entende o impacto nos colaboradores)

Cadência: reuniões mensais para casos de rotina, convocação extraordinária para novos casos de uso com dados sensíveis ou alto impacto.

  • Aprovar novos casos de uso de IA que envolvem dados pessoais ou decisões automatizadas
  • Revisar incidentes e definir ações corretivas
  • Atualizar políticas conforme o cenário regulatório evolui
  • Garantir que os princípios éticos da organização são respeitados nas implementações

O comitê não precisa entender de transformers e embeddings. Precisa entender de risco, impacto e responsabilidade.

Checklist de governança: 6 pontos para começar hoje

Se sua empresa está iniciando com IA e ainda não tem governança formal, estes são os seis pontos que recomendo implementar imediatamente:

1. Inventário de casos de uso

Documente todos os usos de IA na organização — incluindo os informais (sim, aquele GPT que o marketing usa conta). Para cada caso, registre: dados utilizados, propósito, responsável, e nível de risco.

2. Política de uso aceitável

Defina o que é permitido e o que não é. Quais dados podem ser inseridos em LLMs externos? Quais decisões podem ser automatizadas? Quais exigem supervisão humana? Documente e comunique.

3. Classificação de risco por caso de uso

Nem todo uso de IA tem o mesmo risco. Um gerador de resumos internos é diferente de um sistema que decide aprovação de crédito. Classifique em níveis (baixo, médio, alto, crítico) e defina controles proporcionais.

4. Processo de avaliação pré-deploy

Antes de qualquer sistema de IA ir para produção, ele passa por uma avaliação estruturada: testes de segurança (incluindo OWASP Top 10), avaliação de viés, verificação de conformidade com LGPD, e documentação dos guardrails implementados.

5. Monitoramento contínuo

Deploy não é o final — é o começo. Monitore performance, drift, incidentes e feedback dos usuários. Defina métricas e thresholds que disparam revisão obrigatória.

6. Plano de resposta a incidentes

Quando (não se) algo der errado, quem é acionado? Qual o protocolo? Como comunicar stakeholders? Ter um plano definido antes do incidente é a diferença entre uma crise gerenciável e um desastre reputacional.

Governança como vantagem competitiva

Governança de IA não é um freio à inovação. É o que permite inovar com velocidade sustentável. As empresas que implementam governança desde o início conseguem escalar mais rápido porque têm confiança nos seus sistemas, respaldo jurídico para suas decisões e credibilidade perante clientes e reguladores.

No framework SMAECIA da Frame8, governança não é uma fase separada — está embutida em todas as etapas, da Sensibilização ao Acompanhamento. Porque governança retrospectiva é remediação. Governança proativa é estratégia.

Comece antes de precisar. Quando você precisar, já vai ser tarde.