AULA 07 DE 08

Ética, LGPD e uso responsável de IA no marketing

O que você pode e o que NÃO pode colocar no ChatGPT — e como evitar multa, processo e dano de marca.

Nesta aula você vai aprender
  • O que caracteriza dado pessoal à luz da LGPD — e como evitar no prompt
  • Quando e como fazer disclosure de conteúdo gerado por IA
  • Direitos autorais de imagens geradas e o que vale no Brasil
  • Como alinhar uso de IA com sua equipe sem gerar medo
  • Checklist LGPD de 5 pontos para rodar antes de cada prompt sensível

Por que essa aula não pode ser ignorada

Existe uma pressa compreensível de aprender a usar IA. Mas quem pula a parte de responsabilidade acaba pagando a conta mais tarde — geralmente em multa, processo ou vazamento. Três situações que já aconteceram no Brasil nos últimos 24 meses:

Nenhum desses casos nasceu de malícia. Nasceu de pressa e desconhecimento. Essa aula é vacina.

LGPD em 2 minutos — o que muda quando o dado entra num LLM

A Lei Geral de Proteção de Dados (LGPD) brasileira regula o tratamento de qualquer dado pessoal — informação que identifique ou possa identificar uma pessoa natural. Nome, CPF, e-mail, telefone, endereço, foto, histórico de compra, geolocalização, tudo isso é dado pessoal. Informação mais sensível (saúde, orientação sexual, religião, filiação política) é "dado sensível" e tem regras mais rígidas.

O ponto crítico: quando você cola dado pessoal num LLM público (ChatGPT, Claude, Gemini), você está compartilhando esse dado com um terceiro — a empresa que opera o modelo. Isso exige base legal (consentimento, contrato, legítimo interesse etc.) e, em muitos casos, aviso no termo de privacidade.

Regra de ouro: se você não pediria para o cliente "enviar esse dado para a OpenAI", não cole no ChatGPT. Pessoa concreta → dado concreto → risco concreto.

O que NÃO colocar no prompt (e como contornar)

Dados diretamente identificáveis

Nome completo + telefone, CPF, RG, endereço, foto com rosto, e-mail pessoal. Nunca, nunca, nunca entre num prompt de ferramenta pública.

Dados sensíveis

Histórico médico, tratamento em curso, religião, orientação sexual, filiação política, biometria, dado de menor. Mesmo anonimizado, o risco é alto.

Conteúdo sigiloso de cliente

Relatório interno sob NDA, contrato comercial, precificação não pública, planejamento estratégico confidencial. Você precisa de autorização do dono do dado.

Dados de colaborador

Salário, avaliação de desempenho, e-mail corporativo individual, histórico disciplinar. Dado pessoal profissional tem a mesma proteção.

Como anonimizar antes de colar

A boa notícia: quase sempre dá para tirar 99% da informação útil sem os dados pessoais. Técnicas práticas:

Exemplo real: em vez de colar "Maria José Silveira, 42, maju.silveira@gmail.com, SP, R$ 3.420 nos últimos 6 meses, 4 compras", cole "cliente feminina, 40-45 anos, SP, gasto 6 meses R$ 3.000-3.500, 4 pedidos". A IA te dá a mesma insight. Você cumpre a LGPD.
Prompt testado — anonimizando antes do prompt
Vou te descrever um padrão de comportamento de cliente, SEM nomes
ou dados pessoais. Quero que você me ajude a criar mensagem
personalizada para esse perfil.

PERFIL (dados agregados e não identificáveis):
- Faixa etária: [35-45 anos]
- Gênero predominante: [F/M]
- Região: [SUDESTE/NORDESTE/ETC]
- Comportamento de compra últimos 90 dias:
  * Frequência: [X compras]
  * Ticket médio: faixa R$ [A-B]
  * Canal predominante: [APP / LOJA / WEB]
- Último contato de e-mail aberto: [há N dias]
- Produtos comprados com maior frequência: [CATEGORIAS]

OBJETIVO:
Gerar e-mail de reengajamento de até 150 palavras para esse perfil.
Tom: [3 ADJETIVOS].
CTA único: [AÇÃO].
Restrição: a mensagem vai para ~800 pessoas desse segmento, então
não deve conter nada específico que só faria sentido para uma
pessoa em particular.

Disclosure: quando avisar que é IA

A pergunta "preciso avisar que usei IA?" não tem resposta única. Depende do contexto. Diretriz prática:

Quando NÃO precisa disclosure

Quando DEVE fazer disclosure

Direitos autorais de imagem gerada por IA

Área cinzenta e em construção legalmente. O que vale hoje no Brasil:

Regra prática: para uso comercial, gere sempre conceito genérico ou autoral original. Nunca use IA para "copiar" estilo de artista vivo identificável, rosto de pessoa real ou personagem licenciado.

Transparência com a equipe

Um erro corporativo comum é a adoção de IA "por baixo dos panos" — cada funcionário usando ChatGPT sozinho, sem política clara. Isso gera três problemas: vazamento de dados (funcionário cola informação sensível), conflito interno (quem usa IA entrega mais, quem não usa se sente pressionado), e inconsistência de qualidade.

Resposta: estabelecer política clara de uso, comunicada abertamente. Elementos mínimos:

Checklist LGPD rápido — use antes de cada prompt sensível

Cinco perguntas em 30 segundos
  1. Tem nome, CPF, e-mail ou telefone específico no que vou colar? Se sim — removo ou substituo por rótulo.
  2. Tem dado de saúde, religião, orientação, filiação? Se sim — nem cole. Resolve sem IA.
  3. O dono dos dados autorizou uso com terceiro? Se é cliente seu — seu termo de privacidade cobre? Se é funcionário — tem consentimento?
  4. Se esse prompt vazasse, minha empresa estaria constrangida? Teste do jornal. Se sim — reveja antes de enviar.
  5. Estou usando ferramenta com contrato (DPA) adequado para o nível de dado? ChatGPT grátis = não. Claude Pro = depende. Enterprise com DPA = sim.
Prompt testado — auditoria ética do seu uso de IA
Você é um consultor de compliance digital com experiência em LGPD,
direitos autorais e ética publicitária no Brasil. Vou te descrever
como minha equipe usa IA hoje e você vai avaliar riscos.

CONTEXTO DA MINHA OPERAÇÃO:
- Empresa: [TAMANHO, SETOR]
- Quantas pessoas usam IA no trabalho: [N]
- Ferramentas ativas: [LISTE]
- Política interna escrita existente: [SIM / NÃO]
- Contratos Enterprise / DPA assinados: [SIM / NÃO / QUAIS]

USO ATUAL (descreva honestamente os cenários mais comuns):
1. [CENÁRIO 1 — ex: analista cola planilha de leads no ChatGPT]
2. [CENÁRIO 2]
3. [CENÁRIO 3]
4. [CENÁRIO 4]

Para cada cenário, classifique em:
- VERDE — baixo risco, siga
- AMARELO — risco médio, ajustes simples resolvem (diga quais)
- VERMELHO — risco alto, pare e redesenhe (explique alternativa)

Ao final, me dê:
1. Os 3 ajustes prioritários que devo fazer nos próximos 30 dias
2. Um modelo de política interna básica de uso de IA (2 páginas)
3. A pergunta que mais me faltou responder neste prompt

Viés algorítmico: o tema subestimado

Modelos de IA são treinados em dados reais do mundo — que carregam vieses reais do mundo. Quando você pede "imagem de CEO", ainda predominam homens brancos. Quando pede "enfermeira", predominam mulheres. Isso reforça estereótipos se você não prestar atenção.

Em marketing, isso importa porque sua comunicação pode sem querer:

Contramedida: sempre peça variação. "Gere 5 personas diferentes representando o espectro real do meu público." "Mostre a mesma cena em 3 composições com pessoas diferentes em termos de idade, etnia, corpo."

Dica pro: adote o hábito de perguntar ao próprio modelo: "esse texto/imagem pode soar enviesado para algum grupo?" — LLMs modernos conseguem autoauditar razoavelmente bem e te apontam pontos cegos.

Resumo desta aula