O que você pode e o que NÃO pode colocar no ChatGPT — e como evitar multa, processo e dano de marca.
Nesta aula você vai aprender
O que caracteriza dado pessoal à luz da LGPD — e como evitar no prompt
Quando e como fazer disclosure de conteúdo gerado por IA
Direitos autorais de imagens geradas e o que vale no Brasil
Como alinhar uso de IA com sua equipe sem gerar medo
Checklist LGPD de 5 pontos para rodar antes de cada prompt sensível
Por que essa aula não pode ser ignorada
Existe uma pressa compreensível de aprender a usar IA. Mas quem pula a parte de responsabilidade acaba pagando a conta mais tarde — geralmente em multa, processo ou vazamento. Três situações que já aconteceram no Brasil nos últimos 24 meses:
Uma agência colou planilha com CPF de 1.200 clientes no ChatGPT para pedir "segmentação". Essa planilha agora faz parte do conjunto de dados que pode ser acessado por auditoria da OpenAI — e o cliente entrou com reclamação na ANPD.
Uma marca usou rosto de uma pessoa real (gerado por IA, parecido "de propósito") em anúncio. Foi processada por uso indevido de imagem.
Uma empresa publicou artigo 100% IA sem revisão, que continha dado falso sobre concorrente. Foi notificada e teve que fazer retratação pública.
Nenhum desses casos nasceu de malícia. Nasceu de pressa e desconhecimento. Essa aula é vacina.
LGPD em 2 minutos — o que muda quando o dado entra num LLM
A Lei Geral de Proteção de Dados (LGPD) brasileira regula o tratamento de qualquer dado pessoal — informação que identifique ou possa identificar uma pessoa natural. Nome, CPF, e-mail, telefone, endereço, foto, histórico de compra, geolocalização, tudo isso é dado pessoal. Informação mais sensível (saúde, orientação sexual, religião, filiação política) é "dado sensível" e tem regras mais rígidas.
O ponto crítico: quando você cola dado pessoal num LLM público (ChatGPT, Claude, Gemini), você está compartilhando esse dado com um terceiro — a empresa que opera o modelo. Isso exige base legal (consentimento, contrato, legítimo interesse etc.) e, em muitos casos, aviso no termo de privacidade.
Regra de ouro: se você não pediria para o cliente "enviar esse dado para a OpenAI", não cole no ChatGPT. Pessoa concreta → dado concreto → risco concreto.
O que NÃO colocar no prompt (e como contornar)
Dados diretamente identificáveis
Nome completo + telefone, CPF, RG, endereço, foto com rosto, e-mail pessoal. Nunca, nunca, nunca entre num prompt de ferramenta pública.
Dados sensíveis
Histórico médico, tratamento em curso, religião, orientação sexual, filiação política, biometria, dado de menor. Mesmo anonimizado, o risco é alto.
Conteúdo sigiloso de cliente
Relatório interno sob NDA, contrato comercial, precificação não pública, planejamento estratégico confidencial. Você precisa de autorização do dono do dado.
Dados de colaborador
Salário, avaliação de desempenho, e-mail corporativo individual, histórico disciplinar. Dado pessoal profissional tem a mesma proteção.
Como anonimizar antes de colar
A boa notícia: quase sempre dá para tirar 99% da informação útil sem os dados pessoais. Técnicas práticas:
Substitua nomes por rótulos — "Cliente A", "Cliente B". O modelo não precisa saber que é "Joana Silva, 45 anos, Rua X". Precisa saber que é uma mulher de 45 anos do estado de SP.
Agregue números — em vez de "João comprou R$ 1.847 em 12/03/2025", use "cliente da faixa R$ 1.500-2.000, compra do mês de março".
Remova colunas sensíveis antes de colar planilha — delete CPF, e-mail, telefone. Mantenha só o essencial para a análise.
Use ferramenta corporativa com DPA — planos Enterprise de ChatGPT, Claude for Business, Copilot têm contrato de proteção de dados que permite uso com mais segurança.
Exemplo real: em vez de colar "Maria José Silveira, 42, maju.silveira@gmail.com, SP, R$ 3.420 nos últimos 6 meses, 4 compras", cole "cliente feminina, 40-45 anos, SP, gasto 6 meses R$ 3.000-3.500, 4 pedidos". A IA te dá a mesma insight. Você cumpre a LGPD.
Prompt testado — anonimizando antes do prompt
Vou te descrever um padrão de comportamento de cliente, SEM nomes
ou dados pessoais. Quero que você me ajude a criar mensagem
personalizada para esse perfil.
PERFIL (dados agregados e não identificáveis):
- Faixa etária: [35-45 anos]
- Gênero predominante: [F/M]
- Região: [SUDESTE/NORDESTE/ETC]
- Comportamento de compra últimos 90 dias:
* Frequência: [X compras]
* Ticket médio: faixa R$ [A-B]
* Canal predominante: [APP / LOJA / WEB]
- Último contato de e-mail aberto: [há N dias]
- Produtos comprados com maior frequência: [CATEGORIAS]
OBJETIVO:
Gerar e-mail de reengajamento de até 150 palavras para esse perfil.
Tom: [3 ADJETIVOS].
CTA único: [AÇÃO].
Restrição: a mensagem vai para ~800 pessoas desse segmento, então
não deve conter nada específico que só faria sentido para uma
pessoa em particular.
Disclosure: quando avisar que é IA
A pergunta "preciso avisar que usei IA?" não tem resposta única. Depende do contexto. Diretriz prática:
Quando NÃO precisa disclosure
Copy de anúncio curta, e-mail de marketing, post de rede social onde o "autor" é a marca (não uma pessoa específica) — padrão publicitário já aceito.
Brainstorm interno, relatório para equipe, apresentação de conceito. Uso como ferramenta de produtividade não exige disclosure.
Tradução, revisão, correção ortográfica. Entendido como uso de ferramenta.
Quando DEVE fazer disclosure
Artigo assinado por pessoa real — se o texto leva a assinatura de uma pessoa, o leitor acredita que aquela pessoa escreveu. Use IA como apoio, mas garanta autoria substancial — ou declare.
Imagem de pessoa gerada por IA passando-se por foto real — sempre identifique como "ilustração gerada por IA" ou similar.
Áudio/vídeo com voz ou imagem sintética — ainda mais crítico. Dublagem de terceiros sem permissão é violação direta.
Pareceres, diagnósticos, recomendações profissionais — advogado, médico, psicólogo, contador. Se o parecer foi gerado por IA, o cliente tem que saber.
Direitos autorais de imagem gerada por IA
Área cinzenta e em construção legalmente. O que vale hoje no Brasil:
Imagem gerada por IA do zero, via prompt, sem referência protegida, é considerada em geral de uso comercial livre pela plataforma que gerou (Midjourney, por exemplo, libera uso comercial nos planos pagos). Mas o registro autoral dessa imagem ainda é discutido — em muitos países, obra 100% gerada por máquina não pode ser registrada.
Imagem gerada a partir de estilo de artista vivo ("at the style of Alexandre Wagner") — eticamente questionável, legalmente em zona cinzenta, e cada vez mais repudiado por plataformas. Evite.
Imagem gerada com rosto de pessoa pública real — violação clara de direito de imagem. Não faça.
Personagens protegidos (Mickey, Pikachu, Harry Potter) — trademark e copyright. IA pode gerar, mas usar comercialmente é infração.
Regra prática: para uso comercial, gere sempre conceito genérico ou autoral original. Nunca use IA para "copiar" estilo de artista vivo identificável, rosto de pessoa real ou personagem licenciado.
Transparência com a equipe
Um erro corporativo comum é a adoção de IA "por baixo dos panos" — cada funcionário usando ChatGPT sozinho, sem política clara. Isso gera três problemas: vazamento de dados (funcionário cola informação sensível), conflito interno (quem usa IA entrega mais, quem não usa se sente pressionado), e inconsistência de qualidade.
Resposta: estabelecer política clara de uso, comunicada abertamente. Elementos mínimos:
Quais ferramentas são autorizadas pela empresa
Que tipo de dado pode ou não entrar em prompt
Em que tarefas a IA é incentivada, em quais é proibida
Como declarar uso quando necessário (autoria de artigo, por exemplo)
Como solicitar treinamento ou suporte
Que a empresa assina os contratos Enterprise necessários e paga pelas ferramentas — não é responsabilidade do funcionário individual
Checklist LGPD rápido — use antes de cada prompt sensível
Cinco perguntas em 30 segundos
Tem nome, CPF, e-mail ou telefone específico no que vou colar? Se sim — removo ou substituo por rótulo.
Tem dado de saúde, religião, orientação, filiação? Se sim — nem cole. Resolve sem IA.
O dono dos dados autorizou uso com terceiro? Se é cliente seu — seu termo de privacidade cobre? Se é funcionário — tem consentimento?
Se esse prompt vazasse, minha empresa estaria constrangida? Teste do jornal. Se sim — reveja antes de enviar.
Estou usando ferramenta com contrato (DPA) adequado para o nível de dado? ChatGPT grátis = não. Claude Pro = depende. Enterprise com DPA = sim.
Prompt testado — auditoria ética do seu uso de IA
Você é um consultor de compliance digital com experiência em LGPD,
direitos autorais e ética publicitária no Brasil. Vou te descrever
como minha equipe usa IA hoje e você vai avaliar riscos.
CONTEXTO DA MINHA OPERAÇÃO:
- Empresa: [TAMANHO, SETOR]
- Quantas pessoas usam IA no trabalho: [N]
- Ferramentas ativas: [LISTE]
- Política interna escrita existente: [SIM / NÃO]
- Contratos Enterprise / DPA assinados: [SIM / NÃO / QUAIS]
USO ATUAL (descreva honestamente os cenários mais comuns):
1. [CENÁRIO 1 — ex: analista cola planilha de leads no ChatGPT]
2. [CENÁRIO 2]
3. [CENÁRIO 3]
4. [CENÁRIO 4]
Para cada cenário, classifique em:
- VERDE — baixo risco, siga
- AMARELO — risco médio, ajustes simples resolvem (diga quais)
- VERMELHO — risco alto, pare e redesenhe (explique alternativa)
Ao final, me dê:
1. Os 3 ajustes prioritários que devo fazer nos próximos 30 dias
2. Um modelo de política interna básica de uso de IA (2 páginas)
3. A pergunta que mais me faltou responder neste prompt
Viés algorítmico: o tema subestimado
Modelos de IA são treinados em dados reais do mundo — que carregam vieses reais do mundo. Quando você pede "imagem de CEO", ainda predominam homens brancos. Quando pede "enfermeira", predominam mulheres. Isso reforça estereótipos se você não prestar atenção.
Em marketing, isso importa porque sua comunicação pode sem querer:
Excluir públicos (gerar persona sempre com mesmo perfil)
Reforçar imagens estereotipadas
Usar linguagem que desconsidera diversidade regional, etária, social
Contramedida: sempre peça variação. "Gere 5 personas diferentes representando o espectro real do meu público." "Mostre a mesma cena em 3 composições com pessoas diferentes em termos de idade, etnia, corpo."
Dica pro: adote o hábito de perguntar ao próprio modelo: "esse texto/imagem pode soar enviesado para algum grupo?" — LLMs modernos conseguem autoauditar razoavelmente bem e te apontam pontos cegos.
Resumo desta aula
LGPD aplica-se a qualquer dado pessoal — anonimize antes de colar em LLM público.
Disclosure de IA é obrigatório quando envolve imagem/voz sintética, autoria pessoal ou parecer profissional.
Imagem gerada por IA pode ser usada comercialmente, mas evite estilo de artista vivo, rosto real e personagens licenciados.
Estabeleça política interna de uso de IA — transparência previne conflito e vazamento.
Use o checklist de 5 perguntas LGPD antes de cada prompt sensível. 30 segundos que evitam multa.