🧠
Como Evitar Alucinações em Modelos de Linguagem
📌 Objetivo da Aula
Capacitar o aluno a entender, identificar e mitigar alucinações (informações inventadas ou imprecisas) ao usar modelos de linguagem como o ChatGPT.
📍 O que são Alucinações
Alucinações são respostas geradas pelo modelo que parecem confiáveis, mas contêm dados falsos, inventados ou imprecisos.
🚨 Exemplos de Alucinação
| Tipo | Exemplo de Alucinações |
|---|---|
| Estatística falsa | 90% dos brasileiros usam IA todos os fias |
| Autor inventado | “Segundo o professor João da USP…” (não existe) |
| Link falso | “Veja mais em www.estatisticasbr.com.br” (não existe)” |
🧩 Por que isso acontece?
Modelos como o ChatGPT:
- São treinados com grandes volumes de texto, mas não têm acesso em tempo real à internet (a não ser quando explicitamente habilitado).
- Não sabem o que é verdadeiro ou falso — apenas predizem o que parece plausível com base no treinamento.
✅ Como Mitigar Alucinações
🔹 Prompt Ideal:
Responda apenas com informações verificáveis.
Se não tiver certeza absoluta, diga claramente que não sabe.
Não invente dados, estatísticas, links ou nomes de autores.
Seja preciso e cauteloso com afirmações factuais.
Priorize a precisão em vez de preencher a resposta com suposições.
🔹 Técnicas Complementares:
- Valide todas as estatísticas e nomes com fontes externas confiáveis.
- Para informações técnicas, use sempre bases de dados específicas (Google Scholar, IBGE, etc).
- Adicione um aviso no final do texto gerado: “Esta informação foi gerada por IA. Valide fontes antes de usar.”
⚠️ Limitação Importante
Mesmo com bons prompts, nenhum modelo atual (nem o GPT-4 Turbo) é 100% confiável com dados factuais.
Nunca automatize decisões críticas sem validação humana.
🎯 Exercício Prático
Tarefa:
Copie o prompt abaixo e peça ao ChatGPT que te diga quantos brasileiros têm acesso à internet.
Prompt:
“Responda apenas com informações verificáveis. Se não souber, diga que não sabe. Quantos brasileiros têm acesso à internet?”
🔍 Depois, valide o número em uma fonte confiável como o IBGE ou TIC Domicílios.
📝 Conclusão
Evitar alucinações é papel do usuário tanto quanto do modelo.
Com bons prompts e validação ativa, é possível usar IA com segurança e qualidade.
📁 Recursos Úteis
Comentários
Postar um comentário