Direitos do Cidadão
21 de Maio de 2025 às 13h30
MPF recomenda que OpenAI exponha avisos sobre insegurança de dados pessoais no ChatGPT
Fenômeno conhecido como ‘alucinação’ tem dificultado a distinção de informações verdadeiras ou falsas pelos usuários

Foto ilustrativa: Canva
O Ministério Público Federal (MPF) enviou uma recomendação à empresa OpenAI, que mantém a inteligência artificial ChatGPT, para que, nas respostas geradas pela plataforma que contenham informações sobre dados pessoais, a ferramenta informe claramente ao usuário que a resposta pode conter informações criadas pelo modelo de linguagem e que não estão na base de dados do sistema.
A crescente utilização de modelos de linguagem de grande escala (LLMs), como o ChatGPT, levanta preocupações quanto à geração de informações inverídicas, fenômeno conhecido como ‘alucinação’ ou ‘formulação genérica’. Isso ocorre quando o modelo produz um conteúdo que parece plausível, mas é factualmente incorreto, dificultando a distinção entre informações verdadeiras e falsas pelo usuário.
A ocorrência de ‘alucinações’ pode envolver dados pessoais, ferindo princípios da Lei Geral de Proteção de Dados Pessoais (LGPD), especialmente os relativos à qualidade dos dados (art. 6º, V), à transparência (art. 6º, VI) e à segurança dos dados (art. 6º, VII).
O procurador da República Carlos Bruno Ferreira da Silva, autor da recomendação, destaca que, apesar da alegação da OpenAI sobre o tratamento de dados pessoais com base no legítimo interesse, essa justificativa não sustenta a criação e divulgação inadvertida de informações inverídicas sobre indivíduos. A falta de um mecanismo eficaz para identificar respostas que contenham ‘alucinações’ e a presença de um alerta genérico não garantem a proteção adequada dos direitos dos titulares de dados.
A recomendação prevê prazo de 15 dias para que a OpenAI responda sobre as medidas adotadas para o cumprimento ou para que fundamente as razões para o não acatamento.
Fonte MPF