Os impactos da nova política da Meta sob a LGPD e como se proteger - Peduti Advogados Skip to content

Os impactos da nova política da Meta sob a LGPD e como se proteger

A Meta anunciou que, a partir de 16 de dezembro de 2025, passará a utilizar as interações dos usuários com seus recursos de inteligência artificial generativa como mais uma forma de personalizar recomendações de conteúdo e anúncios em seus aplicativos. Na prática, esta medida tende a intensificar mecanismos de inferência de preferências e interesses com base no comportamento do usuário, o que torna ainda mais relevante a leitura dessa mudança sob a ótica da Lei nº 13.709/2018 (Lei Geral de Proteção de Dados Pessoais – LGPD).

 

Tal atualização se refere principalmente às interações do usuário com a Meta AI, inclusive por comandos de voz, que passam a influenciar o que o usuário vê e quais anúncios recebe – exatamente o que faz muitas pessoas se questionarem o motivo de receberem determinados anúncios patrocinados após falarem sobre algum produto ou serviço perto do celular. Paralelamente, há menções de que dados públicos e certas interações poderão ser usados para aprimoramento e treinamento de sistemas de IA, com referência à existência de mecanismos de oposição ao treinamento.

 

À luz dos princípios da LGPD, o primeiro ponto de atenção é o tripé finalidade, adequação e necessidade. Uma atualização que reaproveita dados de interações com IA para fins de publicidade e recomendação pode produzir aquilo que, do ponto de vista de privacidade, se chama de “expansão de finalidade”, ou seja, o usuário procura a IA para resolver tarefas ou esclarecer dúvidas, mas aquele conteúdo passa a ser tratado como insumo comportamental para ranqueamento e segmentação publicitária. Esse cenário reforça o risco de tratamento excessivo, uma vez que perguntas aparentemente banais podem revelar rotina, localização, preferências, relações pessoais, situação financeira ou até elementos que, combinados, permitam inferências sensíveis.

 

Nesse contexto, a proteção de dados pelo usuário começa por uma postura de minimização, consagrada pelo citado princípio da necessidade. Portanto, quanto menos informações pessoais e contextualizadas forem inseridas em interações com IA, menor o risco de reutilização e de inferência.

 

O segundo ponto de atenção diz respeito à transparência e ao dever de informação. A Meta indica que comunicará os usuários e que a mudança terá data certa de vigência. Contudo, sob a LGPD, não basta apenas comunicar, mas a informação deve ser clara, acessível e permitir que o titular compreenda, de modo efetivo, quais dados poderão ser tratados, para quais finalidades, se há compartilhamento e quais controles o titular possui. Esse último ponto é especialmente relevante porque a Meta também descreve que o uso entre aplicativos depende das contas vinculadas na Central de Contas, de modo que a decisão de vincular ou não contas passa a ter efeito concreto sobre o ecossistema de dados e a personalização cruzada.

 

 

Um terceiro ponto relevante envolve o legítimo interesse, especialmente quando se fala em melhoria contínua e treinamento de modelos de IA. Há reportagens que mencionam esse enquadramento e apontam a existência de mecanismos de oposição. Para o titular, isso significa que, mesmo quando não há uma caixa de consentimento, a LGPD preserva instrumentos de controle, sendo possível buscar os canais de oposição quando disponíveis e, sobretudo, calibrar configurações e hábitos de uso para reduzir a geração de dados que alimentem esses sistemas. 

 

Destaca-se, ainda, que a Meta afirma que temas sensíveis, como religião, orientação sexual, opiniões políticas, saúde, dentre outros, não serão utilizados para exibir anúncios. Ainda assim, do ponto de vista de risco, é importante considerar que a proteção contra a publicidade segmentada por assuntos sensíveis não elimina o problema das inferências, tendo em vista que uma sequência de interações ou padrões de consumo pode sugerir características sensíveis, mesmo quando o titular não as declara expressamente. Por este motivo, a recomendação prática é tratar qualquer interação com IA como um ambiente de exposição elevada, evitando inserir dados sensíveis, dados de crianças e adolescentes, documentos, informações bancárias, dados de saúde ou detalhes pessoais que permitam identificação, correlação ou rastreamento.

 

Além disso, a atualização reforça discussões ligadas à tomada de decisão automatizada. Mecanismos de recomendação e segmentação publicitária são, em larga medida, processamentos automatizados que influenciam a experiência do usuário e podem, em certos contextos, afetar interesses de forma relevante. Ainda que nem toda recomendação de feed constitua, por si só, uma decisão juridicamente acionável, o cenário reforça a conveniência de o titular conhecer e usar os controles disponíveis de preferências de anúncios e de conteúdo, justamente para reduzir os efeitos da segmentação e do ranqueamento alimentado por sinais comportamentais.

 

Diante desse quadro, boas práticas de proteção de dados para usuários das redes sociais da Meta se organizam em diferentes frentes:

  • Reduzir exposição pública e desnecessária: revisar a privacidade do perfil, tornar publicações que não precisem ser públicas restritas a seguidores/amigos, limitar visibilidade de stories, revisar marcações e menções, e, quando possível, remover conteúdos antigos que exibam rotinas, endereços, placas, documentos ou outros identificadores;
  • Tratar a Meta AI como um canal onde apenas informações “descartáveis” deveriam ser compartilhadas: evitar inserir dados sensíveis, e, se a interação for por voz, manter controles de microfone e permissões sob revisão, lembrando que o uso de comandos de voz também entra no radar dessa atualização;
  • Revisar controles internos da plataforma: revisitar preferências de anúncios e controles de feed, e, sobretudo, revisar a Central de Contas para compreender quais contas estão vinculadas e qual é o impacto desse vínculo na personalização cruzada, já que a própria Meta indica que as interações com IA podem ser usadas entre produtos de acordo com essa vinculação; e 
  • Exercício de direitos: quando houver canal de oposição associado ao uso de dados para treinamento/melhoria de IA, é recomendável utilizá-lo, somado à revisão contínua das configurações de privacidade e segurança, incluindo autenticação em dois fatores e revisão de sessões ativas, por serem medidas de alto impacto para redução de danos em caso de comprometimento de conta.

 

Em síntese, o ponto central, à luz da LGPD, é que a atualização tende a ampliar o valor das interações do usuário com IA como dado comportamental para personalização e publicidade, e possivelmente como insumo de melhoria de modelos, o que aumenta a necessidade de atenção aos princípios supracitados e ao exercício de controles e direitos disponíveis. A melhor proteção não depende de uma única configuração, mas da combinação entre reduzir a exposição, ajustar preferências e vínculos entre contas, limitar permissões e, sobretudo, adotar um padrão de uso em que a IA não seja tratada como um ambiente apropriado para informações pessoais, sensíveis ou identificáveis. 

 

 

Advogado(a) autor(a) do comentário: Pedro Moreno Da Cunha Lins, Pedro Zardo Júnior e Cesar Peduti Filho, Peduti Advogados

 

 

Se quiser saber mais sobre este tema, contate o autor ou o Dr. Cesar Peduti Filho.

If you want to learn more about this topic, contact the author or the managing partner, Dr. Cesar Peduti Filho.

Facebook
Twitter
LinkedIn
WhatsApp

Artigos Recomendados

Peduti Advogados é uma banca especializada na área de propriedade intelectual, entretenimento e tecnologia da informação. Com mais de 40 anos de tradição nestas áreas, nossa atuação resulta dos padrões de excelência almejados com a nossa prática e do expertise e conhecimento de nosso time de profissionais.
Artigos Recentes
Categorias

Entre em Contato:

R. Tenente Negrão, 140 – Itaim Bibi
São Paulo – SP | BRASIL, 04530-030

+55 (11) 3706-0353

peduti@peduti.com.br