A Meta anunciou que, a partir de 16 de dezembro de 2025, passará a utilizar as interações dos usuários com seus recursos de inteligência artificial generativa como mais uma forma de personalizar recomendações de conteúdo e anúncios em seus aplicativos. Na prática, esta medida tende a intensificar mecanismos de inferência de preferências e interesses com base no comportamento do usuário, o que torna ainda mais relevante a leitura dessa mudança sob a ótica da Lei nº 13.709/2018 (Lei Geral de Proteção de Dados Pessoais – LGPD).
Tal atualização se refere principalmente às interações do usuário com a Meta AI, inclusive por comandos de voz, que passam a influenciar o que o usuário vê e quais anúncios recebe – exatamente o que faz muitas pessoas se questionarem o motivo de receberem determinados anúncios patrocinados após falarem sobre algum produto ou serviço perto do celular. Paralelamente, há menções de que dados públicos e certas interações poderão ser usados para aprimoramento e treinamento de sistemas de IA, com referência à existência de mecanismos de oposição ao treinamento.
À luz dos princípios da LGPD, o primeiro ponto de atenção é o tripé finalidade, adequação e necessidade. Uma atualização que reaproveita dados de interações com IA para fins de publicidade e recomendação pode produzir aquilo que, do ponto de vista de privacidade, se chama de “expansão de finalidade”, ou seja, o usuário procura a IA para resolver tarefas ou esclarecer dúvidas, mas aquele conteúdo passa a ser tratado como insumo comportamental para ranqueamento e segmentação publicitária. Esse cenário reforça o risco de tratamento excessivo, uma vez que perguntas aparentemente banais podem revelar rotina, localização, preferências, relações pessoais, situação financeira ou até elementos que, combinados, permitam inferências sensíveis.
Nesse contexto, a proteção de dados pelo usuário começa por uma postura de minimização, consagrada pelo citado princípio da necessidade. Portanto, quanto menos informações pessoais e contextualizadas forem inseridas em interações com IA, menor o risco de reutilização e de inferência.
O segundo ponto de atenção diz respeito à transparência e ao dever de informação. A Meta indica que comunicará os usuários e que a mudança terá data certa de vigência. Contudo, sob a LGPD, não basta apenas comunicar, mas a informação deve ser clara, acessível e permitir que o titular compreenda, de modo efetivo, quais dados poderão ser tratados, para quais finalidades, se há compartilhamento e quais controles o titular possui. Esse último ponto é especialmente relevante porque a Meta também descreve que o uso entre aplicativos depende das contas vinculadas na Central de Contas, de modo que a decisão de vincular ou não contas passa a ter efeito concreto sobre o ecossistema de dados e a personalização cruzada.

Um terceiro ponto relevante envolve o legítimo interesse, especialmente quando se fala em melhoria contínua e treinamento de modelos de IA. Há reportagens que mencionam esse enquadramento e apontam a existência de mecanismos de oposição. Para o titular, isso significa que, mesmo quando não há uma caixa de consentimento, a LGPD preserva instrumentos de controle, sendo possível buscar os canais de oposição quando disponíveis e, sobretudo, calibrar configurações e hábitos de uso para reduzir a geração de dados que alimentem esses sistemas.
Destaca-se, ainda, que a Meta afirma que temas sensíveis, como religião, orientação sexual, opiniões políticas, saúde, dentre outros, não serão utilizados para exibir anúncios. Ainda assim, do ponto de vista de risco, é importante considerar que a proteção contra a publicidade segmentada por assuntos sensíveis não elimina o problema das inferências, tendo em vista que uma sequência de interações ou padrões de consumo pode sugerir características sensíveis, mesmo quando o titular não as declara expressamente. Por este motivo, a recomendação prática é tratar qualquer interação com IA como um ambiente de exposição elevada, evitando inserir dados sensíveis, dados de crianças e adolescentes, documentos, informações bancárias, dados de saúde ou detalhes pessoais que permitam identificação, correlação ou rastreamento.
Além disso, a atualização reforça discussões ligadas à tomada de decisão automatizada. Mecanismos de recomendação e segmentação publicitária são, em larga medida, processamentos automatizados que influenciam a experiência do usuário e podem, em certos contextos, afetar interesses de forma relevante. Ainda que nem toda recomendação de feed constitua, por si só, uma decisão juridicamente acionável, o cenário reforça a conveniência de o titular conhecer e usar os controles disponíveis de preferências de anúncios e de conteúdo, justamente para reduzir os efeitos da segmentação e do ranqueamento alimentado por sinais comportamentais.
Diante desse quadro, boas práticas de proteção de dados para usuários das redes sociais da Meta se organizam em diferentes frentes:
- Reduzir exposição pública e desnecessária: revisar a privacidade do perfil, tornar publicações que não precisem ser públicas restritas a seguidores/amigos, limitar visibilidade de stories, revisar marcações e menções, e, quando possível, remover conteúdos antigos que exibam rotinas, endereços, placas, documentos ou outros identificadores;
- Tratar a Meta AI como um canal onde apenas informações “descartáveis” deveriam ser compartilhadas: evitar inserir dados sensíveis, e, se a interação for por voz, manter controles de microfone e permissões sob revisão, lembrando que o uso de comandos de voz também entra no radar dessa atualização;
- Revisar controles internos da plataforma: revisitar preferências de anúncios e controles de feed, e, sobretudo, revisar a Central de Contas para compreender quais contas estão vinculadas e qual é o impacto desse vínculo na personalização cruzada, já que a própria Meta indica que as interações com IA podem ser usadas entre produtos de acordo com essa vinculação; e
- Exercício de direitos: quando houver canal de oposição associado ao uso de dados para treinamento/melhoria de IA, é recomendável utilizá-lo, somado à revisão contínua das configurações de privacidade e segurança, incluindo autenticação em dois fatores e revisão de sessões ativas, por serem medidas de alto impacto para redução de danos em caso de comprometimento de conta.
Em síntese, o ponto central, à luz da LGPD, é que a atualização tende a ampliar o valor das interações do usuário com IA como dado comportamental para personalização e publicidade, e possivelmente como insumo de melhoria de modelos, o que aumenta a necessidade de atenção aos princípios supracitados e ao exercício de controles e direitos disponíveis. A melhor proteção não depende de uma única configuração, mas da combinação entre reduzir a exposição, ajustar preferências e vínculos entre contas, limitar permissões e, sobretudo, adotar um padrão de uso em que a IA não seja tratada como um ambiente apropriado para informações pessoais, sensíveis ou identificáveis.
—
Advogado(a) autor(a) do comentário: Pedro Moreno Da Cunha Lins, Pedro Zardo Júnior e Cesar Peduti Filho, Peduti Advogados
—
Se quiser saber mais sobre este tema, contate o autor ou o Dr. Cesar Peduti Filho.
If you want to learn more about this topic, contact the author or the managing partner, Dr. Cesar Peduti Filho.
