Decisão da União Europeia reacende discussão sobre conteúdo ilegal em redes sociais

October 28, 2025

Na última sexta-feira, 24 de outubro, o Jornal The Guardian publicou uma matéria afirmando que a Meta Platforms Inc. teria violado a legislação da União Europeia (UE). A notícia ganhou relevância, não apenas por envolver uma das maiores empresas do mundo moderno, controladora de gigantes como Facebook, Instagram e WhatsApp, mas por reacender a responsabilidade das redes sociais no controle de conteúdo ilegal em seus domínios virtuais.

A ascensão das plataformas digitais redefiniu a comunicação, o comércio, a política e a vida social. Bilhões de usuários em todo o mundo as utilizam diariamente, conferindo-lhes um poder sem precedentes na formação da opinião pública e na mediação de interações sociais. Contudo, essa revolução tecnológica nas relações humanas veio acompanhada de um lado negativo: a proliferação de desinformação, de discursos de ódio, de conteúdo extremista, de material de abuso sexual infantil e de manipulação eleitoral. Casos como o escândalo da Cambridge Analytica, a interferência russa nas eleições americanas de 2016 e os eventos que culminaram no ataque ao Capitólio, em Washington, EUA, em janeiro de 2021, serviram como catalisadores para a tomada de consciência de que o modelo de autorregulação das plataformas era insuficiente.

A União Europeia, em particular, tem se posicionado como uma vanguarda na regulação digital global. Com a implementação do Regulamento Geral de Proteção de Dados (GDPR – General Data Protection Regulation) em 2018, seguido pelo Digital Services Act (DSA) e o Digital Markets Act (DMA) em 2022 e 2023, a UE estabeleceu um arcabouço legal ambicioso para endereçar os desafios da economia digital. Estes regulamentos visam não apenas proteger os direitos fundamentais dos cidadãos, mas também nivelar o mercado para empresas menores e fomentar a inovação responsável.

A declaração da ilicitude cometida pela Meta em 2025, portanto, demonstra a intenção da UE de fazer valer suas novas leis, estabelecendo um precedente que ecoará em jurisdições ao redor do globo. É um sinal inequívoco de que as plataformas digitais não podem mais operar em um vácuo regulatório, e que a responsabilidade por um ambiente online seguro e confiável é uma obrigação legal, e não apenas uma aspiração ética.

Definição de Fake News e a Polêmica entre o Direito de Livre Expressão e as Fake News

O termo “fake news” é frequentemente empregado de forma imprecisa, sendo fundamental distinguir entre diferentes categorias de informações problemáticas que circulam no ambiente digital. A taxonomia mais aceita atualmente é proposta pela professora Claire Wardle, que distingue entre:

Termo

Definição

Misinformação (Misinformation)

Informação falsa, mas que não tem a intenção de causar dano. Pode ser um erro genuíno ou uma informação desatualizada.

Desinformação (Disinformation)

Informação falsa com a intenção deliberada de enganar e causar dano, seja político, financeiro ou social.

Malinformação (Malinformation)

Informação verdadeira, mas utilizada fora de contexto ou para causar dano.

A complexidade em identificar e combater a desinformação é multifacetada. Primeiramente, a velocidade e o volume das informações nas redes sociais superam a capacidade humana – e muitas vezes algorítmica – de verificação. Milhões de publicações são feitas a cada minuto, tornando a moderação em tempo real uma tarefa praticamente impossível. Em segundo lugar, a desinformação se adapta e evolui. Os criadores de conteúdo falso utilizam técnicas cada vez mais sofisticadas, incluindo deepfakes (vídeos, áudios e imagens falsos criados com inteligência artificial (IA), especificamente por meio da técnica de deep learning (aprendizagem profunda), que faz com que pareçam extremamente realistas), para aumentar a veracidade percebida de suas narrativas.

No centro da polêmica sobre fake news e sua regulação está o conflito com o direito fundamental à liberdade de expressão e a necessidade de proteger a sociedade dos danos causados pela desinformação. A liberdade de expressão é um pilar das sociedades democráticas, essencial para o desenvolvimento do pensamento crítico, o debate público e a prestação de contas daqueles que detêm o poder. No entanto, a maioria das constituições e tratados internacionais de direitos humanos reconhece que esse direito não é absoluto e pode ser limitado para proteger outros direitos ou interesses legítimos, como a segurança nacional, a ordem pública, a saúde e a moralidade públicas, ou os direitos e reputação do cidadão.

O desafio reside em estabelecer os limites entre a liberdade de expressão e o combate às fake news. Quem decide o que é “falso”? E quais são as consequências de permitir que plataformas ou governos atuem como “árbitros da verdade”? A preocupação é que a supressão de desinformação possa inadvertidamente levar à censura de opiniões impopulares ou críticas legítimas.

O direito internacional e as abordagens regulatórias variam. Nos Estados Unidos, a Primeira Emenda à Constituição protege amplamente a liberdade de expressão, tornando a regulação de conteúdo “falso” um desafio constitucional significativo, exceto em casos muito específicos (como difamação ou incitação à violência). Na Europa, a abordagem é frequentemente mais permissiva a restrições, particularmente para discursos de ódio ou incitação à violência, alinhando-se com o Artigo 10 da Convenção Europeia de Direitos Humanos, que permite restrições “necessárias em uma sociedade democrática”.

A decisão da UE reflete a visão europeia de que as plataformas têm uma responsabilidade ativa. A UE argumenta que, dado o alcance e a capacidade de amplificação das plataformas, elas não podem ser meros intermediários passivos. A falha em combater efetivamente a desinformação e o conteúdo ilegal é vista não como uma proteção da liberdade de expressão, mas como uma falha em proteger a esfera pública e os usuários, especialmente quando essa inação tem consequências prejudiciais evidentes para a saúde pública, a integridade eleitoral ou a segurança individual. Encontrar o equilíbrio certo entre proteger a liberdade de expressão e combater a desinformação é uma das tarefas mais prementes e complexas da governança digital da nossa era.

Dark Patterns e a Acusação contra a Meta

A acusação de que a Meta utilizou dark patterns para dificultar as reclamações de conteúdo ilegal é um dos pilares mais graves da autuação da União Europeia em outubro de 2025. Dark patterns, ou “padrões obscuros”, são elementos de design de interface cuidadosamente projetados para enganar, induzir ou coagir os usuários a tomarem ações que podem não ser do seu interesse ou que eles não pretendiam tomar inicialmente. Os padrões obscuros exploram vieses cognitivos para maximizar métricas de engajamento, coleta de dados ou até mesmo receita, muitas vezes em detrimento da autonomia e da privacidade do usuário.

As terminologias dark patterns e deceptive patterns foram criadas pelo pesquisador Harry Brignull em 2010 para classificar e conscientizar as pessoas sobre essas práticas manipuladoras. Ao longo dos anos, uma tipologia abrangente emergiu, incluindo diversas categorias, especialmente as listadas abaixo:

Tipo de Dark Pattern

Definição

Roach Motel

É fácil entrar, mas difícil sair. Exemplo: um processo de assinatura online que é simples, mas seu cancelamento envolve múltiplas etapas, ligações telefônicas demoradas ou botões escondidos.

Privacy Zuckering

Induzir o usuário a compartilhar mais informações pessoais do que ele pretendia ou a tornar suas configurações de privacidade menos restritivas. Nomes como “Privacy Zuckering” são uma referência à forma como Mark Zuckerberg, CEO da Meta, tem sido historicamente associado a práticas de privacidade questionáveis.

Confirmshaming

Usar linguagem que faz o usuário se sentir culpado ou constrangido por optar por uma escolha que não seja a preferida pela plataforma. Exemplo: “Não, obrigado, prefiro pagar o preço total e perder a oferta” ou “Não, obrigado, não quero melhorar minha segurança”.

Sneak into Basket

Adicionar itens extras à compra de um usuário automaticamente, como seguros, doações ou produtos complementares, exigindo que o usuário os remova manualmente.

Disguised Ads

Fazer com que conteúdo publicitário se pareça com conteúdo editorial normal, tornando difícil para o usuário distinguir o que é um anúncio.

Trick Questions

Formulários ou perguntas que usam linguagem confusa ou dupla negativa para fazer o usuário concordar com algo que ele não pretendia.

Forced Action

Forçar o usuário a realizar uma ação (como assistir a um anúncio ou compartilhar dados) para acessar um recurso desejado.

Misdirection

Destacar uma opção desejada pela plataforma com cores e tamanhos proeminentes, enquanto esconde a opção que o usuário pode preferir.

A acusação específica contra a Meta pela UE é particularmente grave, pois não se trata apenas de manipulação comercial ou de privacidade, mas de uma alegada obstrução à denúncia de conteúdo ilegal e profundamente prejudicial, como material de abuso sexual infantil e conteúdo terrorista. A Comissão Europeia argumenta que a Meta teria deliberadamente projetado suas interfaces de forma a tornar o processo de identificação, acesso e utilização dos mecanismos de denúncia de tais conteúdos excessivamente complicado, oculto ou frustrante.

Isso significa, por exemplo, que o botão de “denunciar” poderia estar escondido em múltiplos submenus, a linguagem para descrever a infração seria vaga e exigiria conhecimento técnico ou o processo seria tão longo e repetitivo que desencorajaria o usuário a completá-lo. Ao empregar tais dark patterns, a Meta não apenas falharia em seu dever de cuidado com seus usuários, mas também agiria como um obstáculo ativo para a remoção de conteúdo que representa um perigo real e imediato para a sociedade, especialmente para crianças.

As implicações dessa prática são graves, tendo vista que: (i) quanto mais difícil de denunciar, mais tempo o conteúdo ilegal permanece online, aumentando o seu alcance e o dano potencial a vítimas; (ii) usuários que tentam denunciar e se deparam com obstáculos podem perder a confiança na capacidade da plataforma de protegê-los; (iii) a dificuldade em coletar denúncias impede que as autoridades e as próprias plataformas identifiquem e investiguem proativamente ilegalidades, crimes ou até mesmo terrorismo; e (iv) o uso de dark patterns para esses fins é uma clara violação de várias leis e regulamentos, incluindo o Digital Services Act (DSA) da UE, que exige mecanismos claros e acessíveis para denúncia de conteúdo ilegal.

A autuação da UE envia uma mensagem inequívoca para o mundo: o design de interface não é ausente de regulação. Quando manipulado para fins que comprometem a segurança e os direitos fundamentais dos usuários, especialmente em casos de material ilegal grave, ele se torna uma ferramenta de cumplicidade, e as empresas serão responsabilizadas por isso. A erradicação de dark patterns é vista como um passo essencial para restaurar a autonomia do usuário e garantir um ambiente digital mais ético e seguro.

O Caso do Vídeo Deepfake na Irlanda

O incidente do vídeo deepfake envolvendo a candidata presidencial Catherine Connolly na Irlanda, em outubro de 2025, serve como um poderoso e perturbador estudo de caso sobre os desafios crescentes que a inteligência artificial generativa representa para a integridade da informação, dos processos democráticos e da confiança pública. Este evento não apenas complementa as razões da autuação da Meta, mas ilustra a ponta de um iceberg tecnológico com vastas implicações.

Durante um período sumamente importante da campanha presidencial irlandesa, um vídeo digitalmente manipulado de Catherine Connolly, uma das candidatas proeminentes, começou a circular amplamente nas redes sociais. O vídeo mostrava Catherine anunciando sua suposta retirada da corrida eleitoral, com sua imagem e voz clonadas de forma impecável. A sofisticação técnica era tal que a simulação era quase indistinguível de um vídeo autêntico. Para aumentar a credibilidade e a confusão, o deepfake foi produzido para imitar o estilo e a apresentação de uma transmissão de notícias da RTÉ News, a emissora de serviço público da Irlanda, conferindo-lhe uma falsa percepção de legitimidade jornalística.

A rapidez com que este vídeo se espalhou pelo mundo digital, incluindo as plataformas da Meta, e o impacto imediato na opinião pública foram alarmantes. Antes que as equipes de verificação de fatos das mídias e as próprias plataformas pudessem agir eficazmente, o conteúdo já havia sido visto e compartilhado por milhões de pessoas. Catherine Connolly e sua campanha foram forçadas a reagir prontamente, desmentindo publicamente o vídeo e denunciando-o como uma tentativa maliciosa de interferência nas eleições. A remoção subsequente do vídeo e da conta original pela Meta, embora necessária, veio apenas depois que a desinformação já havia plantado sementes de dúvida e confusão no eleitorado.

O caso de Catherine Connolly ressoa profundamente com as preocupações da UE sobre a responsabilidade das plataformas. Ele demonstra a necessidade premente de que as empresas de tecnologia não apenas invistam em tecnologias de detecção e remoção, mas também garantam que seus mecanismos de denúncia sejam eficazes e que haja transparência sobre como esses incidentes são tratados. A atuação da Meta, neste contexto, pode ser vista como um catalisador para que todas as plataformas digitais enfrentem a ameaça de deepfakes e outras formas de desinformação por IA antes elas que comprometam irreversivelmente a confiança nas instituições e na própria realidade.

Violação das Obrigações de Transparência de Dados

Um ponto de grave preocupação para a Comissão Europeia, e um fator central na autuação da Meta em outubro deste ano foi a conclusão preliminar de que houve violação de suas obrigações de conceder aos pesquisadores acesso adequado a dados públicos. Esta não é uma mera questão técnica, mas uma falha fundamental que compromete a capacidade de a sociedade compreender, monitorar e mitigar os impactos sistêmicos das plataformas digitais, com foco na proteção de grupos vulneráveis.

A base para essas obrigações de transparência é o Digital Services Act (DSA) da União Europeia. O DSA foi projetado para responsabilizar as grandes plataformas online (Very Large Online Platforms – VLOPs e Very Large Online Search Engines – VLOSEs) pelos riscos sociais que representam e inclui disposições explícitas exigindo que essas entidades forneçam acesso a dados para pesquisadores independentes e verificados. O objetivo é permitir que acadêmicos, jornalistas investigativos e organizações da sociedade civil conduzam pesquisas essenciais sobre como as plataformas funcionam, quais são os seus impactos e como o conteúdo – tanto legal como ilegal – se espalha.

Os tipos de dados que os pesquisadores necessitam e que a UE exige acesso incluem, mas não se limitam a:

Tipos de Dados

Definição

Dados sobre moderação de conteúdo

Taxas de remoção, tipos de conteúdo removido, denúncias recebidas, eficácia das ferramentas de IA para moderação.

Dados sobre disseminação algorítmica

Como os algoritmos priorizam, recomendam e amplificam determinados conteúdos, incluindo desinformação, discurso de ódio e propaganda.

Dados sobre publicidade direcionada

Como os anúncios são segmentados, quem são os anunciantes e o impacto da publicidade política ou socialmente sensível.

Dados sobre padrões de uso e exposição

Informações agregadas e anonimizadas sobre como os usuários interagem com a plataforma e a que tipo de conteúdo são expostos.

As plataformas, por sua vez, frequentemente justificam a restrição ao acesso a dados citando preocupações com a privacidade dos usuários, a segurança de seus sistemas e a proteção de segredos comerciais. No entanto, a UE argumenta que essas preocupações podem ser mitigadas através de métodos como a anonimização robusta de dados, a agregação de informações, o fornecimento de acesso em ambientes seguros e controlados (sandboxes), e a imposição de acordos de confidencialidade rigorosos. A prevalência da necessidade de pesquisa para o bem público, especialmente quando os riscos para a sociedade são tão altos, supera a alegação de sigilo comercial absoluto.

A responsabilização da Meta por esta violação não é apenas um lembrete das suas obrigações legais sob o DSA, mas também uma declaração de que a era na qual as plataformas operavam como “caixas-pretas” impenetráveis está terminando. A UE está forçando essas empresas a abrirem seus dados para o escrutínio público e acadêmico, reconhecendo que a verdadeira responsabilidade digital exige transparência e a capacidade de verificação independente. Sem essa transparência, qualquer alegação de que as plataformas estão “fazendo o seu melhor” para combater conteúdo prejudicial e proteger seus usuários permanece sem comprovação e, portanto, inadequada.

Consequências dessa Decisão da UE

A responsabilização da Meta pela União Europeia representa um marco indelével na evolução da regulação digital, sedimentando uma década de debates e preocupações em ações concretas.

Financeiramente, a autuação pode resultar em multas substanciais, que, sob o DSA, podem chegar a 6% do faturamento global anual da empresa. Além disso, os custos de contratar mais moderadores, investir em novas tecnologias, reengenharia de design de interface e infraestrutura de dados para pesquisadores – conformidade – serão significativos.

Em termos de reputação, este evento pode corroer ainda mais a confiança do público na Meta, que já enfrenta escrutínio constante. Uma reputação negativa pode impactar o engajamento do usuário, a retenção de talentos e a disposição de anunciantes, afetando, em última instância, sua sustentabilidade a longo prazo. Outras empresas de tecnologia serão levadas a reavaliar suas próprias práticas e investir proativamente em conformidade para evitar serem as próximas na linha de fogo regulatória. A autuação da Meta, portanto, não é um fim em si mesma, mas um catalisador para uma transformação mais ampla.

RECENT POSTS

LINKEDIN FEED

Newsletter

Register your email and receive our updates

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.

FOLLOW US ON SOCIAL MEDIA

Newsletter

Register your email and receive our updates-

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.

FOLLOW US ON SOCIAL MEDIA

Licks Attorneys' Government Affairs & International Relations Blog

Doing Business in Brazil: Political and economic landscape

Licks Attorneys' COMPLIANCE Blog

Decisão da União Europeia reacende discussão sobre conteúdo ilegal em redes sociais

No items found.

Na última sexta-feira, 24 de outubro, o Jornal The Guardian publicou uma matéria afirmando que a Meta Platforms Inc. teria violado a legislação da União Europeia (UE). A notícia ganhou relevância, não apenas por envolver uma das maiores empresas do mundo moderno, controladora de gigantes como Facebook, Instagram e WhatsApp, mas por reacender a responsabilidade das redes sociais no controle de conteúdo ilegal em seus domínios virtuais.

A ascensão das plataformas digitais redefiniu a comunicação, o comércio, a política e a vida social. Bilhões de usuários em todo o mundo as utilizam diariamente, conferindo-lhes um poder sem precedentes na formação da opinião pública e na mediação de interações sociais. Contudo, essa revolução tecnológica nas relações humanas veio acompanhada de um lado negativo: a proliferação de desinformação, de discursos de ódio, de conteúdo extremista, de material de abuso sexual infantil e de manipulação eleitoral. Casos como o escândalo da Cambridge Analytica, a interferência russa nas eleições americanas de 2016 e os eventos que culminaram no ataque ao Capitólio, em Washington, EUA, em janeiro de 2021, serviram como catalisadores para a tomada de consciência de que o modelo de autorregulação das plataformas era insuficiente.

A União Europeia, em particular, tem se posicionado como uma vanguarda na regulação digital global. Com a implementação do Regulamento Geral de Proteção de Dados (GDPR – General Data Protection Regulation) em 2018, seguido pelo Digital Services Act (DSA) e o Digital Markets Act (DMA) em 2022 e 2023, a UE estabeleceu um arcabouço legal ambicioso para endereçar os desafios da economia digital. Estes regulamentos visam não apenas proteger os direitos fundamentais dos cidadãos, mas também nivelar o mercado para empresas menores e fomentar a inovação responsável.

A declaração da ilicitude cometida pela Meta em 2025, portanto, demonstra a intenção da UE de fazer valer suas novas leis, estabelecendo um precedente que ecoará em jurisdições ao redor do globo. É um sinal inequívoco de que as plataformas digitais não podem mais operar em um vácuo regulatório, e que a responsabilidade por um ambiente online seguro e confiável é uma obrigação legal, e não apenas uma aspiração ética.

Definição de Fake News e a Polêmica entre o Direito de Livre Expressão e as Fake News

O termo “fake news” é frequentemente empregado de forma imprecisa, sendo fundamental distinguir entre diferentes categorias de informações problemáticas que circulam no ambiente digital. A taxonomia mais aceita atualmente é proposta pela professora Claire Wardle, que distingue entre:

Termo

Definição

Misinformação (Misinformation)

Informação falsa, mas que não tem a intenção de causar dano. Pode ser um erro genuíno ou uma informação desatualizada.

Desinformação (Disinformation)

Informação falsa com a intenção deliberada de enganar e causar dano, seja político, financeiro ou social.

Malinformação (Malinformation)

Informação verdadeira, mas utilizada fora de contexto ou para causar dano.

A complexidade em identificar e combater a desinformação é multifacetada. Primeiramente, a velocidade e o volume das informações nas redes sociais superam a capacidade humana – e muitas vezes algorítmica – de verificação. Milhões de publicações são feitas a cada minuto, tornando a moderação em tempo real uma tarefa praticamente impossível. Em segundo lugar, a desinformação se adapta e evolui. Os criadores de conteúdo falso utilizam técnicas cada vez mais sofisticadas, incluindo deepfakes (vídeos, áudios e imagens falsos criados com inteligência artificial (IA), especificamente por meio da técnica de deep learning (aprendizagem profunda), que faz com que pareçam extremamente realistas), para aumentar a veracidade percebida de suas narrativas.

No centro da polêmica sobre fake news e sua regulação está o conflito com o direito fundamental à liberdade de expressão e a necessidade de proteger a sociedade dos danos causados pela desinformação. A liberdade de expressão é um pilar das sociedades democráticas, essencial para o desenvolvimento do pensamento crítico, o debate público e a prestação de contas daqueles que detêm o poder. No entanto, a maioria das constituições e tratados internacionais de direitos humanos reconhece que esse direito não é absoluto e pode ser limitado para proteger outros direitos ou interesses legítimos, como a segurança nacional, a ordem pública, a saúde e a moralidade públicas, ou os direitos e reputação do cidadão.

O desafio reside em estabelecer os limites entre a liberdade de expressão e o combate às fake news. Quem decide o que é “falso”? E quais são as consequências de permitir que plataformas ou governos atuem como “árbitros da verdade”? A preocupação é que a supressão de desinformação possa inadvertidamente levar à censura de opiniões impopulares ou críticas legítimas.

O direito internacional e as abordagens regulatórias variam. Nos Estados Unidos, a Primeira Emenda à Constituição protege amplamente a liberdade de expressão, tornando a regulação de conteúdo “falso” um desafio constitucional significativo, exceto em casos muito específicos (como difamação ou incitação à violência). Na Europa, a abordagem é frequentemente mais permissiva a restrições, particularmente para discursos de ódio ou incitação à violência, alinhando-se com o Artigo 10 da Convenção Europeia de Direitos Humanos, que permite restrições “necessárias em uma sociedade democrática”.

A decisão da UE reflete a visão europeia de que as plataformas têm uma responsabilidade ativa. A UE argumenta que, dado o alcance e a capacidade de amplificação das plataformas, elas não podem ser meros intermediários passivos. A falha em combater efetivamente a desinformação e o conteúdo ilegal é vista não como uma proteção da liberdade de expressão, mas como uma falha em proteger a esfera pública e os usuários, especialmente quando essa inação tem consequências prejudiciais evidentes para a saúde pública, a integridade eleitoral ou a segurança individual. Encontrar o equilíbrio certo entre proteger a liberdade de expressão e combater a desinformação é uma das tarefas mais prementes e complexas da governança digital da nossa era.

Dark Patterns e a Acusação contra a Meta

A acusação de que a Meta utilizou dark patterns para dificultar as reclamações de conteúdo ilegal é um dos pilares mais graves da autuação da União Europeia em outubro de 2025. Dark patterns, ou “padrões obscuros”, são elementos de design de interface cuidadosamente projetados para enganar, induzir ou coagir os usuários a tomarem ações que podem não ser do seu interesse ou que eles não pretendiam tomar inicialmente. Os padrões obscuros exploram vieses cognitivos para maximizar métricas de engajamento, coleta de dados ou até mesmo receita, muitas vezes em detrimento da autonomia e da privacidade do usuário.

As terminologias dark patterns e deceptive patterns foram criadas pelo pesquisador Harry Brignull em 2010 para classificar e conscientizar as pessoas sobre essas práticas manipuladoras. Ao longo dos anos, uma tipologia abrangente emergiu, incluindo diversas categorias, especialmente as listadas abaixo:

Tipo de Dark Pattern

Definição

Roach Motel

É fácil entrar, mas difícil sair. Exemplo: um processo de assinatura online que é simples, mas seu cancelamento envolve múltiplas etapas, ligações telefônicas demoradas ou botões escondidos.

Privacy Zuckering

Induzir o usuário a compartilhar mais informações pessoais do que ele pretendia ou a tornar suas configurações de privacidade menos restritivas. Nomes como “Privacy Zuckering” são uma referência à forma como Mark Zuckerberg, CEO da Meta, tem sido historicamente associado a práticas de privacidade questionáveis.

Confirmshaming

Usar linguagem que faz o usuário se sentir culpado ou constrangido por optar por uma escolha que não seja a preferida pela plataforma. Exemplo: “Não, obrigado, prefiro pagar o preço total e perder a oferta” ou “Não, obrigado, não quero melhorar minha segurança”.

Sneak into Basket

Adicionar itens extras à compra de um usuário automaticamente, como seguros, doações ou produtos complementares, exigindo que o usuário os remova manualmente.

Disguised Ads

Fazer com que conteúdo publicitário se pareça com conteúdo editorial normal, tornando difícil para o usuário distinguir o que é um anúncio.

Trick Questions

Formulários ou perguntas que usam linguagem confusa ou dupla negativa para fazer o usuário concordar com algo que ele não pretendia.

Forced Action

Forçar o usuário a realizar uma ação (como assistir a um anúncio ou compartilhar dados) para acessar um recurso desejado.

Misdirection

Destacar uma opção desejada pela plataforma com cores e tamanhos proeminentes, enquanto esconde a opção que o usuário pode preferir.

A acusação específica contra a Meta pela UE é particularmente grave, pois não se trata apenas de manipulação comercial ou de privacidade, mas de uma alegada obstrução à denúncia de conteúdo ilegal e profundamente prejudicial, como material de abuso sexual infantil e conteúdo terrorista. A Comissão Europeia argumenta que a Meta teria deliberadamente projetado suas interfaces de forma a tornar o processo de identificação, acesso e utilização dos mecanismos de denúncia de tais conteúdos excessivamente complicado, oculto ou frustrante.

Isso significa, por exemplo, que o botão de “denunciar” poderia estar escondido em múltiplos submenus, a linguagem para descrever a infração seria vaga e exigiria conhecimento técnico ou o processo seria tão longo e repetitivo que desencorajaria o usuário a completá-lo. Ao empregar tais dark patterns, a Meta não apenas falharia em seu dever de cuidado com seus usuários, mas também agiria como um obstáculo ativo para a remoção de conteúdo que representa um perigo real e imediato para a sociedade, especialmente para crianças.

As implicações dessa prática são graves, tendo vista que: (i) quanto mais difícil de denunciar, mais tempo o conteúdo ilegal permanece online, aumentando o seu alcance e o dano potencial a vítimas; (ii) usuários que tentam denunciar e se deparam com obstáculos podem perder a confiança na capacidade da plataforma de protegê-los; (iii) a dificuldade em coletar denúncias impede que as autoridades e as próprias plataformas identifiquem e investiguem proativamente ilegalidades, crimes ou até mesmo terrorismo; e (iv) o uso de dark patterns para esses fins é uma clara violação de várias leis e regulamentos, incluindo o Digital Services Act (DSA) da UE, que exige mecanismos claros e acessíveis para denúncia de conteúdo ilegal.

A autuação da UE envia uma mensagem inequívoca para o mundo: o design de interface não é ausente de regulação. Quando manipulado para fins que comprometem a segurança e os direitos fundamentais dos usuários, especialmente em casos de material ilegal grave, ele se torna uma ferramenta de cumplicidade, e as empresas serão responsabilizadas por isso. A erradicação de dark patterns é vista como um passo essencial para restaurar a autonomia do usuário e garantir um ambiente digital mais ético e seguro.

O Caso do Vídeo Deepfake na Irlanda

O incidente do vídeo deepfake envolvendo a candidata presidencial Catherine Connolly na Irlanda, em outubro de 2025, serve como um poderoso e perturbador estudo de caso sobre os desafios crescentes que a inteligência artificial generativa representa para a integridade da informação, dos processos democráticos e da confiança pública. Este evento não apenas complementa as razões da autuação da Meta, mas ilustra a ponta de um iceberg tecnológico com vastas implicações.

Durante um período sumamente importante da campanha presidencial irlandesa, um vídeo digitalmente manipulado de Catherine Connolly, uma das candidatas proeminentes, começou a circular amplamente nas redes sociais. O vídeo mostrava Catherine anunciando sua suposta retirada da corrida eleitoral, com sua imagem e voz clonadas de forma impecável. A sofisticação técnica era tal que a simulação era quase indistinguível de um vídeo autêntico. Para aumentar a credibilidade e a confusão, o deepfake foi produzido para imitar o estilo e a apresentação de uma transmissão de notícias da RTÉ News, a emissora de serviço público da Irlanda, conferindo-lhe uma falsa percepção de legitimidade jornalística.

A rapidez com que este vídeo se espalhou pelo mundo digital, incluindo as plataformas da Meta, e o impacto imediato na opinião pública foram alarmantes. Antes que as equipes de verificação de fatos das mídias e as próprias plataformas pudessem agir eficazmente, o conteúdo já havia sido visto e compartilhado por milhões de pessoas. Catherine Connolly e sua campanha foram forçadas a reagir prontamente, desmentindo publicamente o vídeo e denunciando-o como uma tentativa maliciosa de interferência nas eleições. A remoção subsequente do vídeo e da conta original pela Meta, embora necessária, veio apenas depois que a desinformação já havia plantado sementes de dúvida e confusão no eleitorado.

O caso de Catherine Connolly ressoa profundamente com as preocupações da UE sobre a responsabilidade das plataformas. Ele demonstra a necessidade premente de que as empresas de tecnologia não apenas invistam em tecnologias de detecção e remoção, mas também garantam que seus mecanismos de denúncia sejam eficazes e que haja transparência sobre como esses incidentes são tratados. A atuação da Meta, neste contexto, pode ser vista como um catalisador para que todas as plataformas digitais enfrentem a ameaça de deepfakes e outras formas de desinformação por IA antes elas que comprometam irreversivelmente a confiança nas instituições e na própria realidade.

Violação das Obrigações de Transparência de Dados

Um ponto de grave preocupação para a Comissão Europeia, e um fator central na autuação da Meta em outubro deste ano foi a conclusão preliminar de que houve violação de suas obrigações de conceder aos pesquisadores acesso adequado a dados públicos. Esta não é uma mera questão técnica, mas uma falha fundamental que compromete a capacidade de a sociedade compreender, monitorar e mitigar os impactos sistêmicos das plataformas digitais, com foco na proteção de grupos vulneráveis.

A base para essas obrigações de transparência é o Digital Services Act (DSA) da União Europeia. O DSA foi projetado para responsabilizar as grandes plataformas online (Very Large Online Platforms – VLOPs e Very Large Online Search Engines – VLOSEs) pelos riscos sociais que representam e inclui disposições explícitas exigindo que essas entidades forneçam acesso a dados para pesquisadores independentes e verificados. O objetivo é permitir que acadêmicos, jornalistas investigativos e organizações da sociedade civil conduzam pesquisas essenciais sobre como as plataformas funcionam, quais são os seus impactos e como o conteúdo – tanto legal como ilegal – se espalha.

Os tipos de dados que os pesquisadores necessitam e que a UE exige acesso incluem, mas não se limitam a:

Tipos de Dados

Definição

Dados sobre moderação de conteúdo

Taxas de remoção, tipos de conteúdo removido, denúncias recebidas, eficácia das ferramentas de IA para moderação.

Dados sobre disseminação algorítmica

Como os algoritmos priorizam, recomendam e amplificam determinados conteúdos, incluindo desinformação, discurso de ódio e propaganda.

Dados sobre publicidade direcionada

Como os anúncios são segmentados, quem são os anunciantes e o impacto da publicidade política ou socialmente sensível.

Dados sobre padrões de uso e exposição

Informações agregadas e anonimizadas sobre como os usuários interagem com a plataforma e a que tipo de conteúdo são expostos.

As plataformas, por sua vez, frequentemente justificam a restrição ao acesso a dados citando preocupações com a privacidade dos usuários, a segurança de seus sistemas e a proteção de segredos comerciais. No entanto, a UE argumenta que essas preocupações podem ser mitigadas através de métodos como a anonimização robusta de dados, a agregação de informações, o fornecimento de acesso em ambientes seguros e controlados (sandboxes), e a imposição de acordos de confidencialidade rigorosos. A prevalência da necessidade de pesquisa para o bem público, especialmente quando os riscos para a sociedade são tão altos, supera a alegação de sigilo comercial absoluto.

A responsabilização da Meta por esta violação não é apenas um lembrete das suas obrigações legais sob o DSA, mas também uma declaração de que a era na qual as plataformas operavam como “caixas-pretas” impenetráveis está terminando. A UE está forçando essas empresas a abrirem seus dados para o escrutínio público e acadêmico, reconhecendo que a verdadeira responsabilidade digital exige transparência e a capacidade de verificação independente. Sem essa transparência, qualquer alegação de que as plataformas estão “fazendo o seu melhor” para combater conteúdo prejudicial e proteger seus usuários permanece sem comprovação e, portanto, inadequada.

Consequências dessa Decisão da UE

A responsabilização da Meta pela União Europeia representa um marco indelével na evolução da regulação digital, sedimentando uma década de debates e preocupações em ações concretas.

Financeiramente, a autuação pode resultar em multas substanciais, que, sob o DSA, podem chegar a 6% do faturamento global anual da empresa. Além disso, os custos de contratar mais moderadores, investir em novas tecnologias, reengenharia de design de interface e infraestrutura de dados para pesquisadores – conformidade – serão significativos.

Em termos de reputação, este evento pode corroer ainda mais a confiança do público na Meta, que já enfrenta escrutínio constante. Uma reputação negativa pode impactar o engajamento do usuário, a retenção de talentos e a disposição de anunciantes, afetando, em última instância, sua sustentabilidade a longo prazo. Outras empresas de tecnologia serão levadas a reavaliar suas próprias práticas e investir proativamente em conformidade para evitar serem as próximas na linha de fogo regulatória. A autuação da Meta, portanto, não é um fim em si mesma, mas um catalisador para uma transformação mais ampla.

No items found.