Termos e condições podem se aplicar (e se aplicam)
Um mapa da ausência de privacidade em 2026
Em junho de 2013, Edward Snowden vazou documentos da NSA que provavam que o governo americano monitorava comunicações de milhões de pessoas na internet. Nas semanas seguintes, o tráfego em artigos da Wikipedia sobre terrorismo caiu 30%.
Pesquisas no por termos como “ateísmo”, “herpes” e “poder branco” caíram em vários países. Ninguém foi preso ou punido, muito menos recebeu uma notificação dizendo “pare de pesquisar isso, por favor”. As pessoas mudaram o comportamento sobre o que consumiam porque souberam que alguém podia estar olhando.
Alguns pesquisadores chamam isso de “chilling effect”, que é o efeito inibidor da vigilância. Ele funciona sem precisar de punição, basta só ter essa consciência de que alguém pode estar vendo. Em um estudo experimental, pessoas que diziam apoiar a vigilância por motivos de segurança nacional e afirmavam não ter “nada a esconder” mudaram de comportamento quando sentiam que estavam sendo monitoradas: elas expressavam opiniões quando estavam na maioria e as suprimiam quando estavam em minoria.
vigilância não precisa te punir pra te controlar, basta existir.
Essa é a razão pela qual privacidade é tão essencial num mundo onde ela quase não existe mais, e essa frase precisa ser muito bem entendida, porque a resposta mais comum (“se eu não tenho nada a esconder, qual o problema?”) é tão intuitiva quanto errada.
Mas tem quem resista, ô se tem: lá em 2013, o uso do DuckDuckGo, um buscador que não rastreia usuários, subiu imediatamente e nunca voltou ao patamar anterior. Em 2021, o volume de buscas no DuckDuckGo cresceu 47% e ultrapassou 100 milhões de consultas diárias pela primeira vez. O buscador que ninguém levou a sério virou uma empresa lucrativa, vendendo anúncios contextuais sem rastrear ninguém.
Privacidade não tem nada a ver com esconder
O mapa da vigilância
1. O mercado invisível dos data brokers
2. A publicidade como infraestrutura de vigilância
3. Um bilhão de olhos
4. Sua íris como moeda
5. a IA que comeu a internet
6. A casa que te escuta
7. O CPF, o Pix e a biometria
Vigiando a vigilância
Por que as pessoas ainda brigam?
Privacidade não tem nada a ver com esconder
Daniel Solove, professor de direito da George Washington University e autor do paper mais citado sobre o tema, argumenta que o “não tenho nada a esconder” comete um erro de enquadramento por reduz a privacidade a segredo, como se a única razão pra querer privacidade fosse ter feito algo errado. Mas privacidade tem muito mais a ver com controlar quem sabe o quê sobre você.
Para e pensa comigo: você conta coisas diferentes pra pessoas diferentes. É comum falar de um jeito com seu chefe e de outro com seu terapeuta, ou mostrar um lado pra colegas de trabalho e outro pro grupo de amigos. Isso é o funcionamento básico de como seres humanos navegam relações sociais. Quando todo mundo sabe tudo sobre você ao mesmo tempo, sem contexto, essas camadas colapsam.
O Big Brother existe há 25 anos mostrando exatamente isso. Toda edição, o público se choca quando um participante fala uma coisa na cozinha e outra no quarto, quando alguém é carinhoso com a mesma pessoa de quem falou mal horas antes. A audiência chama de falsidade, mas o que as câmeras 24 horas capturam é o comportamento humano padrão: somos todos incongruentes por essência. A diferença é que fora da casa mais vigiada do Brasil, ninguém está editando seus piores momentos num compilado de cinco minutos pra 80 milhões de pessoas julgarem. A vigilância digital faz com todos o que o Big Brother faz com seus confinados, só que sem a audiência visível, sem o prêmio.
E tem também uma segunda dimensão que quase ninguém menciona: privacidade é a condição pra você ser incongruente. É o seu direito pleno de simplesmente mudar de opinião, ou pra pesquisar coisas por curiosidade sem que isso vire seu perfil permanente. A internet tem memória perfeita, mas os humanos precisam do direito de mudar de opinião. Quando cada clique numa página vira um dado permanente atrelado ao seu perfil, você perde a possibilidade de ser diferente amanhã do que foi ontem. O seu eu de 2016 define o que o algoritmo te mostra em 2026.
Um outro ponto é sobre poder. O problema é: alguém sabe coisas sobre mim, e eu não sei o que sabem, quem mais sabe, nem como vão usar. Quando uma das partes tem informação completa e a outra nem sabe que está sendo observada, o desequilíbrio é estrutural. Essa assimetria ganha uma dimensão nova quando o aparato de vigilância entra em modo de guerra. A Section 702 do FISA, a lei americana que autoriza a coleta de comunicações estrangeiras (e que na prática varre milhões de americanos junto), expira em 20 de abril de 2026. O debate sobre sua renovação acontece com uma administração em tempo de guerra pressionando por poderes expandidos. O chilling effect que Snowden revelou em 2013 agora tem um deadline legislativo concreto.
Por tudo isso, privacidade é sim importante, mesmo que você ache que não tem nada a esconder. Eu diria, inclusive, que especialmente se você acha que não tem nada a esconder.
o problema é que em 2026, o mapa do que sobrou dela é pequeno e quase irrisório. Ninguém mais tem privacidade.
O mapa da vigilância
Em 2020, a série brasileira Onisciente, na Netflix, imaginava uma São Paulo onde cada cidadão era seguido por um micro-drone pessoal, 24 horas por dia. Um robô do tamanho de um pernilongo que te acompanhava por onde quer que fosse. A criminalidade tinha caído a quase zero. O slogan do sistema era “não é segurança versus privacidade; é segurança e privacidade.” A condição que tornava tudo aceitável é que nenhum ser humano teria acesso às imagens. A maioria da população apoiava o sistema, uma geração inteira tinha crescido sob vigilância constante e não conhecia outra realidade. Quando o pai da protagonista é assassinado e o drone não registra nada, a empresa se recusa a liberar as imagens, usando a própria política de privacidade como escudo.
A promessa que convenceu a população a aceitar a vigilância virou o obstáculo que impedia qualquer questionamento. A série era ficção científica, mas em 2026, cada uma dessas frases descreve algo que já existe. As câmeras estão em toda parte, a inteligência artificial analisa, e a promessa de que nenhum humano está olhando continua sendo o que torna tudo aceitável.
Em 2013, o documentarista Cullen Hoback lançou “Terms and Conditions May Apply”. O filme mostrava que ninguém lê os termos de uso que aceita e que as empresas sabem disso. Pesquisadores da Carnegie Mellon calcularam que ler todas as políticas de privacidade dos sites que você visita num ano levaria 250 horas.
A proposta era revelar o que acontece com os dados que você entrega sem perceber toda vez que clica “aceitar”. Na época, foi chocante assistir a esse doc. Mas o filme envelheceu da pior forma possível: ficou otimista demais. O que segue aqui é um inventário, uma tentativa de mapear alguns dos sistemas que operam hoje coletando e usando dados pessoais. É longo porque o problema é grande.
1. O mercado invisível dos data brokers
Existe uma categoria de empresa chamada data broker. O trabalho dela é coletar tudo que você faz online (e boa parte do que faz offline), organizar num perfil detalhado e vender pra quem quiser comprar. Tudo vira produto: histórico de compras, localização, hábitos de navegação, dados de saúde, registros financeiros. E tudo isso é legal, data brokers não invadem sistemas. Eles coletam o que as próprias pessoas entregam ao aceitar termos de uso. Existe mais de 5 mil operando no mundo, num mercado que movimentou US$303 bilhões em 2024 e projeta alcançar US$480 bilhões até 2029. O lance é que maioria das pessoas nunca ouviu falar de nenhum deles, mas todos já ouviram falar de você.
A cadeia funciona assim: você usa um app gratuito. Esse app coleta dados sobre seu comportamento, e vende pra um data broker, que cruza com dados de outras fontes, monta um perfil e vende pra quem quiser. O comprador final, na maior parte dos casos, é alguém do mercado publicitário. Toda vez que uma campanha roda com “segmentação comportamental”, ela está comprando dados que passaram por essa cadeia. “third-party data” é o nome limpo que o mercado deu pra informação pessoal coletada sem consentimento real e revendida por intermediários que a maioria nem sabe que existe.
Quando esses dados vazam (coisa essa que acontece constantemente), acabam na dark web. Um pacote com nome, CPF e data de nascimento custa entre US$20 e US$100. Um login bancário, US$200. Já um prontuário médico, até US$500. Existem 24,6 bilhões de combinações de login e senha vazadas circulando. A ironia é que caso você tenha sua identidade roubada e precise se proteger, você teria que contratar um serviço de monitoramento de crédito da Experian, Equifax ou TransUnion, as mesmas empresas que construíram seus negócios vendendo dados financeiros de bilhões de pessoas.
2. A publicidade como infraestrutura de vigilância
Quando você abre um site que tem anúncio, acontece algo nos bastidores que leva menos de um segundo. O site empacota tudo que sabe sobre você (onde você está, o que andou pesquisando, sua idade aproximada, seus interesses) e manda esse pacote pra um leilão. Dezenas de empresas recebem seu perfil ao mesmo tempo e decidem quanto vale mostrar um anúncio pra você. Quem paga mais, ganha e o anúncio aparece. Você nem percebe que acabou de ser leiloado.
Esse processo se chama real-time bidding, e o detalhe que muda tudo é que todos os participantes do leilão recebem seus dados, não só quem ganhou. Em teoria, as regras do leilão dizem que quem perde deveria apagar os dados. Na prática, a própria indústria admite em documentação oficial que não existe mecanismo técnico pra garantir isso.
O Irish Council for Civil Liberties calculou que esse processo acontece 178 trilhões de vezes por ano nos EUA e na Europa. Uma pessoa nos EUA tem seus dados expostos 747 vezes por dia. Na Europa, 376.
E tem empresas que participam desses leilões sem nenhuma intenção de comprar espaço publicitário. Elas estão lá só pra coletar dados. A FTC processou a Mobilewalla por acumular mais de 2 bilhões de identificadores de celulares participando de leilões RTB sem nunca comprar um anúncio sequer. Os data brokers usaram dados desses leilões pra rastrear organizadores sindicais, identificar manifestantes do Black Lives Matter e expor padres gays. Agências como ICE e FBI compraram dados de localização vindos desse sistema. E em 2017, pesquisadores demonstraram que US$1.000 em dados de targeting eram suficientes pra rastrear um indivíduo e inferir sua religião e orientação sexual.
A EFF chamou o RTB de “o sistema de vigilância mais invasivo que você nunca ouviu falar”.
Na mesma semana em que o Irish Council publicou esses números, a Apple lançou uma campanha global chamada “Data Auction”. O filme de 90 segundos mostrava uma jovem entrando por acidente num leilão onde seus dados pessoais estavam no martelo. No final, ela puxava o iPhone e ativava o App Tracking Transparency, destruindo o leilão.
Em 2024, a Apple dobrou a aposta com “Flock”, um filme distópico onde câmeras de vigilância em forma de pássaros perseguiam pedestres pelas ruas até que o Safari as fazia explodir. A campanha toda rodava sob o slogan “Privacy. That’s iPhone.” A empresa mais valiosa do mundo transformou privacidade no seu principal diferencial competitivo num mercado onde todos os celulares se parecem. E o fato é que a Apple fez isso porque simplesmente funciona. Quando novas leis de privacidade foram aprovadas em dezenas de países, ela vai poder dizer que estava em conformidade e era publicamente percebida como aliada do consumidor, enquanto concorrentes corriam atrás.
3. Um bilhão de olhos
Existe mais de 1 bilhão de câmeras de vigilância instaladas no mundo. A China tem cerca de 700 milhões (uma pra cada dois adultos), parte do projeto SkyNet. Já os EUA têm 85 milhões. Mais de 65% das câmeras instaladas em 2025 já vieram equipadas com chips de IA que identificam rostos em tempo real, rastreiam trajetórias e inferem comportamento.
Quando o assunto é câmera de segurança, a reação mais comum é “se eu não fiz nada de errado, câmera me protege”, e a real é que pode proteger, em alguns casos. Mas o problema começa quando a identificação erra.
A Clearview AI raspou mais de 50 bilhões de fotos de redes sociais e sites públicos sem pedir permissão a ninguém. A empresa montou o maior banco de dados de reconhecimento facial do mundo e vende pra forças policiais e agências de imigração. O sistema funciona assim: um policial tira uma foto de alguém na rua (ou puxa um frame de câmera de segurança) e o software compara com os 50 bilhões de rostos. Em segundos, devolve um nome, uma localização provável, links pra perfis em redes sociais. Segundo especialistas do Policing Project, se você é adulto e já teve uma foto publicada em qualquer lugar da internet, seu rosto está nesse banco de dados e é escaneado toda vez que a polícia procura alguém.
O problema é que o sistema também encontra quem não estava procurando. Nos EUA, pelo menos oito pessoas foram presas indevidamente até 2026 por causa de falsos positivos do reconhecimento facial contratado pelo Departamento de Segurança Interna.
E daí que quase todas eram negras. Randal Quran Reid, um homem da Geórgia, passou seis dias preso por um crime cometido na Louisiana, um estado que ele nunca havia visitado: o único motivo da prisão foi um match da Clearview AI. O mandado de prisão assinado pelo juiz não mencionava que reconhecimento facial havia sido usado. Em Detroit, uma mulher grávida de oito meses foi presa por roubo de carro e mantida detida por 11 horas. Em Nova York, um homem foi preso por crime sexual apesar de ser 20 centímetros mais baixo e 30 quilos mais leve que o suspeito filmado pelas câmeras.
Os próprios contratos da Clearview com departamentos de polícia dizem que os resultados “não são projetados nem permitidos como evidência admissível em tribunal”. O software é vendido como pista investigativa, não como prova. Mas na prática, policiais tratam o match como identificação positiva, montam lineups viciados em torno do resultado, e obtêm mandados de prisão sem conduzir nenhuma investigação adicional.
A Clearview foi multada em mais de €100 milhões por autoridades de proteção de dados na França, Grécia, Itália e Holanda, mas ela simplesmente ignora todas as decisões. Em 2025, assinou um contrato de US$10 milhões com o Departamento de Segurança Interna dos EUA. Em outubro, a organização noyb entrou com queixa criminal na Áustria porque multas administrativas não estavam funcionando.
4. Sua íris como moeda
Sam Altman (da OpenAI) lançou a Worldcoin em 2023, um projeto que escaneia a íris dos seus olhos em troca de criptomoeda. A proposta oficial era criar um sistema que prove que você é humano e não um bot. Isso, na prática, significava coletar dados biométricos irreversíveis de milhões de pessoas em troca de tokens que valem alguns dólares.
O projeto foi banido ou investigado no Quênia, Espanha, Alemanha, Brasil, Índia, Hong Kong, Coreia do Sul, Indonésia e Tailândia. Na Tailândia, a investigação revelou que 1,2 milhão de pessoas tiveram seus dados de íris coletados sem consentimento adequado. No Quênia, o tribunal determinou exclusão de todos os dados. A agência espanhola de proteção de dados confirmou violação das leis europeias. A China emitiu alerta oficial em agosto de 2025 classificando a prática como ameaça à segurança nacional.
O ponto é que ao contrário de uma senha, dados biométricos não podem ser resetados. Se vazarem, você não consegue trocar seus olhos.
E não é só a íris. a 23andMe, empresa de testes genéticos que permitia descobrir ancestralidade e predisposições a doenças a partir de uma amostra de saliva, pediu falência em março de 2025. Com ela, os dados genéticos de 15 milhões de pessoas entraram em negociação. DNA é o dado mais íntimo que existe: contém informações sobre toda a sua árvore familiar, predisposições a doenças, e pode ser usado pra negar cobertura de seguro de vida, invalidez ou cuidados de longo prazo. o Pentágono já havia alertado militares americanos pra não usarem kits de DNA caseiros por risco à segurança nacional.
A Regeneron, uma farmacêutica, venceu o primeiro leilão pelos dados. 26 estados americanos processaram pra barrar a venda. O leilão foi reaberto e quem comprou por US$305 milhões foi a TTAM Research Institute, uma “nonprofit” criada pela própria cofundadora da 23andMe, Anne Wojcicki. A Public Citizen apontou que é o mesmo negócio, os mesmos funcionários, a mesma liderança, sob outro nome jurídico. Cinco estados continuam se opondo. Não existe lei federal nos EUA que proteja dados genéticos em caso de falência.
No fim, milhões de pessoas pagaram pra entregar o dado mais irreversível que possuem, e quando a empresa quebrou, descobriram que seus genes eram um ativo a ser leiloado.
5. a IA que comeu a internet
A Meta confirmou que todos os textos e fotos publicados publicamente por usuários adultos de Facebook e Instagram desde 2007 foram usados pra treinar seus modelos de IA. O X atualizou os termos pra dizer que ao continuar postando você consente com o uso dos dados pra treinar a Grok. O LinkedIn anunciou o mesmo pra novembro de 2025. O Google mudou as configurações do Gmail em outubro de 2025 pra dar ao Gemini acesso padrão a e-mails e reuniões.
Pesquisadores do MIT Technology Review auditaram 0,1% do DataComp CommonPool (12,8 bilhões de amostras usado pra treinar modelos de geração de imagem) e encontraram milhares de documentos de identidade, cartões de crédito, passaportes e certidões de nascimento. Estimaram que o conjunto completo contém centenas de milhões de imagens com informações pessoais identificáveis e mais de 100 milhões de rostos que os filtros de privacidade não detectaram.
Mesmo que você tenha postado uma foto e depois removido, scrapers já a copiaram. A remoção do original não faz nada, e como esses dados foram raspados antes de 2020, ninguém poderia ter consentido com um uso que ainda não existia.
E quando um governo resolve usar essa infraestrutura em escala militar, o estrago é proporcional. Na operação americana contra o Irã em fevereiro de 2026, a ofensiva cibernética derrubou o tráfego de internet iraniano pra 1-4% do normal por mais de 48 horas. Um app de oração chamado BadeSaba, com mais de 5 milhões de downloads, foi invadido e passou a exibir mensagens de rendição para membros da Guarda Revolucionária. A mesma rede que coleta dados comerciais sobre hábitos de consumo se transforma, quando o Estado quer, em arma. A infraestrutura é a mesma; só muda quem aperta o botão.
6. A casa que te escuta
Em março de 2025, a Amazon removeu a opção “Do Not Send Voice Recordings” dos dispositivos Echo. A partir de 28 de março, todas as interações com a Alexa passaram a ser enviadas obrigatoriamente pra nuvem da Amazon e usadas pra treinar modelos de IA. A justificativa era de que os recursos de IA generativa precisam do poder de processamento da nuvem. A escolha oferecida ao usuário era de aceitar ou parar de usar o aparelho.
Em 2019, a Bloomberg revelou que funcionários da Amazon ouviam gravações de usuários como parte de “controle de qualidade”. Eram milhares de pessoas em vários países transcrevendo conversas capturadas pela Alexa, incluindo momentos íntimos. Em 2021, uma ação coletiva foi movida nos EUA alegando que a Alexa interceptava e gravava conversas sem consentimento, inclusive de pessoas não cadastradas que estavam no ambiente.
E não é só o alto-falante. As smart TVs usam uma tecnologia chamada ACR (Automatic Content Recognition) que tira screenshots da sua tela a cada 10 milissegundos (LG) ou 500 milissegundos (Samsung) e envia pra servidores externos. Um estudo da University College London de 2024 revelou que o rastreamento funciona mesmo quando a TV é usada como monitor externo pra um laptop. O sistema captura tudo que aparece na tela, independente da fonte, e o opt-out é projetado pra ser difícil: aceitar o rastreamento leva um clique, desativar exige navegar por múltiplos submenus com nomes genéricos.
A Vizio, fabricante de TVs, já lucra mais vendendo dados de visualização dos usuários do que vendendo os próprios aparelhos. As margens de hardware de TVs caíram pra menos de 1%, enquanto as margens de publicidade baseada em dados de visualização ultrapassam 50%. A receita global de publicidade em smart TVs deve chegar a US$46 bilhões em 2026, ou seja, a TV que você comprou com desconto na Black Friday está subsidiada pelo valor dos seus hábitos de visualização.
7. O CPF, o Pix e a biometria
Agora vamos de farmácia. Você chega no caixa, a atendente pergunta seu CPF, você diz os números, ganha um desconto e sai. Parece inofensivo, né? Pois bem: a RaiaDrogasil, maior rede de farmácias do Brasil, mantém um banco de dados com histórico de compras de 48 milhões de consumidores, acumulado desde 2009. a RD Ads, subsidiária de publicidade do mesmo grupo, vende esses dados pra anunciantes com 20 tipos de filtros: produtos comprados, idade, sexo, região, frequência de compra, se o cliente é gastador ou econômico.
Em fevereiro de 2025, a ANPD concluiu que os descontos provavelmente são fictícios. O preço “cheio” é inflado pela tabela federal de medicamentos. O exemplo da investigação foi com uma caixa de nimesulida genérica, que custava R$31,78 sem CPF e R$8,50 com CPF, um desconto de 73%. Os órgãos públicos compravam o mesmo remédio por R$1,08. O desconto estava lá pra você dar o CPF.
O que torna esse caso grave é que o seu histórico de farmácia revela condições de saúde, vida sexual, gestação, saúde mental. A LGPD classifica tudo isso como dado sensível, com proteção reforçada, e tudo é monetizado. Se esses dados vazam, uma seguradora pode negar cobertura, um empregador pode recusar contratação, coisa e tal.
E o Pix completa o mapa. O Pix é provavelmente a maior inovação de inclusão financeira da história recente do Brasil. 150 milhões de pessoas passaram a fazer transferências instantâneas e gratuitas. A questão é o que acontece com os dados que ele gera. Cada transferência registra quem pagou, quem recebeu, quanto, a que horas. Tivemos 21 vazamentos de dados desde a criação, sendo o maior em julho de 2025, quando 46,8 milhões de chaves de 11 milhões de pessoas expostas por falha no Sisbajud, o sistema que conecta o Judiciário ao Banco Central. O Banco Central disse que “dados sensíveis não foram expostos”, mas nome, CPF, banco e número de conta são suficientes pra engenharia social e golpes financeiros.
A LGPD existe desde 2020, mas a ANPD aplicou as primeiras multas relevantes só em 2024. A resposta institucional pra cada vazamento é a mesma: mais biometria, mais verificação, mais dados coletados pra proteger os dados que já vazaram.
Enquanto eu finalizava esse texto, na última semana de fevereiro de 2026, os Estados Unidos entraram em guerra com o Irã. O Pentágono tentou forçar a Anthropic (a empresa que criou o Claude, o modelo de IA que eu uso pra trabalhar e que me ajudou a pesquisar parte desse texto) a liberar acesso irrestrito aos seus modelos pra uso militar. O que o Departamento de Defesa queria incluía analisar dados em massa de cidadãos americanos como histórico de busca, localização por GPS, transações de cartão de crédito, conversas com chatbots, tudo cruzado. Ou seja, cada capítulo desse texto que você acabou de ler, condensado numa única demanda governamental.
Em 28 de fevereiro, a Operação Epic Fury lançou ataques coordenados entre EUA e Israel contra o Irã, matando o líder supremo Ali Khamenei e dezenas de oficiais. O Wall Street Journal reportou que o CENTCOM usou o Claude da Anthropic para avaliações de inteligência, identificação de alvos e simulação de cenários de batalha durante a operação. O Claude analisou comunicações interceptadas e imagens de satélite para localizar alvos de alto valor. Essa foi a primeira evidência pública de um modelo comercial de IA de fronteira sendo usado em operações ativas de combate.
O doido é que horas antes dos ataques, Trump havia ordenado que todo órgão federal parasse de usar tecnologia da Anthropic, mas o Claude continuava operando nos sistemas classificados que executaram o ataque, porque removê-lo levaria de três a seis meses dada sua integração profunda via plataforma da Palantir. A mesma IA que o governo tentava banir por se recusar a permitir vigilância em massa estava, naquele exato momento, ajudando a executar a maior operação militar americana desde o Iraque em 2003.
A Anthropic disse não e manteve suas duas travas no contrato: nada de vigilância em massa de cidadãos e nada de armas autônomas que decidem sozinhas quem matar. O governo Trump classificou a empresa como “risco à cadeia de suprimentos de segurança nacional”, uma designação que até então só existia pra empresas ligadas a adversários estrangeiros. Ordenou que todo o governo federal parasse de usar o Claude e proibiu qualquer fornecedor militar de fazer negócio com a Anthropic, incluindo a Amazon, que fornece a infraestrutura de computação da empresa.
A OpenAI tentou entrar no lugar. Sam Altman anunciou um acordo com o Pentágono no dia seguinte, incluindo três linhas: nada de vigilância doméstica em massa, nem de armas autônomas, ou sistemas de “crédito social”, mas teve quem notou que a linguagem da OpenAI proibia apenas a coleta de informações privadas de americanos, e não informações públicas compradas de data brokers, que é exatamente o cenário que a Anthropic apontou. Lembra do capítulo 1 desse texto? Pois é. A brecha no contrato da OpenAI tem o tamanho exato do mercado de US$303 bilhões que você leu lá em cima.
O que me interessa aqui é que uma das maiores potências do mundo pediu pra cruzar exatamente os dados que esse texto descreve, e quando alguém disse não, a retaliação foi imediata e desproporcional, e pediu isso durante uma guerra real, com a IA já embutida nas operações de combate. O pedido confirma que tudo que você leu até aqui é real e é sério.
Vigiando a vigilância
Essa história daria um belíssimo filme a ser transmitido em algum streaming que coleta seus dados. Vamo lá: 29 de agosto de 2025, em Chongqing, uma cidade chinesa com 30 milhões de habitantes e centenas de milhares de câmeras de vigilância, slogans enormes apareceram projetados na parede de um complexo residencial universitário. “só sem o partido comunista pode haver uma nova China.” “liberdade não é dada, é tomada.” “abaixo o fascismo vermelho.”
A polícia levou 50 minutos pra rastrear a fonte da projeção até um quarto de hotel próximo. Quando arrombaram a porta, encontraram o quarto vazio. Na mesa, um projetor usado, câmeras remotas que filmavam cada movimento dos policiais, e uma carta manuscrita endereçada a quem quer que entrasse primeiro: “talvez você seja um beneficiário agora, mas acredito que em três gerações, a maioria das pessoas terá sofrido perseguição do Partid
o. Por favor, trate os outros com gentileza. Se for forçado a agir, ao menos levante a mira um pouco mais alto.”
O autor era Qi Hong, um eletricista de 43 anos que largou a escola aos 16. Nove dias antes, ele tinha voado pra Londres com a esposa e as duas filhas dizendo que eram férias. De um café, ativou o projetor remotamente. A operação inteira custou 10 mil yuan, equivalente a uns 8 mil reais: um projetor de segunda mão e uma máquina de gravação alugada foi tudo que ele precisou. Do outro lado, a parada militar que ele queria sabotar custava centenas de bilhões.
Horas depois da projeção, Qi publicou na internet o vídeo dos cinco policiais entrando no quarto vazio. Em quatro dias, teve 18 milhões de visualizações. A internet chinesa o chamou de Guerreiro de Chongqing. A polícia respondeu prendendo o irmão de Qi, interrogando a mãe e confiscando seus pertences. Qi tinha antecipado isso também: câmeras escondidas na casa da família gravaram a operação policial, e ele publicou tudo.
Usou o sistema de vigilância contra o sistema de vigilância.
A história de Qi é exceção. A regra é que centenas de milhões de câmeras tornam a dissidência quase impossível na China. Mas a história é importante porque revela o ponto central de 2026: a resistência à vigilância usa as mesmas ferramentas da vigilância. Ativistas de privacidade denunciam o RTB em sites que rodam anúncios programáticos.
O documentário “Terms and Conditions May Apply” está hospedado em plataformas de streaming que mapeiam cada segundo do seu comportamento de visualização. Inclusive este texto foi escrito com auxílio de inteligência artificial treinada em dados raspados da internet sem consentimento.
Não existe um “fora” do sistema, e talvez essa seja justamente a razão pela qual a luta por privacidade continua
Por que as pessoas ainda brigam?
Em 2026, 160 países já aprovaram leis de proteção de dados. A Europa multou a Clearview AI. o Quênia baniu a Worldcoin, e a China, o país com mais câmeras de vigilância do planeta, emitiu alerta contra coleta de íris por empresas estrangeiras. Se privacidade fosse uma causa perdida, ninguém estaria gastando esse capital político.
A briga por privacidade parte da simples premissa que todo ser humano precisa de espaço pra ser incongruente sem que isso vire munição. A gente pode mudar de opinião, errar em privado, pesquisar uma doença sem que um algoritmo decida o que isso significa. A privacidade preserva a possibilidade de contexto e garante que a relação entre quem coleta dados e quem os produz não se torne tão assimétrica que vire pura extração.
A privacidade em 2026 é algo que ninguém briga por achando vai ganhar completamente, mas sim porque sabe o que acontece quando ninguém briga.
Lá em 2013, Cullen Hoback perguntou se alguém conseguiria reverter o sistema. Treze anos depois, a resposta é que não, mas também não desistimos de incomodar. A privacidade pode ter virado um conceito legal mais do que uma experiência vivida, um produto premium mais do que um direito universal. Mas toda vez que alguém processa a Clearview AI, recusa o escaneamento de íris, denuncia o RTB, questiona pra onde vão os dados do Pix, toda vez que mais de 330 funcionários de Google e OpenAI assinam uma carta aberta pedindo que suas próprias empresas recusem contratos de vigilância em massa e armas autônomas, ou que um senador americano exige que o Congresso vote antes de usar IA para cruzar dados de cidadãos em tempo de guerra, ou projeta slogans anti-governo no muro de uma cidade com 30 milhões de câmeras, a mensagem é a mesma: eu sei que estou sendo observado e não aceito que isso seja normal.
Os termos e condições se aplicam, mas a cláusula mais importante é o nosso direito de continuar questionando o contrato.


