Defensoria Pública, CESeC e Politicrim apontam que o Programa Muralha Paulista viola a Lei Geral de Proteção de Dados (LGPD). O programa utiliza reconhecimento facial e coleta dados sensíveis de cidadãos, mas apresenta falta de transparência e governança frágil, segundo o relatório enviado à ANPD.
O sistema conta com mais de 38 mil câmeras em todos os municípios paulista e busca monitorar em tempo real por meio da integração de bases públicas e privadas. As instituições criticam, porém, a justificativa vaga para restringir a mobilidade criminal e a ausência de comprovações sobre a eficácia do programa.
Há risco de discriminação algorítmica e falta de regras claras sobre o uso e descarte dos dados pessoais. As entidades sugerem suspensão do sistema até que sejam adotadas medidas que garantam conformidade com a Constituição e a LGPD, além de maior transparência e auditorias independentes.
A manifestação técnica da Defensoria Pública da União (DPU), do Centro de Estudos de Segurança e Cidadania (CESeC) e do Grupo de Pesquisa Política da Criminologia e Tecnologias de Controle (Politicrim) criticou o Programa Muralha Paulista. Avaliado como um sistema de vigilância que trata grandes volumes de dados pessoais sensíveis, incluindo biometria facial e geolocalização, o programa sofre reprovação por falta de transparência, fragilidade na governança e ausência de salvaguardas adequadas, conforme apontado no documento enviado à Autoridade Nacional de Proteção de Dados (ANPD).
Com mais de 38 mil câmeras conectadas, o sistema combina reconhecimento facial e integração de bases públicas e privadas para gerar alertas em tempo real, com intenção de cobrir todos os 645 municípios do estado. No entanto, as instituições destacam que a justificativa oficial para “restringir a mobilidade criminal” é vaga e não há comprovação empírica da eficácia do programa. A criticada opacidade inclui a ocultação de partes importantes dos Relatórios de Impacto à Proteção de Dados (RIPDs), dificultando a fiscalização e limitando o controle social.
O relatório evidencia riscos de discriminação algorítmica, especialmente contra grupos vulnerabilizados, e questiona a ausência de regras claras sobre o controle, o reuso dos dados e responsabilidades dos envolvidos. Entre as recomendações estão a revisão dos relatórios, políticas transparentes para retenção e descarte de dados, além da exigência de auditorias independentes. O documento sugere que o programa seja suspenso até que medidas em conformidade com a Constituição e a Lei Geral de Proteção de Dados sejam adotadas.
Via TI Inside