Imagine um mundo onde a polícia sabe quem vai cometer um crime antes mesmo de ele acontecer. Parece roteiro de Minority Report, não? Pois é exatamente essa a proposta por trás de um projeto do Ministério da Justiça do Reino Unido que está causando furor.
Mas será que um algoritmo pode realmente prever quem vai se tornar um assassino? E, mais importante: será que isso é uma boa ideia?
Homicide Prediction Project
O projeto, inicialmente chamado de Homicide Prediction Project e agora rebatizado para algo menos assustador (Sharing Data to Improve Risk Assessment), foi descoberto por meio de pedidos de acesso à informação feitos pela organização Statewatch.
A ideia é simples (ou assustadoramente complexa, dependendo do ponto de vista): usar dados de meio milhão de pessoas — incluindo suspeitos, vítimas, testemunhas e até mesmo pessoas desaparecidas — para treinar algoritmos que identifiquem potenciais assassinos antes que eles cometam qualquer crime.
O governo britânico insiste que é apenas uma pesquisa acadêmica, mas os documentos obtidos pela Statewatch mencionam a possibilidade de uma “futura operacionalização” do sistema.
De onde vêm os dados?
O projeto é uma colaboração entre o Ministério da Justiça, o Ministério do Interior e as polícias de Greater Manchester e Londres. Os dados incluem:
- Informações criminais (histórico de condenações, antecedentes);
- Dados sensíveis (saúde mental, vícios, automutilação, vulnerabilidade);
- Dados demográficos (etnia, gênero, localização).
Segundo o Ministério da Justiça, os “marcadores de saúde” — como histórico de doenças mentais e dependência química — teriam “poder preditivo significativo”.
O Problema do viés algorítmico
Aqui é onde a coisa fica complicada. Algoritmos não são neutros — eles refletem os vieses dos dados que os alimentam. No Reino Unido, pessoas negras e de áreas pobres já são desproporcionalmente representadas no sistema criminal. Se o algoritmo for treinado com esses dados, ele vai reforçar o mesmo preconceito.
Um estudo do próprio governo britânico já mostrou que ferramentas de avaliação de risco, como o OASys, funcionam pior para grupos historicamente discriminados, classificando-os como mais perigosos do que realmente são.
Ou seja: em vez de prever crimes, o sistema pode acabar criminalizando ainda mais comunidades já marginalizadas.
O governo argumenta que o projeto pode salvar vidas, ajudando a prevenir crimes violentos. Afinal, se um algoritmo puder identificar um potencial assassino antes que ele aja, por que não usar essa ferramenta?
Mas críticos, como a Statewatch, chamam o projeto de “distópico” e alertam para os riscos de vigilância massiva e discriminação algorítmica.
Sofia Lyall, pesquisadora da Statewatch, afirma:
“Sistemas de ‘previsão’ de crime são inerentemente falhos. Usar dados de uma polícia historicamente racista só vai reforçar a discriminação estrutural.”
E agora?
O projeto, em fase de pesquisa, teria supostamente terminado em dezembro de 2024, quando seus dados seriam apagados. Mas se o governo decidir implementá-lo, podemos estar diante de um precedente perigoso.
Será que queremos viver em um mundo onde um algoritmo pode decidir quem é um criminoso em potencial? Ou será que, no fim das contas, essa ferramenta acabaria sendo mais um sistema de controle social disfarçado de tecnologia?
Enquanto isso, fica a dúvida: se o algoritmo prever que você vai ler este artigo até o final… será que você realmente vai ler?
E se você leu até aqui, é muito provável que não vai querer perder nossa newsletter semanal!