O Ministério da Justiça do Reino Unido desenvolveu um algoritmo para prever quais criminosos podem cometer assassinatos posteriormente. A ferramenta, originalmente chamada de "Projeto de Previsão de Homicídios", é chamada de "Compartilhamento de Dados para Melhorar a Avaliação de Riscos".
Liderado pelo Ministério da Justiça, Polícia da Grande Manchester, Ministério do Interior e Polícia Metropolitana, o projeto começou em janeiro de 2023 e, de acordo com um cronograma obtido pelo Statewatch por meio da Lei de Liberdade de Informação, foi concluído em dezembro de 2024, mas ainda não foi implantado.
Isto levanta preocupações sobre o enviesamento e as implicações éticas da utilização de tais modelos preditivos em vastos conjuntos de dados, incluindo aqueles que já enfrentam discriminação estrutural no Reino Unido. como aqueles dentro do grupo étnico britânico branco, particularmente os homens brancos.
Relacionado: O Conselho de Sentenças suspendeu suas diretrizes de sentenças de “dois níveis”, mas o preconceito anti-branco e anti-masculino permanece no judiciário do Reino Unido e A guerra jurídica, tradicionalmente empregada pela esquerda, foi usada pela direita para derrotar as diretrizes de sentenças de dois níveis
Não vamos perder o contato... Seu governo e a Big Tech estão tentando ativamente censurar as informações relatadas pelo The Expor para atender às suas próprias necessidades. Assine nossos e-mails agora para garantir que você receba as últimas notícias sem censura. na sua caixa de entrada…
O seguinte foi originalmente publicado pelo The National Pulse.
O Ministério da Justiça britânico está avançando em sua iniciativa de criar uma ferramenta algorítmica destinada a prever quais indivíduos condenados por crimes podem cometer homicídio. Conhecido internamente como Projeto de Previsão de Homicídios, o projeto surgiu por meio de solicitações de Liberdade de Informação do grupo de defesa das liberdades civis Statewatch, que considerou o projeto preocupante.
Expandindo os sistemas de previsão de risco já existentes, o projeto foi concebido para se basear em estruturas como o Sistema de Avaliação de Infratores (“OASys”), utilizado desde 2001 para prever reincidências e informar decisões judiciais. No entanto, a ampla abrangência de dados neste novo modelo levantou suspeitas. Os dados utilizados, provenientes de diversas fontes, polícia e órgãos governamentais, potencialmente inclui informações sobre até meio milhão de pessoas, algumas sem qualquer histórico criminal.
Apesar das afirmações das autoridades de que o projeto ainda está em fase de pesquisa, documentos descobertos sugerem futuras implantações. Fontes afirmam que houve uma maior colaboração entre agências governamentais e forças policiais, como Polícia de Manchester e Polícia Metropolitana, para aprimorar o conjunto de dados que impulsiona essas previsões.
O Statewatch levantou preocupações éticas sobre o potencial de viés sistêmico do modelo preditivo. O Estado britânico já tentou introduzir diretrizes que eram explicitamente de dois níveis e teriam visto as minorias étnicas priorizadas para fiança em detrimento Homem-branco no país.
Sofia Lyall, da Statewatch, descreveu o projeto do algoritmo como "assustador e distópico", pedindo a interrupção imediata de seu desenvolvimento. "Repetidamente, pesquisas mostram que sistemas algorítmicos para 'prever' crimes são inerentemente falhos", disse ela. Ela destacou o risco que os algoritmos representam na criação de perfis de potenciais criminosos antes que qualquer crime seja cometido.
Leia mais: Reino Unido: Ministério da Justiça desenvolve secretamente sistema de "previsão de assassinatos", Statewatch, 8 de abril de 2025
Relacionado: Reino Unido: Mais de 1,300 pessoas são perfiladas diariamente pelo sistema de IA do Ministério da Justiça para 'prever' o risco de reincidência, Statewatch, 9 de abril de 2025

O Expose precisa urgentemente da sua ajuda…
Você pode, por favor, ajudar a manter as luzes acesas com o jornalismo honesto, confiável, poderoso e verdadeiro do The Expose?
Seu governo e organizações de grande tecnologia
tente silenciar e encerrar o The Expose.
Então precisamos da sua ajuda para garantir
podemos continuar a trazer-lhe o
fatos que a corrente principal se recusa a revelar.
O governo não nos financia
para publicar mentiras e propaganda em seus
em nome da grande mídia.
Em vez disso, dependemos exclusivamente do seu apoio. Então
por favor, apoie-nos em nossos esforços para trazer
você jornalismo investigativo honesto e confiável
hoje. É seguro, rápido e fácil.
Escolha seu método preferido abaixo para mostrar seu apoio.
Categorias: Notícias de Última Hora
O dinheiro dos contribuintes está sendo desperdiçado com esse absurdo.
Muitas pessoas precisam perder seus empregos.
escreve-se :heads
As pessoas que financiaram e conceberam o algoritmo são os assassinos neste mundo – inversão clássica
Um programa como esse não é tão difícil de fazer e posso lhe dar uma linha de programa que seria o núcleo de qualquer programa desse tipo:
SE NAME$ = “Mohammed” OU NAME$ = “Hassan” OU NAME$ = “Ali” ENTÃO Risco = Risco + 1000
Sim, é simples assim!
Aposto que não previu que Matt Hancock assassinaria muitos idosos em casas de repouso, embora ele tenha admitido abertamente ter todas as seringas prontas e Midazolam suficiente para afundar um navio de guerra.
Sim, Hancock precisa ficar atrás das grades dividindo o chuveiro com Big Vern e as outras moças da ala Nonces.
https://www.youtube.com/watch?v=VAGk2mvgBEk
Que tal resolver primeiro os casos arquivados em Rotherham, para começar?
Não havia um filme com Tom Cruise em que ele era um policial? Um computador nele previa quem infringiria a lei.
No Reino Unido? Que piada. Se a previsão estivesse correta, seria ilegal.
Relatório minoritário
Vamos começar com o óbvio, certo? Imigrantes ilegais do Terceiro Mundo e qualquer pessoa que siga uma determinada religião do deserto, para começar. Depois, adicione o Fórum Econômico Mundial/Soros, a OMS, Gates e os Clintons, e isso seria um bom começo.
Eu sou de dois países não europeus; as pessoas admiravam o Ocidente por sua liberdade de expressão, liberdade de imprensa etc., mas, cada vez mais, muito disso não era verdade. Agora, o Ocidente está caminhando para uma distopia de pesadelo. Quando diabos as pessoas vão acordar e cuidar dos juízes, políticos etc. vendidos, chantageados e corruptos?
Perfil racista automatizado. O computador chamará isso de discurso de ódio se você chamar o computador de racista?
Os resultados seriam fenomenais se fossem aplicados aos principais políticos do Reino Unido, que enviam soldados para assassinar e serem assassinados, para começar.