O presente artigo busca demonstrar como as novas implementações algorítmicas, alegadamente imparciais, acentuam a discriminação e os preconceitos por meio de mecanismos de vigilância. Quando as informações pessoais sobre a população são aplicadas no desenvolvimento de tecnologias de inteligência artificial, em uma sociedade já marcada pela seletividade, as consequências podem ser catastróficas. O ponto de partida é dado pela análise sobre vigilância, atualizada por Zygmunt Bauman, descrevendo como a sociedade da informação se delineou e ganhou a forma que possui hoje. Na sequência, por meio de revisão bibliográfica consubstanciada via método dedutivo, é possível observar que em países onde há permanente sensação de insegurança e a discriminação racial se institucionalizou, o uso pouco transparente de algoritmos preditivos, em especial pela justiça criminal, provoca efeitos negativos na eficácia das políticas públicas, fazendo cada vez mais vítimas e acentuando disparidades, ao invés de promover segurança.
This article attends to demonstrate how the new algorithmic implementations, allegedly unbiased, accentuate discrimination and prejudice through the surveillance mechanisms. When personal information about the population is applied to the development of artificial intelligence technologies, in a society already marked by selectivity, the consequences can be catastrophic. The starting point is given by the analysis on surveillance, updated by Zygmunt Bauman, describing how the information society was shaped and gained the form it has today. Then, through a bibliographic review based on a deductive method, it is possible to observe that in countries where there is a permanent feeling of insecurity and racial discrimination has become institutionalized, the lack of transparent use of predictive algorithms, especially by criminal justice, causes negative effects on effectiveness of public policies, making more and more victims and accentuating disparities, instead of promoting security.