O presente artigo pretende refutar qualquer brecha deixada no ordenamento jurídico brasileiro para a prolação de decisões criminais por plataformas de inteligência artificial, pois seu emprego choca-se com a preservação dos direitos fundamentais, entendidos como aqueles direitos humanos de primeira geração. Para tanto, descreve-se brevemente a modernidade líquida e demonstra-se que o processamento da linguagem natural (aquela surgida espontaneamente e utilizada pelos seres humanos), por softwares, não apaga seus vieses, e que, em matéria penal, a utilização da inteligência artificial resultou em discriminação em vários casos pelo mundo. Ainda que magistrados também possam proferir decisões com preconceitos, não devem ser substituídos por juízes-robôs, os quais não possuem capacidade de assumir responsabilidade.
This article aims to refute any loophole left in the Brazilian legal system for the rendering of criminal decisions by artificial intelligence platforms, as their use clashes with the preservation of fundamental rights, understood as first-generation human rights. To this end, liquid modernity is briefly described and it is demonstrated that the processing of natural language (that which arises spontaneously and used by human beings), by software, does not erase its biases, and that, in criminal matters, the use of intelligence artificial has resulted in discrimination in several cases around the world. Although magistrates can also make biased decisions, they should not be replaced by robot judges, who do not have the capacity to assume responsibility.