CRIMINAL LIABILITY AND ARTIFICIAL INTELLIGENCE

Revista Brasileira de Ciências Criminais

Endereço:
Rua Onze de Agosto, 52 - 2º Andar - Centro - Centro
São Paulo / SP
01018-010
Site: http://www.ibccrim.org.br/
Telefone: (11) 3111-1040
ISSN: 14155400
Editor Chefe: Dr. André Nicolitt
Início Publicação: 30/11/1992
Periodicidade: Mensal
Área de Estudo: Ciências Humanas, Área de Estudo: Ciências Sociais Aplicadas, Área de Estudo: Direito, Área de Estudo: Multidisciplinar, Área de Estudo: Multidisciplinar

CRIMINAL LIABILITY AND ARTIFICIAL INTELLIGENCE

Ano: 2022 | Volume: Especial | Número: Especial
Autores: Mateus de Oliveira Fornasier
Autor Correspondente: Mateus de Oliveira Fornasier | [email protected]

Palavras-chave: inteligência artificial; responsabilidade penal; personalidade.

Resumos Cadastrados

Resumo Português:

Este artigo objetiva relacionar a personalidade e a responsabilidade jurídicas de entes artificiais inteligentes. Sua hipótese é de que não apenas a IA geral ou a superinteligência (ainda inexistentes) podem teoricamente cometer atos criminosos: mesmo os sistemas comuns de IA atualmente disponíveis podem ser treinados por criminosos para cometer atos que violam os direitos fundamentais. E situações culpáveis (por negligência, imprudência ou imperícia de programadores, designers e diretores de empresas de desenvolvimento de IA, por exemplo) devem ser consideradas em caso de crimes envolvendo IA. Pelo menos atualmente, portanto, alternativas mais consistentes com o Direito Penal atual devem ser considerados para situações criminais envolvendo IA, como novos tipos de crimes na lei atual contra seres humanos criminalmente responsáveis, ou enfatizar ainda mais a punição civil por danos causados por entidades artificiais autônomas. Especificamente, seus objetivos são: i) apresentar as possibilidades de uso criminoso da IA, bem como a impossibilidade jurídica de se atribuir responsabilidade criminal a entes artificiais dotados dessa tecnologia no atual momento da evolução tecnológica; ii) explorar novas possibilidades teórico-jurídicas opostas — quais sejam, o que deve ser feito para, um dia, quando houver uma IA geral, dotada de tanta consciência quanto um ser humano e, portanto, quiçá culpável. Metodologia: método de procedimento hipotético-dedutivo, abordagem qualitativa e técnica de revisão bibliográfica.



Resumo Inglês:

This article aims to relate legal personality and responsibility related to intelligent artificial entities. Its hypothesis is that not only general AI or superintelligence (still non-existent) can theoretically commit criminal acts: even common AI systems currently available can be trained by criminals to commit acts that violate fundamental rights. And culpable situations (due to negligence, recklessness or malpractice of programmers, designers and directors of AI development companies, for example) must be considered in the event of crimes involving AI. At least currently, therefore, alternatives more consistent with current Criminal Law should be considered for criminal situations involving AI, such as new criminal types in the current law against criminally responsible humans, or further emphasize civil punishment for damages caused ​​by autonomous artificial entities. Specifically, its objectives are: i) to present the possibilities of criminal use of AI, as well as the legal impossibility of attributing criminal liability to artificial entities endowed with this technology at the current moment of technological evolution; ii) to explore new opposing theoretical and legal possibilities — in other words, what should be done for, one day, when there is a general AI, endowed with as much awareness as a human being and, therefore, perhaps guilty. Methodology: hypothetical-deductive procedure method, qualitative approach and bibliographic review technique.