A crescente presença de tecnologias de Inteligência Artificial (IA) tem levantado questões acerca da transparência e compreensibilidade dos processos decisórios tomados por essas máquinas. O termo "caixa preta" é frequentemente utilizado para descrever sistemas de IA que operam de forma opaca, sem fornecer explicações claras sobre suas decisões. O objetivo desta pesquisa é analisar os métodos utilizados para resolver o problema da caixa preta e discutir as questões éticas e de preconceito que podem estar presentes nesses sistemas. Para tanto, foi realizada uma revisão bibliográfica dos principais métodos de interpretação de modelos de IA, tais como análise de sensibilidade, decomposição de modelo e interpretabilidade por design. A metodologia utilizada incluiu a seleção de artigos com base em critérios pré-definidos, extração de dados e análise dos resultados. Além disso, discutimos a importância da abordagem de equidade e justiça para garantir que os sistemas de IA não reproduzam preconceitos existentes na sociedade. Concluímos que os métodos de interpretabilidade podem ajudar a resolver o problema da caixa preta, mas devem ser combinados com abordagens de equidade e justiça para garantir a confiabilidade e responsabilidade dos sistemas de IA.
The growing presence of Artificial Intelligence (AI) technologies has raised questions about the transparency and comprehensibility of the decision-making processes taken by these machines. The term "black box" is often used to describe AI systems that operate opaquely, without providing clear explanations for their decisions. The objective of this research is to analyze the methods used to solve the black box problem and discuss the ethical and bias issues that may be present in these systems. To this end, a bibliographical review of the main methods for interpreting AI models was carried out, such as sensitivity analysis, model decomposition and interpretability by design. The methodology used included the selection of articles based on pre-defined criteria, data extraction and analysis of results. Furthermore, we discuss the importance of the equity and justice approach to ensure that AI systems do not reproduce existing biases in society. We conclude that interpretability methods can help solve the black box problem, but they must be combined with equity and justice approaches to ensure the trustworthiness and accountability of AI systems.