Avaliação de acessibilidade é uma importante atividade no processo de design digital. Apesar de existirem softwares que realizam automatica - mente a avaliação de acessibilidade web, pouco se investigou sobre os re - sultados apresentados por estes avaliadores automáticos, em particular considerando a avaliação formativa. Este trabalho apresenta um estudo que compara os resultados apresentados por oito avaliadores automá - ticos que são extensão de navegadores. Analisou-se a quantidade total de problemas reportados, bem como sua estratificação por tipo (erros e avisos), princípios e critérios violados, página e local de ocorrência dentro da página. Os resultados encontrados demonstram que cada avaliador se destaca em aspectos diferentes, sendo relevante a utilização de mais de um deles para uma cobertura mais ampla em diferentes aspectos. Os três avaliadores mais promissores foram AInspector, Accessibility Checker e Code Sniffer.
Accessibility evaluation is an important activity during digital design pro - cess. Although there is software to automatic evaluate web accessibili - ty, little research is done on results from these automatic evaluators, in particular taking into account formative evaluation. This work reports a study that compares results from eight automatic evaluators which are browser’s extensions. We analyzed the total amount of reported pro - blems, as well as their stratification by type (errors and warnings), vio - lated principles and criteria, page and occurrence place within the page were analyzed. The results showed that each evaluator stands out in different aspects, being relevant the use of more than one evaluator for a wider coverage in different aspects. The three most promising evalua - tors were AInspector, Accessibility Checker and Code Sniffer.