A correct method to calculate the IDD value-added indicator in the Brazillian higher education quality assurance framework

Avaliação

Endereço:
Rodovia Raposo Tavares - km 92,5 - Vila Artura
Sorocaba / SP
18023000
Site: http://periodicos.uniso.br/ojs/index.php/avaliacao/index
Telefone: (15) 2101-7018
ISSN: 1982-5765
Editor Chefe: Prof. Dr. José Dias Sobrinho
Início Publicação: 20/02/1996
Periodicidade: Quadrimestral
Área de Estudo: Ciências Humanas, Área de Estudo: Educação

A correct method to calculate the IDD value-added indicator in the Brazillian higher education quality assurance framework

Ano: 2021 | Volume: 26 | Número: 2
Autores: E. Haar
Autor Correspondente: E. Haar | [email protected]

Palavras-chave: Higher education; Value-added modeling; Quality indicators; IDD

Resumos Cadastrados

Resumo Português:

O trabalho investiga o indicador de “valor agregado” usado no sistema de avaliação do ensino superior Brasileiro, o chamado indicador IDD (Indicador de Diferença entre os Desempenhos Observado e Esperado) para cursos de graduação. As duas principais afirmações defendidas são que desde 2014 este indicador é calculado de forma equivocada pelo INEP (Instituto Nacional de Estudos e Pesquisas Educacionais) e que este equívoco teve consequências relevantes para as políticas públicas. O INEP usa modelagem multinível para calcular o IDD, usando um modelo linear misto com interceptos aleatórios. Em vez de identificar o IDD com os interceptos estimados, o INEP usa a média dos residuais no nível dos estudantes. É possível reproduzir exatamente os valores dos IDDs publicados pelo INEP a partir dos microdados do ciclo de 2019 usando o método equivocado. Uma comparação dos valores do IDD do INEP com aqueles obtidos usando o método correto mostra índices de confiabilidade maiores usando o método correto. Como exemplo de uma consequência relevante, determino o número de cursos que foram equivocadamente classificados com IDD “satisfatório” segundo os critérios usuais do INEP.



Resumo Inglês:

This paper investigates the value-added indicator used in the Brazilian higher education quality assurance framework, the so-called IDD indicator for undergraduate programmes (“Indicator of the difference between observed and expected outcomes''). The two main claims are that since 2014 this indicator is calculated incorrectly and that this mistake has relevance for public policy. INEP, the educational statistical agency responsible for educational quality indicators in Brazil, incorrectly uses multilevel modeling in their value-added analysis. The IDD indicator is calculated by estimating a varying intercept linear mixed model, but instead of identifying the intercepts with the value added of courses, INEP uses the mean of the student residuals. That this was indeed the error made is shown by reproducing exactly INEP’s published values using the incorrect method with the microdata for the 2019 assessment cycle. I then compare these values to the ones obtained with the same model and same data, but using the correct value-added measure. A comparison of reliability estimates for both methods shows that this measure of internal consistency is indeed higher for the correct method. As an example of policy relevance, I calculate the number of courses that would change from “satisfactory” to “unsatisfactory” and vice-versa, using the usual criteria established by INEP, if the correct method is applied.