CoDAS
https://codas.org.br/article/doi/10.1590/2317-1782/20202020042
CoDAS
Artigo Original

Escala para rastreio de dislexia do desenvolvimento: evidências de validade e fidedignidade

Scale for developmental dyslexia screening: evidence of validity and reliability

Ana Bassôa, Adriana C. Costa, Rudineia Toazza, Augusto Buchweitz

Downloads: 13
Views: 1978

Resumo

Objetivo: Investigar validade e fidedignidade de uma escala de rastreio para dislexia do desenvolvimento (DD) no ensino fundamental preenchida por professores. Método: Avaliação empírica - 12 professores responderam a Escala de Leitura e Escrita (ELE) sobre 95 alunos de 3º ano do ensino fundamental, em dois momentos; os escolares realizaram testes de leitura e escrita (variáveis externas) para investigar a correlação entre a escala e o desempenho dos mesmos. Realizaram-se (1) análise fatorial, (2) avaliação da consistência interna, (3) investigação da relação entre um item da escala e o construto medido por teoria da resposta ao item (TRI) (4) correlação da escala com variáveis externas (Validade Convergente-VC); e (5) investigação da estabilidade temporal da avaliação. Resultados: (1) a escala avalia um único fator; (2) o coeficiente alpha apontou que os itens são bons indicadores do construto; (3) a análise por TRI mostra que todos os itens foram monotônicos, indicando que um único construto determina a variabilidade (4) a correlação de Spearman foi moderada (11/17 itens), apontando a existência de VC; (5) o valor da correlação do coeficiente de estabilidade temporal indica que o resultado da ELE não varia de maneira significativa no tempo; (6) nove crianças obtiveram pontuações que sugerem encaminhamento para uma avaliação diagnóstica devido ao grau de dificuldade apresentado. Conclusão: O estudo mostra evidências empíricas de validade e fidedignidade da ELE para rastreio de risco de DD. A porcentagem de crianças com suspeita de DD (aproximadamente 9%) corrobora a literatura internacional sobre prevalência de dislexia.

Palavras-chave

Rastreio; Dislexia; Professores Escolares; Psicometria; Estudo de Validação  

Abstract

Purpose: To investigate the empirical validity and reliability of a screener for risk of developmental dyslexia (DD) by elementary school teachers. Methods: The scale was tested with 12 teachers who answered questions about their students (95 students total, all in the third year of elementary school); the students, in turn, performed reading and writing tasks which were used to investigate the association between screening scores and performance. The following analyses were carried out: (1) factor analysis; (2) internal consistency; (3) relationship between each scale item and the construct of interest, as measured by item response theory (IRT); (4) correlation of each scale item with external variables (reading and writing tests); and (5) the temporal stability of teachers’ evaluations. Results: The analyses showed: (1) one factor was extracted; (2) strong internal consistency – the items in the scale are good indicators for screening of this construct; (3) items were monotonic (IRT), i.e., item variability is associated with one construct; (4) moderate Spearman correlation (11/17 items); (5) temporal stability – the result of screening did not vary over time. Conclusion: This study shows evidence of validity and reliability of the proposed scale in its intended use of screening for developmental dyslexia. The percentage of children at risk for developmental dyslexia, according to the scale, was approximately 9%, which is in agreement with the international literature on the prevalence of dyslexia.

Keywords

Screening; Dyslexia; School Teachers; Psychometrics; Validation Study

Referências

1. APA: American Psychiatric Association. DSM-5: manual diagnóstico e estatístico de transtornos mentais. Porto Alegre: Artmed; 2014.

2. IBGE: Instituto Brasileiro de Geografia e Estatística. Taxa de analfabetismo das pessoas de 15 anos ou mais de idade, por sexo - Brasil - 2007/2014 [Internet]. Rio de Janeiro: IBGE; 2016 [citado em 2016 Jul 27]. Disponível em: http://brasilemsintese.ibge.gov.br/educacao/taxa-de-analfabetismodas-pessoas-de-15-anos-ou-mais.html

3. Costa AC, Toazza R, Bassoa A, Portuguez MW, Buchweitz A. Ambulatório de Aprendizagem do Projeto ACERTA (Avaliação de Crianças Em Risco de Transtorno de Aprendizagem): métodos e resultados em dois anos. In: Salles J, Haase VG, Malloy-Diniz LF, editores. Neuropsicologia do desenvolvimento: infância e adolescência. Porto Alegre: Artmed; 2015. p. 151-8.

4. Colenbrander D, Ricketts J, Breadmore HL. Early identification of dyslexia: understanding the issues. Lang Speech Hear Serv Sch. 2018;49(4):817-28. http://dx.doi.org/10.1044/2018_LSHSS-DYSLC-18-0007. PMid:30458543.

5. Torres D, Ciasca S. Correlação entre a queixa do professor e a avaliação psicológica em crianças de primeira série com dificuldades de aprendizagem. Rev Psicopedag. 2007;24(73):18-29.

6. Bussing R, Fernandez M, Harwood M, Wei Hou, Garvan CW, Eyberg SM, et al. Parent and teacher SNAP-IV ratings of attention deficit hyperactivity disorder symptoms: psychometric properties and normative ratings from a school district sample. Assessment. 2008;15(3):317-28. http://dx.doi. org/10.1177/1073191107313888. PMid:18310593.

7. Bassôa A. Construção e evidências de fidedignidade e validade de uma Escala de Leitura e Escrita (ELE) para o rastreio de crianças com dificuldades escolares [dissertação]. Porto Alegre: Pontifícia Universidade Católica do Rio Grande do Sul; 2016.

8. Torgesen JK. The prevention of reading difficulties. J Sch Psychol. 2002;40(1):7-26. http://dx.doi.org/10.1016/S0022-4405(01)00092-9.

9. Torgesen JK. Individual differences in response to early interventions in reading: the lingering problem of treatment resisters. Learn Disabil Res Pract. 2000;15(1):55-64. http://dx.doi.org/10.1207/SLDRP1501_6.

10. Gresham FM, Elliott SN. Inventário habilidades sociais, problemas comportamento e competência acadêmica para crianças - SSRS. São Paulo: Casa do Psicólogo; 2016.

11. Urbina S. Essentials of psychological testing. 2nd ed. New Jersey: Wiley; 2014.

12. Pasquali L. Psicometria: teoria dos testes na psicologia e na educação. 5. ed. Rio de Janeiro: Vozes; 2013.

13. Salles JF. Habilidades e dificuldades de leitura e escrita em crianças de 2ª série: abordagem neuropsicológica cognitiva [dissertação]. Porto Alegre: Universidade do Estado do Rio Grande do Sul; 2005.

14. Saraiva RA, Moojen SMP, Munarski R. Avaliação da compreensão leitora de textos expositivos para fonoaudiólogos e psicopedagogos. São Paulo: Casa do Psicólogo; 2005.

15. Moojen SMP. A escrita ortográfica na escola e na clínica: teoria, avaliação e tratamento. São Paulo: Casa do Psicólogo; 2011.

16. Brown TA. Confirmatory factor analysis for applied research. 2nd ed. USA: Guilford Publications; 2015.

17. Holgado-Tello FP, Chacón-Moscoso S, Barbero-García I, Vila-Abad E. Polychoric versus Pearson correlations in exploratory and confirmatory factor analysis of ordinal variables. Qual Quant. 2009;44(1):153-66. http:// dx.doi.org/10.1007/s11135-008-9190-y.

18. Hair JF, Black WC, Anderson R, Babin B. Multivariate data analysis: a global perspective. 7th ed. Upper Saddle River: Pearson Education; 2010.

19. Masters GN. A Rasch model for partial credit scoring. Psychometrika. 1982;47(2):149-74. http://dx.doi.org/10.1007/BF02296272.

20. Wright BD, Linacre JM. Reasonable mean-square fit values. Rasch Meas Trans. 1994;8:370.

21. Muthén LK, Muthén B. Mplus user’s guide. 6th ed. Los Angeles, CA: Muthén & Muthén; 2010.

22. R Core Team. R: a language and environment for statistical computing [Internet]. Vienna: Foundation for Statistical Computing; 2015 [citado em 2016 Ago 27]. Disponível em: https://cran.r-project.org

23. Revelle W. Psych: procedures for personality and psychological research [Internet]. Evanston, Illinois: Northwestern University; 2015 [citado em 2016 Ago 27]. Disponível em: http://cran.r-project.org/package=psych

24. Chalmers RP. mirt: a multidimensional item response theory package for the R environment. J Stat Softw. 2012;48(6):1-29. http://dx.doi.org/10.18637/ jss.v048.i06.

25. Cattell RB. The scree test for the number of factors. Multivariate Behav Res. 1966;1(2):245-76. http://dx.doi.org/10.1207/s15327906mbr0102_10. PMid:26828106.

26. Horn JL. A rationale and test for the number of factors in factor analysis. Psychometrika. 1965;30(2):179-85. http://dx.doi.org/10.1007/BF02289447. PMid:14306381.

27. Graham S, Hebert M. Writing to read: A meta-analysis of the impact of writing and writing instruction on reading. Harv Educ Rev. 2011;81(4):710- 44. http://dx.doi.org/10.17763/haer.81.4.t2k0m13756113566.

28. DeMars C. Item response theory. USA: Oxford University Press; 2010. http://dx.doi.org/10.1093/acprof:oso/9780195377033.001.0001.

29. Law JM, Vandermosten M, Ghesquiere P, Wouters J. The relationship of phonological ability, speech perception, and auditory perception in adults with dyslexia. Front Hum Neurosci. 2014;8(482):482. http://dx.doi. org/10.3389/fnhum.2014.00482. PMid:25071512.

30. DeVon HA, Block ME, Moyle‐Wright P, Ernst DM, Hayden SJ, Lazzara DJ, et al. A psychometric toolbox for testing validity and reliability. J Nurs Scholarsh. 2007;39(2):155-64. http://dx.doi.org/10.1111/j.1547- 5069.2007.00161.x. PMid:17535316.

31. Stein LM. TDE: teste de desempenho escolar: manual para aplicação e interpretação. São Paulo: Casa do Psicólogo; 1994. 17 p.

32. Athayde MDL, Mendonça EJD Fo, Fonseca RP, Stein LM, Giacomoni CH. Desenvolvimento do subteste de leitura do Teste de Desempenho Escolar II. Psico-USF. 2019;24(2):245-57. http://dx.doi.org/10.1590/1413- 82712019240203.

33. Brasil. Ministério da Educação. Diretrizes Curriculares Nacionais da Educação Básica. Brasília: MEC, SEB, DICEI; 2013.

34. Komeno EM, Ávila CRBD, Cintra IDP, Schoen TH. Velocidade de leitura e desempenho escolar na última série do ensino fundamental. Estud Psicol. 2015;32(3):437-47. http://dx.doi.org/10.1590/0103-166X2015000300009.

35. Oliveira FJD, Silveira MIM. A compreensão leitora e o processo inferencial em turmas do nono ano do ensino fundamental. Revista da FAEEBA. 2014;23(41):91-104. http://dx.doi.org/10.21879/faeeba2358-0194.v23. n41.826.

36. Conselho Federal de Psicologia. Avaliação psicológica: diretrizes na regulamentação da profissão. 1. ed. Brasília: CFP; 2010.

37. Brasil. Ministério da Educação. Secretaria de Alfabetização. Política Nacional de Alfabetização (PNA). Brasília: MEC, SEALF; 2019.


Submetido em:
02/04/2020

Aceito em:
06/09/2020

60c8be75a953952066324822 codas Articles

CoDAS

Share this page
Page Sections