Full metadata record
DC Field | Value | Language |
---|---|---|
dc.contributor.author | 김성훈 | - |
dc.date.accessioned | 2018-03-30T08:40:09Z | - |
dc.date.available | 2018-03-30T08:40:09Z | - |
dc.date.issued | 2014-06 | - |
dc.identifier.citation | 교육평가연구,27(2),p.327-356(30) | en_US |
dc.identifier.issn | 1226-3540 | - |
dc.identifier.uri | http://scholar.dkyobobook.co.kr/searchDetail.laf?barcode=4010023722009 | - |
dc.identifier.uri | http://hdl.handle.net/20.500.11754/54491 | - |
dc.description.abstract | 문항반응이론(IRT) 문항모수의 추정을 위해 주변최대우도 및 베이지언 최빈 방법을 지원하는 세 컴퓨터 프로그램 BILOG-MG, ICL, PARSCALE의 기능의 차이를 모의실험을 통해 비교 분석하였다. 이를 위해 먼저 검사자료가 단일집단 및 다집단(공통문항-비동등집단)으로부터 얻어질 때 각 프로그램이 IRT 문항모수를 추정하는 원리와 방법(명령어 구문)을 제시하였다. 모의실험의 결과, 검사자료의 구조에 따라 세 프로그램은 IRT 문항모수 추정의 정확성에 있어 뚜렷한 기능상의 차이를 보였다. 2모수 및 3모수 로지스틱(2PL & 3PL) 모형이 적합한 단일집단 검사자료의 경우, 검사의 길이 및 곤란도, 표본의 크기 등을 변화시킨 검사조건들에서 전반적으로 ICL이 가장 우수한 수행을 보였으나 세 프로그램 간의 실제적 차이는 없어 보였다. 2PL 모형 및 3PL 모형이 적합한 다집단 검사자료의 경우, 비동등 수준과 표본의 크기를 변화시킨 검사조건들에서 전반적으로 BILOG-MG와 ICL은 거의 대등한 수행 수준을 보였다. 다집단 검사자료의 IRT 문항모수 추정에서 PARSCALE은 한 검사형의 길이가 최대 23(5개의 공통문항+18개의 고유문항)인 조건에서 작동하였고, BILOG-MG 및 ICL보다 약 1.2~1.5배 이상의 추정의 평균오차를 보였다. The three computer programs BILOG-MG, ICL, and PARSCALE have been developed to estimate item response theory (IRT) item parameters and ability distributions using the marginal maximum likelihood and Bayes modal methods. With simulated single-group and multiple-group (common-item nonequivalent groups) test data, relative performances of the three programs were investigated on the degree of accuracy in estimation of the item parameters of the two- and three-parameter logistic (2PL & 3PL) models. As methodological bases, the estimation principles each program is based on and the detailed command syntax for running each program were presented. It was noted that PARSCALE could conduct multiple-group IRT estimation using the DIF model but deal with the maximum number of 23 items for a test form. The simulation results showed that the relative performances of the three programs should differ by the test data structure (single-group vs. multiple-group data). For the 2PL- and 3PL-model fitted single-group test data that were generated under combinatory conditions of test length, difficulty, and sample size, ICL overall performed best but the three programs performed almost equally in a practical sense. For the multiple-group test data that were generated under combinatory conditions of degree of nonequivalence between examinee groups and sample size, BILOG-MG and ICL performed almost equally. For this multiple-group IRT estimation, PARSCALE worked for 23-item test forms but performed much worse than BILOG-MG and ICL. | en_US |
dc.description.sponsorship | 이 논문은 2013학년도 충북대학교 학술연구지원사업의 연구비 지원에 의하여 연구되었 | en_US |
dc.language.iso | ko_KR | en_US |
dc.publisher | 한국교육평가학회 | en_US |
dc.subject | 문항반응이론 | en_US |
dc.subject | 단일집단 및 다집단 IRT 추정 | en_US |
dc.subject | BILOG-MG | en_US |
dc.subject | ICL | en_US |
dc.subject | PARSCALE | en_US |
dc.title | 단일집단 및 다집단 검사자료의 IRT 문항모수 추정을 위한 BILOG-MG, ICL, PARSCALE 프로그램의 기능 비교 | en_US |
dc.title.alternative | A Comparison on the Performances of the Computer Programs BILOG-MG, ICL, and PARSCALE for Estimating IRT Item Parameters with Single- and Multiple-Group Test Data | en_US |
dc.type | Article | en_US |
dc.relation.no | 2 | - |
dc.relation.volume | 27 | - |
dc.relation.page | 327-356 | - |
dc.relation.journal | 교육평가연구 | - |
dc.contributor.googleauthor | 김성훈 | - |
dc.contributor.googleauthor | 김선 | - |
dc.relation.code | 2014000652 | - |
dc.sector.campus | S | - |
dc.sector.daehak | COLLEGE OF EDUCATION[S] | - |
dc.sector.department | DEPARTMENT OF EDUCATION | - |
dc.identifier.pid | seonghoonkim | - |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.