143 0

Full metadata record

DC FieldValueLanguage
dc.contributor.author김성훈-
dc.date.accessioned2018-03-30T08:40:09Z-
dc.date.available2018-03-30T08:40:09Z-
dc.date.issued2014-06-
dc.identifier.citation교육평가연구,27(2),p.327-356(30)en_US
dc.identifier.issn1226-3540-
dc.identifier.urihttp://scholar.dkyobobook.co.kr/searchDetail.laf?barcode=4010023722009-
dc.identifier.urihttp://hdl.handle.net/20.500.11754/54491-
dc.description.abstract문항반응이론(IRT) 문항모수의 추정을 위해 주변최대우도 및 베이지언 최빈 방법을 지원하는 세 컴퓨터 프로그램 BILOG-MG, ICL, PARSCALE의 기능의 차이를 모의실험을 통해 비교 분석하였다. 이를 위해 먼저 검사자료가 단일집단 및 다집단(공통문항-비동등집단)으로부터 얻어질 때 각 프로그램이 IRT 문항모수를 추정하는 원리와 방법(명령어 구문)을 제시하였다. 모의실험의 결과, 검사자료의 구조에 따라 세 프로그램은 IRT 문항모수 추정의 정확성에 있어 뚜렷한 기능상의 차이를 보였다. 2모수 및 3모수 로지스틱(2PL & 3PL) 모형이 적합한 단일집단 검사자료의 경우, 검사의 길이 및 곤란도, 표본의 크기 등을 변화시킨 검사조건들에서 전반적으로 ICL이 가장 우수한 수행을 보였으나 세 프로그램 간의 실제적 차이는 없어 보였다. 2PL 모형 및 3PL 모형이 적합한 다집단 검사자료의 경우, 비동등 수준과 표본의 크기를 변화시킨 검사조건들에서 전반적으로 BILOG-MG와 ICL은 거의 대등한 수행 수준을 보였다. 다집단 검사자료의 IRT 문항모수 추정에서 PARSCALE은 한 검사형의 길이가 최대 23(5개의 공통문항+18개의 고유문항)인 조건에서 작동하였고, BILOG-MG 및 ICL보다 약 1.2~1.5배 이상의 추정의 평균오차를 보였다. The three computer programs BILOG-MG, ICL, and PARSCALE have been developed to estimate item response theory (IRT) item parameters and ability distributions using the marginal maximum likelihood and Bayes modal methods. With simulated single-group and multiple-group (common-item nonequivalent groups) test data, relative performances of the three programs were investigated on the degree of accuracy in estimation of the item parameters of the two- and three-parameter logistic (2PL & 3PL) models. As methodological bases, the estimation principles each program is based on and the detailed command syntax for running each program were presented. It was noted that PARSCALE could conduct multiple-group IRT estimation using the DIF model but deal with the maximum number of 23 items for a test form. The simulation results showed that the relative performances of the three programs should differ by the test data structure (single-group vs. multiple-group data). For the 2PL- and 3PL-model fitted single-group test data that were generated under combinatory conditions of test length, difficulty, and sample size, ICL overall performed best but the three programs performed almost equally in a practical sense. For the multiple-group test data that were generated under combinatory conditions of degree of nonequivalence between examinee groups and sample size, BILOG-MG and ICL performed almost equally. For this multiple-group IRT estimation, PARSCALE worked for 23-item test forms but performed much worse than BILOG-MG and ICL.en_US
dc.description.sponsorship이 논문은 2013학년도 충북대학교 학술연구지원사업의 연구비 지원에 의하여 연구되었en_US
dc.language.isoko_KRen_US
dc.publisher한국교육평가학회en_US
dc.subject문항반응이론en_US
dc.subject단일집단 및 다집단 IRT 추정en_US
dc.subjectBILOG-MGen_US
dc.subjectICLen_US
dc.subjectPARSCALEen_US
dc.title단일집단 및 다집단 검사자료의 IRT 문항모수 추정을 위한 BILOG-MG, ICL, PARSCALE 프로그램의 기능 비교en_US
dc.title.alternativeA Comparison on the Performances of the Computer Programs BILOG-MG, ICL, and PARSCALE for Estimating IRT Item Parameters with Single- and Multiple-Group Test Dataen_US
dc.typeArticleen_US
dc.relation.no2-
dc.relation.volume27-
dc.relation.page327-356-
dc.relation.journal교육평가연구-
dc.contributor.googleauthor김성훈-
dc.contributor.googleauthor김선-
dc.relation.code2014000652-
dc.sector.campusS-
dc.sector.daehakCOLLEGE OF EDUCATION[S]-
dc.sector.departmentDEPARTMENT OF EDUCATION-
dc.identifier.pidseonghoonkim-
Appears in Collections:
COLLEGE OF EDUCATION[S](사범대학) > EDUCATION(교육학과) > Articles
Files in This Item:
There are no files associated with this item.
Export
RIS (EndNote)
XLS (Excel)
XML


qrcode

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.

BROWSE