퍼징은 무작위 데이터를 반복적으로 입력하여 소프트웨어 취약점을 테스트하는 기법으로, 많은 연구자와 실무자들이 퍼저를 통해 다양한 방식으로 입력값을 생성 및 변형시켜 퍼징을 수행하고 있다. 그러나 퍼저 의 특성이 다양하게 발전하면서 퍼저 연구 간 구성, 벤치마크, 메트릭 등 기준이 서로 달라 실행가능하고 신뢰성 있는 성능 평가가 필요한 상황이다. 본 연구에서는 최신 퍼저 연구들이 다양성과 신뢰성이 확보된 성능 평가를 제공하고 있는지에 대한 동향 분석을 실시한다. 구체적으로 퍼저 성능 평가 연구들을 분석하 여 공통적인 평가 기준을 식별하고, 최신 퍼저 연구들을 수집하여 해당 연구의 성능 평가에 대한 통계적 분석을 수행한다. 우리의 결과는 현 퍼저 연구 분야의 문제점을 지적하고 발전 방향성을 제시하는데 기여 한다.