CHI statistical text feature selection method based on information entropy optimization is presented in this paper. In the text categorization process of feature selection, considering the results of effect of the distribution within categories and among categories, we introduce the frequency of features information entropy among categories, the information entropy within categories, information within category to optimize the CHI statistical methods. The experimental results show that the classification accuracy of the optimized CHI method is significantly higher than that the traditional CHI statistical methods.
목차
Abstract 1. Introduction 2. CHI Statistics Algorithm Based on Information Entropy Optimization 2.1. Thought of Information Entropy among Categories 2.2. Thought of Information Entropy within a Category 2.3. Feature Frequency Information within a Category 2.4. CHI Statistical Algorithm is Based on Information Entropy 3. Experiments and Analysis 3.1. Dataset 3.2. Evaluation Criteria 3.3. Experiment Result 4. Conclusion References
보안공학연구지원센터(IJDTA) [Science & Engineering Research Support Center, Republic of Korea(IJDTA)]
설립연도
2006
분야
공학>컴퓨터학
소개
1. 보안공학에 대한 각종 조사 및 연구
2. 보안공학에 대한 응용기술 연구 및 발표
3. 보안공학에 관한 각종 학술 발표회 및 전시회 개최
4. 보안공학 기술의 상호 협조 및 정보교환
5. 보안공학에 관한 표준화 사업 및 규격의 제정
6. 보안공학에 관한 산학연 협동의 증진
7. 국제적 학술 교류 및 기술 협력
8. 보안공학에 관한 논문지 발간
9. 기타 본 회 목적 달성에 필요한 사업
간행물
간행물명
International Journal of Database Theory and Application
간기
격월간
pISSN
2005-4270
수록기간
2008~2016
십진분류
KDC 505DDC 605
이 권호 내 다른 논문 / International Journal of Database Theory and Application Vol.9 No.11