텍스트 마이닝에서 심층 신경망을 이용한 문서 분류

문서-용어 빈도행렬은 그룹정보가 존재하는 문서들의 용어를 추출한 것으로 일반적인 텍스트 마이닝에서의 자료이다. 본 연구에서는 연구 분야 성격에 따른 문서 분류를 위해 문서-용어 빈도행렬을 생성하고, 전통적인 용어 가중치함수인 TF-IDF와 최근 잘 알려진 용어 가중치 함수인 TF-IGM을 적용하였다. 또 용어 가중치가 적용된 문서-용어 가중행렬에 문서분류 정확도 향상을 위해 핵심어를 추출하여 문서-핵심어 가중행렬을 생성하였다. 핵심어가 추출된 행렬을 바탕으로, 심층 신경망을 이용해 문서를 분류하였다. 심층 신경망에서 최적의 모델을...

Full description

Saved in:
Bibliographic Details
Published inŬngyong tʻonggye yŏnʼgu Vol. 33; no. 5; pp. 615 - 625
Main Authors 이보희, Bo-hui Lee, 이수진, Su-jin Lee, 최용석, Yong-seok Choi
Format Journal Article
LanguageKorean
Published 한국통계학회 2020
Subjects
Online AccessGet full text
ISSN1225-066X
2383-5818

Cover

Abstract 문서-용어 빈도행렬은 그룹정보가 존재하는 문서들의 용어를 추출한 것으로 일반적인 텍스트 마이닝에서의 자료이다. 본 연구에서는 연구 분야 성격에 따른 문서 분류를 위해 문서-용어 빈도행렬을 생성하고, 전통적인 용어 가중치함수인 TF-IDF와 최근 잘 알려진 용어 가중치 함수인 TF-IGM을 적용하였다. 또 용어 가중치가 적용된 문서-용어 가중행렬에 문서분류 정확도 향상을 위해 핵심어를 추출하여 문서-핵심어 가중행렬을 생성하였다. 핵심어가 추출된 행렬을 바탕으로, 심층 신경망을 이용해 문서를 분류하였다. 심층 신경망에서 최적의 모델을 찾기 위해 매개변수인 은닉층과 은닉노드수를 변화해가며 문서 분류 정확도를 확인하였다. 그 결과 8개의 은닉층을 가진 심층 신경망 모델이 가장 높은 정확도를 보였으며 매개변수 변화에 따른 모든 TF-IGM 문서 분류 정확도가 TF-IDF 문서 분류 정확도보다 높은 것을 확인하였다. 또한 개별 범주에 대한 문서 분류 분석 결과를 서포트 벡터 머신과 비교했을 때 심층신경망이 대부분의 결과에서 더 좋은 정확도를 보임을 확인하였다. The document-term frequency matrix is a term extracted from documents in which the group information exists in text mining. In this study, we generated the document-term frequency matrix for document classifi-cation according to research field. We applied the traditional term weighting function term frequency-inverse document frequency (TF-IDF) to the generated document-term frequency matrix. In addition, we applied term frequency-inverse gravity moment (TF-IGM). We also generated a document-keyword weighted matrix by extracting keywords to improve the document classification accuracy. Based on the keywords matrix extracted, we classify documents using a deep neural network. In order to find the optimal model in the deep neural network, the accuracy of document classification was verified by changing the number of hidden layers and hidden nodes. Consequently, the model with eight hidden layers showed the highest accuracy and all TF-IGM document classification accuracy (according to parameter changes) were higher than TF-IDF. In addition, the deep neural network was confirmed to have better accuracy than the support vector machine. Therefore, we propose a method to apply TF-IGM and a deep neural network in the document classification.
AbstractList The document-term frequency matrix is a term extracted from documents in which the group information exists in text mining. In this study, we generated the document-term frequency matrix for document classification according to research field. We applied the traditional term weighting function term frequency-inverse document frequency (TF-IDF) to the generated document-term frequency matrix. In addition, we applied term frequency-inverse gravity moment (TF-IGM). We also generated a document-keyword weighted matrix by extracting keywords to improve the document classification accuracy. Based on the keywords matrix extracted, we classify documents using a deep neural network. In order to find the optimal model in the deep neural network, the accuracy of document classification was verified by changing the number of hidden layers and hidden nodes. Consequently, the model with eight hidden layers showed the highest accuracy and all TF-IGM document classification accuracy (according to parameter changes) were higher than TF-IDF. In addition, the deep neural network was confirmed to have better accuracy than the support vector machine. Therefore, we propose a method to apply TF-IGM and a deep neural network in the document classification. 문서-용어 빈도행렬은 그룹정보가 존재하는 문서들의 용어를 추출한 것으로 일반적인 텍스트 마이닝에서의 자료이다. 본 연구에서는 연구 분야 성격에 따른 문서 분류를 위해 문서-용어 빈도행렬을 생성하고, 전통적인 용어 가중치 함수인 TF-IDF와 최근 잘 알려진 용어 가중치 함수인 TF-IGM을 적용하였다. 또 용어 가중치가 적용된 문서-용어 가중행렬에 문서분류 정확도 향상을 위해 핵심어를 추출하여 문서-핵심어 가중행렬을 생성하였다. 핵심어가 추출된 행렬을 바탕으로, 심층 신경망을 이용해 문서를 분류하였다. 심층 신경망에서 최적의 모델을 찾기 위해 매개변수인 은닉층과 은닉노드수를 변화해가며 문서 분류 정확도를 확인하였다. 그 결과 8개의 은닉층을 가진 심층 신경망 모델이 가장 높은 정확도를 보였으며 매개변수 변화에 따른 모든 TF-IGM 문서 분류 정확도가 TF-IDF 문서 분류 정확도보다 높은 것을 확인하였다. 또한 개별 범주에 대한 문서 분류 분석 결과를 서포트 벡터 머신과 비교했을 때 심층 신경망이 대부분의 결과에서 더 좋은 정확도를 보임을 확인하였다.
문서-용어 빈도행렬은 그룹정보가 존재하는 문서들의 용어를 추출한 것으로 일반적인 텍스트 마이닝에서의 자료이다. 본 연구에서는 연구 분야 성격에 따른 문서 분류를 위해 문서-용어 빈도행렬을 생성하고, 전통적인 용어 가중치 함수인 TF-IDF와 최근 잘 알려진 용어 가중치 함수인 TF-IGM을 적용하였다. 또 용어 가중치가 적용된 문서-용어 가중행렬에 문서분류 정확도 향상을 위해 핵심어를 추출하여 문서-핵심어 가중행렬을 생성하였다. 핵심어가 추출된 행렬을 바탕으로, 심층 신경망을 이용해 문서를 분류하였다. 심층 신경망에서 최적의 모델을 찾기 위해 매개변수인 은닉층과 은닉노드수를 변화해가며 문서 분류 정확도를 확인하였다. 그 결과 8개의 은닉층을 가진 심층 신경망 모델이 가장 높은 정확도를 보였으며 매개변수 변화에 따른 모든 TF-IGM 문서 분류 정확도가 TF-IDF 문서 분류 정확도보다 높은 것을 확인하였다. 또한 개별 범주에 대한 문서 분류 분석 결과를 서포트 벡터 머신과 비교했을 때 심층 신경망이 대부분의 결과에서 더 좋은 정확도를 보임을 확인하였다. The document-term frequency matrix is a term extracted from documents in which the group information exists in text mining. In this study, we generated the document-term frequency matrix for document classification according to research field. We applied the traditional term weighting function term frequency-inverse document frequency (TF-IDF) to the generated document-term frequency matrix. In addition, we applied term frequency-inverse gravity moment (TF-IGM). We also generated a document-keyword weighted matrix by extracting keywords to improve the document classification accuracy. Based on the keywords matrix extracted, we classify documents using a deep neural network. In order to find the optimal model in the deep neural network, the accuracy of document classification was verified by changing the number of hidden layers and hidden nodes. Consequently, the model with eight hidden layers showed the highest accuracy and all TF-IGM document classification accuracy (according to parameter changes) were higher than TF-IDF. In addition, the deep neural network was confirmed to have better accuracy than the support vector machine. Therefore, we propose a method to apply TF-IGM and a deep neural network in the document classification. KCI Citation Count: 0
문서-용어 빈도행렬은 그룹정보가 존재하는 문서들의 용어를 추출한 것으로 일반적인 텍스트 마이닝에서의 자료이다. 본 연구에서는 연구 분야 성격에 따른 문서 분류를 위해 문서-용어 빈도행렬을 생성하고, 전통적인 용어 가중치함수인 TF-IDF와 최근 잘 알려진 용어 가중치 함수인 TF-IGM을 적용하였다. 또 용어 가중치가 적용된 문서-용어 가중행렬에 문서분류 정확도 향상을 위해 핵심어를 추출하여 문서-핵심어 가중행렬을 생성하였다. 핵심어가 추출된 행렬을 바탕으로, 심층 신경망을 이용해 문서를 분류하였다. 심층 신경망에서 최적의 모델을 찾기 위해 매개변수인 은닉층과 은닉노드수를 변화해가며 문서 분류 정확도를 확인하였다. 그 결과 8개의 은닉층을 가진 심층 신경망 모델이 가장 높은 정확도를 보였으며 매개변수 변화에 따른 모든 TF-IGM 문서 분류 정확도가 TF-IDF 문서 분류 정확도보다 높은 것을 확인하였다. 또한 개별 범주에 대한 문서 분류 분석 결과를 서포트 벡터 머신과 비교했을 때 심층신경망이 대부분의 결과에서 더 좋은 정확도를 보임을 확인하였다. The document-term frequency matrix is a term extracted from documents in which the group information exists in text mining. In this study, we generated the document-term frequency matrix for document classifi-cation according to research field. We applied the traditional term weighting function term frequency-inverse document frequency (TF-IDF) to the generated document-term frequency matrix. In addition, we applied term frequency-inverse gravity moment (TF-IGM). We also generated a document-keyword weighted matrix by extracting keywords to improve the document classification accuracy. Based on the keywords matrix extracted, we classify documents using a deep neural network. In order to find the optimal model in the deep neural network, the accuracy of document classification was verified by changing the number of hidden layers and hidden nodes. Consequently, the model with eight hidden layers showed the highest accuracy and all TF-IGM document classification accuracy (according to parameter changes) were higher than TF-IDF. In addition, the deep neural network was confirmed to have better accuracy than the support vector machine. Therefore, we propose a method to apply TF-IGM and a deep neural network in the document classification.
Author 이보희
Su-jin Lee
최용석
이수진
Yong-seok Choi
Bo-hui Lee
Author_xml – sequence: 1
  fullname: 이보희
– sequence: 2
  fullname: Bo-hui Lee
– sequence: 3
  fullname: 이수진
– sequence: 4
  fullname: Su-jin Lee
– sequence: 5
  fullname: 최용석
– sequence: 6
  fullname: Yong-seok Choi
BackLink https://www.kci.go.kr/kciportal/ci/sereArticleSearch/ciSereArtiView.kci?sereArticleSearchBean.artiId=ART002643908$$DAccess content in National Research Foundation of Korea (NRF)
BookMark eNpF0D9Lw0AYBvBDKlhrP4FLFgeHwP1LchlLrVotFqSC25FechJTU0l0cK8gLYKLKNKAg1KETqLSxS9krt_B00p9l-cdfjy8vMugEHfjYAEUMWHEtBhiBVBEGFsmtO3DJVBO02Oox0aYMrcIatPLa9V_mvYnRj66UtlbPsjU3Y3qDQ01GKvJu47Hr9fPfJSprGdooB5eprdDIx9PflD-0cuf71fAovQ6aVD-yxI42Ky1qttmo7lVr1YaZoQQRSZhbSGxK6QjfNa2GfGYENLDBAeEEksEDnOJL6WQCEmHCObjQGLLCby2gBIKUgLrs944kTwSIe964W8edXmU8Mp-q85dG0KKHG3XZjYK07OQx37a4TuV3SaGGBJi2ZS40HLIv4vPk_Ak8EOPn-rFSy74XnOjpg-HNnSRdqvzvnRO9JcpppR8A2vggcE
ContentType Journal Article
DBID HZB
Q5X
DBRKI
TDB
JDI
ACYCR
DEWEY 519.5
DatabaseName Korea Information Science Society (KISS)
Korean Studies Information Service System (KISS) B-Type
DBPIA - 디비피아
Nurimedia DBPIA Journals
KoreaScience
Korean Citation Index
DatabaseTitleList


DeliveryMethod fulltext_linktorsrc
Discipline Statistics
Applied Sciences
Mathematics
DocumentTitleAlternate 텍스트 마이닝에서 심층 신경망을 이용한 문서 분류
Document classification using a deep neural network in text mining
DocumentTitle_FL Document classication using a deep neural network in text mining
EISSN 2383-5818
EndPage 625
ExternalDocumentID oai_kci_go_kr_ARTI_9600417
JAKO202033564390573
NODE11406091
3834244
GroupedDBID 9ZL
ALMA_UNASSIGNED_HOLDINGS
HZB
JDI
OK1
Q5X
DBRKI
TDB
ACYCR
ID FETCH-LOGICAL-k1141-38bcf29cf7cd8b683a8ccfa232e3435ce7893dffcf11f73c8d2ef257eabc0f0c3
ISSN 1225-066X
IngestDate Sun Mar 09 07:54:11 EDT 2025
Fri Dec 22 12:03:31 EST 2023
Thu Feb 06 12:51:07 EST 2025
Wed Jan 24 03:12:01 EST 2024
IsOpenAccess true
IsPeerReviewed false
IsScholarly true
Issue 5
Keywords 문서 분류
핵심어 추출
term weighting
keyword extraction
용어 가중치
text mining
심층 신경망
document classication
deep neural network
텍스트 마이닝
Language Korean
LinkModel OpenURL
MergedId FETCHMERGED-LOGICAL-k1141-38bcf29cf7cd8b683a8ccfa232e3435ce7893dffcf11f73c8d2ef257eabc0f0c3
Notes The Korean Statistical Society
KISTI1.1003/JNL.JAKO202033564390573
OpenAccessLink http://click.ndsl.kr/servlet/LinkingDetailView?cn=JAKO202033564390573&dbt=JAKO&org_code=O481&site_code=SS1481&service_code=01
PageCount 11
ParticipantIDs nrf_kci_oai_kci_go_kr_ARTI_9600417
kisti_ndsl_JAKO202033564390573
nurimedia_primary_NODE11406091
kiss_primary_3834244
PublicationCentury 2000
PublicationDate 2020
PublicationDateYYYYMMDD 2020-01-01
PublicationDate_xml – year: 2020
  text: 2020
PublicationDecade 2020
PublicationTitle Ŭngyong tʻonggye yŏnʼgu
PublicationTitleAlternate 응용통계연구
PublicationYear 2020
Publisher 한국통계학회
Publisher_xml – name: 한국통계학회
SSID ssj0000612489
ssib053377530
ssib001150021
ssib044750966
ssib022238561
Score 2.1061714
Snippet 문서-용어 빈도행렬은 그룹정보가 존재하는 문서들의 용어를 추출한 것으로 일반적인 텍스트 마이닝에서의 자료이다. 본 연구에서는 연구 분야 성격에 따른 문서 분류를...
The document-term frequency matrix is a term extracted from documents in which the group information exists in text mining. In this study, we generated the...
SourceID nrf
kisti
nurimedia
kiss
SourceType Open Website
Open Access Repository
Publisher
StartPage 615
SubjectTerms deep neural network
document classification
keyword extraction
term weighting
text mining
문서 분류
심층 신경망
용어 가중치
텍스트 마이닝
통계학
핵심어 추출
Title 텍스트 마이닝에서 심층 신경망을 이용한 문서 분류
URI https://kiss.kstudy.com/ExternalLink/Ar?key=3834244
https://www.dbpia.co.kr/journal/articleDetail?nodeId=NODE11406091
http://click.ndsl.kr/servlet/LinkingDetailView?cn=JAKO202033564390573&dbt=JAKO&org_code=O481&site_code=SS1481&service_code=01
https://www.kci.go.kr/kciportal/ci/sereArticleSearch/ciSereArtiView.kci?sereArticleSearchBean.artiId=ART002643908
Volume 33
hasFullText 1
inHoldings 1
isFullTextHit
isPrint
ispartofPNX 응용통계연구, 2020, 33(5), , pp.615-625
journalDatabaseRights – providerCode: PRVHPJ
  databaseName: ROAD: Directory of Open Access Scholarly Resources
  customDbUrl:
  eissn: 2383-5818
  dateEnd: 99991231
  omitProxy: true
  ssIdentifier: ssib044750966
  issn: 1225-066X
  databaseCode: M~E
  dateStart: 20130101
  isFulltext: true
  titleUrlDefault: https://road.issn.org
  providerName: ISSN International Centre
link http://utb.summon.serialssolutions.com/2.0.0/link/0/eLvHCXMwnV3Na9RAFB9KL9aDH63i-lGCOKclkt18zRx3sim10vbSQm8hmSRL2ZKVdvewHjytIC2CF1GkCx6UIvQkKr34l_gfuOn_4HtJmk2l4Mcl8_Jm5s3HG2Z-b5h5Q8gDAKmRbpuRGgTSxN0qX2Uxb6iMR4EZ2rHhx3h3eHXNWt40VrbMrZmZH5VTS4N-8FA-vfBeyf9oFXigV7wl-w-aLYUCA2jQL3xBw_D9Kx1Tt02ZSVmbug5lLdoyMk6LClanrqAtmzKGcbxNhYEcJpBGjk25lmUzKHfqGQUZHCQEo8IsWZAKBDapaBciCwFQkFGvCAcCasCxBtzMZWYCBasWI6iw8AfjIBWrgmPqmJAh6Qzx_aM-daBYAWRnGNWHGMeWkozpdAZn4-Rc44SeEW3kTF1KnqsidAfP6oNdY1STCKxzpRV5lcvz0MWBJdFTlwfb1a2SplaZ12HaOns0sZz4cw8cxQA3K7O4ld8wLQCB1TSni-XZAYHf1tDyZONK6_E6Fq3rJmI9dDcJ-ABQID4rsvrMnUJVQOLaFDqh30WtYnoCCrfBktTK_UKEokb2omPZFkARYGTsgVmFtsY2oKNkF0DVpWSAL0PA9FJBShvXyJXCxFFa-Xi9Tma6vXlytTB3lGIx2Zsnl1dLl8HwN4dmT-41fIG4p89fpvsfTvdPlMnRi3T8ZXIwTt-8SkeHSnpwnJ58heD9z8_fJ0fjdDxSIEH67tPp60NlcnyCiSbfRpOPb2-QzSV3w1lWiwc_1C6Y5Q1VZ4GMm1zGtgxZYMHEwaSMfQD9kQ6wXkY2oOswjmXcaMS2LlnYjGJYcyI_kFqsSf0mmU16SXSLKDbA4AY3bQm9bPjoa8OXfshD3eZNCIwaWcC-857kPl08nel45bNGFrO-9JJwb8e7QJk1ch862evKbQ8ds2PY6XndXQ_Mz0cet9B_nQ1SSh2UJaytt11opWYBQr_9p2LukDnk5Ht9d8lsf3cQ3QP02w8Ws2H0C5HUl_U
linkProvider ISSN International Centre
openUrl ctx_ver=Z39.88-2004&ctx_enc=info%3Aofi%2Fenc%3AUTF-8&rfr_id=info%3Asid%2Fsummon.serialssolutions.com&rft_val_fmt=info%3Aofi%2Ffmt%3Akev%3Amtx%3Ajournal&rft.genre=article&rft.atitle=%ED%85%8D%EC%8A%A4%ED%8A%B8+%EB%A7%88%EC%9D%B4%EB%8B%9D%EC%97%90%EC%84%9C+%EC%8B%AC%EC%B8%B5+%EC%8B%A0%EA%B2%BD%EB%A7%9D%EC%9D%84+%EC%9D%B4%EC%9A%A9%ED%95%9C+%EB%AC%B8%EC%84%9C+%EB%B6%84%EB%A5%98&rft.jtitle=%C5%ACngyong+t%CA%BBonggye+y%C5%8Fn%CA%BCgu&rft.au=%EC%9D%B4%EB%B3%B4%ED%9D%AC&rft.au=%EC%9D%B4%EC%88%98%EC%A7%84&rft.au=%EC%B5%9C%EC%9A%A9%EC%84%9D&rft.au=Lee%2C+Bo-Hui&rft.date=2020&rft.issn=1225-066X&rft.volume=33&rft.issue=5&rft.spage=615&rft.epage=625&rft.externalDBID=n%2Fa&rft.externalDocID=JAKO202033564390573
thumbnail_l http://covers-cdn.summon.serialssolutions.com/index.aspx?isbn=/lc.gif&issn=1225-066X&client=summon
thumbnail_m http://covers-cdn.summon.serialssolutions.com/index.aspx?isbn=/mc.gif&issn=1225-066X&client=summon
thumbnail_s http://covers-cdn.summon.serialssolutions.com/index.aspx?isbn=/sc.gif&issn=1225-066X&client=summon