문서의 감정 분류를 위한 주목 방법 기반의 딥러닝 인코더

Recently, deep learning encoder-based approach has been actively applied in the field of sentiment classification. However, Long Short-Term Memory network deep learning encoder, the commonly used architecture, lacks the quality of vector representation when the length of the documents is prolonged....

Full description

Saved in:
Bibliographic Details
Published in정보과학회 컴퓨팅의 실제 논문지 Vol. 23; no. 4; pp. 268 - 273
Main Authors 권순재(Sunjae Kwon), 김주애(Juae Kim), 강상우(Sangwoo Kang), 서정연(Jungyun Seo)
Format Journal Article
LanguageKorean
Published Korean Institute of Information Scientists and Engineers 2017
한국정보과학회
Subjects
Online AccessGet full text
ISSN2383-6318
2383-6326
DOI10.5626/KTCP.2017.23.4.268

Cover

Abstract Recently, deep learning encoder-based approach has been actively applied in the field of sentiment classification. However, Long Short-Term Memory network deep learning encoder, the commonly used architecture, lacks the quality of vector representation when the length of the documents is prolonged. In this study, for effective classification of the sentiment documents, we suggest the use of attention method-based deep learning encoder that generates document vector representation by weighted sum of the outputs of Long Short-Term Memory network based on importance. In addition, we propose methods to modify the attention method-based deep learning encoder to suit the sentiment classification field, which consist of a part that is to applied to window attention method and an attention weight adjustment part. In the window attention method part, the weights are obtained in the window units to effectively recognize feeling features that consist of more than one word. In the attention weight adjustment part, the learned weights are smoothened. Experimental results revealed that the performance of the proposed method outperformed Long Short-Term Memory network encoder, showing 89.67% in accuracy criteria. 최근 감정 분류 분야에서 딥러닝 인코더 기반의 접근 방법이 활발히 적용되고 있다. 딥러닝 인코더 기반의 접근 방법은 가변 길이 문장을 고정 길이 문서 벡터로 압축하여 표현한다. 하지만 딥러닝 인코더에 흔히 사용되는 구조인 장 단기 기억망(Long Short-Term Memory network) 딥러닝 인코더는 문서가 길어지는 경우, 문서 벡터 표현의 품질이 저하된다고 알려져 있다. 본 논문에서는 효과적인 감정 문서의 분류를 위해, 장 단기 기억망의 출력을 중요도에 따라 가중합하여 문서 벡터 표현을 생성하는 주목방법 기반의 딥러닝 인코더를 사용하는 것을 제안한다. 또한, 주목 방법 기반의 딥러닝 인코더를 문서의 감정 분류 영역에 맞게 수정하는 방법을 제안한다. 제안하는 방법은 윈도우 주목 방법(Window Attention Method)을 적용한 단계와 주목 가중치 재조정(Weight Adjustment) 단계로 구성된다. 윈도우 주목 방법은 한 단어 이상으로 구성된 감정 자질을 효과적으로 인식하기 위해, 윈도우 단위로 가중치를 학습한다. 주목 가중치 재조정에서는 학습된 가중치를 평활화(Smoothing) 한다, 실험 결과, 본 논문에서 제안하는 방법은 정확도 기준으로 89.67%의 성능을 나타내어 장 단기 기억망 인코더보다 높은 성능을 보였다.
AbstractList 최근 감정 분류 분야에서 딥러닝 인코더 기반의 접근 방법이 활발히 적용되고 있다. 딥러닝 인코더 기반의 접근 방법은 가변 길이 문장을 고정 길이 문서 벡터로 압축하여 표현한다. 하지만 딥러닝 인코더에 흔히 사용되는 구조인 장・단기 기억망(Long Short-Term Memory network) 딥러닝 인코더는 문서가 길어지는 경우, 문서 벡터 표현의 품질이 저하된다고 알려져 있다. 본 논문에서는 효과적인 감정 문서의 분류를 위해, 장・단기 기억망의 출력을 중요도에 따라 가중합하여 문서 벡터 표현을 생성하는 주목방법 기반의 딥러닝 인코더를 사용하는 것을 제안한다. 또한, 주목 방법 기반의 딥러닝 인코더를 문서의 감정 분류 영역에 맞게 수정하는 방법을 제안한다. 제안하는 방법은 윈도우 주목 방법(Window Attention Method)을 적용한 단계와 주목 가중치 재조정(Weight Adjustment) 단계로 구성된다. 윈도우 주목 방법은 한 단어 이상으로 구성된 감정 자질을 효과적으로 인식하기 위해, 윈도우 단위로 가중치를 학습한다. 주목 가중치 재조정에서는 학습된 가중치를 평활화(Smoothing) 한다, 실험 결과, 본 논문에서 제안하는 방법은 정확도 기준으로 89.67%의 성능을 나타내어 장・단기 기억망 인코더보다 높은 성능을 보였다. Recently, deep learning encoder-based approach has been actively applied in the field of sentiment classification. However, Long Short-Term Memory network deep learning encoder, the commonly used architecture, lacks the quality of vector representation when the length of the documents is prolonged. In this study, for effective classification of the sentiment documents, we suggest the use of attention method-based deep learning encoder that generates document vector representation by weighted sum of the outputs of Long Short-Term Memory network based on importance. In addition, we propose methods to modify the attention method-based deep learning encoder to suit the sentiment classification field, which consist of a part that is to applied to window attention method and an attention weight adjustment part. In the window attention method part, the weights are obtained in the window units to effectively recognize feeling features that consist of more than one word. In the attention weight adjustment part, the learned weights are smoothened. Experimental results revealed that the performance of the proposed method outperformed Long Short-Term Memory network encoder, showing 89.67% in accuracy criteria. KCI Citation Count: 0
Recently, deep learning encoder-based approach has been actively applied in the field of sentiment classification. However, Long Short-Term Memory network deep learning encoder, the commonly used architecture, lacks the quality of vector representation when the length of the documents is prolonged. In this study, for effective classification of the sentiment documents, we suggest the use of attention method-based deep learning encoder that generates document vector representation by weighted sum of the outputs of Long Short-Term Memory network based on importance. In addition, we propose methods to modify the attention method-based deep learning encoder to suit the sentiment classification field, which consist of a part that is to applied to window attention method and an attention weight adjustment part. In the window attention method part, the weights are obtained in the window units to effectively recognize feeling features that consist of more than one word. In the attention weight adjustment part, the learned weights are smoothened. Experimental results revealed that the performance of the proposed method outperformed Long Short-Term Memory network encoder, showing 89.67% in accuracy criteria. 최근 감정 분류 분야에서 딥러닝 인코더 기반의 접근 방법이 활발히 적용되고 있다. 딥러닝 인코더 기반의 접근 방법은 가변 길이 문장을 고정 길이 문서 벡터로 압축하여 표현한다. 하지만 딥러닝 인코더에 흔히 사용되는 구조인 장 단기 기억망(Long Short-Term Memory network) 딥러닝 인코더는 문서가 길어지는 경우, 문서 벡터 표현의 품질이 저하된다고 알려져 있다. 본 논문에서는 효과적인 감정 문서의 분류를 위해, 장 단기 기억망의 출력을 중요도에 따라 가중합하여 문서 벡터 표현을 생성하는 주목방법 기반의 딥러닝 인코더를 사용하는 것을 제안한다. 또한, 주목 방법 기반의 딥러닝 인코더를 문서의 감정 분류 영역에 맞게 수정하는 방법을 제안한다. 제안하는 방법은 윈도우 주목 방법(Window Attention Method)을 적용한 단계와 주목 가중치 재조정(Weight Adjustment) 단계로 구성된다. 윈도우 주목 방법은 한 단어 이상으로 구성된 감정 자질을 효과적으로 인식하기 위해, 윈도우 단위로 가중치를 학습한다. 주목 가중치 재조정에서는 학습된 가중치를 평활화(Smoothing) 한다, 실험 결과, 본 논문에서 제안하는 방법은 정확도 기준으로 89.67%의 성능을 나타내어 장 단기 기억망 인코더보다 높은 성능을 보였다.
Author 김주애(Juae Kim)
서정연(Jungyun Seo)
권순재(Sunjae Kwon)
강상우(Sangwoo Kang)
Author_xml – sequence: 1
  fullname: 권순재(Sunjae Kwon)
– sequence: 2
  fullname: 김주애(Juae Kim)
– sequence: 3
  fullname: 강상우(Sangwoo Kang)
– sequence: 4
  fullname: 서정연(Jungyun Seo)
BackLink https://www.kci.go.kr/kciportal/ci/sereArticleSearch/ciSereArtiView.kci?sereArticleSearchBean.artiId=ART002215573$$DAccess content in National Research Foundation of Korea (NRF)
BookMark eNpF0D9PwkAABfCLwUREvoBTFweH1t6fXq8jQVQExZjul4NrTVMsptXBnc2YOEDCANHEMGAYGgfDgF-Iq99BEKPTe8Mvb3jbIBd1Ig-AXWgaFkX0oOaWLwxkQttA2CAGomwD5BFmWKcY0dxfh2wLFJMkaJoIMkSYA_PgTE1nWXeYjQbaIn3KXvqa-uiq8UCN51o27H71h1r2OldvE02lE_Xe1xazVKWDlVe9sXqeqoeRlo1m2WdPPfZ2wKYv2olX_M0CcI8qbvlErzeOq-VSXQ8dQnUsoMQ2gpJ5PmLQx3ZLYgdSgalDCGx6trRbgmIhpe8hz_Qgk4QyCxFompA6uAD217NR7POwFfCOCH7yqsPDmJcu3SqH2KKMWku7t7ZhkNwGPJJJm5-Wao3VX9BiFrYpYQT_u-guDq49GQh-sywivufnjcOKucTYsSj-Bt-MgeQ
ContentType Journal Article
DBID DBRKI
TDB
JDI
ACYCR
DEWEY 005
DOI 10.5626/KTCP.2017.23.4.268
DatabaseName DBPIA - 디비피아
Nurimedia DBPIA Journals
KoreaScience
Korean Citation Index
DatabaseTitleList

DeliveryMethod fulltext_linktorsrc
Discipline Computer Science
DocumentTitleAlternate An Attention Method-based Deep Learning Encoder for the Sentiment Classification of Documents
DocumentTitle_FL An Attention Method-based Deep Learning Encoder for the Sentiment Classification of Documents
EISSN 2383-6326
EndPage 273
ExternalDocumentID oai_kci_go_kr_ARTI_1356865
JAKO201715853764843
NODE07153956
GroupedDBID .UV
ALMA_UNASSIGNED_HOLDINGS
DBRKI
TDB
JDI
ACYCR
ID FETCH-LOGICAL-k946-3a1d3721d8ef281f37cd3916a369441be7d7ca63addfe2e0e18d4685241001693
ISSN 2383-6318
IngestDate Sun Mar 09 07:51:26 EDT 2025
Fri Dec 22 11:58:25 EST 2023
Thu Feb 06 13:17:15 EST 2025
IsDoiOpenAccess true
IsOpenAccess true
IsPeerReviewed false
IsScholarly false
Issue 4
Keywords deep learning encoder
attention method
주목 방법
long short-term memory network
sentiment classification
감정 분류
딥러닝 인코더
장·단기 기억망
Language Korean
LinkModel OpenURL
MergedId FETCHMERGED-LOGICAL-k946-3a1d3721d8ef281f37cd3916a369441be7d7ca63addfe2e0e18d4685241001693
Notes KISTI1.1003/JNL.JAKO201715853764843
G704-A00398.2017.23.4.007
OpenAccessLink http://click.ndsl.kr/servlet/LinkingDetailView?cn=JAKO201715853764843&dbt=JAKO&org_code=O481&site_code=SS1481&service_code=01
PageCount 6
ParticipantIDs nrf_kci_oai_kci_go_kr_ARTI_1356865
kisti_ndsl_JAKO201715853764843
nurimedia_primary_NODE07153956
PublicationCentury 2000
PublicationDate 2017
PublicationDateYYYYMMDD 2017-01-01
PublicationDate_xml – year: 2017
  text: 2017
PublicationDecade 2010
PublicationTitle 정보과학회 컴퓨팅의 실제 논문지
PublicationTitleAlternate KIISE transactions on computing practices
PublicationYear 2017
Publisher Korean Institute of Information Scientists and Engineers
한국정보과학회
Publisher_xml – name: Korean Institute of Information Scientists and Engineers
– name: 한국정보과학회
SSID ssib021824891
ssib044742771
ssib053377435
ssib019653237
Score 1.6239598
Snippet Recently, deep learning encoder-based approach has been actively applied in the field of sentiment classification. However, Long Short-Term Memory network deep...
최근 감정 분류 분야에서 딥러닝 인코더 기반의 접근 방법이 활발히 적용되고 있다. 딥러닝 인코더 기반의 접근 방법은 가변 길이 문장을 고정 길이 문서 벡터로 압축하여 표현한다. 하지만 딥러닝 인코더에 흔히 사용되는 구조인 장・단기 기억망(Long Short-Term Memory...
SourceID nrf
kisti
nurimedia
SourceType Open Website
Open Access Repository
Publisher
StartPage 268
SubjectTerms 컴퓨터학
Title 문서의 감정 분류를 위한 주목 방법 기반의 딥러닝 인코더
URI https://www.dbpia.co.kr/journal/articleDetail?nodeId=NODE07153956
http://click.ndsl.kr/servlet/LinkingDetailView?cn=JAKO201715853764843&dbt=JAKO&org_code=O481&site_code=SS1481&service_code=01
https://www.kci.go.kr/kciportal/ci/sereArticleSearch/ciSereArtiView.kci?sereArticleSearchBean.artiId=ART002215573
Volume 23
hasFullText 1
inHoldings 1
isFullTextHit
isPrint
ispartofPNX 정보과학회 컴퓨팅의 실제 논문지, 2017, 23(4), , pp.268-273
link http://utb.summon.serialssolutions.com/2.0.0/link/0/eLvHCXMwnR3LbtNA0GrLAS4IBIjyqCyET5FD7N2110fbcVUStUUiSL1Zju1UJShBoVEFB069ISQOrdRDK5BQD0U9RBxQD-WH6vAB3JjZtVMHkHhcnNHszOx4J_bOrHdmFeU-c4hhRqyj22lk6pTVYp3Hjq0z3jY7qUHTWO7yXbGWntDGGlubmf1e2rU03GxX41e_zSv5H6sCDuyKWbL_YNmJUEAADPaFK1gYrn9lYy3wNNfXPK4Fvsap5vgIOHXN4RUtcDUPdzEgygWAVZDcs5AQ-RhQ5YDnVwSjEBIAO7RJlEugUVC5mutICTWABGBKoS4qAFjZ5vCyDp7mUOwBgUXUFQAOcL2SU0ndvTrSYRsCZYd5or0QD9pQ0aFUS2rqCMDVuFTZ8wQRoIjmcgQ43Bcra-WjDi4tZPtCUc6KWy1G1LU1PvmaI7q1UBay82KsAyQ3-eNh72mUVppb6Ek7UzwObiY5H0ofdYZeTd4YIgeeZj3NIO8WOiHg5gsGgYROot76Vr9faYo1_hJTyfhuwe3YkqkBb_OXQ5wU-gVPvsgjs1llskR_gF9kpnaO5IlqckYRabPwRpAVvYsilqWFXvDJiG6RfJZLyzhZq6CYB2Xed_680_KkZvGSf2TKo2d-nnrBj8ZVoGbLf4QbJu2qSaq0OmGdKmm-sloPwLVlBILzWeWCaVsWHj6y_DoopgKsc0lKZZTwnAHKz8s6UWpT0z6PZCBogThGHKc7uV-ZIod6PfhVK4hFMUDbAJeyNwBP9GJviMdpwDu55F62riiX87hQdeVDflWZ6favKcvZ8cl4e398sKeejd6NP-yq2Zft7HAvOzxVx_vb33b31fHH0-zTkZqNjrLPu-rZySgb7SF9tnOYvT_O3hyo44OT8ded7O3OdaW1GLT8JT0__0TvOtTSSWQkxDaNhKcdkxsdYscJpslHxHIgiGmndmLHkUXAQ-mkZlpLDZ5QizPwyWuixtINZa7X76U3FdVM2pzUUrNtJxbtsNgxGQUwMlKHR5R05pUFMRphL3nxLGy4zVUcLINxLPZEOSXzyj0YprAbb4RYjx5_1_thdxBC1P0wNAizuMVAymQUw-eyWE5YtvWtPxHcVi5hx3KJ844ytzkYpnfB6d9sL4i_xw801NRE
linkProvider ISSN International Centre
openUrl ctx_ver=Z39.88-2004&ctx_enc=info%3Aofi%2Fenc%3AUTF-8&rfr_id=info%3Asid%2Fsummon.serialssolutions.com&rft_val_fmt=info%3Aofi%2Ffmt%3Akev%3Amtx%3Ajournal&rft.genre=article&rft.atitle=%EB%AC%B8%EC%84%9C%EC%9D%98+%EA%B0%90%EC%A0%95+%EB%B6%84%EB%A5%98%EB%A5%BC+%EC%9C%84%ED%95%9C+%EC%A3%BC%EB%AA%A9+%EB%B0%A9%EB%B2%95+%EA%B8%B0%EB%B0%98%EC%9D%98+%EB%94%A5%EB%9F%AC%EB%8B%9D+%EC%9D%B8%EC%BD%94%EB%8D%94&rft.jtitle=%EC%A0%95%EB%B3%B4%EA%B3%BC%ED%95%99%ED%9A%8C+%EC%BB%B4%ED%93%A8%ED%8C%85%EC%9D%98+%EC%8B%A4%EC%A0%9C+%EB%85%BC%EB%AC%B8%EC%A7%80&rft.au=%EA%B6%8C%EC%88%9C%EC%9E%AC%28Sunjae+Kwon%29&rft.au=%EA%B9%80%EC%A3%BC%EC%95%A0%28Juae+Kim%29&rft.au=%EA%B0%95%EC%83%81%EC%9A%B0%28Sangwoo+Kang%29&rft.au=%EC%84%9C%EC%A0%95%EC%97%B0%28Jungyun+Seo%29&rft.date=2017&rft.pub=Korean+Institute+of+Information+Scientists+and+Engineers&rft.issn=2383-6318&rft.eissn=2383-6326&rft.volume=23&rft.issue=4&rft.spage=268&rft.epage=273&rft_id=info:doi/10.5626%2FKTCP.2017.23.4.268&rft.externalDocID=NODE07153956
thumbnail_l http://covers-cdn.summon.serialssolutions.com/index.aspx?isbn=/lc.gif&issn=2383-6318&client=summon
thumbnail_m http://covers-cdn.summon.serialssolutions.com/index.aspx?isbn=/mc.gif&issn=2383-6318&client=summon
thumbnail_s http://covers-cdn.summon.serialssolutions.com/index.aspx?isbn=/sc.gif&issn=2383-6318&client=summon