대규모 언어 모델을 사용한 제로샷 한국어 감성 분석: 사전 학습된 언어 모델과의 비교

본 논문은 GPT-3.5 및 GPT-4와 같은 대규모 언어 모델의 한국어 감성 분석 성능을 ChatGPT API 를 활용한 zero-shot 방법으로 평가하고, 이를 KoBERT와 같은 사전 학습된 한국어 모델들과 비교한다. 실험을 통해 영화, 게임, 쇼핑 등 다양한 분야의 한국어 감성 분석 데이터셋을 사용하여 모델들의 효율성을 검증한다. 실험 결과, LMKor-ELECTRA 모델이 F1-score 기준으로 가장 높은 성능을보여주었으며, GPT-4는 특히 영화 및 쇼핑 데이터셋에서 높은 정확도와 F1-score를 기록하였다. 이는...

Full description

Saved in:
Bibliographic Details
Published in한국컴퓨터정보학회논문지 Vol. 29; no. 2; pp. 43 - 50
Main Authors 권순찬(Soon-Chan Kwon), 이동희(Dong-Hee Lee), 장백철(Beak-Cheol Jang)
Format Journal Article
LanguageKorean
Published 한국컴퓨터정보학회 01.02.2024
Subjects
Online AccessGet full text
ISSN1598-849X
2383-9945
DOI10.9708/jksci.2024.29.02.043

Cover

Abstract 본 논문은 GPT-3.5 및 GPT-4와 같은 대규모 언어 모델의 한국어 감성 분석 성능을 ChatGPT API 를 활용한 zero-shot 방법으로 평가하고, 이를 KoBERT와 같은 사전 학습된 한국어 모델들과 비교한다. 실험을 통해 영화, 게임, 쇼핑 등 다양한 분야의 한국어 감성 분석 데이터셋을 사용하여 모델들의 효율성을 검증한다. 실험 결과, LMKor-ELECTRA 모델이 F1-score 기준으로 가장 높은 성능을보여주었으며, GPT-4는 특히 영화 및 쇼핑 데이터셋에서 높은 정확도와 F1-score를 기록하였다. 이는 zero-shot 학습 방식의 대규모 언어 모델이 특정 데이터셋에 대한 사전 학습 없이도 한국어 감성분석에서 높은 성능을 발휘할 수 있음을 시사한다. 그러나 일부 데이터셋에서의 상대적으로 낮은성능은 zero-shot 기반 방법론의 한계점으로 지적될 수 있다. 본 연구는 대규모 언어 모델의 한국어감성 분석 활용 가능성을 탐구하며, 이 분야의 향후 연구 방향에 중요한 시사점을 제공한다. This paper evaluates the Korean sentiment analysis performance of large language models like GPT-3.5 and GPT-4 using a zero-shot approach facilitated by the ChatGPT API, comparing them to pre-trained Korean models such as KoBERT. Through experiments utilizing various Korean sentiment analysis datasets in fields like movies, gaming, and shopping, the efficiency of these models is validated. The results reveal that the LMKor-ELECTRA model displayed the highest performance based on F1-score, while GPT-4 particularly achieved high accuracy and F1-scores in movie and shopping datasets. This indicates that large language models can perform effectively in Korean sentiment analysis without prior training on specific datasets, suggesting their potential in zero-shot learning. However, relatively lower performance in some datasets highlights the limitations of the zero-shot based methodology. This study explores the feasibility of using large language models for Korean sentiment analysis, providing significant implications for future research in this area. KCI Citation Count: 0
AbstractList 본 논문은 GPT-3.5 및 GPT-4와 같은 대규모 언어 모델의 한국어 감성 분석 성능을 ChatGPT API 를 활용한 zero-shot 방법으로 평가하고, 이를 KoBERT와 같은 사전 학습된 한국어 모델들과 비교한다. 실험을 통해 영화, 게임, 쇼핑 등 다양한 분야의 한국어 감성 분석 데이터셋을 사용하여 모델들의 효율성을 검증한다. 실험 결과, LMKor-ELECTRA 모델이 F1-score 기준으로 가장 높은 성능을보여주었으며, GPT-4는 특히 영화 및 쇼핑 데이터셋에서 높은 정확도와 F1-score를 기록하였다. 이는 zero-shot 학습 방식의 대규모 언어 모델이 특정 데이터셋에 대한 사전 학습 없이도 한국어 감성분석에서 높은 성능을 발휘할 수 있음을 시사한다. 그러나 일부 데이터셋에서의 상대적으로 낮은성능은 zero-shot 기반 방법론의 한계점으로 지적될 수 있다. 본 연구는 대규모 언어 모델의 한국어감성 분석 활용 가능성을 탐구하며, 이 분야의 향후 연구 방향에 중요한 시사점을 제공한다. This paper evaluates the Korean sentiment analysis performance of large language models like GPT-3.5 and GPT-4 using a zero-shot approach facilitated by the ChatGPT API, comparing them to pre-trained Korean models such as KoBERT. Through experiments utilizing various Korean sentiment analysis datasets in fields like movies, gaming, and shopping, the efficiency of these models is validated. The results reveal that the LMKor-ELECTRA model displayed the highest performance based on F1-score, while GPT-4 particularly achieved high accuracy and F1-scores in movie and shopping datasets. This indicates that large language models can perform effectively in Korean sentiment analysis without prior training on specific datasets, suggesting their potential in zero-shot learning. However, relatively lower performance in some datasets highlights the limitations of the zero-shot based methodology. This study explores the feasibility of using large language models for Korean sentiment analysis, providing significant implications for future research in this area. KCI Citation Count: 0
Author 이동희(Dong-Hee Lee)
권순찬(Soon-Chan Kwon)
장백철(Beak-Cheol Jang)
Author_xml – sequence: 1
  fullname: 권순찬(Soon-Chan Kwon)
– sequence: 2
  fullname: 이동희(Dong-Hee Lee)
– sequence: 3
  fullname: 장백철(Beak-Cheol Jang)
BackLink https://www.kci.go.kr/kciportal/ci/sereArticleSearch/ciSereArtiView.kci?sereArticleSearchBean.artiId=ART003055323$$DAccess content in National Research Foundation of Korea (NRF)
BookMark eNpVjD9Lw0AAxQ9RsNZ-A4csLkLi_cvl4lZq1UKxoB3cQpJeJFZTaXBwE80kCl0sKinUTUVB0doKfqLk_A7G2sXpvcf7vTcHpoNWIABYQFAzDciX95qh62sYYqphU4NYg5RMgRwmnKimSfVpkEO6yVVOzZ1ZUAhD34GEYcPEOsuBML04SYZx-nivyO5Idt-VzKaXI9mLFHn6JG8fvq9iRfbj9C6WZ0MlS8ng-ZdLXjoyelXSj0hGvZUx3I-y_kaeD9JO_P8uefuSvWsl_YySQWcezHj2figKE82D7bVyvbShVmvrlVKxqgZMZyomgrgOwoK6LnNshKnBhCMcanLH8HQhXI8xw-AepzwjkPCyAUV6Qxi66-kkD5b-XoO2ZzVd32rZ_lh3W1azbRW36hULQQoJJCiDFyfwUds_EA3ftg4zY7ePrc3aahkhA2NGGfkBVlqR1Q
ContentType Journal Article
DBID DBRKI
TDB
ACYCR
DOI 10.9708/jksci.2024.29.02.043
DatabaseName DBPIA - 디비피아
Nurimedia DBPIA Journals
Korean Citation Index
DatabaseTitleList
DeliveryMethod fulltext_linktorsrc
DocumentTitleAlternate Zero-shot Korean Sentiment Analysis with Large Language Models: Comparison with Pre-trained Language Models
DocumentTitle_FL Zero-shot Korean Sentiment Analysis with Large Language Models: Comparison with Pre-trained Language Models
EISSN 2383-9945
EndPage 50
ExternalDocumentID oai_kci_go_kr_ARTI_10403031
NODE11722646
GroupedDBID .UV
ALMA_UNASSIGNED_HOLDINGS
DBRKI
TDB
ACYCR
ID FETCH-LOGICAL-n656-23e3cb12e4cc6ba12476ebeb498b7f5eecf66778f848cc61ef3e3415de75cf53
ISSN 1598-849X
IngestDate Sun May 12 03:12:34 EDT 2024
Thu Feb 06 13:58:16 EST 2025
IsPeerReviewed false
IsScholarly false
Issue 2
Keywords Sentiment analysis
인공 지능
자연어처리
Natural Language Processing
AI
딥러닝
언어 모델
Language Model
Deep Learning
감성 분석
Language Korean
LinkModel OpenURL
MergedId FETCHMERGED-LOGICAL-n656-23e3cb12e4cc6ba12476ebeb498b7f5eecf66778f848cc61ef3e3415de75cf53
PageCount 8
ParticipantIDs nrf_kci_oai_kci_go_kr_ARTI_10403031
nurimedia_primary_NODE11722646
PublicationCentury 2000
PublicationDate 2024-02
PublicationDateYYYYMMDD 2024-02-01
PublicationDate_xml – month: 02
  year: 2024
  text: 2024-02
PublicationDecade 2020
PublicationTitle 한국컴퓨터정보학회논문지
PublicationYear 2024
Publisher 한국컴퓨터정보학회
Publisher_xml – name: 한국컴퓨터정보학회
SSID ssib036279256
ssib001107257
ssib044738270
ssib012146333
ssib008451689
ssib053377514
Score 1.8734833
Snippet 본 논문은 GPT-3.5 및 GPT-4와 같은 대규모 언어 모델의 한국어 감성 분석 성능을 ChatGPT API 를 활용한 zero-shot 방법으로 평가하고, 이를 KoBERT와 같은 사전 학습된...
SourceID nrf
nurimedia
SourceType Open Website
Publisher
StartPage 43
SubjectTerms 컴퓨터학
Title 대규모 언어 모델을 사용한 제로샷 한국어 감성 분석: 사전 학습된 언어 모델과의 비교
URI https://www.dbpia.co.kr/journal/articleDetail?nodeId=NODE11722646
https://www.kci.go.kr/kciportal/ci/sereArticleSearch/ciSereArtiView.kci?sereArticleSearchBean.artiId=ART003055323
Volume 29
hasFullText 1
inHoldings 1
isFullTextHit
isPrint
ispartofPNX 한국컴퓨터정보학회논문지, 2024, 29(2), 239, pp.43-50
journalDatabaseRights – providerCode: PRVHPJ
  databaseName: ROAD: Directory of Open Access Scholarly Resources
  customDbUrl:
  eissn: 2383-9945
  dateEnd: 99991231
  omitProxy: true
  ssIdentifier: ssib044738270
  issn: 1598-849X
  databaseCode: M~E
  dateStart: 19960101
  isFulltext: true
  titleUrlDefault: https://road.issn.org
  providerName: ISSN International Centre
link http://utb.summon.serialssolutions.com/2.0.0/link/0/eLvHCXMwrR1Na9RANNR60IsoKn6WgM5pSd0kk2TGW7JJqZXWQyv0tmyy2VJXEqktggcR3ZMo9GJR2UK9qSgoWlvBX7Qb_4Nv3iSbtBSs4iWbzLzv2WTeS2beU5SrEUyxLQiOYQTCWKOdiGuMWS0tNFttu81sqkdig_PsnD19m84sWotj443KqqW11XAyenjgvpJ_GVVog3EVu2T_YmRHRKEBzmF84QgjDMdDjTEJPMIaYrFC4BLPIbwhWlyXuKxGggbhNvFYcUJro07E84s-nzCK4MwgbgObAIiTwCfcAprY59YL6jqeALQJLGsjKBTBIq5f5QdNYiEFglPi6SiCZ4sL2QTMTXcvc-CE8ki6HPuQNKDyeiHPIVQDJBCxkevImWTOkTkSlBVEC9f8YE08QKHYZSJ1HxWpFyZBqQQbWhHYFwZkaC1moQSe0E3K6zqEjT4RISsbYUFLllsWyAO4webTNNHE9o_azQfCQ-clGqokmAKLqYKpL9H8NFnSpmOxVSvejxQQV4pch9FAXobQw2Be3OoCrzi9W5vBTwi8-j7IoMUS8vwO_u_Gqk6OnGmMYulj8B2wDTw-U-NcpgQtZtRcxOXKiw05PcqMXLmjJRMO75_CuYPbUu50wQOcFPpNGhyz6ha4e5Kjz93yAx18cHDr7SPKUcOxbVHGZPZRUMYEet0xKp_2mShNXZZY0EVle7OMecChc7hRJpii1DGZUU5qEB45jqwZMLKH3JIrJL92kNzgtiYr4O0eS9ZEyQ547ldc2IWTyok89lRd-SA5pYx109PK_eHzx4Od_vDDOzXb2M02vqlwOnyxm2321OzJx-zN-18v-2q21R--7WdPd1S4Gmx_EnCDz-tZ74s6_N7LepvXEXirB_2vs2fbw_X-XnKDrz-zzVfq8EdvsL1-RpmfChYa01peiUVLIN7TDDM2o1A3YhpFdtiCkMCx4eEfUs5Cp2PFcdSxRSLKDqMMIPS4AwgQGbRjx4o6lnlWGU_SJD6nqDwEW7MQXOROm7bbdcZFxAcxFBPlsszWeeUKmKrZjZabIu-9-F1Km92VJkT3N5o6eBzgcuvnlYmRKZv3ZFaeZvWvcOFPABeV4-W9c0kZX11Ziy9DdLEaTuC_5zdKP-3G
linkProvider ISSN International Centre
openUrl ctx_ver=Z39.88-2004&ctx_enc=info%3Aofi%2Fenc%3AUTF-8&rfr_id=info%3Asid%2Fsummon.serialssolutions.com&rft_val_fmt=info%3Aofi%2Ffmt%3Akev%3Amtx%3Ajournal&rft.genre=article&rft.atitle=%EB%8C%80%EA%B7%9C%EB%AA%A8+%EC%96%B8%EC%96%B4+%EB%AA%A8%EB%8D%B8%EC%9D%84+%EC%82%AC%EC%9A%A9%ED%95%9C+%EC%A0%9C%EB%A1%9C%EC%83%B7+%ED%95%9C%EA%B5%AD%EC%96%B4+%EA%B0%90%EC%84%B1+%EB%B6%84%EC%84%9D%3A+%EC%82%AC%EC%A0%84+%ED%95%99%EC%8A%B5%EB%90%9C+%EC%96%B8%EC%96%B4+%EB%AA%A8%EB%8D%B8%EA%B3%BC%EC%9D%98+%EB%B9%84%EA%B5%90&rft.jtitle=%ED%95%9C%EA%B5%AD%EC%BB%B4%ED%93%A8%ED%84%B0%EC%A0%95%EB%B3%B4%ED%95%99%ED%9A%8C%EB%85%BC%EB%AC%B8%EC%A7%80&rft.au=%EA%B6%8C%EC%88%9C%EC%B0%AC%28Soon-Chan+Kwon%29&rft.au=%EC%9D%B4%EB%8F%99%ED%9D%AC%28Dong-Hee+Lee%29&rft.au=%EC%9E%A5%EB%B0%B1%EC%B2%A0%28Beak-Cheol+Jang%29&rft.date=2024-02-01&rft.pub=%ED%95%9C%EA%B5%AD%EC%BB%B4%ED%93%A8%ED%84%B0%EC%A0%95%EB%B3%B4%ED%95%99%ED%9A%8C&rft.issn=1598-849X&rft.eissn=2383-9945&rft.volume=29&rft.issue=2&rft.spage=43&rft.epage=50&rft_id=info:doi/10.9708%2Fjksci.2024.29.02.043&rft.externalDocID=NODE11722646
thumbnail_l http://covers-cdn.summon.serialssolutions.com/index.aspx?isbn=/lc.gif&issn=1598-849X&client=summon
thumbnail_m http://covers-cdn.summon.serialssolutions.com/index.aspx?isbn=/mc.gif&issn=1598-849X&client=summon
thumbnail_s http://covers-cdn.summon.serialssolutions.com/index.aspx?isbn=/sc.gif&issn=1598-849X&client=summon