AI 이미지 인식 서비스 환경의 Gradient 기반 적대적 공격 서비스 모델

AI 이미지 서비스는 인공지능 기술을 활용하여 이미지 생성, 편집, 개선 등의 작업을 자동화하거나 지원하는 플랫폼이다. AI 이미지 서비스에 대항하는 적대적 공격 서비스가 존재한다. 본 연구에서는 gradient 기반의 적대적 공격 서비스를 중심으로 실험한다. Gradient 기반의 공격은 딥러닝 이미지 모델의 손실 함수의 기울기(gradient)를 이용하여 입력 이미지에 최소한의 변화를 준다. 본 연구에서는 gradient 기반의 적대적 공격 방법들과 핵심 코드들을 식별하고, 이어 RestNet18 환경에서 gradient 기반의...

Full description

Saved in:
Bibliographic Details
Published inThe journal of the institute of internet, broadcasting and communication : JIIBC Vol. 25; no. 3; pp. 17 - 24
Main Author 홍진근
Format Journal Article
LanguageKorean
Published 한국인터넷방송통신학회 30.06.2025
Subjects
Online AccessGet full text
ISSN2289-0238
2289-0246
DOI10.7236/JIIBC.2025.25.3.17

Cover

Abstract AI 이미지 서비스는 인공지능 기술을 활용하여 이미지 생성, 편집, 개선 등의 작업을 자동화하거나 지원하는 플랫폼이다. AI 이미지 서비스에 대항하는 적대적 공격 서비스가 존재한다. 본 연구에서는 gradient 기반의 적대적 공격 서비스를 중심으로 실험한다. Gradient 기반의 공격은 딥러닝 이미지 모델의 손실 함수의 기울기(gradient)를 이용하여 입력 이미지에 최소한의 변화를 준다. 본 연구에서는 gradient 기반의 적대적 공격 방법들과 핵심 코드들을 식별하고, 이어 RestNet18 환경에서 gradient 기반의 적대적 공격을 수행하고 그 결과를 확인함으로써 공격의 위험성을 확인하고 자 한다. 본 연구에서는 gradient 기반의 적대적 공격 모델 5개를 대상으로 적대적 공격 실험을 수행하였고 적대적 공격 성공 여부, PSNR 등의 성능 지표를 통해 결과를 확인하였다. 연구 결과에서는 최대 공격 성공률을 원하면 MI-FGSM 모델을, 시각적으로 은닉된 공격을 원한다면 A-MI-FGSM모델을, 탐지 우회를 선호하면 FGSM+Random 모델을, 공격 과 효율성의 균형을 원하면 MI-FGSM 모델을 사용하는 것이 적절함을 확인할 수 있다.
AbstractList AI 이미지 서비스는 인공지능 기술을 활용하여 이미지 생성, 편집, 개선 등의 작업을 자동화하거나 지원하는 플랫폼이다. AI 이미지 서비스에 대항하는 적대적 공격 서비스가 존재한다. 본 연구에서는 gradient 기반의 적대적 공격 서비스를 중심으로 실험한다. Gradient 기반의 공격은 딥러닝 이미지 모델의 손실 함수의 기울기(gradient)를 이용하여 입력 이미지에 최소한의 변화를 준다. 본 연구에서는 gradient 기반의 적대적 공격 방법들과 핵심 코드들을 식별하고, 이어 RestNet18 환경에서 gradient 기반의 적대적 공격을 수행하고 그 결과를 확인함으로써 공격의 위험성을 확인하고 자 한다. 본 연구에서는 gradient 기반의 적대적 공격 모델 5개를 대상으로 적대적 공격 실험을 수행하였고 적대적 공격 성공 여부, PSNR 등의 성능 지표를 통해 결과를 확인하였다. 연구 결과에서는 최대 공격 성공률을 원하면 MI-FGSM 모델을, 시각적으로 은닉된 공격을 원한다면 A-MI-FGSM모델을, 탐지 우회를 선호하면 FGSM+Random 모델을, 공격 과 효율성의 균형을 원하면 MI-FGSM 모델을 사용하는 것이 적절함을 확인할 수 있다.
AI 이미지 서비스는 인공지능 기술을 활용하여 이미지 생성, 편집, 개선 등의 작업을 자동화하거나 지원하는플랫폼이다. AI 이미지 서비스에 대항하는 적대적 공격 서비스가 존재한다. 본 연구에서는 gradient 기반의 적대적 공격서비스를 중심으로 실험한다. Gradient 기반의 공격은 딥러닝 이미지 모델의 손실 함수의 기울기(gradient)를 이용하여입력 이미지에 최소한의 변화를 준다. 본 연구에서는 gradient 기반의 적대적 공격 방법들과 핵심 코드들을 식별하고, 이어 RestNet18 환경에서 gradient 기반의 적대적 공격을 수행하고 그 결과를 확인함으로써 공격의 위험성을 확인하고자 한다. 본 연구에서는 gradient 기반의 적대적 공격 모델 5개를 대상으로 적대적 공격 실험을 수행하였고 적대적 공격성공 여부, PSNR 등의 성능 지표를 통해 결과를 확인하였다. 연구 결과에서는 최대 공격 성공률을 원하면 MI-FGSM 모델을, 시각적으로 은닉된 공격을 원한다면 A-MI-FGSM모델을, 탐지 우회를 선호하면 FGSM+Random 모델을, 공격과 효율성의 균형을 원하면 MI-FGSM 모델을 사용하는 것이 적절함을 확인할 수 있다. AI image services are platforms that automate or support tasks such as image generation, editing, and enhancement using artificial intelligence technology. Adversarial attack services exist to counter AI image services. This study focuses on gradient-based adversarial attack services. Gradient-based attacks utilize the gradient of the loss function of deep learning image models to introduce minimal changes to input images. In this study, we identify gradient-based adversarial attack methods and core codes, perform gradient-based adversarial attacks in the RestNet18 environment, and verify the results to assess the risk of attacks. We conducted adversarial attack experiments on five gradient-based adversarial attack models and evaluated the results using performance metrics such as adversarial attack success and PSNR. The results indicate that the MI-FGSM model is appropriate when maximizing attack success rate, the A-MI-FGSM model when visually stealthy attacks are desired, the FGSM+Random model when detection evasion is preferred, and the MI-FGSM model when a balance between attack effectiveness and efficiency is sought. KCI Citation Count: 0
AI image services are platforms that automate or support tasks such as image generation, editing, and enhancement using artificial intelligence technology. Adversarial attack services exist to counter AI image services. This study focuses on gradient-based adversarial attack services. Gradient-based attacks utilize the gradient of the loss function of deep learning image models to introduce minimal changes to input images. In this study, we identify gradient-based adversarial attack methods and core codes, perform gradient-based adversarial attacks in the RestNet18 environment, and verify the results to assess the risk of attacks. We conducted adversarial attack experiments on five gradient-based adversarial attack models and evaluated the results using performance metrics such as adversarial attack success and PSNR. The results indicate that the MI-FGSM model is appropriate when maximizing attack success rate, the A-MI-FGSM model when visually stealthy attacks are desired, the FGSM+Random model when detection evasion is preferred, and the MI-FGSM model when a balance between attack effectiveness and efficiency is sought. AI 이미지 서비스는 인공지능 기술을 활용하여 이미지 생성, 편집, 개선 등의 작업을 자동화하거나 지원하는 플랫폼이다. AI 이미지 서비스에 대항하는 적대적 공격 서비스가 존재한다. 본 연구에서는 gradient 기반의 적대적 공격 서비스를 중심으로 실험한다. Gradient 기반의 공격은 딥러닝 이미지 모델의 손실 함수의 기울기(gradient)를 이용하여 입력 이미지에 최소한의 변화를 준다. 본 연구에서는 gradient 기반의 적대적 공격 방법들과 핵심 코드들을 식별하고, 이어 RestNet18 환경에서 gradient 기반의 적대적 공격을 수행하고 그 결과를 확인함으로써 공격의 위험성을 확인하고자 한다. 본 연구에서는 gradient 기반의 적대적 공격 모델 5개를 대상으로 적대적 공격 실험을 수행하였고 적대적 공격 성공 여부, PSNR 등의 성능 지표를 통해 결과를 확인하였다. 연구 결과에서는 최대 공격 성공률을 원하면 MI-FGSM 모델을, 시각적으로 은닉된 공격을 원한다면 A-MI-FGSM모델을, 탐지 우회를 선호하면 FGSM+Random 모델을, 공격과 효율성의 균형을 원하면 MI-FGSM 모델을 사용하는 것이 적절함을 확인할 수 있다.
Author 홍진근
Author_xml – sequence: 1
  fullname: 홍진근
BackLink https://www.kci.go.kr/kciportal/ci/sereArticleSearch/ciSereArtiView.kci?sereArticleSearchBean.artiId=ART003214811$$DAccess content in National Research Foundation of Korea (NRF)
BookMark eNpNkD1Lw1AYhS9SwVr7Bxwki4vQer-SezPWojW1UJAuTpeb21sJrakkXdwqdPJjr2DBQfBjsVSFOPiHkvgfTK2IcHjPGZ73DGcV5Py-rwFYR7DMMLG2646zUy1jiM1yJlJGbAnkMeZ2CWJq5f4y4SugGIaeCwlENrWolQdHFcdIJ2_JS5Q-DLMUpZcTIx3dJh-j9OLe-LoZx7PPdDI2aoFse9ofGHE0TaZjI707T66G2TXi1_d49vTvKXl-TK6jNbDckb1QF3-9AFp7u63qfqnRrDnVSqOkObdKzLQ6kOt2x3ZNqbSpCIMYS6JsKU2qKeGMMuW2KXIRxsxVkCCMFMQ2QrbpKlIAW4taP-iIrvJEX3o_ftwX3UBUDluOQJBhzpiVwZsLuOuFA0_47bAn6pWD5nw7xAmxLUihPec2FpyWwcBTPS1OA-9EBmeCMggZJ99WiYO2
ContentType Journal Article
DBID M1Z
JDI
ACYCR
DEWEY 004
DOI 10.7236/JIIBC.2025.25.3.17
DatabaseName 학술교육원 E-Article
[Open Access] KoreaScience
Korean Citation Index
DatabaseTitleList


DeliveryMethod fulltext_linktorsrc
Discipline Computer Science
DocumentTitleAlternate Gradient-based Adversarial Attack Service Model of an AI Image Recognition Service Environment
EISSN 2289-0246
EndPage 24
ExternalDocumentID oai_kci_go_kr_ARTI_10728776
JAKO202518339604096
470078
GroupedDBID .UV
ALMA_UNASSIGNED_HOLDINGS
M1Z
JDI
ACYCR
ID FETCH-LOGICAL-e886-756f08edf9b5ace5c37022a3c9aa54e438747cbd41b1227bc03121c0291195bc3
ISSN 2289-0238
IngestDate Sat Jul 05 03:11:55 EDT 2025
Sun Aug 03 02:10:22 EDT 2025
Sat Oct 18 23:51:22 EDT 2025
IsDoiOpenAccess true
IsOpenAccess true
IsPeerReviewed false
IsScholarly true
Issue 3
Keywords Service risk
Image recognition
적대적 공격
서비스 위험
그래디언트 공격
Adversarial attack
인공지능
Artificial intelligence
Gradient attack
이미지 인식
Language Korean
LinkModel OpenURL
MergedId FETCHMERGED-LOGICAL-e886-756f08edf9b5ace5c37022a3c9aa54e438747cbd41b1227bc03121c0291195bc3
Notes KISTI1.1003/JNL.JAKO202518339604096
OpenAccessLink http://click.ndsl.kr/servlet/LinkingDetailView?cn=JAKO202518339604096&dbt=JAKO&org_code=O481&site_code=SS1481&service_code=01
PageCount 8
ParticipantIDs nrf_kci_oai_kci_go_kr_ARTI_10728776
kisti_ndsl_JAKO202518339604096
earticle_primary_470078
PublicationCentury 2000
PublicationDate 20250630
PublicationDateYYYYMMDD 2025-06-30
PublicationDate_xml – month: 06
  year: 2025
  text: 20250630
  day: 30
PublicationDecade 2020
PublicationTitle The journal of the institute of internet, broadcasting and communication : JIIBC
PublicationTitleAlternate The journal of the institute of internet, broadcasting and communication : JIIBC
PublicationYear 2025
Publisher 한국인터넷방송통신학회
Publisher_xml – name: 한국인터넷방송통신학회
SSID ssib030194646
ssib053377388
ssib023738960
ssib044745939
ssib021620247
ssib036278198
Score 2.3101766
Snippet AI 이미지 서비스는 인공지능 기술을 활용하여 이미지 생성, 편집, 개선 등의 작업을 자동화하거나 지원하는 플랫폼이다. AI 이미지 서비스에 대항하는 적대적 공격...
AI image services are platforms that automate or support tasks such as image generation, editing, and enhancement using artificial intelligence technology....
AI 이미지 서비스는 인공지능 기술을 활용하여 이미지 생성, 편집, 개선 등의 작업을 자동화하거나 지원하는플랫폼이다. AI 이미지 서비스에 대항하는 적대적 공격...
SourceID nrf
kisti
earticle
SourceType Open Website
Open Access Repository
Publisher
StartPage 17
SubjectTerms 컴퓨터학
TableOfContents 요약 Abstract Ⅰ. 서론 Ⅱ. AI 적대적 공격 서비스들 1. 관련 연구 2. Gradient Sign 공격 서비스 III. Gradient 기반 공격 모델들의 실험과 결과 1. 공격 핵심 코드 2. Test & Evaluation for FGSM 공격 모델의 시험과 평가 IV. 결론 Reference
Title AI 이미지 인식 서비스 환경의 Gradient 기반 적대적 공격 서비스 모델
URI https://www.earticle.net/Article/A470078
http://click.ndsl.kr/servlet/LinkingDetailView?cn=JAKO202518339604096&dbt=JAKO&org_code=O481&site_code=SS1481&service_code=01
https://www.kci.go.kr/kciportal/ci/sereArticleSearch/ciSereArtiView.kci?sereArticleSearchBean.artiId=ART003214811
Volume 25
hasFullText 1
inHoldings 1
isFullTextHit
isPrint
ispartofPNX 한국인터넷방송통신학회 논문지, 2025, 25(3), , pp.17-24
journalDatabaseRights – providerCode: PRVHPJ
  databaseName: ROAD: Directory of Open Access Scholarly Resources
  customDbUrl:
  eissn: 2289-0246
  dateEnd: 99991231
  omitProxy: true
  ssIdentifier: ssib044745939
  issn: 2289-0238
  databaseCode: M~E
  dateStart: 20140101
  isFulltext: true
  titleUrlDefault: https://road.issn.org
  providerName: ISSN International Centre
link http://utb.summon.serialssolutions.com/2.0.0/link/0/eLvHCXMwnV1Lb9QwEA5tuXBBIF7Lo4oEPlVZEseJ7aOzu6VbVLgUqZyivBZVRVu0bC8cUJF64nEvEpU4IPG4UBWQlgN_aDf8B2acpBte4iGtsqOxPZ7MWPY3kT02jCvcZimFhcWKpYwtJt3MElGaWUnmpUwytxfrPLMrN_ylW2x5zVubmT1S27W0NYybyYNfniv5H68CD_yKp2T_wbOHQoEBNPgXnuBheP6Vj1V3gXRaRLZJwEgnIGqRBAI5ihNhH5ZplgiA1izBiGxh9UAijRxFFIOyNpGSSKiuSEBJ0C4FSLFwbaC3hg0XdJkgga0F2FimO7QBkiJLtHDvRMUpqrsk8EqZSv5BBXgJoIQWharXwbNW0NMtFYpU7dobtlFQoRYSvNRPSS3dJ8rRdXytizYHaFgKlJpQoLzWQHgk0NqpVt2e1dgs7STaVQnT-nBS3hJefkOhXrXhr5pqKcWNY7TIM1OtC8WB7HL8u7VJvjhsWsKF4gT4jwsRp_qmnOVuN2g1sccm_Nxm1fK7BN-MI06bNY5SWJjw9pGVh51qSqQOsOg04qOYiEpOI1qYniWrZYgDOMIB4x1OqYxx5slp4lcA9xwk6Hsaq3cujpKhxld_1hcxWjm-IXzDmGYdUFh_0KuhsNUTxvEyfDJVUfekMbOxecq4rbpmvvdx8n6Uv94GapQ_2TPznReTzzv541fm1-e744Mv-d6uWY1iczzan-zvmvnLR5On2_A0xx8-jQ_e1hpN3r2ZPBudNlYXO6utJau8MsTKhPAt7vk9W2RpT8ZeBNNN4nLAqJGbyCjyWMZcAdFzEqfMiR1KeZzAkkadxKYSMx_GiXvGmOtv9rNzhikwdhZZ5OCFEJFMBET2bpQC4ktjJnu8YZytDBPeKxLDhIUnG8a8tlPYT-_fDZfV9ZtoUFg6XUyEZEu_YVwGA4YbyXqIyd3x_85muDEIIYTtho7NoUvun_9tBxeMY9NBfNGYGw62sksAjYfxvB483wCkypCJ
linkProvider ISSN International Centre
openUrl ctx_ver=Z39.88-2004&ctx_enc=info%3Aofi%2Fenc%3AUTF-8&rfr_id=info%3Asid%2Fsummon.serialssolutions.com&rft_val_fmt=info%3Aofi%2Ffmt%3Akev%3Amtx%3Ajournal&rft.genre=article&rft.atitle=AI+%EC%9D%B4%EB%AF%B8%EC%A7%80+%EC%9D%B8%EC%8B%9D+%EC%84%9C%EB%B9%84%EC%8A%A4+%ED%99%98%EA%B2%BD%EC%9D%98+Gradient+%EA%B8%B0%EB%B0%98+%EC%A0%81%EB%8C%80%EC%A0%81+%EA%B3%B5%EA%B2%A9+%EC%84%9C%EB%B9%84%EC%8A%A4+%EB%AA%A8%EB%8D%B8&rft.jtitle=%ED%95%9C%EA%B5%AD%EC%9D%B8%ED%84%B0%EB%84%B7%EB%B0%A9%EC%86%A1%ED%86%B5%EC%8B%A0%ED%95%99%ED%9A%8C+%EB%85%BC%EB%AC%B8%EC%A7%80&rft.au=%ED%99%8D%EC%A7%84%EA%B7%BC&rft.date=2025-06-30&rft.issn=2289-0238&rft.volume=25&rft.issue=3&rft.spage=17&rft.epage=24&rft_id=info:doi/10.7236%2FJIIBC.2025.25.3.17&rft.externalDocID=470078
thumbnail_l http://covers-cdn.summon.serialssolutions.com/index.aspx?isbn=/lc.gif&issn=2289-0238&client=summon
thumbnail_m http://covers-cdn.summon.serialssolutions.com/index.aspx?isbn=/mc.gif&issn=2289-0238&client=summon
thumbnail_s http://covers-cdn.summon.serialssolutions.com/index.aspx?isbn=/sc.gif&issn=2289-0238&client=summon