AI 이미지 인식 서비스 환경의 Gradient 기반 적대적 공격 서비스 모델
AI 이미지 서비스는 인공지능 기술을 활용하여 이미지 생성, 편집, 개선 등의 작업을 자동화하거나 지원하는 플랫폼이다. AI 이미지 서비스에 대항하는 적대적 공격 서비스가 존재한다. 본 연구에서는 gradient 기반의 적대적 공격 서비스를 중심으로 실험한다. Gradient 기반의 공격은 딥러닝 이미지 모델의 손실 함수의 기울기(gradient)를 이용하여 입력 이미지에 최소한의 변화를 준다. 본 연구에서는 gradient 기반의 적대적 공격 방법들과 핵심 코드들을 식별하고, 이어 RestNet18 환경에서 gradient 기반의...
Saved in:
| Published in | The journal of the institute of internet, broadcasting and communication : JIIBC Vol. 25; no. 3; pp. 17 - 24 |
|---|---|
| Main Author | |
| Format | Journal Article |
| Language | Korean |
| Published |
한국인터넷방송통신학회
30.06.2025
|
| Subjects | |
| Online Access | Get full text |
| ISSN | 2289-0238 2289-0246 |
| DOI | 10.7236/JIIBC.2025.25.3.17 |
Cover
| Abstract | AI 이미지 서비스는 인공지능 기술을 활용하여 이미지 생성, 편집, 개선 등의 작업을 자동화하거나 지원하는 플랫폼이다. AI 이미지 서비스에 대항하는 적대적 공격 서비스가 존재한다. 본 연구에서는 gradient 기반의 적대적 공격 서비스를 중심으로 실험한다. Gradient 기반의 공격은 딥러닝 이미지 모델의 손실 함수의 기울기(gradient)를 이용하여 입력 이미지에 최소한의 변화를 준다. 본 연구에서는 gradient 기반의 적대적 공격 방법들과 핵심 코드들을 식별하고, 이어 RestNet18 환경에서 gradient 기반의 적대적 공격을 수행하고 그 결과를 확인함으로써 공격의 위험성을 확인하고 자 한다. 본 연구에서는 gradient 기반의 적대적 공격 모델 5개를 대상으로 적대적 공격 실험을 수행하였고 적대적 공격 성공 여부, PSNR 등의 성능 지표를 통해 결과를 확인하였다. 연구 결과에서는 최대 공격 성공률을 원하면 MI-FGSM 모델을, 시각적으로 은닉된 공격을 원한다면 A-MI-FGSM모델을, 탐지 우회를 선호하면 FGSM+Random 모델을, 공격 과 효율성의 균형을 원하면 MI-FGSM 모델을 사용하는 것이 적절함을 확인할 수 있다. |
|---|---|
| AbstractList | AI 이미지 서비스는 인공지능 기술을 활용하여 이미지 생성, 편집, 개선 등의 작업을 자동화하거나 지원하는 플랫폼이다. AI 이미지 서비스에 대항하는 적대적 공격 서비스가 존재한다. 본 연구에서는 gradient 기반의 적대적 공격 서비스를 중심으로 실험한다. Gradient 기반의 공격은 딥러닝 이미지 모델의 손실 함수의 기울기(gradient)를 이용하여 입력 이미지에 최소한의 변화를 준다. 본 연구에서는 gradient 기반의 적대적 공격 방법들과 핵심 코드들을 식별하고, 이어 RestNet18 환경에서 gradient 기반의 적대적 공격을 수행하고 그 결과를 확인함으로써 공격의 위험성을 확인하고 자 한다. 본 연구에서는 gradient 기반의 적대적 공격 모델 5개를 대상으로 적대적 공격 실험을 수행하였고 적대적 공격 성공 여부, PSNR 등의 성능 지표를 통해 결과를 확인하였다. 연구 결과에서는 최대 공격 성공률을 원하면 MI-FGSM 모델을, 시각적으로 은닉된 공격을 원한다면 A-MI-FGSM모델을, 탐지 우회를 선호하면 FGSM+Random 모델을, 공격 과 효율성의 균형을 원하면 MI-FGSM 모델을 사용하는 것이 적절함을 확인할 수 있다. AI 이미지 서비스는 인공지능 기술을 활용하여 이미지 생성, 편집, 개선 등의 작업을 자동화하거나 지원하는플랫폼이다. AI 이미지 서비스에 대항하는 적대적 공격 서비스가 존재한다. 본 연구에서는 gradient 기반의 적대적 공격서비스를 중심으로 실험한다. Gradient 기반의 공격은 딥러닝 이미지 모델의 손실 함수의 기울기(gradient)를 이용하여입력 이미지에 최소한의 변화를 준다. 본 연구에서는 gradient 기반의 적대적 공격 방법들과 핵심 코드들을 식별하고, 이어 RestNet18 환경에서 gradient 기반의 적대적 공격을 수행하고 그 결과를 확인함으로써 공격의 위험성을 확인하고자 한다. 본 연구에서는 gradient 기반의 적대적 공격 모델 5개를 대상으로 적대적 공격 실험을 수행하였고 적대적 공격성공 여부, PSNR 등의 성능 지표를 통해 결과를 확인하였다. 연구 결과에서는 최대 공격 성공률을 원하면 MI-FGSM 모델을, 시각적으로 은닉된 공격을 원한다면 A-MI-FGSM모델을, 탐지 우회를 선호하면 FGSM+Random 모델을, 공격과 효율성의 균형을 원하면 MI-FGSM 모델을 사용하는 것이 적절함을 확인할 수 있다. AI image services are platforms that automate or support tasks such as image generation, editing, and enhancement using artificial intelligence technology. Adversarial attack services exist to counter AI image services. This study focuses on gradient-based adversarial attack services. Gradient-based attacks utilize the gradient of the loss function of deep learning image models to introduce minimal changes to input images. In this study, we identify gradient-based adversarial attack methods and core codes, perform gradient-based adversarial attacks in the RestNet18 environment, and verify the results to assess the risk of attacks. We conducted adversarial attack experiments on five gradient-based adversarial attack models and evaluated the results using performance metrics such as adversarial attack success and PSNR. The results indicate that the MI-FGSM model is appropriate when maximizing attack success rate, the A-MI-FGSM model when visually stealthy attacks are desired, the FGSM+Random model when detection evasion is preferred, and the MI-FGSM model when a balance between attack effectiveness and efficiency is sought. KCI Citation Count: 0 AI image services are platforms that automate or support tasks such as image generation, editing, and enhancement using artificial intelligence technology. Adversarial attack services exist to counter AI image services. This study focuses on gradient-based adversarial attack services. Gradient-based attacks utilize the gradient of the loss function of deep learning image models to introduce minimal changes to input images. In this study, we identify gradient-based adversarial attack methods and core codes, perform gradient-based adversarial attacks in the RestNet18 environment, and verify the results to assess the risk of attacks. We conducted adversarial attack experiments on five gradient-based adversarial attack models and evaluated the results using performance metrics such as adversarial attack success and PSNR. The results indicate that the MI-FGSM model is appropriate when maximizing attack success rate, the A-MI-FGSM model when visually stealthy attacks are desired, the FGSM+Random model when detection evasion is preferred, and the MI-FGSM model when a balance between attack effectiveness and efficiency is sought. AI 이미지 서비스는 인공지능 기술을 활용하여 이미지 생성, 편집, 개선 등의 작업을 자동화하거나 지원하는 플랫폼이다. AI 이미지 서비스에 대항하는 적대적 공격 서비스가 존재한다. 본 연구에서는 gradient 기반의 적대적 공격 서비스를 중심으로 실험한다. Gradient 기반의 공격은 딥러닝 이미지 모델의 손실 함수의 기울기(gradient)를 이용하여 입력 이미지에 최소한의 변화를 준다. 본 연구에서는 gradient 기반의 적대적 공격 방법들과 핵심 코드들을 식별하고, 이어 RestNet18 환경에서 gradient 기반의 적대적 공격을 수행하고 그 결과를 확인함으로써 공격의 위험성을 확인하고자 한다. 본 연구에서는 gradient 기반의 적대적 공격 모델 5개를 대상으로 적대적 공격 실험을 수행하였고 적대적 공격 성공 여부, PSNR 등의 성능 지표를 통해 결과를 확인하였다. 연구 결과에서는 최대 공격 성공률을 원하면 MI-FGSM 모델을, 시각적으로 은닉된 공격을 원한다면 A-MI-FGSM모델을, 탐지 우회를 선호하면 FGSM+Random 모델을, 공격과 효율성의 균형을 원하면 MI-FGSM 모델을 사용하는 것이 적절함을 확인할 수 있다. |
| Author | 홍진근 |
| Author_xml | – sequence: 1 fullname: 홍진근 |
| BackLink | https://www.kci.go.kr/kciportal/ci/sereArticleSearch/ciSereArtiView.kci?sereArticleSearchBean.artiId=ART003214811$$DAccess content in National Research Foundation of Korea (NRF) |
| BookMark | eNpNkD1Lw1AYhS9SwVr7Bxwki4vQer-SezPWojW1UJAuTpeb21sJrakkXdwqdPJjr2DBQfBjsVSFOPiHkvgfTK2IcHjPGZ73DGcV5Py-rwFYR7DMMLG2646zUy1jiM1yJlJGbAnkMeZ2CWJq5f4y4SugGIaeCwlENrWolQdHFcdIJ2_JS5Q-DLMUpZcTIx3dJh-j9OLe-LoZx7PPdDI2aoFse9ofGHE0TaZjI707T66G2TXi1_d49vTvKXl-TK6jNbDckb1QF3-9AFp7u63qfqnRrDnVSqOkObdKzLQ6kOt2x3ZNqbSpCIMYS6JsKU2qKeGMMuW2KXIRxsxVkCCMFMQ2QrbpKlIAW4taP-iIrvJEX3o_ftwX3UBUDluOQJBhzpiVwZsLuOuFA0_47bAn6pWD5nw7xAmxLUihPec2FpyWwcBTPS1OA-9EBmeCMggZJ99WiYO2 |
| ContentType | Journal Article |
| DBID | M1Z JDI ACYCR |
| DEWEY | 004 |
| DOI | 10.7236/JIIBC.2025.25.3.17 |
| DatabaseName | 학술교육원 E-Article [Open Access] KoreaScience Korean Citation Index |
| DatabaseTitleList | |
| DeliveryMethod | fulltext_linktorsrc |
| Discipline | Computer Science |
| DocumentTitleAlternate | Gradient-based Adversarial Attack Service Model of an AI Image Recognition Service Environment |
| EISSN | 2289-0246 |
| EndPage | 24 |
| ExternalDocumentID | oai_kci_go_kr_ARTI_10728776 JAKO202518339604096 470078 |
| GroupedDBID | .UV ALMA_UNASSIGNED_HOLDINGS M1Z JDI ACYCR |
| ID | FETCH-LOGICAL-e886-756f08edf9b5ace5c37022a3c9aa54e438747cbd41b1227bc03121c0291195bc3 |
| ISSN | 2289-0238 |
| IngestDate | Sat Jul 05 03:11:55 EDT 2025 Sun Aug 03 02:10:22 EDT 2025 Sat Oct 18 23:51:22 EDT 2025 |
| IsDoiOpenAccess | true |
| IsOpenAccess | true |
| IsPeerReviewed | false |
| IsScholarly | true |
| Issue | 3 |
| Keywords | Service risk Image recognition 적대적 공격 서비스 위험 그래디언트 공격 Adversarial attack 인공지능 Artificial intelligence Gradient attack 이미지 인식 |
| Language | Korean |
| LinkModel | OpenURL |
| MergedId | FETCHMERGED-LOGICAL-e886-756f08edf9b5ace5c37022a3c9aa54e438747cbd41b1227bc03121c0291195bc3 |
| Notes | KISTI1.1003/JNL.JAKO202518339604096 |
| OpenAccessLink | http://click.ndsl.kr/servlet/LinkingDetailView?cn=JAKO202518339604096&dbt=JAKO&org_code=O481&site_code=SS1481&service_code=01 |
| PageCount | 8 |
| ParticipantIDs | nrf_kci_oai_kci_go_kr_ARTI_10728776 kisti_ndsl_JAKO202518339604096 earticle_primary_470078 |
| PublicationCentury | 2000 |
| PublicationDate | 20250630 |
| PublicationDateYYYYMMDD | 2025-06-30 |
| PublicationDate_xml | – month: 06 year: 2025 text: 20250630 day: 30 |
| PublicationDecade | 2020 |
| PublicationTitle | The journal of the institute of internet, broadcasting and communication : JIIBC |
| PublicationTitleAlternate | The journal of the institute of internet, broadcasting and communication : JIIBC |
| PublicationYear | 2025 |
| Publisher | 한국인터넷방송통신학회 |
| Publisher_xml | – name: 한국인터넷방송통신학회 |
| SSID | ssib030194646 ssib053377388 ssib023738960 ssib044745939 ssib021620247 ssib036278198 |
| Score | 2.3101766 |
| Snippet | AI 이미지 서비스는 인공지능 기술을 활용하여 이미지 생성, 편집, 개선 등의 작업을 자동화하거나 지원하는 플랫폼이다. AI 이미지 서비스에 대항하는 적대적 공격... AI image services are platforms that automate or support tasks such as image generation, editing, and enhancement using artificial intelligence technology.... AI 이미지 서비스는 인공지능 기술을 활용하여 이미지 생성, 편집, 개선 등의 작업을 자동화하거나 지원하는플랫폼이다. AI 이미지 서비스에 대항하는 적대적 공격... |
| SourceID | nrf kisti earticle |
| SourceType | Open Website Open Access Repository Publisher |
| StartPage | 17 |
| SubjectTerms | 컴퓨터학 |
| TableOfContents | 요약
Abstract
Ⅰ. 서론
Ⅱ. AI 적대적 공격 서비스들
1. 관련 연구
2. Gradient Sign 공격 서비스
III. Gradient 기반 공격 모델들의 실험과 결과
1. 공격 핵심 코드
2. Test & Evaluation for FGSM 공격 모델의 시험과 평가
IV. 결론
Reference |
| Title | AI 이미지 인식 서비스 환경의 Gradient 기반 적대적 공격 서비스 모델 |
| URI | https://www.earticle.net/Article/A470078 http://click.ndsl.kr/servlet/LinkingDetailView?cn=JAKO202518339604096&dbt=JAKO&org_code=O481&site_code=SS1481&service_code=01 https://www.kci.go.kr/kciportal/ci/sereArticleSearch/ciSereArtiView.kci?sereArticleSearchBean.artiId=ART003214811 |
| Volume | 25 |
| hasFullText | 1 |
| inHoldings | 1 |
| isFullTextHit | |
| isPrint | |
| ispartofPNX | 한국인터넷방송통신학회 논문지, 2025, 25(3), , pp.17-24 |
| journalDatabaseRights | – providerCode: PRVHPJ databaseName: ROAD: Directory of Open Access Scholarly Resources customDbUrl: eissn: 2289-0246 dateEnd: 99991231 omitProxy: true ssIdentifier: ssib044745939 issn: 2289-0238 databaseCode: M~E dateStart: 20140101 isFulltext: true titleUrlDefault: https://road.issn.org providerName: ISSN International Centre |
| link | http://utb.summon.serialssolutions.com/2.0.0/link/0/eLvHCXMwnV1Lb9QwEA5tuXBBIF7Lo4oEPlVZEseJ7aOzu6VbVLgUqZyivBZVRVu0bC8cUJF64nEvEpU4IPG4UBWQlgN_aDf8B2acpBte4iGtsqOxPZ7MWPY3kT02jCvcZimFhcWKpYwtJt3MElGaWUnmpUwytxfrPLMrN_ylW2x5zVubmT1S27W0NYybyYNfniv5H68CD_yKp2T_wbOHQoEBNPgXnuBheP6Vj1V3gXRaRLZJwEgnIGqRBAI5ihNhH5ZplgiA1izBiGxh9UAijRxFFIOyNpGSSKiuSEBJ0C4FSLFwbaC3hg0XdJkgga0F2FimO7QBkiJLtHDvRMUpqrsk8EqZSv5BBXgJoIQWharXwbNW0NMtFYpU7dobtlFQoRYSvNRPSS3dJ8rRdXytizYHaFgKlJpQoLzWQHgk0NqpVt2e1dgs7STaVQnT-nBS3hJefkOhXrXhr5pqKcWNY7TIM1OtC8WB7HL8u7VJvjhsWsKF4gT4jwsRp_qmnOVuN2g1sccm_Nxm1fK7BN-MI06bNY5SWJjw9pGVh51qSqQOsOg04qOYiEpOI1qYniWrZYgDOMIB4x1OqYxx5slp4lcA9xwk6Hsaq3cujpKhxld_1hcxWjm-IXzDmGYdUFh_0KuhsNUTxvEyfDJVUfekMbOxecq4rbpmvvdx8n6Uv94GapQ_2TPznReTzzv541fm1-e744Mv-d6uWY1iczzan-zvmvnLR5On2_A0xx8-jQ_e1hpN3r2ZPBudNlYXO6utJau8MsTKhPAt7vk9W2RpT8ZeBNNN4nLAqJGbyCjyWMZcAdFzEqfMiR1KeZzAkkadxKYSMx_GiXvGmOtv9rNzhikwdhZZ5OCFEJFMBET2bpQC4ktjJnu8YZytDBPeKxLDhIUnG8a8tlPYT-_fDZfV9ZtoUFg6XUyEZEu_YVwGA4YbyXqIyd3x_85muDEIIYTtho7NoUvun_9tBxeMY9NBfNGYGw62sksAjYfxvB483wCkypCJ |
| linkProvider | ISSN International Centre |
| openUrl | ctx_ver=Z39.88-2004&ctx_enc=info%3Aofi%2Fenc%3AUTF-8&rfr_id=info%3Asid%2Fsummon.serialssolutions.com&rft_val_fmt=info%3Aofi%2Ffmt%3Akev%3Amtx%3Ajournal&rft.genre=article&rft.atitle=AI+%EC%9D%B4%EB%AF%B8%EC%A7%80+%EC%9D%B8%EC%8B%9D+%EC%84%9C%EB%B9%84%EC%8A%A4+%ED%99%98%EA%B2%BD%EC%9D%98+Gradient+%EA%B8%B0%EB%B0%98+%EC%A0%81%EB%8C%80%EC%A0%81+%EA%B3%B5%EA%B2%A9+%EC%84%9C%EB%B9%84%EC%8A%A4+%EB%AA%A8%EB%8D%B8&rft.jtitle=%ED%95%9C%EA%B5%AD%EC%9D%B8%ED%84%B0%EB%84%B7%EB%B0%A9%EC%86%A1%ED%86%B5%EC%8B%A0%ED%95%99%ED%9A%8C+%EB%85%BC%EB%AC%B8%EC%A7%80&rft.au=%ED%99%8D%EC%A7%84%EA%B7%BC&rft.date=2025-06-30&rft.issn=2289-0238&rft.volume=25&rft.issue=3&rft.spage=17&rft.epage=24&rft_id=info:doi/10.7236%2FJIIBC.2025.25.3.17&rft.externalDocID=470078 |
| thumbnail_l | http://covers-cdn.summon.serialssolutions.com/index.aspx?isbn=/lc.gif&issn=2289-0238&client=summon |
| thumbnail_m | http://covers-cdn.summon.serialssolutions.com/index.aspx?isbn=/mc.gif&issn=2289-0238&client=summon |
| thumbnail_s | http://covers-cdn.summon.serialssolutions.com/index.aspx?isbn=/sc.gif&issn=2289-0238&client=summon |