입력 변화에 강건한 소스 코드 취약점 탐지를 위한 LSTM-Attention 모델
소스 코드의 보안 취약점을 탐지하는 것은 매우 중요한 과제이며, 이를 위해 딥러닝 기반의 방법들이 지속적으로 사용되고 있다. 본 연구에서는 여러 형태의 심층 신경망 모델 구조를 통해 소스 코드 취약성을 탐지하는 모델을 학습하고 비교 분석한다. LSTM-Attention 모델이 취약점 탐지에 타 기법 대비 매우 효과적임을 실험적으로 보이며, 이 모델이 다양한 조건에서 얼마나 안정적인 성능을 유지하는지에 대한 중요한 통찰을 제공한다. 특히 입력 데이터의 길이, 임베딩 기법, 잠재 벡터의 크기가 이 모델의 성능에 어떠한 영향을 미치는지에...
Saved in:
Published in | 정보과학회 컴퓨팅의 실제 논문지 Vol. 30; no. 3; pp. 105 - 114 |
---|---|
Main Authors | , , , , , , , |
Format | Journal Article |
Language | Korean |
Published |
Korean Institute of Information Scientists and Engineers
01.03.2024
한국정보과학회 |
Subjects | |
Online Access | Get full text |
ISSN | 2383-6318 2383-6326 |
DOI | 10.5626/KTCP.2024.30.3.105 |
Cover
Summary: | 소스 코드의 보안 취약점을 탐지하는 것은 매우 중요한 과제이며, 이를 위해 딥러닝 기반의 방법들이 지속적으로 사용되고 있다. 본 연구에서는 여러 형태의 심층 신경망 모델 구조를 통해 소스 코드 취약성을 탐지하는 모델을 학습하고 비교 분석한다. LSTM-Attention 모델이 취약점 탐지에 타 기법 대비 매우 효과적임을 실험적으로 보이며, 이 모델이 다양한 조건에서 얼마나 안정적인 성능을 유지하는지에 대한 중요한 통찰을 제공한다. 특히 입력 데이터의 길이, 임베딩 기법, 잠재 벡터의 크기가 이 모델의 성능에 어떠한 영향을 미치는지에 대해 심도 있게 살펴본다. 이는 LSTM-Attention 모델이 실제 다양한 상황에서 일관된 성능을 보장할 수 있는지, 그리고 어떤 조건에서 가장 우수한 성능을 나타내는지 확인하는 데 중요한 참고 자료가 될 것이다. Source code vulnerability detection is a very important step, and deep learning-based methods are increasingly being used for this purpose. In this study, we train and compare various deep neural network architectures to detect vulnerabilities in the source code. In this work, experimentally, we demonstrate that the LSTM-Attention model is highly effective in vulnerability detection compared to other techniques. We provide significant insights into the consistent performance of this model under varying conditions. In particular, we delve deep into the impact of input data length, embedding techniques, and the size of latent vectors on the performance of the model. This will be an important reference for determining whether the LSTM-Attention model can ensure consistent performance in a variety of real-world situations, and under what conditions it exhibits the best performance. KCI Citation Count: 0 |
---|---|
ISSN: | 2383-6318 2383-6326 |
DOI: | 10.5626/KTCP.2024.30.3.105 |