earticle

논문검색

음악 작곡 AI의 확장성 문제 : LSTM과 Transformer의 Sequence 길이 제한에 따른 작품 구조 완결성의 변화

원문정보

The Scalability Problem of AI in Music Composition : Changes in the Completion of the Work Structure according to the Sequence Length Limits of LSTM and Transformer

이형주

피인용수 : 0(자료제공 : 네이버학술정보)

초록

영어

This study presents a new perspective on the convergence of artificial neural networks and music creation. The main subjects of the study are two major artificial neural network structures, Long Short-Term Memory (LSTM) and Transformer, which are analyzed in depth how they affect sequence data processing and the scalability of music composition AI. The focus of this study is on the effect of the sequence length limit of each model on the structural completeness of the musical work. To this end, music data with various sequence lengths were learned in the LSTM and Transformer models, and then the learning loss trend and reproduction ability of each model were evaluated. In addition, based on the results of this technical analysis, the structural completeness of the musical works generated by each model was evaluated using the Quantitative Evaluation method. Factors considered in this process include harmony structure, beat, and organicity of the melody line. As a result of this study, Transformer showed better performance in long sequence processing than LSTM. This was found in that Transformer's self-attention mechanism solves LSTM's vanishing gradient problem and allows it to effectively learn and reproduce longer musical sequences. It was also confirmed that these differences in functionality affect the structural completeness of music works. Through this, this study greatly contributed to in-depth exploration and understanding of the limitations and possibilities of music composition through AI technology. Understanding how artificial intelligence is used in the field of creation and what limitations and possibilities it has in the process plays an important role in expanding technological development into the human realm of music creation.

한국어

본 연구는 인공 신경망과 음악 창작의 융합에 대해 새로운 시각을 제시한다. 주요 연구 대상은 Long Short-Term Memory (LSTM)과 Transformer, 두 가지 주요한 인공 신경망 구조로, 이들이 시 퀀스 데이터 처리와 음악 작곡 AI의 확장성에 어떠한 영향을 미치는지에 대해 심도 있게 분석하 였다. 본 연구의 초점은 각 모델의 시퀀스 길이 제한이 음악 작품의 구조 완결성에 미치는 영향에 두어 있다. 이를 위해, 다양 한 시퀀스 길이를 가진 음악 데이터를 LSTM과 Transformer 모델에 학습시킨 후 각 모델의 학습 손실 추이와 학습 데이터에 대한 재현능력을 평가하였다. 그리고 이 러한 기술적 분석 결과를 바탕으로 각 모델이 생성한 음악 작품의 구조적 완결성을 Quantitative Evaluation방식으로 평가하였다. 이 과정에서 고려된 요소들은 화성 구 조, 박자, 멜로 디 라인의 유기성 등이다. 본 연구의 결과로, Transformer는 LSTM에 비해 긴 시퀀스 처리에 더욱 뛰어난 성능을 보였다. 이는 Transformer의 self-attention 메커니즘이 LSTM의 vanishing gradient 문제를 해결하며 더 긴 음 악 시퀀스를 효과적으로 학습하고 재현할 수 있게끔 만든다는 점에서 찾을 수 있었 다. 또한, 이러한 기능성 차이가 음악 작품의 구조 완결성에 영향을 미친다는 것도 확인하였다. 이를 통해 본 연구는 AI 기술을 통한 음악 작곡의 한계와 가능성에 대해 심층적으로 탐색하고 이해하는 데에 크게 기여하였다. 인공지능이 창작 분야에 어떤 방식으로 활용되고, 그 과정에서 어떤 한계와 가능성을 가지는지에 대한 이해는 기술 발전을 음악 창작이라는 인간의 영역으로 확장하는 데 중요한 역할을 수행한다.

목차

국문요약
Ⅰ. 서론
Ⅱ. 이론적 배경
Ⅲ. Sequence 길이 제한이 음악 작품의 구조 완결성에 미치는 영향
Ⅳ. 결론
참고문헌

저자정보

  • 이형주 Heoyng-ju Lee. 고려대학교 문화콘텐츠학과 박사과정

참고문헌

자료제공 : 네이버학술정보

    함께 이용한 논문

      ※ 기관로그인 시 무료 이용이 가능합니다.

      • 4,200원

      0개의 논문이 장바구니에 담겼습니다.