AI也能作曲,初探AI生成技術對音樂創作之影響



隨著新興的生成式人工智慧內容AIGC(AI Generated Content)技術快速發展,近幾個月AI(人工智慧)以假亂真的創作議題,炒熱全球對人工智慧發展的注意力,如ChatGPT等平台提供的AI文字生成技術、Midjourney等平台提供的精美畫作創作等都在全世界造成旋風,而音樂創作也不受限於人類的創造力,人類在音樂創作領域也逐漸面臨挑戰。人工智慧是否能在音樂產業闖出一片天?數據驅動的音樂是否會取代音樂家?讓我們來初探人工智慧音樂創作的技術與影響。

人工智慧生成音樂濫觴始於1960年

在人工智慧音樂創作領域,早在1960年就由俄羅斯研究員 Rudolf Zaripov發表了全球第一篇音樂創作演算法的論文「On an algorithmic description of the process involved in the composition of music.」。而到了1997年,由加州大學聖克魯茲分校的音樂教授David Cope創作了「Emily Howell」-全球第一個音樂智慧實驗系統(Experiments in Musical Intelligence,EMI)模仿巴哈的音樂創作風格,並在2009年發布了第一張「個人」音樂創作專輯From Darkness, Light,目前已有多首作品在SoundCloud、Youtube等平台上可以找的到,大家可以上去聽聽。

AI音樂創作系統Emily Howell作品

圖1: AI音樂創作系統Emily Howell作品

資料來源:SoundCloud網站

回過頭來整理人工智慧生成藝術AIGA(Artificial Intelligence Generated Art)的定義,是指使用機械學習模型等人工智慧相關技術研究數據並學習後建立模型,進而創造出全新的藝術成品,內容可能是文字、音訊、音樂、影像、影片等各種設計或藝術,涉及知識性工作或創作性工作。最早在1960年代就由藝術Harold Cohen撰寫之系統「AARON」進行符號性圖像生成開始,2014年後由蒙特婁大學博士生 Ian Goodfellow 提出生成對抗網路技術(Generative Adversarial Network,GAN)訓練模型,造就人工智慧生成藝術快速發展。

生成對抗網路技術架構圖

圖2:生成對抗網路技術架構圖

資料來源:Github網站

AI藝術創作有利有弊 後續發展值得關注

透過GAN等數據訓練機械學習模型或採用神經網路等技術,包括AIVA、Amper、Amadeus Code、iZotope、Magenta、Riffusion等已有眾多人工智慧音樂生成的服務,面對以創作者品牌、內容與市場行銷驅動需求的音樂行業發展,其中Google Lab的Magenta Studio基於Magenta開源模型建構了音樂創作工具,並做為Abelton Live的插件使用,開發了MusicVAE技術從數十萬首歌曲中學習旋律、鼓等樂器建立模型,提供了整套的免費套件來生成旋律、節奏與律動,並以DAW的對話介面方式提供使用者創作音樂,讓音樂創作變得更簡單。

Google Lab的Magenta操作介面

圖3:Google Lab的Magenta操作介面

資料來源:Magenta Tensorflow官網

或許人工智慧生成音樂等AIGA創作還無法取代現有市場,但在許多廣告、行銷、學術研究等應用領域,可運用AIGA解決高昂的授權費用、專業音樂家及創作時間等成本。如同Midjourney平台造成許多創作者跳出來質疑畫風受侵害的問題,人工智慧音樂創作是否會侵犯既有眾多音樂創作人的權益?還是可成為音樂創作者有效的數位工具?而版權的歸屬也仍是無解的議題?上述問題都是在全球人工智慧音樂技術快速發展下值得關注的議題。

 

參考來源:

延伸閱讀
作者相關文章