AI助力音乐创新:从AI孙燕姿到AI陈珊妮
音频工具

AI助力音乐创新:从AI孙燕姿到AI陈珊妮

本报讯,李玉洋上海报道,当前AI大模型正深度影响音乐创作行业。今年上半年,AI歌手尤以AI孙燕姿最为火爆。网易CEO丁磊预测,AI将在未来1~2年内成为音乐行业的标配。然而,音乐流媒体平台与唱片公司对AI的应用态度却截然不同,前者更侧重于个性化服务、用户体验及推动音乐产业数字化转型,而后者更关注版权及市场份额等传统利益。但AI作为一种工具和辅助手段,有望为音乐产业带来更多机遇和创新,助力艺术家、平台和唱片公司实现共同发展。
趣加音乐总监张志伟:详解AI技术在游戏音频领域的改变与帮助刀郎闯祸了?《颠倒歌》映射太多人,网友:在作死的边缘疯狂试探
音频工具

趣加音乐总监张志伟:详解AI技术在游戏音频领域的改变与帮助刀郎闯祸了?《颠倒歌》映射太多人,网友:在作死的边缘疯狂试探

随着ChatGPT与AIGC行业的迅速发展,虚拟人、音频模仿、智能NPC等应用场景也成为了各家游戏厂商关注的焦点。而作为业内领先的研发型企业,趣加也早已布局AI赛道,通过挖掘AI技术潜力的方式进一步提升游戏研发效能,同时力争为用户提供更好服务。 围绕这一核心目标,趣加音频总监张志伟也在内部分享了名为“AI of Game Audio”的主题演讲。张老师通过深入浅出的讲解,从灵感参考、分轨辅助、语音及引擎脚本等层面,详细地介绍了当前AI技术在游戏音频创作中的应用场景。 以下为内容实录: 大家好,我是张志伟,很高兴能和大家分享有关“AI of Game Audio”这一主题的最新研究成果。 广义的来说AI早已在游戏、音乐等领域中出现与应用。今年让我们激动的是近来发展迅猛的AIGC,生成式AI。 虽然我们还没有让普通人实现从意识到实际行为的脑机接口,但是拥有神经网络、深度学习的生成式AI,已先一步变得越来越能理解人的需求,并且开始取代一些传统生产环节。 AIGC技术的掌握和操作,难度看起来比传统学习一门专业要简单。拿音乐来举例,音乐创作是一个人需要多年学习训练、实践后才能驾驭的。如今AIGC可以让文字、语音等直接生成音乐。 那么,当下火热的AI技术在游戏音频领域,能带来哪些改变和帮助呢? 游戏音频 游戏音频主要分4个部分:音乐(bgmmusic)、语音(voices)、音效(sound sfx)、声音引擎(sound engine)。从开发流程来看包含:设计、制作生产、引擎逻辑、音频QA等。在我们近期的实践中发现,AI技术可以在设计方案、制作生产等方面帮助音频设计师提速,从而赋能游戏项目。 AI音乐 传统的音乐制作流程,无论是歌曲还是配乐,基础环节包括了创作、制作两部分。展开讲分别是作曲、作词、编曲、配器、器乐录音、人声录音、混音、母带等。每个环节都需要专业人员参与,即便在数字音乐制作普及的今天,把多个环节集中于一人身上,但是这个人自身是需要多年的专业学习和项目经验的。 在传统音乐制作中,声音合成技术几十年前就已在应用。载体是合成器(乐器),核心能力就是无中生有地创造出世界上从来没有的声音。但其生产模式是需要懂得专业知识的人来操作,还是离不开人的深度参与。 音乐生成AI化的一些重要节点: 1)人工输入大量核心作曲信息 1990年已诞生了自动作曲软件Band-in-a-box,在这里我们称其为“传统自动作曲”。作曲人员输入和声、曲风等设定后产生音乐。因其自身的特点和一些限制,后来它逐渐变成了音乐专业学习中,学习曲风的辅助工具。 2)人工输入模糊作曲信息 2016年出现了AIVA,我们称其为“AI自动作曲” 。操作模式是作曲人员设定曲风、调式等参数后,软件据此生成完整的音乐工程。接下来在AI软件中进行基于MIDI工程的编辑,或者输出MIDI文件和音频分轨,导入音频宿主软件进行深度的修改。这样的AI音乐技术,是能生成更多可能性的音乐,同时允许作曲者来进行反复地修改。 3)人工输入文字、图片 当下的AI音乐生成,可以不需要音乐理论知识和专业能力。输入文字、图片即可生成音乐。当然,音乐是否符合需求,取决于AI训练等很多因素。 AI音乐在游戏音频开发中能做什么呢? 第一:作曲辅助工具,快捷的提供灵感和参考。 1)ChatGPT+传统自动作曲 首先我们在ChatGPT中进行提问,获得和声、调式、配器特点等信息,然后输入到传统自动作曲软件中。 在此过程中,可以结合作曲软件的优势进行更多设定。 广告 胆小者勿入!五四三二一…恐怖的躲猫猫游戏现在开始! × 2)AI自动作曲+专业编曲技能 前面提到AI自动作曲软件允许我们提前设定一些条件,比如曲风、调式等。由此获得一段基于目标信息的音乐,还提供MIDI工程以及分轨,让作曲者能相对快速地展开创作。 广告 从秘书起步,十年内无人超越,以一己之力力挽狂澜成就一段传奇 × 3)AIGC 生成式AI让音乐创作变得更加方便,拿MusicLM举例,它在识别文字、音频、图片后,直接生成AI理解出来的音乐。 以上方式虽不能100%获得直接应用的音乐,但是可以让更多概念、想法、意向等转变出对应的音乐灵感和创作参考。 第二:产出风格化、类型化的音乐...
音乐也逃不过AIGC:国风摇滚都来得(内藏ikun彩蛋)量子位2023-06-13 13:15北京量子位2023-06-13 13:15北京
音频工具

音乐也逃不过AIGC:国风摇滚都来得(内藏ikun彩蛋)量子位2023-06-13 13:15北京量子位2023-06-13 13:15北京

克雷西 发自 凹非寺量子位 | 公众号 QbitAI “再多看一眼就会爆炸,再靠近点就快被融化”到底是个什么感觉? (这是一句《只因你太美》中的歌词) 下面的音乐或许能让你体会到这种“从来未有”的feel,坤坤听了都会直呼内行。 再多看一眼就会爆炸 00:15来自量子位 这段音乐来自Meta最新推出的文生音乐工具MusicGen。 只需要输入一段文字,点击生成按钮就能得到一段最长30秒的音乐,而且支持中文。 不懂乐理也没关系,MusicGen还可以上传已有的音乐作为参照。 【更多音频效果,请移步公众号文章】 比如上面这段音乐就是结合了原曲旋律重新生成的。 如果你实在不知道怎么prompt,也可以像这位网友一样问问ChatGPT: 无论是国风还是摇滚风都能轻松驾驭,甚至是两者结合。 【更多音频效果,请移步公众号文章】 哪怕国风伴奏也难不倒MusicGen。 【更多音频效果,请移步公众号文章】 测试结果显示,MusicGen的综合评分比谷歌的MusicLM高出了5.36%。 有网友给出了详细的测评体验: 这个模型似乎没有专门针对乐队名称进行训练,但用已有的风格生成音乐时表现非常好。……尽管(项目)网站中的示例是(开发者)挑选过的,但这并不能否定它可以生成好的作品。 如何实现 音乐的合成涉及多段旋律以及多种音色(乐器)之间的协调。 而不同于语音合成,人类对音乐之中的不和谐因素更为敏感。 那么MusicGen是如何完成这一复杂任务的呢? 我们先来看看它的训练数据。 Meta团队一共使用了两万小时的音乐。 这之中包括一万条内部搜集的高质量音轨以及ShutterStock和Pond5素材库中的数据。 来自后两者的数据量分别为2.5万和36.5万。 这些音乐数据在32kHz下被重新采样,都配有流派、BPM等基本信息和复杂一些的文字说明。 除了上述训练数据,Meta团队还准备了评价数据集MusicCaps。 MusicCaps由5500条专业作曲家谱写的10秒长的音乐构成,其中包括一千条平衡各个音乐流派的子集。 说完训练数据,我们来具体看看MusicGen的工作流程。 第一步是将声音信息转化为token。 这一步使用的是Meta去年研发的卷积网络编码器EnCodec。 至于编码方式,Meta团队通过实验对四种不同的方式进行了测试。 最终,团队选择了延时模式(下图右下)并进行了精准建模。 最核心的Transformer部分,团队训练了300M、1.5B、3.3B三个不同参数量的自回归式Transformer。 在混合精度下,训练上述三个参数量的Transformer分别使用了32、64和96块GPU。 对于文字处理,在评估了多个前人成果后Meta团队最终选用了Google团队2020年提出的T5模型。 对于音乐旋律的调整,团队选用了无监督的方式进行,规避了监督数据不佳导致的过拟合问题。 最终,Transformer输出的数据被转换为对数形式,然后根据编码本生成最终的成品。 体验方式...
AI与音乐行业的跨界融合:AIGC推动音乐娱乐新纪元
音频工具

AI与音乐行业的跨界融合:AIGC推动音乐娱乐新纪元

这篇文章主要讲述了人工智能AIGC如何重塑音乐产业,并通过财报中的“AI赋能技术”和“大语言模型(LLMs)赋能”展现了在线音乐未来的可能性。文中以AI力宏的例子展示了科技在音乐创作和表演上的应用,同时也介绍了腾讯音乐在AI技术上的研发和应用,包括“琴韵引擎”和“MUSE AI视觉生成引擎”。最后指出,随着智能网联汽车、IoT设备市场的繁荣以及AIGC技术的进步,未来每个人都可以创作和欣赏自己的音乐,享受音乐带来的快乐。