您当前的位置是:  首页 > 技术 > 国外技术 >
 首页 > 技术 > 国外技术 > 谷歌发布Brain2Music模型 可基于你的大脑活动自动生成音乐

谷歌发布Brain2Music模型 可基于你的大脑活动自动生成音乐

2023-07-26 11:55:20   作者:   来源:IT之家   评论:0  点击:


  谷歌近日发布了名为 Brain2Music 的论文,可以利用人工智能读取、分析你的功能性磁共振成像(fMRI)数据,然后再基于你的大脑活动自动生成音乐。

  

 

  研究人员招募了 5 名志愿者,先让其听蓝调,古典,乡村,迪斯科,嘻哈,爵士乐,金属,流行,雷鬼和摇滚等不同音乐类型的 15 秒音乐片段,然后记录志愿者的 fMRI 数据。

  谷歌使用这些数据训练出一个深度神经网络,以了解大脑活动模式与音乐节奏和情感等不同元素之间的关系。

  Brain2Music 基于谷歌此前推出的 MusicLM 模型(基于文本生成音乐片段),基于 fMRI 生成 15 秒音乐片段。

  研究结果显示 Brain2Music 生成的 15 秒音乐片段,其中一段内容“Oops!...I Did It Again”和测试听到的原版音乐基本相同。

  

 

  

 

  

 

  

 

  

【免责声明】本文仅代表作者本人观点,与CTI论坛无关。CTI论坛对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。

相关阅读:

专题

CTI论坛会员企业