本周为将门-TechBeat技术社区第245期线上Talk!也是ECCV 系列 Talk第③弹!
北京时间9月29日(周二)晚8点,香港中文大学多媒体实验室博士生—周航的Talk将准时在将门TechBeat技术社区开播!
他与大家分享的主题是: “视觉引导的音乐声源分离与立体声生成”。届时将会介绍其所在港中文团队发表在ECCV 上结合声源分离和立体声生成两个方向的最新工作。
Talk·信息
▼
主题:视觉引导的音乐声源分离与立体声生成
嘉宾:香港中文大学多媒体实验室博士生
周航
时间:北京时间9月29日 (周二) 20:00
地点:将门TechBeat技术社区
/
Talk·提纲
▼
本次分享中,周航将首先概括性地介绍音频-视觉的多模态联合学习任务的主要研究对象与引用场景,并深入视觉信息在音乐控制领域的应用。具体来说,其团队关注于计算机视觉与音乐处理中,声源分离和立体声生成这两大主流任务的关系。
他将首先分别从两个方向各选取一篇代表性的工作,介绍这两个方向研究的问题定义的基本框架。接着会详细讲解其港中文团队发表在ECCV 上结合这两个方向的最新工作: 视觉引导的声源分离辅助立体声生成方法Sep-Stereo。
本次分享的主要内容如下:
1. 音频-视觉联合学习任务总览
2. 视觉引导的音乐声源分离任务,前人工作解读
3. 视觉引导的立体声生成任务,前人工作解读
4. 详解发表于ECCV 的最新工作:视觉引导的声源分离辅助立体声生成方法Sep-Stereo
5. 总结与展望
Talk·参考资料
▼
本次分享中将会提及的文章如下,建议提前预习哦:
1.
点击直达!
2.《 ECCV | 视觉引导的声源分离辅助立体声重构方法 Sep-Stereo》
/p/162689191
3.《Sep-Stereo: Visually Guided Stereophonic Audio Generation by Associating Source Separation 》
论文链接: /abs/.09902
项目链接: https://hangz-nju-cuhk.github.io/projects/Sep-Stereo
Talk·提问交流
▼
方式 ①
在本文留言区红包奖励!
. ~ ..~ . ..~ . ~ ....~ . ~ ....~ . ~ ..
. ~ ..~ . ..~ . ~ ....~ . ~ ....~ . ~ ..
. ~ ..~ . ..~ . ~ ....~ . ~ ....~ . ~ ..
. ~ ..~ . ..~ . ~ ....~ . ~ ....~ . ~ ..
快来提问啦!
方式 ②
在Talk界面下的【交流区】参与互动!留下你的打call和问题,和更多小伙伴们共同讨论,说不定就被讲者直接翻牌解答了呢!
你的每一次贡献,我们都会给予你相应的i豆积分,近期还会有惊喜奖励哦!
Talk·观看方式
▼
或登录TechBeat官网
一键完成预约!上线后会在第一时间收到通知哦~
嘉宾介绍
▼
周航
香港中文大学 多媒体实验室博士生
周航,香港中文大学多媒体实验室四年级博士生,师从王晓刚教授。本科毕业于南京大学声学系。目前主要研究方向是音频-视觉的联合学习与人脸生成,曾在ICCV/CVPR/ECCV等会议发表多篇论文。CVPR 优秀审稿人,致力于推动视听结合的多模态领域发展。
系列Talk
▼
期待这里可以成为你学习AI前沿知识的高地,分享自己最新工作的沃土,在AI进阶之路上的升级打怪的根据地!
更多详细介绍>>
微信:thejiangmen
bp@
计算机视觉与音乐 Talk预告 | 香港中文大学MMLab在读博士生周航: 视觉引导的音乐声源分离与立体声生成...