TechBeat人工智能社区

TechBeat人工智能社区

Talk | 微软亚洲研究院宋恺涛&南大余博涛:面向文本/音乐序列任务的Transformer注意力机制设计-LMLPHP

Talk·信息

主题:面向文本/音乐序列任务的Transformer注意力机制设计

嘉宾:微软亚洲研究院研究员 宋恺涛

南京大学硕士研究生 余博涛

时间:北京时间 11月22日 (周二) 20:00

地点:TechBeat人工智能社区

http://www.techbeat.net/

 点击下方链接,即可观看视频

TechBeatTechBeat是荟聚全球华人AI精英的成长社区,每周上新来自顶尖大厂、明星创业公司、国际顶级高校相关专业在读博士的最新研究工作。我们希望为AI人才打造更专业的服务和体验,加速并陪伴其成长。Talk | 微软亚洲研究院宋恺涛&南大余博涛:面向文本/音乐序列任务的Transformer注意力机制设计-LMLPHPhttps://www.techbeat.net/talk-info?id=732

Talk·介绍

Transformer凭借其强大的注意力机制,逐渐成为文本、语音、音乐、图像等任务的通用模型结构。然而,在典型的序列任务中,Transformer的注意力机制还有比较大的提升空间,以实现高效的序列建模。在本次talk中,我们将介绍在文本和音乐序列任务中的Transformer注意力机制设计,包括1)Transcormer,通过设计三流注意力机制(Triple-stream Self-attention)和滑动语言模型(Sliding Language Models)来实现高效的语言打分;2)Museformer,通过设计细粒度-粗粒度(Fine- and Coarse-Grained)结合的注意力机制以实现高效的音乐生成。

 分享一 

当下基于Transformer的语言模型是否已经能够满足自然语言处理中的所有任务?如何针对不同的任务来设计更加有效的语言模型呢?我们在NeurIPS 2022上针对语言评分这一任务特性,设计了一个全新的Transformer模型——Transcormer。该模型提出了一个全新的滑动语言模型,并设计了一种三流自注意力机制 。基于这样的设计,Transcormer模型能够在利用双向信息的同时,只需要计算一次便可以得到每个单词的概率分布。该方法在解决语言评估的任务上,具有更好的性能和更高的效率。 

Talk提纲如下:

  • 语言评分的任务定义

  • 过去预训练模型的优缺点

  • 滑动语言模型的设计

  • 实验结果

  • 工作总结

 分享二 

随着深度学习的快速发展,自动音乐创作成为新兴研究方向。Transformer模型被应用于音乐生成任务中并取得良好效果,但长序列建模(如何高效建模通常长度超过10000的音乐序列)和音乐结构建模(如何使生成的音乐具有更好的音乐重复结构)仍然是该领域的重大挑战。因此,在NeurIPS 2022上,我们提出Museformer,它使用一种细粒度和粗粒度相结合的注意力机制来解决这些挑战。

Talk提纲如下:

  • AI+艺术

  • 背景介绍:symbolic music,音乐生成中的挑战

  • Museformer模型和细-粗注意力机制的核心思想和具体设计

  • 实验和结果分析

  • 总结

Talk·预习资料

[1] BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding 

[2] Improving Language Understanding by Generative Pre-Training 

[3] XLNet: Generalized Autoregressive Pretraining for Language Understanding

[4] arXiv: https://arxiv.org/abs/2210.10349 

[5] Demo: https://ai-muzic.github.io/museformer 

[6] Code: https://github.com/microsoft/muzic

Talk·提问交流

在Talk界面下的【交流区】参与互动!留下你的打call🤟和问题🙋,和更多小伙伴们共同讨论,被讲者直接翻牌解答!

Talk | 微软亚洲研究院宋恺涛&南大余博涛:面向文本/音乐序列任务的Transformer注意力机制设计-LMLPHP

你的每一次贡献,我们都会给予你相应的i豆积分,还会有惊喜奖励哦!

Talk·嘉宾介绍

Talk | 微软亚洲研究院宋恺涛&南大余博涛:面向文本/音乐序列任务的Transformer注意力机制设计-LMLPHP

宋恺涛

微软亚洲研究院研究员

宋恺涛,微软亚洲研究院。博士毕业于南京理工大学计算机科学与应用专业。研究方向为自然语言处理,包括机器翻译,预训练模型,语言生成等领域。在ICML、NeurIPS、KDD、ACL、IJCAI、ICCV、TIP、COLING、ICASSP、InterSpeech等顶级会议及期刊发表了多篇论文,其谷歌学术被引2200+余次。他的多项研究成果应用在微软的产品中。

个人主页:

https://scholar.google.com/citations?user=LLk9dR8AAAAJ&hl=en

Talk | 微软亚洲研究院宋恺涛&南大余博涛:面向文本/音乐序列任务的Transformer注意力机制设计-LMLPHP

余博涛

南京大学硕士研究生

余博涛,南京大学硕士研究生,导师为胡伟副教授,正在寻求海外读博机会。主要研究方向包含自然语言处理、AI音乐和深度学习。

个人主页:

https://btyu.github.io/

 -The End-

关于TechBeat人工智能社区

11-24 09:29