如何利用变分自编码模型框架求解深度主题模型 大讲堂 | 第56期
西电博士生张昊
开课时间:2018/05/07 20:00 预计时长:1个小时左右
课程回放
225人报名
观看回放
课程介绍

分享主题 
如何利用变分自编码模型框架求解深度主题模型
 
分享背景

在如今大数据背景下,人们轻而易举的可以获得海量的文本数据,如何有效的分析这些文本数据,同时提取有效的特征用于后续的文本分类,文本检索以及推荐系统等应用中,成为一个重要的研究课题。虽然一些基于概率生成网络的主题模型被提出,比如 LDA ,深度 LDA 等,但是它们在测试阶段仍然需要耗费大量的时间去推理参数的后验,使得这些模型在实际应用的时效性上大打折扣。因此,本次公开课,张昊博士将结合他们团队 ICLR 2018 文章,WHAI: Weibull Hybrid Autoencoding Inference for Deep Topic Modeling,分享他在解决这个问题过程中的建模,算法实现以及实践经验。
 
分享提纲

1. 大数据时代下的文本分析在很多系统中起到非常重要的作用。比如文本分类,文本检索以及推荐系统等。
2. 介绍基于概率生成模型的文本建模方法,并分析现有模型与算法的优缺点。
3. 深度 LDA(DLDA)模型是最近被提出的一种层次化主题模型,一些简单的推理算法,比如 Gibbs 采样,SG-MCMC 算法已经可以较好的去求解模型。
4. 结合我们团队在 ICLR2018 发表的文章,WHAI: Weibull Hybrid Autoencoding Inference for Deep Topic Modeling,从原理与应用背景两个层面,讨论如何利用变分自编码模型框架更加有效的求解深度主题模型。

 

分享嘉宾

张昊,西安电子科技大学在读博士,师从电子工程学院陈渤教授。本科毕业于西安电子科技大学电子与信息工程专业。主要研究方向为基于概率统计模型的图像识别,文本分析与主题模型,以及动态时序数据分析等一系列问题的理论研究与应用。
 
分享时间

北京时间 5 月 7 日(周一)晚上 8:00

课程须知
  • 请大家提前10分钟进入直播间
  • 开课后两个工作日左右会上传回放视频,错过直播的同学也不要担心
  • 欢迎大家多多向嘉宾提问