欢迎访问江西财经大学新闻网! 显示时间
    • 新闻网:727058217@qq.com

      新媒体:jcxinmeiti@126.com

校园广角

首页>>校园广角>>基层风采>>新闻列表

香港大学李国栋教授在线讲学

​       10月26日下午,香港大学李国栋教授为统计学院师生带来一场题为“An efficient tensor regression for high-dimensional data”的线上讲座。本次讲座由统计学院副院长刘小惠教授主持,学院部分教师和研究生参加。


  讲座中,李国栋教授从五个部分展开此次讲座的核心内容。

  张量数据是矩阵高阶的拓展,一般其维度是三、四、五维及更高阶。近些年,该类型数据在化学、生物、视频、图像、经济金融等多个领域中有着广泛的研究。接着李国栋老师介绍了矩阵化----一种处理高阶张量的技巧,即通过重排列的方式将高阶张量变成矩阵。而张量数据存在两类最常用矩阵化的方式,一种叫one-modematricization,并给出如下例子:另一种被称为Sequentialmatricization。两种不同的矩阵化对应的是不同的张量分解,即CP分解、Tucker分解和TT分解。

  随后,李国栋教授介绍了CP分解(CP decomposition),并将一个三维Tensor(3-way tensor)分解为三个分量。CP decomposition的好处是极大的压缩了数据,但是它缺乏理论性质,且优化非常不稳定。第二个常用的是Tucker Decomposition.优化性质非常稳定,且分量具有正交性。但是其缺点是不能处理高阶的张量数据.

  他介绍了TT(Tensor train)分解和TT分解应用至tensor regression中的具体方式.TT分解则是综合了上述两种方法的优点,性质稳定、压缩速度快。然而,它缺乏可解释性,故未能在学界流行。李国栋及其团队在前人研究的基础上,引入正交性,对TT分解做出了合理的解释,保证其可以应用到回归当中。随后,他通过数学公式讲解了TT regression的思想,介绍了如何安排响应和预测,并呈现了模拟实验的结果和实例分析。

  在最后讨论互动环节,统计学院师生积极提问,就相关学术问题与李国栋教授开展积极互动,气氛非常活跃。此次李国栋教授的精彩演讲,完整展示了An efficient tensor regression for high-dimensional data,为统计学院师生从事相关研究工作提供了有益示例。(图文/统计学院 尹颖    编辑/徐淑婷    审核/一审 姜莹  二审 赵旻  终审 李大晖