学术动态

首页 >> 学术动态 >> 正文

罗勇课题组量子机器学习研究取得突破进展

发布时间:2024-05-14 10:50 来源:计算机学院 阅读:
A A A

新闻网讯(通讯员吴昊)近日,国际综合性期刊《自然•通讯》(Nature Communications)在线发表了武汉大学计算机学院在量子人工智能理论方面的最新研究成果。论文题为“Transition Role of Entangled Data in Quantum Machine Learning”(《纠缠数据在量子机器学习中的相变行为》)。计算机学院2021级博士研究生王新彪为论文第一作者,罗勇教授为通讯作者,武汉大学为论文第一署名单位和通讯作者单位。

量子纠缠是实现量子计算优势的关键资源。目前,科学家广泛关注如何将量子纠缠整合到量子机器学习模型的各个环节(如纠缠测量和量子演化算子),以期超越传统机器学习模型的性能。相较于同等规模的经典数据,量子纠缠数据因其能够编码更多的信息而备受关注,被认为是实现量子优势的一条有效途径。尽管如此,量子数据的纠缠程度如何具体影响模型性能,仍然是一个尚未解决且颇具挑战性的研究课题。

该研究通过建立量子「没有免费午餐」(no-free-lunch, NFL)定理显式地分析了量子数据纠缠程度、测量次数以及训练数据集规模对量子机器学习模型预测误差的影响。现有研究通常认为量子纠缠有助于提升量子机器学习模型的性能,与之不同的是,该研究首次证明量子数据的纠缠程度对预测误差的影响表现出双重效应,即,量子纠缠是否提升性能取决于允许的测量次数。对于足够数量的测量,增加训练数据的纠缠可以有效地减少预测误差,或减小实现相同预测误差所需的训练数据大小。相反,当允许的测量很少时,使用高度纠缠的数据可能会导致预测误差增加。该研究为设计先进的量子机器学习协议提供了重要指导,特别是对于当前量子计算资源有限的量子计算机而定制的协议。

该研究使用了统计学习理论和信息论的相关工具对量子纠缠数据对模型性能的影响进行了精细化的理论分析,并建立了一种对于量子机器学习模型误差下界的分析范式,为研究其他量子计算问题(如量子过程层析、量子误差缓解等)提供一种新的分析方法。

王新彪自2021年开始进行量子机器学习算法及理论、量子信息论等量子计算领域的研究,相关成果已发表在Quantum、IEEE Transactions on Neural Networks and Learning Systems(TNNLS)、International Conference on Learning Representations(ICLR)等国际著名期刊和会议。罗勇是国家海外高层次青年人才,CCF优博,中国研究生人工智能创新大赛优秀指导教师,发表80余篇高水平论文并多次获得会议最佳论文奖,主持国家自然科学基金区域联合基金(重点)和面上项目。

论文链接:https://www.nature.com/articles/s41467-024-47983-1#Ack1

(编辑:相茹)

最新阅读