文章目录
- 前言
- 一、模型架构
- 二、嵌入
-
- 1.原子类型区分
- 2.角度函数修正
前言
书接上文:
【论文阅读】Generalized Neural-Network Representation of High-Dimensional Potential-Energy Surfaces
在BP势这篇文章发表10年之后,2017年,ANI横空出世,至今仍然是各大榜单上被比较的对象。虽然在机器学习榜单的准确率上,ANI通常是最低的那一个,但如果我们把目标放在速度上,那么ANI这个简单的机器学习势仍然在称霸。从2007年到2017年是机器学习突飞猛进的10年。让我们打开ANI-1: an extensible neural network potential with DFT accuracy at force field computational cost这篇论文,看看2017年的ANI,对BP做出了哪些改进。
一、模型架构
对于一个机器学习模型,第一眼肯定要关注它的模型架构:
ANI模型的特殊之处,或者说相比BP势和之后的一些图神经网络(GNN)模型来说,最大的特点是,他在创建embedding后,对每一种元素用了不同的网络进行预测。当然,这么做有好有坏,好处是可以最大程度利用原子种类信息,坏处是模型会变的复杂,可拓展性会下降。
在这篇文章中,不同于之后的GNN相对复杂的消息传递环节,它使用的中间的NNP部分只是一些简单的线性和非线性的网络。本系列关注的重点是,在进入NNP之前, G ⃗ i u \vec{G}_i^u G
发布者:admin,转转请注明出处:http://www.yc00.com/web/1754378410a5153539.html
评论列表(0条)