【论文阅读】ANI-1:an extensible neural network potential with DFT accuracy at force field computational co

文章目录 前言 一、模型架构 二、嵌入 1.原子类型区分 2.角度函数修正 前言 书接上文: 【论文阅读】Generalized Neural-Network Representation of High-Dimensional Pot

文章目录

  • 前言
  • 一、模型架构
  • 二、嵌入
    • 1.原子类型区分
    • 2.角度函数修正


前言

书接上文:

【论文阅读】Generalized Neural-Network Representation of High-Dimensional Potential-Energy Surfaces

在BP势这篇文章发表10年之后,2017年,ANI横空出世,至今仍然是各大榜单上被比较的对象。虽然在机器学习榜单的准确率上,ANI通常是最低的那一个,但如果我们把目标放在速度上,那么ANI这个简单的机器学习势仍然在称霸。从2007年到2017年是机器学习突飞猛进的10年。让我们打开ANI-1: an extensible neural network potential with DFT accuracy at force field computational cost这篇论文,看看2017年的ANI,对BP做出了哪些改进。

一、模型架构

对于一个机器学习模型,第一眼肯定要关注它的模型架构:

ANI模型的特殊之处,或者说相比BP势和之后的一些图神经网络(GNN)模型来说,最大的特点是,他在创建embedding后,对每一种元素用了不同的网络进行预测。当然,这么做有好有坏,好处是可以最大程度利用原子种类信息,坏处是模型会变的复杂,可拓展性会下降。

在这篇文章中,不同于之后的GNN相对复杂的消息传递环节,它使用的中间的NNP部分只是一些简单的线性和非线性的网络。本系列关注的重点是,在进入NNP之前, G ⃗ i u \vec{G}_i^u G iu

发布者:admin,转转请注明出处:http://www.yc00.com/web/1754378410a5153539.html

相关推荐

发表回复

评论列表(0条)

  • 暂无评论

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信