通过机器学习增强高级光源同步加速器的光束性能

时间:2019-11-08 14:00 来源:seo 作者:杏鑫 点击量:

  

通过机器学习增强高级光源同步加速器的光束性能

 

  此图像显示了伯克利实验室的高级光源同步加速器中电子束的轮廓,表示为由电荷耦合器件(CCD)传感器测量的像素。当通过机器学习算法稳定时,光束的水平尺寸尺寸为49微米均方根,垂直尺寸尺寸为48微米均方根。苛刻的实验要求相应的光束大小在小于几秒到几小时的时间范围内保持稳定,以确保可靠的数据。

  加州大学伯克利分校的伯克利实验室大学成功演示了该算法,研究小组表明该技术可能适用于全球的科学光源。

  同步加速器光源是强大的设备,可以通过加速电子以受控光束的方式发出各种“颜色”或波长(从红外线到X射线)的光。

  能源部劳伦斯伯克利国家实验室(Berkeley Lab)的高级光源等同步加速器使科学家可以使用这种光以多种方式探索样品,涉及的领域从材料科学,生物学和化学到物理和环境科学。

  研究人员已经找到了升级这些机器的方法,以产生更强,更聚焦,更一致的光束,从而可以对各种样本类型进行新的,更复杂和详细的研究。

  但是某些光束特性仍然表现出性能波动,这对某些实验提出了挑战。

  解决几十年的问题

  这些同步加速器设备中的许多设备可为数十种同时进行的实验提供不同类型的光。在这些单独的光束线上进行细微调整以增强光束性能可以反馈到整个设施的整体光束性能中。同步加速器的设计者和操作者数十年来一直在努力采用各种方法来补偿这些最顽固的波动。

  现在,伯克利实验室和加州大学伯克利分校的一大批研究人员已经成功地展示了机器学习工具如何通过调整来在很大程度上抵消这些波动,从而将光束波动的幅度降低至一个水平,从而提高实验光束的稳定性。精度从百分之几降至0.4%,亚微米(低于百万分之一米)的精度。

  这些工具在 2019年11月6日发表在《物理评论快报》上的一项研究中进行了详细介绍。

  

通过机器学习增强高级光源同步加速器的光束性能

 

  该图显示了在高级光源操作期间实施神经网络时,垂直光束大小的稳定性如何大大提高。实施所谓的“前馈”校正后,垂直光束尺寸的波动会稳定在从百分之几到百分之几的水平以下(请参见黄色突出显示的部分)。图片来源:劳伦斯·伯克利国家实验室

  机器学习是人工智能的一种形式,其中计算机系统分析一组数据以构建可解决复杂问题的预测程序。ALS所使用的机器学习算法被称为“神经网络”的一种形式,因为它们被设计为以某种类似于人脑功能的方式识别数据中的模式。

  在这项研究中,研究人员将来自ALS的电子束数据(包括用于从电子束产生光的磁性设备的位置)馈送到神经网络中。神经网络识别出该数据中的模式,并确定不同的设备参数如何影响电子束的宽度。机器学习算法还建议调整磁体以优化电子束。

  因为电子束的大小反映了磁体产生的最终光束,所以该算法还优化了用于研究ALS处材料特性的光束。

  解决方案可能会对全球产生影响

  在ALS上的成功演示展示了该技术通常还可以如何应用于其他光源,并且对于通过升级称为ALS-U项目的ALS进行的专门研究特别有益。

  “这就是它的美。”伯克利实验室的一个分支机构西村博史(Hiroshi Nishimura)对杏鑫平台注册登录说,他去年退休,他参与了长期讨论光束尺寸稳定性问题的机器学习解决方案的早期讨论和探索。“无论加速器是什么,无论采用哪种常规解决方案,该解决方案都可以在此之上。”

  ALS总监Steve Kevan说:“对于ALS和ALS-U,这是非常重要的进步。多年来,我们一直在处理X射线显微镜图像中的伪影。这项研究提出了一种基于机器学习的新的前馈方法,并在很大程度上解决了这个问题。”

  ALS-U项目将把光束的狭窄焦点从大约100微米的水平减小到10微米以下,并且对一致,可靠的光束特性也提出了更高的要求。

  机器学习技术建立在自1993年ALS成立以来数十年改进的传统解决方案的基础上,该解决方案依赖于对沿ALS环的磁体的不断调整,以实时补偿各个波束线的调整。

  Nishimura是25年前使ALS上线的团队的一员,他说他大约在四五年前就开始研究机器学习工具在加速器应用中的潜在应用。他的对话延伸到了伯克利实验室和加州大学伯克利分校的计算和加速器专家,大约两年前这个概念开始形成。

  ALS操作期间成功进行测试

  研究人员于今年早些时候在ALS环网的两个不同地点成功测试了该算法。他们提醒ALS用户进行有关新算法测试的实验,并要求他们就任何意外的性能问题提供反馈。

  “我们从今年4月到6月对用户操作进行了一致的测试,” ALS的博士后C. Nathan Melton说,他于2018年加入机器学习团队,并与前加州大学伯克利分校的研究生Shuai Liu紧密合作是这项研究的重要贡献者,并且是该研究的合著者。

  ALS的加速器运营和开发副总裁,机器学习工作的主要研究人员Simon Leemann说:“我们对测试没有任何负面反馈。团队使用的监测光束线之一是不断测量加速器性能的诊断光束线,而另一条光束光束线则是不断进行实验的光束线。” ALS高级科学家兼计算程序负责人Alex Hexemer担任合作伙伴领导开发新工具。

  具有活跃实验的光束线5.3.2.2使用称为扫描透射X射线显微镜或STXM的技术,那里的科学家报告说,实验中的光束性能得到了改善。

  机器学习团队指出,增强的光束性能也非常适合于先进的X射线技术,例如谱图技术,可以将样品的结构分解到纳米级(十亿分之一米)。X射线光子相关光谱法或XPCS,用于研究结构不统一的高浓度材料的快速变化。

  Leemann指出,其他需要可靠的,高度聚焦的恒定强度光束并与样品相互作用的实验也可以从机器学习中受益。

  他说:“随着对样品的较小区域扫描,对实验的要求越来越严格。” “我们必须找到纠正这些缺陷的新方法。”

  他指出,光源界一直在努力解决的核心问题(以及机器学习工具要解决的问题)是光束线源点处垂直电子束大小的波动。

  源点是光源处电子束发射的光,该光传播到特定的束线实验。尽管此时电子束的宽度自然稳定,但其高度(或垂直源尺寸)可能会波动。

  打开人工智能的“黑匣子”

  Leemann说:“这是团队科学的一个很好的例子。”他指出,这项努力克服了人们最初对机器学习增强加速器性能的可行性的怀疑,并打开了这种工具如何产生实际收益的“黑匣子”。 。

  “这不是传统上已成为加速器社区一部分的工具。我们设法将来自两个不同社区的人们聚集在一起,以解决一个非常棘手的问题。”大约有15位伯克利实验室的研究人员参加了这项工作。

  Leemann说:“机器学习从根本上需要两件事:问题必须是可重现的,并且您需要大量的数据。” “我们意识到我们可以使用我们的所有数据,并拥有识别模式的算法。”

  数据显示,由于在各个射束线上进行了调整,电子束性能几乎没有出现斑点,并且该算法找到了一种调整电子束的方法,以使其比传统方法更好地消除了这种影响。

  Leemann说:“问题包括大约35个参数-太复杂了,我们无法自行确定。” “一旦经过训练,神经网络便会做些什么-它为我们提供了一个预测,如果机器根本不采取任何措施对其进行校正,那么机器中的源尺寸会发生什么。

  “该模型中还有一个附加参数,描述了我们对某种类型的磁体进行的更改如何影响该光源的尺寸。” 因此,我们要做的就是选择参数-根据此神经网络预测-得出我们想要创建的光束大小并将其应用于机器,” Leemann补充说。

  Leemann说,以算法为导向的系统现在可以以高达每秒10次的速度进行校正,尽管每秒3次似乎足以改善此阶段的性能。

  寻找新的机器学习应用程序

  机器学习团队于2018年8月获得了美国能源部的两年资助,以与SLAC国家加速器实验室的斯坦福同步加速器辐射光源合作开展该项目和其他机器学习项目。Leemann说:“我们有计划继续进行开发,并且我们还想尝试一些新的机器学习思想。”

  西村说,“人工智能”这个流行词似乎已经流行了很多年,但是,“这一次看起来似乎是真实的。”

当前位置:主页 > 物理知识 >

声明:本文杏鑫娱乐整理不代表个人观点,转载请注明原文,点击还能查看更多的文章;本文网址: http://www.kozbods.com/wuli/117.html

围观: 次 | 责任编辑:杏鑫



回到顶部