AM易道导语

3D打印正在改变制造业,但打印质量问题一直是这项技术的痛点。

AI正在改变人类的生活,但和制造业的关联还很有限。

加州伯克利大学团队 将AI大语言模型背后的核心技术—Transformer架构应用到3D打印质量监控中,取得了值得注意的进展。

研究内容为Nature子刊的《npj Advanced Manufacturing》上发表了研究《Transformer-based approach for printing quality recognition in fused filament fabrication》。

这项技术能实时识别打印缺陷并有望实现自动修复,为增材制造带来类似ChatGPT之于文本生成的革命性变化。

AM易道本文带你了解这项技术如何从根本上解决3D打印质量控制难题。

3D打印的痛点:质量控制为何如此困难?

熔融丝材制造(FFF/FDM)是最常见的3D打印技术,价格实惠、操作简单,但长期被质量问题困扰—层间粘合不良、尺寸不准确、表面缺陷和内部孔洞。

这些问题源于材料特性、工艺参数和环境条件的变化,严重影响打印件的机械强度和质量稳定性。

传统优化方法主要依靠实验设计和试错过程,因为可调参数太多(温度、速度、流量等),这种方法费时费力且效率低下。

更关键的是,很多质量问题来自于局部异常(如层内缺陷或层间剥离),这些微小问题积累后才会导致明显失效。

从问题到解决方案:Transformer技术的全景视图

图1展示了研究团队提出的整体解决方案框架。

这张图非常全面地描绘了从打印问题识别到质量改进的完整循环。

在图的上半部分,我们可以看到打印过程中可能出现的两类典型问题:

内部平面缺陷(如欠挤出和过挤出)和层间缺陷(如翘曲和开裂)。

这些缺陷通过右侧的视觉监控系统被捕捉下来,形成数据集。

图的下半部分则展示了基于Transformer的解决方案流程。

首先,系统使用大量未标记的图像数据进行无监督预训练,建立基础的名为DINOv2模型;

然后,利用特定领域的数据集进行微调,最终得到能够准确分类"良好质量"、"欠挤出"和"过挤出"的精细模型。

这形成了一个闭环系统,将打印质量识别结果反馈给制造过程,实现持续改进。

AM易道认为,这张图不仅展示了技术路线,也揭示了这项研究的价值—建立从异常检测到制造改进的完整反馈机制。

Transformer技术:从语言模型到3D打印的跨域应用

Vision Transformer(ViT)和ChatGPT等大语言模型背后的Transformer技术有着相同的核心机制。

如果AM易道没有遗漏公开信息的认知,这应该是Transformer技术首次被应用到3D打印质量监控领域,具有里程碑意义。

Transformer技术的本质:

AM易道试图解释下,Transformer的核心在于自注意力机制(Self-Attention)。

在大语言模型中,这种机制让AI能理解句子中不同词之间的关系;而在视觉应用中,它让AI能理解图像不同区域之间的关系。

传统的CNN算法处理图像的方式是通过卷积层和池化层从局部到整体逐层提取特征,就像逐步从细节到整体来理解图像。

而Transformer是将图像分割成一系列小块(patches),然后像处理句子中的单词一样处理这些图像块,直接建立不同区域之间的联系。

这种方法在NLP领域推动了ChatGPT等大模型的爆发式发展,现在它也在3D打印领域展现出同样的潜力。

从本质上说,Transformer让AI有了全局视野,能够同时考虑图像中所有区域的信息,而不是被局限在固定大小的感受野中。

图5展示了两种不同的图像处理方法,就像两种不同的看图方式:

图5(a)显示的Vision Transformer(ViT)工作方式:

  1. 首先,ViT把一张完整的图像切成9块小拼图;

  2. 给每块拼图添加位置标签,告诉AI这块在原图的哪个位置;

  3. 然后让所有拼图块互相对话,交换信息(这就是Transformer的核心);

  4. 最后通过一个"决策中心"(MLP头)判断图像属于哪类打印质量。

图5(b)显示的CNN工作方式:

传统的CNN算法像是一个层层过滤的管道系统:

  1. 第一层过滤器寻找简单特征(如边缘、颜色变化)

  2. 中间层结合这些简单特征识别更复杂的形状

  3. 最后通过全连接层做出分类决定

这两种方法最大的区别在于:

CNN是逐步从局部到整体处理信息,像是一个人从细节一点点拼凑全局;

而ViT则让图像的各个部分直接交流,建立起全局联系,就像多个人同时看图像不同部分,然后一起讨论得出结论。

再强调下,在3D打印质量识别中,ViT的这种多点信息直接交流能力,让它能更好地发现打印缺陷特征之间的关联,尤其是当缺陷分布在图像的不同区域时。

自注意力机制:Transformer的超能力

图3展示了研究团队使用Grad-CAM技术可视化CNN和ViT对打印图像的关注区域,这是一组非常直观的对比。

在三种不同的打印状态(良好质量、欠挤出和过挤出)下,左侧是原始图像,中间是CNN的关注热图,右侧是ViT的关注热图。

通过颜色强度我们可以清晰看到,CNN的注意力分布相对模糊且覆盖范围广,难以精确定位关键区域。

而ViT的注意力则更加集中和精确:在良好质量图像中,它关注边界区域;

在欠挤出图像中,它精确定位在出现孔隙的区域;

在过挤出图像中,它聚焦在出现料滴的部分。

这种精准的注意力分配使ViT能够更准确地识别缺陷,就像经验丰富的质检员能一眼看出问题所在。

这也解释了为什么Vision Transformer在3D打印质量识别任务上表现优异。

就像GPT系列模型能理解长文本中相距甚远的概念关联一样,ViT能捕捉图像中相距较远的区域间的关系。

自监督学习:减少对标记数据的依赖

研究团队将ViT与DINOv2(Self-Distillation with No Labels v2)自监督学习框架结合, 这一点在图1中有所体现。

这与大语言模型采用的预训练方法有异曲同工之妙。

在这项研究中,DINOv2使模型能够从大量未标记的打印图像中学习特征,然后将这些特征用于打印质量分类任务的微调。

这种方法显著减轻了标记数据的需求,对于数据收集困难的专业领域尤为重要。

实际上,这与大语言模型的训练路径十分相似:

先在大量未标记数据上进行预训练,再在少量标记数据上进行微调。

小数据集与抗噪能力:真实环境下的表现

图4揭示了ViT和CNN在不同数据规模和噪声条件下的表现差异,这对实际应用至关重要。

图4(a)显示,在小规模数据集(30和90个样本)情况下,ViT明显优于CNN;

随着数据量增加,两种模型的差距逐渐缩小。

图4(b)展示了在引入噪声后的性能对比,差距更加明显:即使在900个样本的大数据集下,ViT的准确率达90.23%,而CNN仅为78.31%

图4(c)直观展示了实验中使用的各种噪声类型,包括亮度、对比度、饱和度、色调、镜像和旋转等操作。

这组对比非常有说服力,证明了ViT在实际应用环境中的鲁棒性优势。

考虑到工业环境中光照变化、相机抖动等干扰因素普遍存在,这种抗干扰能力对于系统的实用性至关重要。

从检测到智能制造:未来展望

这项研究为实时质量监控和智能参数调整奠定了基础。

未来,很显然的是,这种系统有望实现从检测到自动修复的闭环控制。

当检测到欠挤出或过挤出时,系统能自动调整流量率、打印速度和喷嘴温度等参数,实现真正的智能或AI制造。

AM易道认为,这种从大语言模型领域借鉴来的AI算法思路,为3D打印质量控制开辟了新途径。

就像GPT系列模型改变了我们与文本交互的方式,Transformer技术也有望彻底改变增材制造的质量控制范式。

从被动检测到主动预防,从人工判断到AI辅助,智能制造的新时代正在到来。

AM易道结语:AI与3D打印的完美融合

从伯克利实验室走出的这项研究,展示了AI技术跨领域应用的强大潜力。

Transformer架构不仅让机器能够理解人类语言,也让它能看懂3D打印过程中的质量问题。

AM易道认为,这种融合代表了制造业数字化转型的前沿方向。

随着更多来自AI领域的突破性技术被引入制造领域,增材制造将迈向更高的质量稳定性和生产效率。

这不只是一项技术进步,更是制造业思维方式的革新。

从经验驱动到数据驱动,从人工监控到AI赋能。

未来的工厂车间里,AI技术将和3D打印机一起,成为数字制造的核心基础设施。

文章信息:

https://doi.org/10.1038/s44334-025-00025-0

企业合伙人计划:

读者提示:
添加amyidao加入读者交流群(备注加群),
获取原始信源链接或不便发表内容
,并与AM易道同频读者共同探讨3D打印的一切
AM易道建议也读者星标公众号,以便第一时间收到AM易道更新。

免责声明:AM易道与文中提到公司尚不存在任何形式的商业合作、赞助、雇佣等利益关联。AM易道图片视频来自于网络,仅作为辅助阅读之用途,无商业目的。权归原作者所有,如有任何侵权行为,请权利人及时联系,我们将在第一时间删除。本文图片版权归版权方所有,AM易道水印为自动添加,辅助阅读,不代表对该图片拥有版权,如需使用图片,请自行咨询版权相关方。AM易道文章不构成任何投资建议,AM易道不对因使用本文信息而导致的任何直接或间接损失承担责任。