半导体零缺陷制造需要数据共享

科技   2024-12-14 09:05   广东  


随着数字技术的普及和高性能芯片短缺的加剧,半导体行业面临着巨大压力,需要制造缺陷率极低的产品,并迅速将优异的创新产品推向市场。所幸的是,目前链条上所产生的大量数据,已经为整个行业最大限度地提高产量、创新和降低成本创造了机会。如今与材料相关的行业参与者都已经知道,需要数据协作来加快总产量、产品/研究和质量。不过,在行业数据协作之前,必须解决如下挑战:

首先,需充分考虑初始投资成本和所需时间,单个公司都不愿意建立一个孤立的生态系统。

其次,由于各公司通常所拥有的数据系统彼此完全不同,故在构建新能力时,进一步延长了学习周期和漫长的融合过程。

最后,如何保护知识产权并确保数据保有者能够对其数据进行完全控制?

对于这些棘手问题,目前尚没有一个合适的解决方案。

协作数据生态系统需求

在原材料中,哪怕是十亿分之几的杂质水平,都可能会影响半导体产品的工艺性能。该行业智库中的一个重要工具就是机器学习,用于理解偏差并构建预测模型,以实现早期检测并能够应对与产能相关的各种挑战。然而,这些算法的有效性如何,还取决于整个制造过程(从供应商到最终产品产出)中数据的完美一致性。因此,为了能够有效利用这些数据,必须对数据进行整合,但这一过程会耗费大量时间,通常需要数月乃至整年。

拥有一个协作的数据生态系统,有助于识别可以自动化的数据关系,因为无论是原材料数据、成品材料数据还是设备工艺数据,都可以相互结合并统一考虑。同样重要的是,根据各特定参数和现场性能,能够优化设备的性能和维护,以导入正确的资源,并最大限度地延长正常运行时间,把成本降至最低。

例如,TEL和美光已经采用了一个开放的数据分析平台,该平台允许半导体行业的参与者就相关信息进行合作。这种半导体生态系统的好处是,所有参与者如今都可以针对材料和设备质量及其对制造工艺的相关影响,提出自己的见解。

此外,他们自己还可以从供应链透明度和可持续性中受益。传统上,每家公司都希望优化自己的流程,当供应链中的各方聚集在一起时,就能够看到数据集之间的交互,从而能够发现那些通常很可能会被掩盖、但确实又能对性能产生不良影响的各种问题。假设有一个全面的数据集可用,通过系统分析,就能够提供显著的时间和资源优势。

生态系统中的参与者如何受益?

通过协作分析,材料供应商能够提高质量,而晶圆厂可提高参与度,协助管理子供应商,并通过整合生产和质量数据,来实现前所未有的透明度,从而实现效率的提升,而所有这些都可以通过整合后的统一界面来实现和利用。

而对于设备制造商来说,可以减少停机时间,减小由质量偏差带来的不良影响,并通过主动识别进行问题溯源,从而实现更严格的质量控制。通过一个统一且安全的平台,可以提供持续的反馈,从而与供应商建立更密切的联系。通过数据整合还可实现预测分析,减少质量偏差,加快上市时间。

另外,通过利用数据分析,设备供应商还可实现预测性养护,从而提高对设备运行的可见性,并提高效率。通过更好的工具适配、设备和工艺参数的共同优化、以及维护计划的优化,来减少停机时间。另外,还能帮助原始设备制造商,实现更快的改进提升。

保护机密信息

当然,半导体行业的机密信息和知识产权保护是至关重要的,但在非敏感数据共享时过于谨慎,则会为关键学习带来不利影响。为确保机密信息不泄露,提供多级控制、安全和可追溯性等方面的能力,是生态系统协作的基础。

数据访问也是一个重大问题,尤其是当数据被纳入共享生态系统后。如果各方不愿意共享原始流程数据,可以在共享之前选择对其进行模糊标准化处理。此外,在生态系统中提供数据的所有者,须对其数据拥有完全控制权。

例如,从事特定流程模块工作的组织参与者,只能访问其分析所需的数据资源集或相关材料供应商数据子集。于是,需要系统具备跟踪功能,对各用户及各项目的数据访问进行跟踪监控,并兼顾特定的运营业务或分析目标。这意味着在生态系统中需提供高度的审计能力。该能力被自然嵌入平台中,在生态系统中,其级别要高于其他各级别的安全策略。对于敏感数据的处理,该平台需确保能够符合各种数据保密规则,例如GDPR以及其他相关法规和标准。处理后的软件能提供一流的安全性、访问控制、分区审计和问责功能,以支持负责任的数据访问和利用。

数据标准化和模糊处理

标准化是任何数据分析工作流中不可或缺的,在协作环境中更为重要。在不同的工艺制造中,各种数据集和变量的大小及单位,都可能存在显著差异。为了找到有意义的关系,并开发出没有量化失真的稳定模型,在可比范围内,有必要对数据进行线性化处理和量化。如果从整个半导体制造产业链以及链的运营性质差异来看,数据集特征之间的差异将更为严重。

图1中展示了一个简化的数据平台示例。该平台可以在供应商和集成设备制造商之间,自动进行适当的数据转换和量化调整。它显示了在经过一系列转换所生成的共享数据集与源自各方的数据流之间的承袭关系。在本例中,先由一个配置文件(config)来定义特定的标准化方案并加以实施,然后再利用编码器功能对列名进行模糊处理。该编码功能生成准备共享的数据集,并加入数据保有方的联合密钥。

图1:Athinia数据变换与量化调节。

有几种数据标准化技术可供选择,包括量化、调节、变量转换、特征创建和排序。表1显示了每种方法的优缺点。

表1:Athinia数据标准化技术。

共同分析以实现更好决策

通过自动数据消化吸收和机器学习,将关键数据整合到一个中心站点,然后可以随着更多信息的添加而不断改进,从而提高产品质量,并减少可能影响产品良率而导致供应链短缺的各种缺陷。生态系统所有参与者都可以利用数据分析、人工智能和机器学习等各种工具的组合,再整合每家公司所拥有的工艺知识和化学知识,获取实施更好商业决策所需的重要信息。业界迫切需要一个这样的统一系统,能够在安全环境中提供各种典型的数据科学工作流程,随后即可在供应基地和设备制造商之间实现标准化。

(参考原文:how-data-sharing-advances-zero-defect-semiconductor-manufacturing)



热点文章推荐

电子工程专辑
中国版创建于1993年,致力于为中国的设计、研发、测试工程师及技术管理社群提供资讯服务。
 最新文章