智械腾飞——生成性人工智能(GenAI)为航空业带来潜在的技术变革

文摘   科技   2024-03-20 16:32   上海  



生成式人工智能(GenAI)该如何适应未来的航空领域,他的合规使用之路又在何方?空客英国军用安全及合规主管,英国皇家航空学会会员IRENE RUIZ-GABERNET分享了一些她对这个领域大好前景的看法。


在人工智能的推动下,航空业正处于改革前夜。虽然人的介入还是在创造力,判断力,直觉和行文语境方面不可替代,GenAI还是可以贡献许多宝贵的产出。它可以编写细致的报告,把关于产品的想法转化为独特的设计,在增强生产力和创新方面扮演了催化剂的作用。

 

这项划时代的技术对经济的影响将十分惊人。麦肯锡的锐评“生成式人工智能的经济潜力:生产力的下一个前沿”预计生产力将迎来24.5%至58.5%的大幅提高。这种提升在决策,计划和统筹领域会尤为明显。

 

AI可以在决策流程,计划和任务规划方面运用专业知识,使我们的工作方式产生翻天覆地的变化,并重构职业需求,把人从繁重而重复的脑力劳动中解放出来,让人可以专注于处理战略性的、更紧迫的问题。




Understanding the key concepts

格物致知


GenAI是比广为人知的ChatGPT这类工具更大的概念;延伸到更多AI相关的领域。“生成式”这个前缀点明了他和传统人工智能的不同之处。相较于那些分析或者处理已有内容的人工智能,GenAI更擅长通过学习模仿训练中的一些特质来生成全新的独创内容。简而言之,它在利用AI模型创作原创手工艺品、编纂文字、编程,生成图片、视频等领域展现出了惊人的能力。

 

GenAI还有检索增强型创作(创建聊天机器人)、总结(归纳信息)、内容生成(创建文本)、命名实体识别(从文本中提取关键信息)、洞察力提取(分析非结构化内容以发表见解)和分类(用最少的示例阅读/分类书面输入)这样的能力。其核心是基础模型的概念,类似ChatGPT这样的大型语言模型,通过广泛的数据采集进行自我训练。借此他们能够胜任诸多底层工作。



Benefits over predictive ML

优势项目


和GenAI相比,预测建模机器学习需要仰赖人类监督,受制于高难度,低效和高成本,需要大量人工来建立数据标签。而GenAI独辟蹊径,采用的是自我监督式的学习模式,原本需要人工的工作可以由计算机来完成,所需数据标签甚少,是一种高效自动化的工具。


预测性机器学习在进行每一次创作时都要建立相应的模型,对其进行相应的训练,需要可观的人工干预。


相比之下,GenAI使用的是大量基础的多任务模型,仅需少量训练,甚至无需训练就可以处理大量外部数据。通过指令,我们就可以让模型处理指定任务,再借助其他技术对模型进行微调,就可以赋予其处理专有的企业数据,生成优质的订制内容。




The regulatory landscape

法规展望


如上所述,各个航空领域的决策效率都会因为GenAI这样的神器得到显著提高。不过创新越多,责任越大,有些重要的问题值得商榷。

 

EASA的“人工智能路线图2.0”和“概念论述:首部实用一级和二级机器学习应用指南”从安全角度以及环境保护的角度对AI工具的使用做出了规划,这些至关重要的问题在文件中得到解答,为航空业对AI的应用指明了道路。

 

在EASA基础法规((Regulation (EU) 2018/1139)框架下的所有与安全或者环境相关的AI应用都会受到影响,包括如下几种应用场景:

 

  • 初始及持续适航:适用于型号取证和运行法规规定的系统和设备。


  • 维护:包括了用于计划和实施以及时发现和防止不安全情况出现的工具。


  • 运行:涵盖了用以支持,补充或者替代机组或其他运行人员的任务的系统,设备或者功能。


  • 空中交通管制/空中导航服务:适用于旨在支持,补充或者替代终端用户与空中交通服务相关或不相关的任务的设备。


  • 培训:涵盖了用于检测培训效率或配套组织管理的系统,确保合规性和安全性。


  • 机场:包含用于关键机场运营服务自动化的系统,这些运营服务涵盖诸如识别外来污染物,监测鸟类活动及识别机场或其附近的无人机。


  • 环境保护:包含影响产品生态环境特性的系统或设备。



Trustworthy building blocks

法规基础


EASA为建立AI技术的可信度标准设立了方案,由四个组成部分。


其为每个部分都设立了相应的目标,并给出了标准用以阐明这些目标背后需要达到的预期。

 

第一个部分与欧共体道德准则相关联,是其他三个方面的前提,评估AI在应用,安全,安保和道德方面的特性。这个部分把AI系统分为三个等级,越高级的AI系统意味着用户的主导权越低,AI会更多介入工作。EASA这样的分类方法也和AI应用业界采用的方法保持了一致。

 

第二部分着眼于探究AI系统的训练方法,保证其产出可读的内容。第三部分谈的是AI和人为因素的关系,给出了使用AI时要考虑的人为因素的指导意见。最后第四部分致力于减少AI的安全风险,及时发现其余AI固有的不确定性导致的风险。




Criteria of proportionality

衡量标准


EASA衡量AI系统运用是否达标主要从两个角度出发:


  • AI层面:如前文EASA的标准第一部分中提到的,对AI系统介入工作的程度进行分析。


  • AI系统关键程度层面:如EASA在第二部分指出的,强调保证基于AI的系统产出具有置信度的内容。


鉴于现有的AI系统的关键程度和对其的认知水平,EASA基于其能保证的准确程度来决定AI模型的使用限制。指南中提到:“取决于其在航空领域的关键程度,每个AI系统都需要进行评估分级。(诸如初始和持续适航相关的开发层面的评估或者空管/导航服务软件的评估)”


举个例子,对于初始和持续适航而言,取决于AI应用的失效安全裕度,评估等级可能被定为从灾难级(DAL A)到影响轻微(DAL D)不等。



Risk-based levelling of objectives

风险评级


我们可以把这种基于风险的达标评估用在这个例子上:

 

设想一个可以基于运营人维修方案生成维修计划的AI系统。经过训练这个模型可以分析现有数据,在最合适的时机安排定检。在这种情况下如果其仅用于支持维修方案工程师的分析和决策工作,就可以被分为第一级:人类能力增强。

 

当然,维修计划工程师做决策是一个复杂的过程,要考虑很多因素,比如机队调度,机库位置,获得资源等等。如果这个系统能够综合考虑所有因素,自行安排维修计划,甚至可以把它评为第三级。

 

如果分析其关键性的话,于理可以归为DAL A(A类设计置信度)这一类。这是因为如果AI系统出现问题可能导致检查上的疏漏,日积月累可能会导致灾难性的后果。所以从两方面来说可以对这个系统进行如下评级:

 

  • AI系统层面:第一级 - 该系统仅辅助维修计划工程师分析数据做出判断,比如机队调度,机库机位,资源获取等。

  •  

  • 关键性层面:DAL A - 如果这个系统失效,可能会导致检查上的疏漏,日后可能会产生严重后果。如前文所述EASA相关指导的每一个部分都包含了一系列目标。在申请人自检时,需满足或至少达到每个目标的要求。




EASA roadmap

路线规划



参考业界,院校和其他机构相关意见,EASA也在规划调整时间线。有限的人工智能和机器学习也已经被初步运用于民用飞机的取证工作。

 

大多数从业者致力于在2025年左右实现1级AI(人类能力增强)的运用,计划在2035年实现民用航空领域运用的2级AI(增强自动化)。3A(有监督高阶自动化)级和3B(完全自动化)有望在2035年到2050年之间实用化。

 

航空工业正在变革的风口浪尖之上,AI就是变革的引领者。GenAI作为生产力变革的领跑者,在规模化增强人类创造力方面带来了无限可能。

 

其为航空工业在安全,流畅运行和创造力方面都带来了空前的机遇。而建立对AI系统和科技的幸赖,就是一切的根基。



文章摘自英国皇家航空学会会刊《Aerospace》

2024年3月刊

翻译:王天溢



咨询合作  敬请联系

邮箱: China@aerosociety.com

官网: https://www.aerosociety.com

英国皇家航空学会
航空科技技术交流、航空科普、航空专业人才服务、航空专业展会和论坛、航空工程专业资质。
 最新文章