本文刊发于《现代电影技术》2024年第9期
专家点评
过去一年,生成式人工智能(Generative AI, GenAI)在音视频领域的应用呈现井喷发展态势,特别是今年2月Sora的发布,让人们对GenAI的表现有了极大的信心。当影视人致力于将这一技术应用于专业制作领域时,却发现还存在诸多问题,除了画面细节少、连续性差、角色动作受限等,最大的问题是生成的内容可控性差。如何让GenAI生成的结果能够为创作者所控制,能够听从人的指挥,是GenAI技术必须要解决的问题。《有意义人类控制(MHC)在AI 影视创作中的探索与应用》通过总结团队AI视频生成的经验,结合有意义人类控制(Meaningful Human Control, MHC)概念,对比了三种不同的自动化工具设计思路,选择了人在回路中(Human⁃in⁃the⁃ Loop, HITL)的设计模式来解决可控性问题,总结了目前AI影视创作中模型微调、提示词生成、生成要素控制等几种控制方法,并预期未来会采取多模态控制技术对模型进行精细控制。本文对当前热点的GenAI可控性问题进行了理论分析,并在实践基础上提出了切实可行的解决方案,对于推动AI技术在影视行业进一步落地应用具有很高的参考价值。
——陈军
研究员
北京电影学院影视技术系主任
当前AI工具存在自动化程度过高、人类控制不足造成生成结果可控性差的问题,成为其应用于专业影视创作的主要壁垒。本文通过总结自主视频生成流程“墨池”(Inkstone)设计与应用中的经验,结合人工智能(AI)与自动化领域的有意义人类控制(Meaningful Human Control, MHC)概念,对比了三种不同的自动化工具设计思路,分析了基于MHC的AI影视创作流程和工具开发具体方式,以及目前加强人类控制的若干可行技术路径。研究表明,加强AI训练和生成过程中的MHC,有望在发挥AI工具优势的前提下,对生成内容进行准确控制,从而使创作能够体现艺术家意图,适应专业影视创作需求。
生成式人工智能;有意义人类控制;影视创作;AIGC
1 引言
2022年以来,Transformer和扩散(Diffusion)等生成式人工智能(Generative AI, GenAI)算法的迅速发展,引起了传媒领域尤其是影视行业的高度关注。通过采用文本数据集进行训练,基于Transformer架构的大语言模型(Large Language Model, LLM)能够生成有创意和逻辑的文本,辅助创作者在短时间内构建情节和对话。而扩散模型(Diffusion Model)在影视、动画制作中展现出强大潜力,以Midjourney、Stable Diffusion、FLUX为代表的扩散模型可生成高质量图像,其通过图像数据集的训练,可应用于概念设计、角色设计和场景制作,生成的图像质量已逐渐可媲美传统拍摄和绘制手段。这些文本和图像生成模型不仅在效率和成本上具有显著优势,也为针对用户特征的个性化内容生成提供了前所未有的可能性。
2024年初,融合了Transformer与扩散的Diffusion Transformer(DiT)算法开始在多个相关工具得到应用。Transformer架构拥有处理序列数据尤其是长程依赖关系和复杂结构上的能力,与扩散模型配合有助于减少生成内容瑕疵与错误、提高帧间连贯性。OpenAI Sora、快手可灵、Vidu、Runway Gen⁃3、Dream Machine等基于DiT或类似算法的视频生成模型已日渐成熟。在这些技术的推动下,影视行业正在经历一场深刻的制作范式变革,影视创作流程、制作技术与观众体验正在发生显著变化。
本文将通过分析基于扩散和DiT架构的GenAI视频生成工具中的可控性这一关键因素,探讨GenAI作为影视生产工具的未来发展趋势。
2 AI影视创作的“智能困境”
2.1 人工智能是“创作者”吗
当人们在1956年夏季的达特茅斯会议[1]上提出以“人工智能”来称呼计算机科学的这一新分支时,可能未曾考虑到这一命名可能造成的误解和困惑。在艺术创作领域,“人造的智能”这一术语给人的印象往往是某个人造的智能化主体将取代创作者,这与卢德主义式[2]“新技术将威胁到艺术本身”的焦虑相呼应。
尽管GenAI体现出很多人类智能特征,但人工智能与人类智能仍有诸多关键区别。人类具有直觉、创造力和处理模糊、复杂信息的能力,擅长通过联想和想象产生新的思想、艺术和技术,同时也因个体秉承的独特价值观,从而在决策过程中不可避免地引入情感和伦理因素,这些在艺术创造过程中都至关重要。依赖预先存在的数据和规律,人工智能在处理特定任务时可能在效率和准确性上超越人类,但却缺乏人类艺术家的情感、直觉和创造力。因此在艺术领域,GenAI只能作为自动化程度很高的工具,并不能替代创作者本身。
然而,正如19世纪摄影术对绘画的影响,新技术往往给艺术和媒介带来复杂的影响,其重新定义了创作者的身份,并重构了艺术内容的生产过程。摄影没有取代绘画,而是使绘画摆脱了写实主义束缚,推动了现当代艺术的兴起。新技术对艺术和媒介的影响,往往是由其本身所具备的独特属性所决定并推动形成的。作为全新的影视创作工具,GenAI呈现出与模拟和数字时代的摄影机、剪辑机、视频处理软件、数字特效软件不同的特征:创作过程的高度自动化和创作结果的不可预料性。
2.2 自动化和不可预料的影视创作工具
与以往的影视创作软硬件不同,GenAI影视工具依赖人类创作的数据集。GenAI通过从现有媒介内容中提取信息、学习规律,再通过提示词、外部图像等方式引导生成新内容。这一自动化创作过程的两个关键环节——训练与生成,很大一部分工作都是在对数据进行压缩的潜在空间(Latent Space)中进行的。按照GenAI的基本模式,我们无法直接读取、控制潜在空间数据,只能通过间接方式进行影响。而这种间接的控制方式,造成了目前GenAI作为创作工具时两个重要特征倾向。
(1)自动化与“罐装”美学
使用传统艺术创作工具的创作过程往往强调创作者对材料的直接操控,如在绘画、雕塑或音乐演奏时,创作者直接参与相关作品的完成过程,因此作品较容易识别创作者的意图和风格。即便是采用电影摄影机等机器介入创作,创作者也会要求对场面调度、光线布置、摄影机参数设置和运镜进行全面控制。而我们通常也认为,作品中呈现的“艺术家意图”越强烈,作品的艺术价值也就越值得重视。
GenAI显然与这些创作工具非常不同。通过对已有的特定艺术作品组成的数据集进行学习,GenAI模型本身就具备了相当强烈的倾向性或特定的美学特征。例如诸多图像、视频生成模型主要采用摄影作品作为训练数据集,生成结果往往以照片写实感作为主要追求,呈现出一种超写实主义的美学风格。
这种不由艺术家控制的在“出厂”时便被“罐装”好的美学特征,往往成为使用GenAI作为艺术创作工具的争议焦点。正如Manovich等[3]所言,“人工智能与美学的相遇至关重要,因为美学被认为是一个典型的人类领域”。GenAI在照相机、电影摄影机、计算机图形软件、数字音乐软件的基础上更进一步,是对人类美学技能的深化和增强。
麦克卢汉提出媒体是人类感官的延伸[4],GenAI则是对人类和其所处世界交互能力的增强。这种增强当前看来很多时候是以放弃人类作为创作者对作品美学的部分控制权为代价的,这也是下文我们讨论有意义人类控制(MHC)的出发点之一。
(2)不可预料的“抽卡”创作
使用GenAI视频生成工具的过程与传统艺术创作正相悖。对艺术家而言,预先训练好的模型是难以控制的“黑箱”。艺术家只能有限地控制黑箱的输入端,输出端的成果已是完成品。这一创作过程的随机性,被众多GenAI工具使用者称为“抽卡”。
显然,GenAI内容创作过程的不可预料性,不但与传统影视创作工具的使用方式大相径庭,也成为目前GenAI工具在影视行业中应用的主要瓶颈。如果每次生成的结果都需要“抽卡”,那么作品的视听元素很难做到风格统一和细节连贯,而GenAI工具很难用作更复杂叙事性影视作品的创作手段。
基于应用GenAI创作的自动化和不可预料性,Epstein等[5]指出,使用生成式人工智能系统的人工智能艺术家必须找到将创作意图注入创作过程的方法,以实现对艺术作品更有效的控制。Epstein提出,艺术家可以控制训练数据的选择、精心设计提示词,或只是将GenAI生成的作品用于下游创作环节而不是作为成品。因此,若要实现GenAI在专业领域的进一步应用,加强人类控制是至关重要的因素。
3 AI内容创作与有意义人类控制(MHC)
3.1 有意义人类控制(MHC)
有意义人类控制(Meaningful Human Control,MHC)首先在军事相关领域被提出[6],其意味着人类需控制打击目标的选择与攻击行为。根据英国非政府组织 Article 36[7]观点,MHC“意味着武器在何时、何地以及如何使用,针对什么或谁使用以及使用的效果”。这一观点认为,在战争中人类应对武器的单个攻击进行控制,而不是仅对总体行动进行控制。只有在确保MHC的前提下,自动化系统的可靠性、安全性才能被保障,同时这也能确保人工智能不违反人类社会伦理的底线。
随着AI的发展,关于MHC的讨论不再局限于军事领域[8]。2023年以来,基于LLM的智能体(AI Agents)迅速发展。对这类自主性更强的AI应用而言,MHC至关重要。在其他一些涉及人类权益和安全且不容有失的场景下,如自动驾驶汽车、手术机器人、智能家居系统、医疗诊断以及社交媒体中的内容审核,MHC也已成为相关AI系统设计的重要考量指标。
欧盟委员会人工智能高级专家组的报告《可信赖的人工智能的伦理准则》[9],将人类能动性与监督作为可信赖AI系统的基本原则之一。报告认为,AI系统的设计应赋予人类做出决策的权力,并首次提出了三种人与AI的关系机制。我们可借用这三种机制的概念,将其理解为MHC的三种基本模式。
(1)人在回路中(Human⁃in⁃the⁃Loop, HITL)
HITL是指人类在AI系统的每个决策周期中进行干预的模式。在这种模式下,人类在整个操作过程中发挥着不可或缺的作用,影响着系统的每个决策周期。在动态、高度复杂或不确定环境中,HITL是最为可取且常常是十分必要的。然而,决策周期的每个步骤都需要人类输入,这也可能导致系统效率低下。同时,HITL对人类提出了更高要求,人类必须具备足够的知识储备和较高的技能水平。
(2)人在回路上(Human⁃on⁃the⁃Loop, HOTL)
HOTL 是指人类在AI系统设计周期过程中干预并监测系统运行的模式。在这种模式下,人类会在操作执行过程中退后一步,只承担监督的角色,仅在必要时通过局部干预来影响系统。在此模式下,单一人类监督员可监督多个系统,从而使效率大大提高。因系统自动化程度更高,人类监督员并不必须具备很高的知识水平和技能水平。但在HOTL系统中,如果人类对系统没有合理的信任期望,无论是过度信任而很少干预,还是不信任而过于频繁地干预,都会拖累系统性能。
(3)人指挥(Human⁃In⁃Command, HIC)
HIC 是指人类仅仅监督AI系统整体活动(包括广泛的经济、社会、法律和伦理影响),以及决定何时、如何使用该系统的模式。例如,车辆驾驶辅助系统检测到即将发生的碰撞威胁后,及时接管车辆以避免人类错误操作或因反应缓慢未能及时干预导致的事故。在这种情形下,人类被排除在控制回路之外。但MHC依然存在,因为在何种条件下由AI系统进行该决策,依然是由系统的人类设计者决定。
3.2 人在回路中(HITL)与GenAI创作
如上文所述,GenAI作为专业影视创作工具的主要障碍,在于其自动化程度过高、生成结果不可准确预判。从MHC的角度考察,这是因为目前的GenAI工具大多出于商业目的考量,其首要考虑不具备专业知识和技能的普通用户需求,多采取人在回路上(HOTL)的产品设计思路,即人类只能进行有限控制。
在这种HOTL模式下,生成内容的具体风格首先被数据集选择、数据预处理、训练等阶段“罐装”。生成过程中,用户如只通过简单的提示词(Prompt)这类不精确、缺乏细节的方式来控制生成结果,对文本生成的聊天机器人(ChatBot)而言可能基本足够,但对于图片、视频和音频生成而言却较理想状态差距巨大。人类自然语言中描述视觉、听觉和运动方面的词汇本就相对匮乏,例如人类肉眼可辨识的色彩高达上百万种,但大多数语种描述色彩的常用词汇只有几十种,最多也不过几百种。正因为可控因素有限,目前诸多使用GenAI工具生成的视频风格千篇一律,缺乏画面细节和运动细节,多数镜头的运动速度太慢或太快,给人以“活动幻灯片”的劣质感。
我们认为,专业领域的GenAI工具采取人在回路中(HITL)的设计模式更为合理。除提示词工程外,应增加以下操作:(1)模型训练阶段的数据选择、数据处理以及对模型的微调;(2)生成过程中通过图像、视频和角色动作的输入,对画面元素进行更精细的控制;(3)采用风格参考、关键帧等方式,对生成内容的风格进行限制;(4)对生成结果进行人为选择和编辑。
图1 人在回路中(HITL)的GenAI创作模式
2023年2月,笔者团队开始进行自主视频生成流程“墨池”(Inkstone)的设计和模型训练。我们以HITL模式为主导,强调艺术家与GenAI模型间的交互,突出创作者对训练、生成全过程控制的设计思路,以生成具有特定画面风格、角色表演细腻、画面元素连贯的AI动画。我们通过谨慎选择数据集、基础模型与微调模型混合使用、生成过程采用ControlNet等方式对画面细节进行控制,并对生成结果进行人为选择和局部优化,于2023年8月完成了首部水墨风格AIGC动画短片《龙门》,目前该作品已在十余个国际电影节、动画节中入围和获奖[10]。
图2 《龙门》剧照
4 目前AI影视创作中几种有效MHC
本文认为,虽然GenAI的原理决定了AI影视创作工具与以往模拟、数字影视创作工具均有所不同,但AI影视创作工具在某种程度上依然是“黑箱”,人类很难监视潜在空间中的模型数据本身,也无法对潜在空间中进行的生成实现完全控制。然而,通过综合手段对MHC进行强化,在训练、生成多环节加强人类艺术家的控制,我们仍可对AI生成内容产生足够的控制,同时保留相当的自动化属性,从而达到人机共创的良性平衡,既能避免将人类艺术家的时间浪费在创作中必然存在的大量重复性劳动上,又能避免过度强调自动化而丧失人类艺术家对作品的主导性。
从目前GenAI创作工具的发展上,我们也可看到类似趋势。如早期版本的Midjourney图片生成工具只有通过提示词控制一种途径,经过迭代,逐渐拥有了局部重绘(Inpaint)、风格参考(Sref)等多种更精细且有效的画面控制手段[11]。GenAI仍在迅速发展,几乎每个月都有新技术新工具出现,其中相当一部分是针对加强人类控制开发的。迄今,已有多种有效控制手段得到广泛应用。它们虽与传统数字影视软件控制方式大相径庭,但通过综合使用,已能达到相当理想的效果。
4.1 模型微调
目前主流GenAI模型的规模在不断扩大,例如2024年7月推出的FLUX.1已达到120亿参数级别[12]。此规模的模型,已很难由掌握数据、算力资源有限的个人或小型团队自主训练。然而,基于大模型的微调模型训练,却能在很大程度上解决大模型“罐装”输出风格的问题。
低秩矩阵适应模型(Low Ranking Adaptation, LoRA)是目前最常用的用于降低大规模预训练模型微调成本的技术[13]。通过引入少量可训练参数,LoRA可显著减少训练过程中需要调整的参数数量,从而加快训练速度,并降低计算资源的需求。LoRA的基本思想是通过低秩矩阵分解以减少模型训练中的参数量。在深度学习模型中,通常需要对权重矩阵进行大规模调整。LoRA假设这些权重矩阵可用两个低秩矩阵的乘积来近似表示,从而仅需训练这两个低秩矩阵的参数,而不需要对原始的权重矩阵进行完全更新。
根据创作项目中的具体需要,训练一个或多个LoRA模型,对大模型进行多维度微调,是目前AI影视创作中最主要控制手段之一。风格化LoRA的训练被俗称为“炼丹”,也是目前在线开源GenAI社区用户最主要的分享内容之一。
4.2 提示词生成
GenAI工具生成的画面元素越复杂、控制越精细,对应的提示词也就相应地需要更加复杂。如果提示词过短,生成内容则会在很大程度上依赖模型最主要的风格趋势。在文生图、文生视频时,撰写上百词以上的提示词也并不罕见。
解决这一问题可采用LLM制作提示词生成工具,例如可用ChatGPT自定义提示词生成的GPTs,或通过对LLM微调的方式制作通过选项、交谈以生成提示词的专门工具。
OpenAI的DALL⁃E 3和Sora中,就已包括了专门的提示词生成模型。通过训练描述性更高的标题生成模型,DALL⁃E 3和Sora可将用户简短自然语言风格的提示词,转换为更长、更详细的提示词,发送给图片和视频模型,从而整体提升生成品质。
4.3 生成要素控制
另一种对GenAI生成内容进行精细控制的方式是让图片、视频模型参考输入的图片和视频进行生成。以下为目前相对成熟且已广泛应用的技术。
(1)ControlNet
ControlNet是与扩散模型配合使用,用于增强生成模型控制能力的技术。ControlNet的原理是通过引入额外条件控制,例如人体姿势、轮廓线、深度图、纹理等,使生成模型能够更加精确地控制生成图像、视频的特定方面或细节。在训练环节,ControlNet会学习如何将控制条件信息与生成过程结合;在生成环节,扩散模型负责从噪声中生成图像,而ControlNet则提供额外的控制信号并引导生成,使其不仅仅依赖于随机性。
(2)Inpaint
Inpaint是在扩散模型中修复或替换图像特定部分的技术,其根据用户标记范围,生成图像中缺失或替换标记部分,最终重新生成的图像需要没有任何修复痕迹。用户首先使用Inpaint工具标记图像中需要修改或替换的区域;再由扩散模型分析标记区域周围的像素信息和图像内容,以保证后续生成内容与周围像素在颜色、纹理、光影等方面保持一致。分析完成后,扩散模型重新对标记区域的新内容进行生成和填充,也可进一步对整个图像进行边缘微调、细节匹配等处理,从而确保整体效果完全一致。
(3)AnimateDiff
AnimateDiff是基于扩散模型的动画生成技术,旨在从静态图像生成流畅的动画序列。AnimateDiff基于扩散模型基础生成能力,引入时间维度约束,使生成的视频不仅符合前后帧连贯性,还能在整体上保持高质量和视觉一致性。
4.4 风格参考
风格参考是指在生成图像时使用已有特定图像作为参考,以影响生成图像风格、色调、构图或整体美感。通过提供参考图片,模型可更好地理解用户希望图像呈现的视觉效果。风格参考对那些想要在生成的图像中实现特定视觉效果或风格一致性的创作者而言非常有用。Midjourney的sref功能或基于Stable Diffusion的IP⁃Adaptor,都可用风格参考对图像进行控制。
5 结论
GenAI的原理决定了其相较于传统影视内容制作方式自动化程度更高、随机性更强。其高效便捷是以剥夺人类对艺术作品创作过程的部分控制为代价,而目前在专业领域的GenAI技术应用瓶颈,很大程度上正是由于其可控性的不足。
有意义人类控制(MHC)为我们提供了一个新的思考角度,即如何在发挥GenAI优势的前提下,进一步通过各种方式实现对生成结果的精细控制,最终决定了GenAI技术会在何种程度上取代传统的数字创作工具。目前已有基于扩散模型的多种技术能够逐渐使GenAI的生成过程更多以人在回路中(HITL)的方式进行,但还远远不够。
公开提供服务的GenAI模型更新迅速,参数量直线上升,基础模型训练的门槛已被大大提高,越来越明显的马太效应让大多数用户集中于对少数模型的应用。这些巨量参数的模型在追求泛化能力的同时,必然会造成生成过程中人类参与度降低、随机性增加。而影视创作专业领域对工具的要求即是可控、精确和连贯,两者间的矛盾阻碍了AI工具在专业领域的大面积应用。我们认为,有效的方式并非控制泛化能力,过拟合同样会造成工具可用性的降低。正确的方式应该是通过MHC,开发多模态控制技术,对模型采取综合手段的精细控制。我们相信,这将是下一阶段GenAI在具体影视制作场景中达到实用水平的关键。
参考文献
(向下滑动阅读)
[1] 尼克. 人工智能的起源:六十年前,一场会议决定了今天的人机大战[EB/OL].(2016⁃03⁃13)[2024⁃08⁃28]. https://www.thepaper.cn/newsDetail_forward_1442982.
[2] 谢榕.从卢德工人、新卢德派到数字工人——技术批判的建构主义思路探析[J].自然辩证法通讯,2022,44(04):80⁃89.DOI:10.15994/j.1000⁃0763.2022.04.008.
[3] Manovich L, Arielli E. Artificial Aesthetics: A Critical Guide to AI, Media and Design (2022)[EB/OL]. [2024⁃08⁃28]. https://www.academia.edu/68603992/Artificial_Aesthetics_A_Critical_Guide_to_AI_Media_and_Design_Chapter_2_Lev_Manovich_Who_is_an_artist_in_AI_era_.
[4] 马歇尔·麦克卢汉. 理解媒介:论人的延伸[M]. 何道宽,译. 江苏:译林出版社,2019.
[5] Epstein Z, Hertzmann A, Herman L, et al. Art and the science of generative AI: A deeper dive[EB/OL].(2023⁃06⁃07)[2024⁃08⁃28]. http://arxiv.org/pdf/2306.04141.
[6] Santoni de Sio F, Van den Hoven J. Meaningful human control over autonomous systems: A philosophical account[J]. Frontiers in Robotics and AI, 2018, 5: 15.
[7] Article 36.Killing by Machine: Key Issues for Understanding Meaningful Human Control[EB/OL]. [2024⁃08⁃23].https://article36.org/wp-content/uploads/2013/06/KILLING_BY_MACHINE_6.4.15.pdf.
[8] Cavalcante Siebert L, Lupetti M L, Aizenberg E, et al. Meaningful human control: actionable properties for AI system development[J]. AI and Ethics, 2023, 3(1): 241‐255.
[9] European Commission High⁃Level Expert Group on AI. Ethics guidelines for trustworthy AI[EB/OL].(2024⁃04⁃08)[2024⁃08⁃23].https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai.
[10] 新华社. AIGC水墨动画《龙门》探索人工智能时代“武侠+水墨”创新表达[EB/OL].(2023⁃12⁃22)[2024⁃08⁃23].https://www.163.com/dy/article/IMJIRNDT05346RC6.html.
[11] 奥创光年. Midjourney“局部重绘”功能上线,仅用一年AI绘画进步神速![EB/OL].(2023⁃09⁃13)[2024⁃08⁃28]. https://www.sohu.com/a/719555461_121725984.
[12] deephub. Stable Diffusion 原班人马逆天新作 FLUX.1 :120亿参数的开源AI图像生成模型[EB/OL].(2024⁃08⁃03)[2004⁃08⁃28].https://new.qq.com/rain/a/20240803A02SC400?suid=&media_id=.
[13] Hu E J , Shen Y , Wallis P ,et al.LoRA: Low‐Rank Adaptation of Large Language Models[EB/OL]. (2021⁃1016)[2024‐08‐28]. http://arxiv.org/pdf/2106.09685.
[14] 胡正荣,樊子塽.历史、变革与赋能:AIGC与全媒体传播体系的构建[J].科技与出版,2023(08):5⁃13.DOI:10.16510/j.cnki.kjycb.2023.08.004.
[15] 曾白凌.“被中介的真理”:Sora对媒介相合性的追问[J].现代传播(中国传媒大学学报),2024,46(05):1⁃10.DOI:10.19997/j.cnki.xdcb.2024.05.001.
[16] 王祚.AIGC的侵权问题探析及对策——以AI绘画为例[J].当代动画,2024(01):99⁃105.
[17] 张娟.应用·影响·人才:人工智能技术介入动画创作的观察与思考[J].当代动画,2023(04):4⁃8.
[18] 孟可.AI,电影,AI电影及关于未来的探讨[J].当代电影,2024(05):4⁃13.
[19] 赵益.算法生成与权力博弈——海外AIGC研究视野观察[J].当代电影,2023(08):22⁃30.
[20] 沈浩,卢伟.影视行业中的生成式人工智能:机遇与挑战[J].现代电影技术,2023(06):10⁃16.
主管单位:国家电影局
主办单位:电影技术质量检测所
标准国际刊号:ISSN 1673-3215
国内统一刊号:CN 11-5336/TB
投稿系统:ampt.crifst.ac.cn
官方网站:www.crifst.ac.cn
广告合作:010-63245082
期刊发行:010-63245081