当期荐读 2024年第2期 | Reaction视频中用户弹幕信息交互行为的情感反应生成机理研究

学术   2024-05-24 16:59   湖北  

图源 | Internet


叶许婕1 赵宇翔1 张妍2 李金昊3 Preben Hansen4

1.南京理工大学经济管理学院,南京,210094;

2.南京大学数据智能与交叉创新实验室,南京,210023; 

3.香港城市大学商学院,香港,999077; 

4.斯德哥尔摩大学计算机与系统科学系,斯德哥尔摩, SE-10691





摘 要



深入挖掘Reaction视频中弹幕信息交互行为的情感反应机理有助于理解用户弹幕创作背后的情感生成原因及情感变化过程。本文基于情感反应模型,利用定向内容分析法对哔哩哔哩网站中11个热门视频的弹幕信息资源、视频内容以及reactor反应情况展开编码研究,构建了Reaction视频中用户弹幕信息交互行为的情感反应生成机理模型。研究发现,Reaction视频弹幕信息交互行为中的情感反应生成机理总体上遵循“信息刺激-情感反应”的路径,信息刺激有时会独立唤醒情绪或特定情感态度,有时也会通过唤醒特定情感态度进而影响情绪或内化情感态度的生成。该模型有助于提升情感反应理论在计算机协助交流中的情境化探索,也将为社交媒体中用户与信息交互提供优化建议。


关键词


Reaction视频 弹幕 用户信息交互 情感反应模型 定向内容分析


引用格式

叶许婕,赵宇翔,张妍,等.Reaction视频中用户弹幕信息交互行为的情感反应生成机理研究[J].信息资源管理学报,2024,14(2):104-120.



01

  引言

Reaction视频是近年来在互联网上流行的一种新型视频类型。这类短视频以手机或相机作为拍摄工具,记录自己或他人在观看某些特定事物(件)时所表现出来的各种反应。弹幕,原指一种电脑上的射击游戏,可以将其理解为“字幕像子弹一样飞”[1]。弹幕功能加速了视频网站的发展,提升了用户的参与度与活跃度,为计算机协助交流过程中的用户与信息的交互带来了新机遇。Reaction视频这一新兴媒介既可以将视频创作者与内容整合于一体,又可以轻易区分开来,并且Re-action视频的用户在产生弹幕信息交互行为时,不仅受到原视频内容的影响,还会受到Reaction内容(包括reactor表情及其评论话语)的刺激,因此,Reaction视频弹幕信息交互行为的生成机制具有二象性,即原生内容和次生内容经由弹幕创作而互相增益的特点[2],这也在一定程度上让这类信息交互行为中情感的生成兼具多重性和复杂性。

情感是Reaction视频弹幕用户个体的重要组成部分,情感对反应、认知、社会判断产生影响,并且影响着各种信息行为[3-4]。情感反应是一个介于个体和刺激之间的各种情感概念的总称,包括情绪和态度等[5]。由于Reaction视频具备强烈的情感特性,即该类视频重在情感的传递,而非严谨的内容逻辑[6],因此,该类视频具备明显的娱乐属性,并且其中丰富的情感能量也会让观众产生大量情感反应[7]。弹幕具备的即时性、参与性、交互性和反馈性特征[8],使得用户可以通过这种交互方式针对视频内容进行即时性的情绪分享以及情感态度交流[9],因此,弹幕信息交互中包含了大量用户情感反应。考虑到Reaction视频的情感特性以及弹幕中包含的大量用户情感交互内容,本文基于弹幕,对Reaction视频中的用户情感反应生成机理进行探索。

目前,针对弹幕中情感的研究,往往将情感理解为狭义的用户主观情绪[10-14],忽视了个体发送弹幕时可能涌现的思考过程,并未对弹幕中体现各种情感反应进行细粒度区分,也缺乏对它们生成机理的探索。深入挖掘Reaction视频中弹幕信息交互行为的用户情感,有助于理解其中的各种情感反应及其成因,并且能进一步为理解用户的情感反应机理提供理论支撑。计算机媒介交流(Computer Mediated Communication, CMC)和面对面(Face-to-Face, FTF)交流是两种常见的用户情感交流方式,由于它们在社会临场感和可见性方面存在较大差异[15-16],因此这两种社交方式中用户的情感表达大有不同,现有研究表明,在计算机媒介交流中,用户间的情感反应交流比面对面交流时更频繁且更清晰[16]。弹幕是一种典型的基于文本的计算机媒介交流(Text-Based CMC,TCMC)形式[17],因此,本文基于弹幕对Reaction视频用户的情感反应生成机理的探索,可以帮助理解Reaction视频这种新兴数字媒体中,哪些内容能够有效激发用户的情感反应并促使用户参与信息互动,进而为Reaction视频制作者更好地设计视频内容和互动形式提供参考,对计算机媒介交流中社交媒体信息资源的设计和使用产生重要意义。

Zhang[5]提出了信息通信技术(Information and Communication Technology,ICT)背景下的情感反应模型(Affective Response Model,ARM)。该模型对信息系统设计中的情感概念以及概念间的关联进行解读,并构建出“情感前因-ICT交互中的情感反应”双层框架。基于ARM框架,可以从宏观层面构建Reaction视频中用户弹幕信息交互行为的情感反应生成机理,将用户的各类情感反应归结为情感前因的差异。然而,该元理论侧重于泛在ICT背景下的普适性描述,并未对个体在特定情境下的情感反应过程进行针对性解析。因此,本研究将基于ARM框架,采用定向内容分析法针对 Reaction视频中用户弹幕信息交互行为的情感反应生成机理进行探索,有助于理解弹幕这种新型的用户信息交互方式,也将为社交媒体信息资源的设计和使用提供建议。



02

 研究综述

2.1 Reaction视频的相关研究

Reaction视频是一种依赖于高度紧张的情绪反应的具有感知真实性的用户生成内容,通常记录人们观看屏幕媒体时的表情和声音[6]。这类视频具备强烈的情感特性,即该类视频重在情感的传递,而非严谨的内容逻辑[6],因此,该类视频具备明显的娱乐属性并且具有丰富的情感能量[7]。目前国内外对于Reaction视频的研究还处于起步阶段。部分学者从Reaction视频本身的内容特征角度进行研究,例如,方俊等[18]通过分析BBC“蛋炒饭”相关Reaction视频,对其中折射出的跨文化目光机制进行探究;王丹丹[19]认为Reaction视频内容展现出了大众话语的日常生活化以及小众审美的多元表达。此外,也有部分研究从Reaction视频用户的参与行为视角展开[20-21],其中,部分学者对Reaction视频用户的观看及创作动机进行了探究,例如,Anderson[22]认为,观众观看Reaction视频是为了从中替代性地重新获得经验;Magoncia[23]采用参与者观察法对YouTube中不同视角的Reaction视频进行分析记录,得出粉丝创作Reaction视频的动机主要是为了建构自身的职业生涯,获取认可,分享知识。与此同时,也有少数学者对Reaction视频中用户的弹幕评论参与行为进行了探究,例如,叶许婕等[2]基于CAPS理论,采用扎根理论方法,通过分析Reaction视频的弹幕评论文本,对用户弹幕评论行为的生成机制进行探索。

综上所述,随着Reaction视频内容的丰富,相关研究也逐渐涌现,但是在研究对象的选取上,往往侧重于Reaction视频内容特征及用户观看或创作动机的研究,并未针对其情感特性进行深入探索。

2.2 弹幕信息交互行为研究

弹幕信息交互行为是指视频用户将即时性的情感和观点发送到视频上,形成大量类似子弹瀑布形式的信息交互活动[24]。目前国内外针对弹幕信息交互行为的研究主要聚焦于用户参与的动机和情感两个方面[25-32]。针对用户弹幕信息交互行为动机的研究发现,用户参与弹幕信息交互的驱动因素以娱乐、社交以及信息需求为主。例如,仝冲等[33]使用内容分析法对弹幕样本进行分析发现,用户的弹幕使用动机主要包括信息需求、娱乐需求以及社交增强需求三类;Li等[34]通过访谈法,基于使用满足理论发现,用户在游戏直播中的弹幕评论行为受到社会展示以及信息共享两种动机的显著影响;Zhao等[35]通过德尔菲法以及访谈法,从游戏化设计的视角对弹幕视频网站中用户信息交互行为的核心驱动因素进行探究;邓昕[36]从互动仪式链视角对用户的弹幕信息交互行为进行解析得出,其动机源于数字原住民的社交需求,并且这种需求中包含了用户获取情感体验的需要。

在明确用户弹幕信息交互行为驱动因素的基础上,研究者也对其中具体行为的动机展开了探索。例如,王贇芝等[37]通过半结构化访谈法,利用扎根理论构建出用户弹幕信息交互中的从众信息评论行为驱动因素理论模型。此外,弹幕的即时性、参与性、交互性和反馈性特征[8],也使得用户可以通过这种交互方式针对视频内容进行即时性的情绪分享以及情感态度交流[9],目前,部分学者利用自然语言处理或文本挖掘的方法对弹幕评论中的情感极性以及情感强度进行分析[10-14]。例如,王敏等[38]基于情感词典对视频弹幕与字幕进行情感强度和情感极性的分析和比较发现,弹幕的情感强度普遍高于字幕;陈忆金等[39]基于情感词典的文本分析方法,对弹幕中的情感极性进行正向和负向的二元划分,研究发现,两种情感极性的弹幕在表达方式上存在较大差异;Yin等[40]通过词嵌入以及词共现相结合的方式进行细粒度情感词典的构建,将情感分为乐、好、哀、怒、惧、惊、恶七种,并基于该词典对弹幕情感强度进行计算。总的来说,关于弹幕信息交互行为的研究更多聚焦于其动因探索,部分针对其中情感的探索,缺乏对不同情感反应的细粒度区分和阐述,也缺乏对弹幕信息交互中用户情感反应的成因及过程的系统阐述。



03

研究设计

3.1 理论基础

情感是一系列包括情绪、心情和态度等具体概念在内的概念的总称[41-42]。情感作为个体的一种基本特质,影响着个体的本能、感知、认知、社会判断,并且会影响各种行为[3]。个体的核心情感可以分为两个维度:特质情感和状态情感[43]。特质情感是在没有刺激的情况下,具有持续性和稳定性的特定类型的主观感受[44-45]。状态情感是由一定刺激引起的,具备情境性和暂时性特征的心理状态[41]。换句话说,特质情感是根植于个体的内生属性,而状态情感是由外部刺激引发的,会随外部情境的改变而变化。目前大量研究表明,情感可以解释个体在认知和行为中的大量差异,并且在某些情况下,情感甚至比认知具备更强的解释性[46-51]

情感作为理解用户与信息通信技术(ICT)交互过程中的决定行为的关键因素,在信息系统学科已被广泛研究[52]。Zhang[5]提出了ARM理论,用于识别用户与ICT交互过程中所包含的情感概念以及这些情感概念间如何关联或相互作用。根据ARM理论,在ICT背景下,用户的情感反应模型由情感前因和ICT交互中的情感反应两部分构成。情感前因包含个体特性和ICT刺激两类,ICT交互过程中的情感反应则包含情绪、特定情感态度以及内化情感态度三个维度,这三种情感反应在情感前因的刺激下生成,并相互影响。ARM理论中涉及的各情感概念及其定义如表1所示。在该模型中,以个体性格、心情为代表的特质情感作为个体特征的一部分,存在于情感前因中,而由刺激引发的状态情感在各种情感反应中得到体现。

表1 ARM理论的核心概念及界定

ARM从情感前因和情感反应两个维度对ICT交互中的用户情感反应机理进行了构建。在Reaction视频中,用户弹幕信息交互行为中情感反应的生成源于信息刺激的影响,在该情境中,原生内容、次生内容以及弹幕内容对用户的信息刺激构成了情感前因,由信息刺激引发的情绪、特定情感态度、内化情感态度构成了情感反应。因此,ARM框架适用于Reaction视频情境下用户弹幕信息交互行为的情感反应生成机理研究。

3.2 数据获取与筛选

Bilibili视频网站是国内Reaction视频出现最多的平台,该平台中的Reaction视频大致分为两类:一类是搬运海外的Reaction视频,该类视频多以《外国人怎样看*》为题材,并且主要集中在Bilibili网站中的文化分区中;第二类以国内reactor自制视频为主,并且大量集中在音乐、舞蹈等娱乐领域,随着Reaction视频的不断发展,动画、游戏、生活等类别的Reaction视频也逐渐涌现[57]。为确保数据的代表性和总体性,本研究以Bilibili视频网站的Reaction视频为例,选取动画、娱乐、舞蹈、音乐、知识、游戏、文化、生活、科技等共11个分区的11支热门视频的弹幕信息资源、视频内容以及reactor反应情况作为分析样本,使用Python中的Scrapy爬虫框架[58],利用Bilibili网站每个视频特有的Aid和Cid编号,进行弹幕文本数据的获取(本研究所爬取的数据不涉及用户隐私信息)。初步汇总弹幕数据25482条。为保证数据样本的代表性,本研究将弹幕评论大于10条的用户所发布的弹幕中包含情感要素的弹幕文本作为研究对象,从25482条弹幕数据中筛选得到数据4375条;而后,邀请三位编码人员对这4375条弹幕数据以是否包含情感要素[5](情绪、特定情感态度及内化情感态度)为标准进行进一步筛选,最终形成的研究样本包括195名用户、3199条弹幕评论。

3.3 研究方法

本研究选取定向内容分析法作为主要研究方法。定向内容分析法是一种以理论为指导探索现象的方法论[59-60],多用于验证、完善或扩展某一概念框架或理论在新背景下的应用,适用于研究现象有已知理论或文献支撑时[60]。在使用该方法时,现有理论或研究可以提供有关变量或变量间关系的预测,从而帮助初始编码方案及类别关系的确定[61]。本研究从用户信息行为的资源视角出发,以ARM理论为支撑,探索Reaction视频中用户弹幕信息交互行为的情感反应机理,尝试对Reaction视频情境下的ARM理论进行扩展和延伸。因此,采用定向内容分析法对弹幕文本、视频内容以及reactor反应展开编码研究是合适的。

定向内容分析法可分为准备、组织和报告三个主要阶段。准备阶段需要选择合适的采样策略并确定分析单元;组织阶段需要对主类别进行预定义,并在确定编码规则的基础上划分出子类别,进而将子类别嵌套进主类别中;报告阶段需要对定向内容分析的步骤和结果进行组织报告[60]。目前,定向内容分析法在护理学领域得到了较为广泛的应用[62-64],在国内图书情报领域,王萍等[65]基于微博文本采用定向内容分析法对老年用户适应智能技术的影响因素进行了探究。

根据Assarroudi等[60]对定向内容分析编码阶段步骤的建议以及王萍等[65]采用定向内容分析编码的经验,本文确定内容分析步骤如下:

①依据Zhang[5]的ARM理论,预定义4个主类别,分别为情感前因的1个主类别(信息刺激)以及情感反应的3个主类别(情绪、特定情感态度、内化情感态度)。②概括分析单元,并将具有相似或相同语义的分析单元浓缩归纳,得到初始编码,并通过分析初始编码含义的异同,对其进行分类并抽象出子类别。③对比子类别和预定义的主类别,将子类别嵌套到主类别上,建立起子类别和主类别的联系。

为确保编码的合理性,需对编码的信度进行检验。本文选取Cohen’ s Kappa系数作为检验编码结果的信度指标。Cohen’ s Kappa系数是编码员在内容的定性标注和分类上的吻合性的一种统计度量[66]。在本研究中,Cohen’ s Kappa系数反映了两个编码员将N个范畴类别的一致性程度,如公式1所示:

其中Pr(a)是两位编码员之间的相对观察一致性百分比,如公式2所示:

其中aii是编码结果中两位编码员一致的数量,N表示总概念数。Pr(e)是两位编码员期望的一致性百分比,如公式3所示:

其中n·i和n分别表示编码结果矩阵中第i个类别对应的行合计和列合计,即第i类两个编码员的概念数量。若编码员的编码结果完全一致,则K=1;若编码员除了期望的偶然一致性外没有一致的编码结果,则K=0。通常情况下,K值大于0.75时,编码结果具有较好的信度。若编码结果信度没有达到0.75,则需重新编码。



04

数据分析

为保证编码结果的客观性和科学性,本研究招募了三位情报学专业硕士作为编码人员,经过培训之后,对分析单元进行独立的编码工作。第一轮编码中,编码小组成员根据自身已有认知和对弹幕数据的感知,结合开放编码以及参考现有理论的两种编码方式,合作完成弹幕文本的概念化和标签化,得出初始概念,并进一步将其归纳为子类别;第二轮编码中,编码小组成员分别独立将初始概念归类为子类别并进一步纳入预定义的主类别,而后进行讨论。两轮编码结果的Cohen’ s Kappa系数均大于0.75,说明编码人员之间基本达成一致,编码结果的可信度较高。经过两轮编码,最终得到53个初始概念(囿于篇幅仅在表2中列举部分编码结果),分散在如表3所示的4个主类别的9个子类别中。

表2 初始概念编码结果(部分)

表3 编码结果类别

4.1 信息刺激

信息刺激是指个体对其产生情感反应的事物或行为。信息刺激被个体感知,进入个体意识,进而催生出个体的多种情感反应。如图1所示,从视频内容来源看,在Reaction视频情境中,弹幕用户情感反应生成过程中的信息刺激具备“原生内容-次生内容二象性”的特征,即Reaction视频中的原生内容及次生内容与弹幕互相增益,且共同影响弹幕情感反应的生成;从信息内容来源看,若将Reaction视频看作一个整体,其中包含了reactor的反应及反应对象,用户弹幕评论的产生可能源于以reactor为主要交互对象的Reaction视频整体,也可能源于其他用户的弹幕评论,即表现出“弹幕-视频内容二象性”。因此,Reaction 情境中的信息刺激具备双重二象性的特征,信息刺激这一主类别可据此特征划分为原生内容刺激、次生内容刺激以及弹幕内容刺激三个子类别。该主类别中子类别及初始概念出现频次的统计结果如表4所示。整体来看,Reaction视频中用户弹幕信息交互行为情感反应产生时所受到的信息刺激中,原生内容刺激占比最高,其次是次生内容刺激,最后是弹幕内容刺激。

图1 信息刺激的双重二象性

表4 信息刺激各子类别频次及占比(总数量=3199)

4.1.1 原生内容刺激

原生内容刺激是指源于Reaction视频情境中的原视频内容,并引发用户产生情感反应的信息刺激[2]。该子类别包含舞蹈、音乐、生活、文化等初始概念。编码人员对该子类别中的初始概念进行编码时主要依据该Reaction视频中原生视频所涉及的核心内容展开。例如,原生内容刺激中的文化刺激,是指刺激源为原生视频所体现的中国传统文化元素,如Reaction视频《英国人怎么看?李子柒弹棉花做棉被啦!老外直呼太复杂》中原视频包含李子柒做棉被所展现出的中国传统技艺,以及Reaction视频《原学家muerder-ofbirds看海灯节2 CG动画》中原视频涉及的春节这一中国传统文化元素等。

原生内容刺激中各初始概念的频次及占比如表5所示。在该子类别中,原生内容刺激为舞蹈(16.00%)及音乐(14.63%)的占比较高,可见在原生内容刺激中,以音乐以及舞蹈为主体的视频内容会较多地激发用户在弹幕交互行为过程中的情感反应;相较而言,生活(6.31%)及文化(6.90%)类内容的占比较低,可见这类视频内容对情感反应的激发相对较少,而可能更多激发的是弹幕用户的客观探讨。

表5 原生内容刺激各初始概念频次及占比

4.1.2 次生内容刺激

次生内容刺激是指源于Reaction视频情境中reactor反应,并引发用户产生情感反应的信息刺激[2]。该子类别包含reactor表情&悲伤、reactor表情&高兴、reactor评论话语等初始概念。其中对reactor表情的编码,以Ekman等[67]提出的面部变化特征对应的人类六大基本情绪为依据开展。例如,当Reaction视频的reactor表现出眉毛抬起、眼睛睁大、嘴张开的面部变化时,编码人员赋予其“reactor表情&惊奇”的初始概念。

次生内容刺激中各初始概念的频次及占比如表6所示。在该子类别中,reactor表情的占比较高,可见在次生内容刺激中,相较于reactor表述的评论话语,其表现出的各种面部表情会更多地引发用户情感反应。此外,次生内容刺激包含的reactor的各类表情中,高兴(17.80%)以及惊奇(16.87%)的面部表情所引发的用户情感反应更多。

表6 次生内容刺激各初始概念频次及占比

4.1.3 弹幕内容刺激

弹幕内容刺激是指源于Reaction视频情境中弹幕文本内容,并引发用户产生情感反应的信息刺激。该子类别包含弹幕文本这一个初始概念。例如,弹幕文本“前面的,被抄的可是我们,不是你们,你要我们怎么心平气和跟你们说话”“哈哈哈哈哈哈前面的等等,我也突然喜欢周学年了”等中涉及较为明显的与其他弹幕互动的表征性语句“前面的”,表明该弹幕中用户情感反应生成的刺激源为其他弹幕内容。

弹幕内容刺激的频次及占比如表4所示。该子类别在信息刺激主类别中占比较低(8.25%),这说明相较于原生内容刺激和次生内容刺激,弹幕内容刺激在Reaction视频的用户情感反应生成中作用较小。

4.2 情感反应

情感反应是一个代表多种介于个体和刺激之间的情感概念的较为宽泛的术语。情感反应主要分为两大类,一种是个体受到刺激后的主观情绪状态,另一种是针对刺激的情感态度,情感态度又可进一步细分为特定情感态度以及内化情感态度[5]。情感反应中各主类别及子类别出现频次的统计结果如表7所示。整体来看,Reaction视频中用户弹幕信息交互行为中产生的特定情感态度最多。

表7 各情感反应与其子类别频次及占比(总数量=3199)

4.2.1 情绪

情绪是由环境中与个体关注的事物或行为引发的情感状态[68],是用户个体的主观感受。情绪是短暂存在的,只有在刺激因素活跃的情况下才会存在,一旦个体不再处于这种状态,情绪就会消失[56]。Scherer[45,69]根据是否涉及社会价值观、个体目标、需求等标准将情绪划分为审美情绪和功利性情绪。作者认为这一分类同样适用于Reaction视频所引发的用户情绪,故在本文的编码中沿用这两个子类别。

(1)审美情绪

审美情绪是在感知自然、艺术作品或表演等刺激时产生的情感反应,不涉及对社会价值观、个体目标、需求等的评估,而是对视觉艺术作品或音乐作品的审美体验[45]。在Reaction视频情境下的审美情绪主要表现为因音乐、舞蹈等原生内容的刺激而催生的情绪感受。该子类别中包含审美感知&高兴、审美感知&悲伤的情绪。例如,弹幕文本“太牛了这个神走位,还是对称的”“啊啊啊啊,这也太美了吧!”等。

审美情绪中各初始概念的频次及占比如表8所示。在该子类别中,审美感知&高兴(67.23%)的占比最高,可见Reaction视频用户在感知艺术表演等刺激时,会产生较多高兴的主观情绪。其次,用户在受到舞蹈、音乐、自然风光等原生内容刺激时,有时也会因其宏大、瑰丽而产生惊奇的情绪,例如,弹幕文本“唢呐的声音太神奇了!其他版本无法匹敌”。

表8 审美情绪各初始概念频次及占比


(2)功利性情绪

功利性情绪是涉及用户的价值观、目标或需求评估的情绪体验[45]。在Reaction视频情境下的功利性情绪表现为用户因原生、次生内容或弹幕中涉及价值判断的事物或行为而产生的即时性情感。该子类别中包含功利性感知&愤怒、功利性感知&高兴、功利性感知&思虑等情绪。

功利性情绪中各初始概念的频次及占比如表9所示。该子类别中的初始概念比审美情绪中的更为丰富,表现为愤怒、高兴、担忧等七种情绪类别,其中,功利性感知&惊奇(39.25%)以及功利性感知&愤怒(29.25%)的占比较高,可见Reaction视频用户面对涉及价值判断的事物或行为的刺激时,受用户个人价值观等的影响,会更多地激发惊奇或愤怒的主观情绪。例如,弹幕文本“每个国家都会过年,可棒子的习俗都是从我们这传过去还非得说是自己国家发明的,这不就是不要脸吗?”“抄袭光荣?和原版放一起你丢不丢脸啊?”“这她居然能记住!”等。

表9 功利性情绪各初始概念频次及占比

4.2.2 特定情感态度

特定情感态度是个体在受到刺激时产生的对某特定事物或特定行为的情感态度[56]。在Reaction视频情境下的特定情感态度表现为用户受到原生、次生或弹幕内容刺激时,产生的对原视频或弹幕中涉及的特定事物、re-actor本身或特定reaction行为所产生的情感态度。根据情感态度对象的不同,特定情感态度这一主类别又可以进一步划分为对特定事物的情感态度以及对特定行为的情感态度两个子类别。

(1)对特定事物的情感态度

对特定事物的情感态度是指弹幕用户在受到Reaction视频情境刺激时产生的对原视频或弹幕中涉及的特定事物以及reactor本身的情感倾向。该子类别包含对特定事物&赞赏、对特定事物&感动、对特定事物&厌恶等初始概念。

对特定事物的情感态度中各初始概念的频次及占比如表10所示。整体看来,用户对特定事物产生的情感态度呈现出积极倾向的情况居多。该子类别中,对特定事物&喜爱(35.97%)以及对特定事物&赞赏(25.58%)的占比较高,可见,Reaction视频中用户在弹幕信息交互中更容易并且更多地会对原视频或弹幕中涉及的特定事物以及reactor本身产生喜爱或赞赏的情感态度。例如,弹幕文本“这个舞真的编得太好了,202很多好玩的梗都编进去了,满满的亲切感”“我的天!凤凰传奇的和声真的天花板级别”等。

表10 对特定事物的情感态度各初始概念频次及占比

(2)对特定行为的情感态度

对特定行为的情感态度是指,弹幕用户产生的对原视频中特定行为以及特定reaction行为(如reactor的某个表情或评论话语)的情感倾向。该子类别包含对特定行为&喜爱、对特定行为&赞赏、对特定行为&愤怒等初始概念。例如,弹幕文本“离谱,名儿都背下来了”“这儿本来就是抄的,躺平认嘲谢谢。”“这段介绍词很用心,up赞赞”等。

对特定行为的情感态度中各初始概念的频次及占比如表11所示。在该子类别中,部分情感态度产生的对象是原视频中的特定行为,其次是reactor在做出反应时的某个表情或者评论话语。其中,针对reactor的特定反应行为的情感态度以喜爱、赞赏以及惊讶为主,例如,弹幕文本“原学家当之无愧,这得玩儿得多细!”“好喜欢妈妈~表情好温柔”等。

表11 对特定行为的情感态度各初始概念频次及占比

4.2.3 内化情感态度

内化情感态度是对一类事物或行为的情感态度,是比特定情感态度更深层次思考的结果[5]。在Reaction视频情境下的内化情感态度表现为用户受到原生、次生或弹幕内容刺激时,产生的对原视频或弹幕中涉及的某类事物、某类reaction行为所产生的情感态度。根据情感态度对象的不同,内化情感态度这一主类别,又可以进一步划分为对一般事物的情感态度以及对一般行为的情感态度两个子类别。

(1)对一般事物的情感态度

对一般事物的情感态度是指,弹幕用户产生的对原视频或弹幕中涉及的某类事物的情感倾向,是比对特定事物的情感态度更深层次的情感反应。该子类别包含对某类事物&赞赏、对某类事物&厌恶、对某类事物&失望等初始概念。例如,弹幕文本“还是传统乐器味道足”“文化的定义权非常重要!只有是民族的才能是世界的!”等。

对一般事物的情感态度中各初始概念的频次及占比如表12所示。从整体频次来看,该子类别中初始概念与“对特定事物的情感态度”中初始概念的频次比要低得多,可见,在Reaction视频中,用户的情感态度由仅对特定事物向更深层次变化的情况并未频繁出现。此外,在该子类别中,对某类事物&喜爱(26.56%)以及对某类事物&赞赏(32.78%)的占比较高,这与“对特定事物的情感态度”中频次较高的两初始概念类似,可见,在Reaction视频用户进行弹幕信息交互的过程中,会更容易对原视频或弹幕中涉及的某类事物产生喜爱或赞赏的情感态度。

表12 对一般事物的情感态度各初始概念频次及占比

(2)对一般行为的情感态度

对一般行为的情感态度是指,弹幕用户产生的对原视频中某类行为以及某类reaction行为(如整体reaction风格)的情感倾向。该子类别包含对某类行为&赞赏、对某类行为&失望等初始概念。例如,弹幕文本“就是侵犯著作权罪,犯罪懂吗?”“up太棒!请各位up以后做reaction就按照这个标准来”。

对一般行为的情感态度中各初始概念的频次及占比如表13所示。在该子类别中,部分情感态度产生的对象是原视频中的某类行为,其次是某类reaction行为即整体reaction风格。其中,针对reaction整体风格的情感态度以赞赏居多,例如,弹幕文本“请up多出视频,干货太多啦!”等。然而,部分用户也因质疑reactor反应的真实性,在弹幕交互中对部分reactor 的整体reaction风格表达了失望的态度,例如,“up主你的反应也太假了,reaction不是这么做的,真没必要”等。

表13 对一般行为的情感态度各初始概念频次及占比



05

模型构建与模型阐释

5.1 模型构建

基于ARM理论“情感前因-情感反应”的框架,利用定向内容分析法对弹幕文本进行编码,通过对类别内涵、类别间关系的理解,梳理出Reaction视频中用户弹幕信息交互行为的情感反应生成机理如图2所示。该模型结合Reaction视频的特殊情境,在信息刺激、情绪、特定情感态度和内化情感态度层面均进行了更为细粒度的区分和阐述。

图2 Reaction视频用户弹幕信息交互行为中的情感反应生成机理

5.2 模型阐释

5.2.1 信息刺激对情绪的影响

Reaction视频情境中,信息刺激对情绪的影响路径如图3所示。由于双重二象性的存在,该情境中的信息刺激较为多元,原生视频内容、reactor的表情或评论以及弹幕文本内容都会直接引发弹幕用户的主观情绪。其中审美情绪主要是对视觉艺术作品或音乐作品的审美体验,它的产生仅受到Reaction视频中原生内容刺激的影响,即用户感知到原生内容刺激中的某些音乐、舞蹈等艺术表演,并因此产生了悲伤、高兴、惊奇等审美情绪,例如弹幕文本“我的天!我的天!凤凰传奇的和声真的天花板级别!”而功利性情绪则是涉及用户的价值观、目标或需求评估的情绪体验,它的产生不仅受到Reaction视频中原生内容以及次生内容的刺激,还会受到弹幕内容刺激的影响。例如,弹幕文本“别混淆视听,还说祖国文化和韩国文化是互通的,简直可笑!”“前面的,家都被偷了,还高兴得起来?”等。通过比较产生这两种情绪的路径差异不难发现,唤醒用户审美情绪的刺激源更少,并且更偏向于视觉、听觉层面的感官刺激。

图3 信息刺激对情绪的影响

5.2.2 信息刺激对特定情感态度的影响

Reaction视频情境中,信息刺激对特定情感态度的影响路径如图4所示。该情境中弹幕用户的特定情感态度也受到原生内容、次生内容以及弹幕内容刺激的多重影响。其中,用户表现出的对某特定行为的情感态度仅源自Reaction视频中reactor的表情或评论即次生内容刺激的作用,例如弹幕文本“直接叫出名字太厉害了”。而对某特定事物的情感态度受到原生、次生以及弹幕内容这三种信息刺激的影响,例如弹幕文本“唢呐悍匪。YYDS”“上面的,这编舞是真的有水平啊!”

图4 信息刺激对特定情感态度的影响

(1)特定情感态度对内化情感态度的影响

ARM理论认为,个体因刺激产生的特定情感态度,若其与原本的内化情感态度不同,那么为了减少失调,特定情感态度会进一步对内化情感态度产生影响[5]。在Reaction视频情境中,用户因信息刺激产生特定情感态度,进而生成内化情感态度的路径如图5所示。多种信息刺激会激发出用户对特定事物或行为的情感态度,这种特定的情感态度有时会启动个体对某类事物或行为的记忆,并对个体原本对某类事物或行为的内化的情感态度进行增强或改变。例如,弹幕文本“春节是中国的春节。中国文化博大精深”即用户受到Reaction视频中弹幕内容的刺激,产生对春节这一传统节日的自豪情感,这一对特定事物的情感启动了该用户对传统节日的文化价值记忆,进而激活并增强了其对中国传统文化的自豪态度。通过观察编码结果发现,用户由对特定事物的情感态度发展为对一般事物的情感态度的情况较为多样,但是总体看来,当涉及到与集体主义相关,例如民族主义、爱国主义等内容时,这种情感反应的变化更容易产生。

图5 特定情感态度对内化情感态度的影响

(2)特定情感态度对情绪的影响

ARM理论认为,个体因刺激产生的特定情感态度,有可能会导致与该情感态度类似的主观情绪状态[5]。在Reaction视频情境中,用户因信息刺激产生特定情感态度,进而影响情绪的路径如图6所示。多种信息刺激会激发出用户对特定事物或特定行为的情感态度,这种特定情感态度除了会启动用户的内化情感态度,还可能直接催生用户的主观情绪。例如,弹幕文本“真的意难平啊,泪目了,看了想哭”即用户因Reaction视频中原生内容刺激而引发对该视频中特定事物遗憾的情感态度,进而催生出用户悲伤的情绪。

图6 特定情感态度对情绪的影响

(3)特定情感态度对情绪及内化情感态度的影响

在Reaction视频情境中,由信息刺激引发的特定情感态度不一定单一引起情绪或内化情感态度,有时也会同时促进情绪以及内化情感态度的生成,这种情况下的用户情感反应生成路径如图7所示。例如,弹幕文本“春节是我们的民族文化,文化的定义权非常重要!只有是民族的才能是世界的!文化保护任重道远啊!”即用户受弹幕内容刺激产生对春节这一民族文化的自豪,引发了他对文化定义权的思虑以及担忧的主观情绪。值得注意的是,在这种情况下,由于用户情感反应的产生均涉及价值判断,因此于,由特定情感态度引发的情绪仅涉及功利性情绪。

综上,在Reaction视频情境中,情感反应生成的前因“信息刺激”较为多元,且表现出双重二象性,不同的信息刺激既可以直接催生用户的主观情绪或特定情感态度,也可能先激活用户的特定情感态度进而促使主观情绪或内化情感态度的产生。此外,在情感反应内部,情绪、特定情感态度、内化情感态度三者相互关联。由于Reaction视频中有很多内容以《外国人怎么看*》为题材,并且多分布在文化分区,在中外文化和观念差异的背景下,外国reactor的评论有时会触及到弹幕用户的传统文化意识,甚至上升到爱国主义情怀,因此,当信息刺激涉及到与集体主义相关,例如民族主义、爱国主义等内容时,易出现特定情感态度与内化情感态度共现的情况。同时,当情绪、特定情感态度、内化情感态度三者共现时,用户情感反应的产生均涉及到价值判断,因此,这种情况下的情绪仅涉及功利性情绪。

图7 特定情感态度对情绪及内化情感态度的影响



06

研究启示

从理论贡献层面,本文参考ARM框架,将已有研究中针对情感前因和情感反应提炼的四个具体维度(信息刺激、情绪、特定情感态度以及内化情感态度)作为Reaction视频中用户弹幕信息交互行为情感反应生成过程的主范畴概念,采用定向内容分析法,抽象出Reaction视频弹幕用户在情感反应生成过程中的各种情感概念,并对概念间关系进行了界定,全面梳理出Reaction视频中用户弹幕信息交互行为情感反应生成的具体过程,构建了Reaction视频中用户弹幕信息交互行为情感反应生成的“信息刺激-情感反应”概念框架,拓展了ARM理论在CMC领域中的情境化应用,弥补了Reaction视频情境中缺乏弹幕用户情感反应机理理论的不足。同时,本文基于ARM理论框架,采用定向内容分析法对弹幕信息交互行为情感反应生成机理进行研究,使模型更具理论深度,也为用户信息行为研究提供了新视角。此外,现有弹幕评论情感研究主要集中于情感分析算法以及各种视频中情感倾向的探索,本文构建的Reaction视频用户弹幕评论中的情感反应机理模型,弥补了用户弹幕信息交互行为情感研究的理论缺口。最后,考虑到用户情感反应生成的普遍性和新兴数字媒介中某些要素的同质性,本文构建的机理模型可迁移至其他应用情境,在一定程度上可为其他类似新兴数字媒介中用户情感反应的研究提供参考。

从实践启示层面,本文构建的Reaction视频中用户弹幕信息交互行为情感反应生成机理理论模型,对用户情感反应生成过程中的各情感概念进行了区分和阐述,为弹幕视频平台和Reaction视频制作者了解哪些内容能有效激发用户的各种情感反应并吸引用户参与互动,如何更好地促进计算机协助交流过程中的用户与信息交互提供了建议。具体表现为,在Reaction视频情境中,弹幕用户情感反应的激发往往多集中于针对舞蹈、音乐等带有偶像文化元素的原视频内容,有趣的reactor反应或具备较强讨论性的弹幕内容。此外,弹幕用户针对reaction整体风格的情感以赞赏的正面态度居多,但部分缺乏真实性的reaction风格也让部分弹幕用户感到失望,因此,为了更好地推动用户参与弹幕情感交互,促进正向情感反应的传递,Reaction视频制作者不仅应尽量保持真实的反应,也应当提前对原视频背景进行了解,并给出趣味性较强的反应。最后,本研究有助于深入理解弹幕这种新型用户信息交互方式,帮助系统和平台根据用户的弹幕信息交互行为特征,通过颜色标记等方式对弹幕中不同的情感反应进行标识,从而进一步优化提升弹幕信息交互模式,以有效达到优化用户信息交互体验、提升信息服务质量的目的。



07

结语与展望

本文基于ARM理论框架,采用定向内容分析法,构建出Reaction视频中用户弹幕信息交互行为情感反应生成的“信息刺激-情感反应”概念模型。该模型从理解Reaction视频用户弹幕评论中情感反应生成的角度,为促进Reaction视频情境下计算机协助交流过程中的用户与信息交互提供了参考。未来研究可以考虑从两个方面展开,首先,基于本模型对其他CMC背景下社交媒体中的用户情感反应生成机理进行探索,以进一步扩展ARM理论的情境化应用;其次,尝试使用混合研究方法,结合个体特质对弹幕信息交互行为中情感反应的生成进行更深入的探索。




参考文献

[1] 王柳涵.基于内容分析法的科普视频内容与弹幕解读——以B站“罗翔说刑法”系列视频为例[J].新闻研究导刊,2022,13(8):82-84.(Wang L H. Interpretation of popular science videos content and barrage based on content analysis——Take Bilibili’s "Luo Xiang Talking about Criminal Law" as an example[J]. Journal of News Research, 2022, 13(8): 82-84.)

[2] 叶许婕,赵宇翔,张轩慧.Reaction视频的用户弹幕评论行为生成机制探索——基于认知-情感系统理论[J].数据分析与知识发现,2023,7(2):1-14.(Ye X J, Zhao Y X, Zhang X H. Exploring the generation mechanism of user’ s danmaku commenting behavior in reaction videos——Based on cognitive-affective personality system theory[J]. Data Analysis and Knowledge Discovery, 2023, 7(2): 1-14.)

[3] Julien H,Pecoskie J L,Reed K.Trends in information behavior research,1999-2008:A content analysis[J].Library & Information Science Research,2011,33(1):19-24.

[4] Nahl D.Affective and cognitive information behavior:Interaction effects in Internet use[J].Proceedings of the American Society for Information Science and Technology,2005,42(1):1-14.

[5] Zhang P.The affective response model:A theoretical framework of affective concepts and their relationships in the ICT context[J].MIS Quarterly,2013,37(1):247-274.

[6] Rowe R. ‘The more accuracy the better’ ? :Analysing adaptation reception in reaction videos[J].Adaptation,2018,11(3):193-208.

[7] Warren-Crow H.Screaming like a girl:Viral video and the work of reaction[J].Feminist Media Studies,2016,16(6):1113-1117.

[8] 赵宇翔,张轩慧.基于层次分析法的弹幕视频网站信息构建评价[J].情报资料工作,2017(3):42-51.(Zhao Y X, Zhang X H. Evaluation study of danmaku video website information construction based on analytic hierarchy process[J]. Information and Documentation Services, 2017, 38(3): 42-51.)

[9] Zhang L T,Cassany D.Making sense of danmu:Coherence in massive anonymous chats on Bilibili.com[J].Discourse Studies,2020,22(4):483-502.

[10]郑飏飏,徐健,肖卓.情感分析及可视化方法在网络视频弹幕数据分析中的应用[J].现代图书情报技术,2015(11):82-90.(Zheng Y Y, Xu J, Xiao Z. Utilization of sentiment analysis and visualization in online video bullet-screen comments[J]. New Technology of Library and Information Service, 2015, 31(11): 82-90.)

[11]魏来,王伟洁.基于互动仪式链理论的视频网站弹幕信息情感分析——以Bilibili健康科普类视频为例[J].情报理论与实践,2022,45(9):119-126.(Wei L, Wang W J. Sentiment analysis of video website bullet screen information based on interactive ritual chain theory: Take Bilibili health science videos as an example[J]. Information studies: Theory & Application, 2022, 45(9): 119-126.)

[12]王文韬,陈千,张肖.弹幕视角下的网络热搜健康视频关注度与情感分析[J].图书馆论坛,2022,42(3):98-107.(Wang W T, Chen Q, Zhao Q. Analysis of popular online health video audience’s attention and sentiment[J]. Library Tribune, 2022, 42(3): 98-107.)

[13]洪庆,王思尧,赵钦佩,等.基于弹幕情感分析和聚类算法的视频用户群体分类[J].计算机工程与科学,2018,40(6):1125-1139.(Hong Q, Wang S Y, Zhao Q P. Video user group classification based on barrage comments sentiment analysis and clustering algorithms[J]. Computer Engineering & Science, 2018,40 (6): 1125-1139.)

[14]Li Z,Li R,Jin G H.Sentiment analysis of danmaku videos based on Nave Bayes and sentiment dictionary[J].IEEE Access,2020,8:75073-75084.

[15]Manstead A S R,Lea M,Goh J.Facing the future:Emotion communication and the presence of others in the age of video-mediated communication[M].Cambridge:Cambridge University Press,2011:144-175.

[16]Derks D,Fischer A H,Bos A E R.The role of emotion in computer-mediated communication:A review[J].Computers in Human Behavior,2008,24(3):766-785.

[17]Kim D,Frank M G,Kim S T.Emotional display behavior in different forms of Computer Mediated Communication[J].Computers in Human Behavior,2014,30:222-229.

[18]方俊,张磊.BBC“蛋炒饭”的反应视频研究[G]//单波.跨文化传播研究 (第三辑).北京:中国传媒大学出版社,2021:161-183.(Fang J,Zhang L. A Study on reaction videos of BBC’ s egg-fried rice from the perspective of intercultural communication[C]//Shan B.Intercultural Communication Studies(Series 3). Beijing: Communication University of China press, 2021: 161-183.)

[19]王丹丹.网络视频中类社会互动现象及其话语倾向——以反应视频为例[J].新媒体研究,2021,7(21):96-98,107.(Wang D D. Quasi-social interaction phenomenon and discourse tendency in online video——Taking reaction video as an example[J]. New Media Research, 2021, 7(21): 96-98, 107.)

[20]Oh D C.Black K-pop fan videos and polyculturalism[J].Popular Communication,2017,15(4):269-282.

[21]Muhammad B P.Purposes of language features used in Korean pop fans’on Youtube reaction video by Australian male and female[D].Mataram:Universitas Mataram,2021.

[22]Anderson S.Watching people watching people watching[N].The New York Times Magazine,2011-9-25(027).

[23]Magoncia J E.OMG!Reaction videos on YouTube:Meanings to fandom and to K-Pop community[D].Seoul:Seoul National University,2014.

[24]冯钰茹,邓小昭.弹幕视频网站用户弹幕评论行为的影响因素研究——以Bilibili弹幕视频网站为例[J].图书情报工作,2021,65(17):110-116.(Feng Y R, Deng X Z. Research on the influencing factors of user commenting behavior on danmaku——Taking Bilibili danmaku video website as an example[J]. Library and Information Service, 2021, 65(17): 110-116.)

[25]郭然浩.弹幕网站用户参与的实证分析[D].重庆:重庆大学,2017.(Guo R H. The empirical analysis of danmaku websites’user participation[D]. Chongqing: Chongqing University, 2017.)

[26]Yao Y X,Bort J,Huang Y.Understanding danmaku’ s potential in online video learning[C]//Proceedings of the 2017 CHI Conference Extended Abstracts on Human Factors in Computing Systems.Denver,Colorado,USA.New York:ACM,2017:3034-3040.

[27]喻昕,许正良.网络直播平台中弹幕用户信息参与行为研究——基于沉浸理论的视角[J].情报科学,2017,35(10):147-151.(Yu X, Xu Z L. The theoretical model of bullet screen users’participative behavior in network broadcast platform——Based on the perspective of flow theory[J]. Information Science, 2017, 35(10): 147-151.)

[28]Chen Y E,Gao Q,Rau P L P.Watching a movie alone yet together:Understanding reasons for watching danmaku videos[J].International Journal of Human–Computer Interaction,2017,33(9):731-743.

[29]Wu Q F,Sang Y S,Huang Y.Danmaku[J].ACM Transactions on Social Computing,2019,2(2):1-24.

[30]陈忆金,卓林锴,赵一鸣.学习类视频弹幕用户的交互行为研究[J].图书馆论坛,2021,41(9):95-101,124.(Chen Y J, Zhuo L K, Zhao Y M. Research on the interactive behavior of learning video users based on live commenting data[J].Library Tribune, 2021, 41(9): 95-101,124.)

[31]孙晓宁,姚青.多元主题场景下的用户弹幕与评论特征比较研究:基于Bilibili网站[J].情报理论与实践,2021,44(9):135-141,121.(Sun X N, Yao Q. User’ s danmu and comment characteristics in multiple theme scenes: A comparative research on Bilibili[J].Information studies: Theory & Application. 2021, 44(9): 135-141, 121.)

[32]李晶,薛晨琦,宋昊阳.人机交互中的社会临场感研究——以弹幕短视频为例[J].图书馆论坛,2023,43(3):141-150.(Li J, Xue C Q, Song H Y. Research on social presence in human-computer interaction:Taking short videos with bullet screen as a case[J]. Library Tribune, 2023, 43 (3): 141-150.)

[33]仝冲,赵宇翔.基于内容分析法的弹幕视频网站用户使用动机和行为研究[J].图书馆论坛,2019,39(6):80-89.(Tong C,Zhao Y X. Exploring users’motivations and behaviors on danmaku video sharing websites:A content analysis[J]. Library Tribune,2019,39(6): 80-89.)

[34]Li Y,Guo Y J.Virtual gifting and danmaku:What motivates people to interact in game live streaming?[J].Telematics and Informatics,2021,62:101624.

[35]Zhao Y X,Tang J.Exploring the motivational affordances of danmaku video sharing websites:Evidence from gamification design[C]//International Conference on Human-Computer Interaction.Cham:Springer,2016:467-479.

[36]邓昕.互动仪式链视角下的弹幕视频解析——以Bilibili网为例[J].新闻界,2015(13):14-19.(Deng X. Analysis of danmaku video from the perspective of interactive ritual chains: A case study of Bilibili[J]. Journalism and Mass Communication Monthly, 2015 (13): 14-19.)

[37]王贇芝,王雪,查先进.弹幕视频网站用户从众信息评论行为驱动因素探索[J].信息资源管理学报,2020,10(4):60-69.(Wang Y Z, Wang X, Zha X J. Exploring driving factors of herd information comment behavior of bullet screen video website’users[J]. Journal of Information Resources Management, 2020, 10(4): 60-69.)

[38]王敏,徐健.视频弹幕与字幕的情感分析与比较研究[J].图书情报知识,2019(5):109-119.(Wang M, Xu J. Emotional Analysis and comparative study of bullet screen comments and subtitles[J]. Document, Information & Knowlege, 2019 (5): 109-119.)

[39]陈忆金,梁锦玲,古婷骅.新闻视频弹幕用户情感体验特征分析[J].图书与情报,2021(4):75-83.(Chen Y J, Liang J L, Gu T Y. Analysis of emotional experience characteristics of news video danmu users[J]. Library & Information. 2021, 41(4): 75-83.)

[40]Yin F L,She Y W,Xiong R,et al.A sentiment analysis algorithm of danmaku based on building a mixed fine-grained sentiment lexicon[C]//Proceedings of the 2020 9th International Conference on Computing and Pattern Recognition.Xiamen,China.New York:ACM,2020:424-430.

[41]Bagozzi R P,Gopinath M,Nyer P U.The role of emotions in marketing[J].Journal of the Academy of Marketing Science,1999,27(2):184-206.

[42]Russell J A.Core affect and the psychological construction of emotion[J].Psychological Review,2003,110(1):145-172.

[43]Carmichael S,Piquero A R.Sanctions,perceived anger,and criminal offending[J].Journal of Quantitative Criminology,2004,20(4):371-393.

[44]Russell J A.A circumplex model of affect[J].Journal of Personality and Social Psychology,1980,39(6):1161-1178.

[45]Scherer K R.What are emotions? And how can they be measured?[J].Social Science Information,2005,44(4):695-729.

[46]Childers T L,Carr C L,Peck J,et al.Hedonic and utilitarian motivations for online retail shopping behavior[J].Journal of Retailing,2001,77(4):511-535.

[47]Isen A M,Daubman K A,Nowicki G P.Positive affect facilitates creative problem solving[J].Journal of Personality and Social Psychology,1987,52(6):1122-1131.

[48]Petty R E,DeSteno D,Rucker D D.The role of affect in attitude change[M].Mahwah,USA:Lawrence Erlbaum Associates Publishers,2001:212-233.

[49]Mittal V,Ross W T.The impact of positive and negative affect and issue framing on issue interpretation and risk taking[J].Organizational Behavior and Human Decision Processes,1998,76(3):298-324.

[50]Ormond D, Warkentin M, Crossler R E. Integrating cognition with an affective lens to better understand information security policy compliance[J]. Journal of the Association for Information Systems, 2019, 20(12): 1794-1843.

[51]Russell J A.Emotion,core affect,and psychological construction[J].Cognition & Emotion,2009,23(7):1259-1283.

[52]Brave S,Nass C.Emotion in human-computer interaction[M].Boca Raton,USA:CRC Press,2007:103-118.

[53]Coursaris C K,van Osch W.A cognitive-affective model of perceived user satisfaction (CAMPUS):The complementary effects and interdependence of usability and aesthetics in IS design[J].Information & Management,2016,53(2):252-264.

[54]Smith C A,Lazarus R S.Emotion and adaptation[M].New York:Guilford,1990:609-637.

[55]Watson D,Clark L A,Tellegen A.Development and validation of brief measures of positive and negative affect:The PANAS scales[J].Journal of Personality and Social Psychology,1988,54(6):1063-1070.

[56]Clore G L,Schnall S.The influence of affect on attitude[M].London,UK:Routledge,2018:259-290.

[57]金金金.你还不了解反应视频,有人已经靠它拥有2000万粉丝了[EB/OL].[2019-10-28].https://baijiahao.baidu.com/s?id=1648630541413347871.(Jin J J. You haven't heard of reaction videos yet, but some people have already gained 20 million followers with them[EB/OL].[2019-10-28].https://baijiahao.baidu.com/s?id=1648630541413347871.)

[58]孙瑜.基于Scrapy框架的网络爬虫系统的设计与实现[D].北京:北京交通大学,2019.(Sun Y. Design and implementation of web crawler system based on scrapy framework[D]. Beijing: Beijing Jiaotong University, 2019.)

[59]Hsieh H F,Shannon S E.Three approaches to qualitative content analysis[J].Qualitative Health Research,2005,15(9):1277-1288.

[60]Assarroudi A,Heshmati Nabavi F,Armat M R,et al.Directed qualitative content analysis:The description and elaboration of its underpinning methods and data analysis process[J].Journal of Research in Nursing,2018,23(1):42-55.

[61]Mayring P.Qualitative content analysis:Theoretical background and procedures[M].Dordrecht:Springer,2015:365-380.

[62]Wei H,Watson J.Healthcare interprofessional team members' perspectives on human caring:A directed content analysis study[J].International Journal of Nursing Sciences,2019,6(1):17-23.

[63]Ebrahimi B F,Alhani F,Ebadi A,et al.Self-efficacy of people with chronic conditions:A qualitative directed content analysis[J].Journal of Clinical Medicine,2018,7(11):411.

[64]贾雪竹,陈洁.基于社会生态系统理论的性发育异常患者主要照顾者心理体验的质性研究[J].解放军护理杂志,2022,39(4):34-37.(Jia X Z, Chen J. Psychological experience of primary caregivers of patients with disorders of sex development based on social ecosystem theory: A qualitative study[J]. Nursing Journal of Chinese People’ s Literation Army, 2022, 39 (4), 34-37.)

[65]王萍,蒋健,曹高辉.老年用户适应智能技术的影响因素——基于微博文本定向内容的分析[J].图书情报知识,2022,39(4):126-139.(Wang P, Jiang J, Cao G H. Factors influencing the adaptative use of intelligent technology among elderly users: Directed content analysis of weibo text[J]. Documentation, Information & Knowledge, 2022, 39 (4): 126-139.)

[66]Smeeton N C.Early history of the kappa statistic[J].Biometrics,1985,41(3):795.

[67]Ekman P,Friesen W V.Constants across cultures in the face and emotion[J].Journal of Personality and Social Psychology,1971,17(2):124-129.

[68]Barrett L F,Russell J A.The structure of current affect[J].Current Directions in Psychological Science,1999,8(1):10-14.

[69]Scherer K R.Which emotions can be induced by music? What are the underlying mechanisms? And how can we measure them?[J].Journal of New Music Research,2004,33(3):239-251.


(收稿日期:2023-03-30)



作者简介

叶许婕,硕士研究生,研究方向为网络信息资源管理;

赵宇翔(通讯作者),博士,教授,博士生导师,研究方向为用户信息行为,Email:yxzhao@vip.163.com;

张妍,博士研究生,研究方向为网络信息资源管理;

李金昊,硕士,研究方向为用户信息行为;

Preben Hansen,博士,副教授,研究方向为人机交互。

*原文载于《信息资源管理学报》2024年第2期,欢迎个人转发,公众号转载请联系后台。


* 引用格式

叶许婕,赵宇翔,张妍,等.Reaction视频中用户弹幕信息交互行为的情感反应生成机理研究[J].信息资源管理学报,2024,14(2):104-120.


往期 · 推荐

当期目录 | 2024年第2期

当期荐读 2024年第2期 | 跨越千年的迁徙图——家谱迁徙数据的深度挖掘与可视化开发

网络首发 | 数字产业化与产业数字化协同发展中的数据价值实现

网络首发 | 三大数据资产化路径探析

当期荐读 2024年第2期·数据要素市场建设专题 | 信息生态理论视角下城市数据要素市场就绪度评估


▲点击访问信息资源管理学报小程序

制版编辑 | 王伊杨

审核 | 于   媛



长按识别二维码关注我们

信息资源管理学报

微信号

xxzyglxb



分享在看点赞

只要你点,我们就是朋友😊



信息资源管理学报
《信息资源管理学报》是武汉大学主办、武汉大学信息管理学院和武汉大学信息资源研究中心承办的学术类期刊。双月刊,CSSCI来源期刊、中国人文社会科学核心期刊、人大复印报刊资料重要转载来源期刊。
 最新文章