01
Exploring Large-Scale Language Models to Evaluate EEG-Based Multimodal Data for Mental Health
◎ 标题:探索大规模语言模型在评估基于EEG的多模态心理健康数据中的应用
◎ 摘要:将生理信号(如脑电图(EEG))与访谈音频等其他数据相结合,可提供有价值的多模态洞见,有助于了解心理状态或神经疾病。最近大语言模型的进步使其成为心理健康评估的潜在"健康智能体"。然而,当前的研究主要集中在单一数据模态上,这为通过多模态数据来推进理解提供了机会。我们的研究旨在通过使用大语言模型进行心理健康评估,特别是通过零样本和少样本提示来推进这种方法。我们采用了包含 EEG、面部表情和音频(文本)的三个数据集进行抑郁和情绪分类。结果表明,多模态信息相比单一模态方法在心理健康评估中具有明显优势。值得注意的是,将 EEG 与常用的音频和图像等模态相结合显示出了很好的潜力。此外,我们的发现表明,相比于零样本学习方法,1 样本学习能提供更大的收益。
Figure:Case analysis for LUMED-2 and PME4 datasets (the person’s face has been blurred for ethical reasons).
02
Ethical Considerations in Artificial Intelligence Interventions for Mental Health and Well-Being: Ensuring Responsible Implementation and Impact
◎ 标题:人工智能干预心理健康和幸福的伦理考虑:确保负责任的实施和影响
◎ 摘要:人工智能有潜力通过提供个性化支持和提升可及性来革新心理健康服务。然而,解决伦理问题至关重要,以确保个人获得负责任和有益的结果。这项系统评估审查了实施和影响心理健康和福祉人工智能(AI)干预措施的伦理考量。为确保全面分析,我们采用了一种结构化的搜索策略,涉及顶尖的学术数据库,包括 PubMed、PsycINFO、Web of Science 和 Scopus。搜索范围包括 2014 年至 2024 年发表的文章,共评审了 51 篇相关文章。评论确定了 18 个关键伦理考量,包括 6 个与在心理健康和福祉中使用人工智能干预措施相关的伦理考量(隐私和保密、知情同意、偏见和公平、透明度和问责制、自主权和人类能动性、安全性和有效性);5 个与在心理健康环境中开发和实施人工智能技术相关的伦理原则,以确保负责任的实践和积极的结果(伦理框架、利益相关方参与、伦理审查、偏差缓解、持续评估和改进);7 种促进心理健康干预措施中人工智能伦理使用的做法、准则和建议(遵守伦理准则、确保透明度、优先考虑数据隐私和安全、缓解偏差并确保公平、参与利益相关方、定期进行伦理审查,并监测和评估结果)。这项系统评估突出了在责任实施和影响人工智能干预措施过程中伦理考量的重要性,以促进心理健康和福祉。通过解决隐私、偏见、同意、透明性、人工监督和持续评估等问题,我们可以确保聊天机器人和 AI 医疗设备等 AI 干预措施以符合道德原则的方式开发和部署,尊重个人权利,促进公平,最大化利益,最小化潜在危害。
Figure: Flow diagram showing the study selection/screening process.
03
IoT-Based Preventive Mental Health Using Knowledge Graphs and Standards for Better Well-Being
◎ 标题:基于物联网的预防性心理健康:利用知识图谱和标准实现更好的福祉
◎ 摘要:可持续发展目标(SDGs)为联合国提供了 2030 年议程的发展路线图。SDG3"良好健康和福祉"确保了健康的生活并促进了所有年龄段的福祉。数字技术可以支持 SDG3。鼓励更好的预防性健康可以减少职业倦怠甚至抑郁。由于缺乏患者的知识和关注来照顾自己的健康,有必要在为时已晚之前帮助患者。正向心理学和正念等新趋势在美国大受鼓舞。数字孪生(DT)可以使用生理信号(如可穿戴设备收集的信号)持续监测情绪。数字孪生有助于监测和提供持续的健康洞见,以更好的个性化来提高生活质量和福祉。医疗保健数字孪生面临的挑战是标准化数据格式、通信协议和数据交换机制。为了解决这些数据集成和知识挑战,我们设计了心理健康知识图谱(本体和数据集)来促进心理健康。知识图谱从分类在 LOV4IoT 本体目录中的基于本体的心理健康项目(情绪、抑郁和心理健康)中获取知识。此外,知识图谱在可能的情况下被映射到标准(如本体)。ETSI SmartM2M、ITU/WHO、ISO、W3C、NIST 和 IEEE 的标准与心理健康相关。
◎ 作者:Amelie Gyrard, Seyedali Mohammadi, et al.
◎ 发表日期:2024-06-29
◎ 发表期刊:arXiv preprint
Figure:Standards, Semantic Web and Data Spaces applied to Health
04
The Typing Cure: Experiences with Large Language Model Chatbots for Mental Health Support
◎ 标题:打字治疗:使用大型语言模型聊天机器人进行心理健康支持的经验
◎ 摘要:人们在经历严重痛苦时,越来越多地使用大型语言模型(LLM)聊天机器人作为心理健康支持工具。社交媒体上的讨论描述了这些互动如何成为某些人的救命稻草,但证据表明,通用目的的 LLM 聊天机器人也存在显著风险,如果设计不当,可能会危及用户的福祉。在这项研究中,我们调查了使用 LLM 聊天机器人获得心理健康支持的人的实际体验。我们基于与来自全球不同背景的 21 个人进行的面试,分析用户如何为他们的聊天机器人创造独特的支持角色,填补日常护理的缺口,并在寻求聊天机器人支持时应对相关的文化局限性。我们的分析植根于有效支持的心理治疗文献,并引入了"治疗性协调"的概念,即将 AI 与心理健康情境下的治疗价值相协调。我们的研究为设计者提出了建议,他们可以采用这些建议,以有道德和有效的方式使用 LLM 聊天机器人和其他 AI 心理健康支持工具。
◎ 作者:Inhwa Song, Sachin R. Pendse, et al.
◎ 发表日期:2024-03-06
◎ 发表期刊:arXiv preprint
◎ 原文链接:https://arxiv.org/abs/2401.14362
Table:Demographic information of all participants. Participant names are pseudonyms. Bold diagnoses are diagnoses that participants are diagnosed by clinicians. Italicized diagnoses are diagnoses that participants believed they had but were not formally diagnosed with.
05
Digital Risk Considerations Across Generative AI-Based Mental Health Apps
◎ 标题:生成式AI心理健康应用中的数字风险考量
◎ 摘要:在线移动应用程序上的心理健康平台越来越多地采用生成性人工智能算法,但研究表明这种采用存在数字风险。伦理困境、对复杂医疗案例的误解、病人隐私受损以及潜在的法律责任阻碍了生成性人工智能与在线移动应用程序的整合。本研究检查了 54 个应用程序(如 Google Store 和 App Store)上 100 万条用户生成的评论,这些应用程序使用生成性人工智能提供心理健康援助。通过文本挖掘方法研究这些评论,以确定这些心理健康应用程序给用户带来的潜在数字风险。我们研究的结果旨在为未来的医疗健康监管框架提供指导。
◎ 作者:Sagarika Thimmanayakanapalya, Sanjukta Das Smith, et al
◎ 发表日期:2024-01-24
◎ 发表期刊:SIGHCI 2023 Proceedings.
Figure: Research Methodology Overview