研究进展:人工智能-风险缓解 | Nature Machine Intelligence

文摘   2024-11-27 00:00   北京  

在生物医学研究中,人工智能artificial intelligence (AI)的快速发展,呈现出了相当大的滥用风险,包括专制监控、数据滥用、生物武器开发、不平等加剧和滥用隐私。

今日,美国斯坦福大学医学院(Stanford University School of Medicine)Artem A. Trotsyuk, Quinn Waeiss等,在Nature Machine Intelligence上发表评述文章,提出了一种多管齐下的系统框架,以减轻这些风险,首先是在现有伦理框架和监管措施,调整自己的工作,其次是现成的人工智能解决方案,然后是特定于设计的解决方案,构建到人工智能中,以减轻滥用。
当研究人员仍然无法解决潜在的不利滥用,并且风险大于潜在的益处时,建议研究人员考虑采用不同的方法,以回答所研究的问题,或者如果风险仍然太大,则考虑新的研究问题。
将这一系统框架应用于三个不同人工智能研究领域,在以下研究领域中,可能存在数据滥用问题:(1)用于药物和化学发现的人工智能;(2)合成数据的生成模型;(3)环境智能。
(注:环境智能 ambient intelligence,指的是要求物理设备进入数字环境的框架,以感知、觉察并对外部刺激(通常由人类行动触发)做出反应)
Toward a framework for risk mitigation of potential misuse of artificial intelligence in biomedical research. 
在生物医学研究中,人工智能潜在滥用的风险缓解框架。

图1:制定缓解战略的框架,以解决人工智能在生物医学中的滥用风险。

文献链接
Trotsyuk, A.A., Waeiss, Q., Bhatia, R.T. et al. Toward a framework for risk mitigation of potential misuse of artificial intelligence in biomedical research. Nat Mach Intell (2024). 
https://doi.org/10.1038/s42256-024-00926-3
https://www.nature.com/articles/s42256-024-00926-3
本文译自Nature。
来源:今日新材料
声明:仅代表译者观点,如有不科学之处,请在下方留言指正!

推荐阅读
Nature | 人工智能在生物研究中的风险与应对:加强多领域协作保障生物安全

今日新材料
中国材料研究学会每日发布新材料最新动态。
 最新文章