在生物医学研究中,人工智能artificial intelligence (AI)的快速发展,呈现出了相当大的滥用风险,包括专制监控、数据滥用、生物武器开发、不平等加剧和滥用隐私。
今日,美国斯坦福大学医学院(Stanford University School of Medicine)Artem A. Trotsyuk, Quinn Waeiss等,在Nature Machine Intelligence上发表评述文章,提出了一种多管齐下的系统框架,以减轻这些风险,首先是在现有伦理框架和监管措施,调整自己的工作,其次是现成的人工智能解决方案,然后是特定于设计的解决方案,构建到人工智能中,以减轻滥用。当研究人员仍然无法解决潜在的不利滥用,并且风险大于潜在的益处时,建议研究人员考虑采用不同的方法,以回答所研究的问题,或者如果风险仍然太大,则考虑新的研究问题。将这一系统框架应用于三个不同人工智能研究领域,在以下研究领域中,可能存在数据滥用问题:(1)用于药物和化学发现的人工智能;(2)合成数据的生成模型;(3)环境智能。(注:环境智能 ambient intelligence,指的是要求物理设备进入数字环境的框架,以感知、觉察并对外部刺激(通常由人类行动触发)做出反应)Toward a framework for risk mitigation of potential misuse of artificial intelligence in biomedical research. 在生物医学研究中,人工智能潜在滥用的风险缓解框架。图1:制定缓解战略的框架,以解决人工智能在生物医学中的滥用风险。
Trotsyuk, A.A., Waeiss, Q., Bhatia, R.T. et al. Toward a framework for risk mitigation of potential misuse of artificial intelligence in biomedical research. Nat Mach Intell (2024). https://doi.org/10.1038/s42256-024-00926-3https://www.nature.com/articles/s42256-024-00926-3声明:仅代表译者观点,如有不科学之处,请在下方留言指正!