BMJ:生成式人工智能如何用于医学研究?
生成式人工智能(AI)是机器学习的一种类型,能够生成一系列格式(包括文本、图像、音频、视频或代码)的数据,并根据简单的文本提示,实时适应新任务。这些能力使得生成式AI很灵活,某个“模型”(如ChatGPT或DALL-E)可以用于包括医学研究在内的各种任务,而无需再培训。
这种灵活性使生成式AI具有强大的吸引力,意味着人们能轻易地使用它们,无论是出于有益还是有害的目的。这给医学研究者也带来了两难抉择,目前尚不清楚如何在不丧失潜在利益的情况下防止滥用。
生成式AI在医学研究中的用处
生成式AI可以在研究全流程中帮助到研究者,使整个研究过程更加高效和具有成本效益。例如,研究者询问ChatGPT-3“有多少抑郁症患者在治疗后复发?”,ChatGPT可以总结既往研究,并展现出识别知识空白和提出假设的潜力[1]。
还有研究者关注AI生成患者数据集的能力,这些数据集与真实数据保持高保真度。最近的例子包括训练Pix2Pix-HD模型生成与真实图像无法区分的合成视网膜眼底图像,使用SMOOTH-GAN生成模拟的电子健康记录[2,3]。这种合成数据集既可以在不侵犯患者隐私的情况下获取更多健康数据,也可以通过生成能填补空白的数据来解决缺失或偏倚的问题。另外,AI可以通过将文本提示翻译成分析代码(例如Python或R语言),来帮助研究者分析现有的数据集。
生成式AI还可以辅助研究者撰写和编辑论文,例如,有模型能够对三份具有不同复杂性的手稿提出合理的编辑建议,ChatGPT可以用英语生成高质量的技术论文摘要[4,5]。
可能的危害
然而,一些问题的存在使得利用生成式AI变得具有挑战性。生成式AI目前无法评估其总结信息的质量。它同样可能复制不准确、过时或有害的信息。还容易犯逻辑、事实和统计错误,并“自信”地呈现出这些“假内容”(例如压根不存在的论文)。例如,用抑郁症复发率问题对AI进行测试的研究者指出,该模型得出的结论是“治疗效果通常是持久的”[1]。然而,现有的结论显示,治疗效果通常会在一年内减弱。
此外,合成数据集也存在相当大的隐私挑战,因为输入的是真实患者的数据集,输出结果容易受到重识别攻击(re-identification attacks)。而且,尚不能保证合成数据是否有助于减轻偏倚。事实上,通过完全依赖现有知识和数据来创造内容,生成式AI可能会加剧偏倚和不平等。
AI的不透明性也给问责带来挑战(生成式AI工具通常甚至不引用文献来源),并且几乎不可能对产生的危害进行补救。总体来说,这些问题对研究的完整性构成了相当大的威胁,特别是当研究人员高估了生成式AI的能力和可靠性时。
目前还没有可靠的解决方案。针对这些风险提出的解决措施,包括提升研究者的即时技能,更新编辑指南以确保AI使用的透明化,建立合成数据集的衡量标准,将投资重点放在开源而非专有模型上,以及监管。上述建议看起来都很合理,但目前无法得知其中任何一个是否有效。在安全地将AI添加到医学研究者的工具包之前,我们对生成式AI用于医学研究应持谨慎态度。
参考文献:
[1] Nature.2023;614(7947):224-226.
[2] Nat Biomed Eng.2021;5(6):493-497.
[3] Artif Intell Med.2020; doi: 10.1007/978-3-030-59137-3_4.
[4] bioRxiv.2023;2023.01.21.525030.
[5] medRxiv.2023;2023.02.14.23285938.
文章整理自:BMJ. 2023;382:p1551
