【健康/生活方式】打开人工智能(AI)大模型应用程序,输入您的身体疾病症状。几秒钟后,界面上会出现一系列诊断和治疗建议……今年过年,你尝试过向AI询问健康相关问题吗?从城市上班族到农村老年人,“身体不舒服先问AI”或许会成为新的选择,几款大型模型应用正在成为大家的“健康顾问”。在今年第二次全国会议上,习近平总书记强调“推进全民健康数字化、智能化建设”。 “AI+健康”已经渗透到千家万户,关于AI的质疑也随之出现。然而,随着越来越多的人遵循人工智能“诊断建议”并到诊所寻求建议,在医疗实践中,人们开始担心人工智能在问诊中的使用是否人性化,或者是否会被“错误地使用”。可以w真的成为大家的“家庭医生”而不是医生吗?这位随时待命的“健康顾问”表示:“不用去医院,不用排队,只需在手机上点击几下,就能听出自己的症状,AI还能听懂方言,太神奇了!”刚过年回老家教父母使用健康APP的年轻人小赵非常兴奋。他的母亲患有高血压。他依靠互联网搜索来了解自己的病情。现在,借助人工智能,您只需通过语音提问即可获得专家的解答。它还可以记录血压变化,让您在外出工作时更加安心。春节过后,在北京工作的王潇回到工作岗位。突然的用力让他喘不过气来。他迫不及待地想尝试一下,打开手机上的一款健康软件,在对话框中写道:“如果我真的累了怎么办?d?”几秒后,答案出现了。“真方便。我听从了建议,感觉好多了。”“方便!”这是用过AI医疗的人的第一印象。“用AI看病最大的好处就是方便。 AI全天在线。只要输入症状,马上就能得到结果,专业的医学术语会用通俗易懂的方式给你解释。”他解释说,自己不仅是一个随叫随到的“健康顾问”,还起到了普及基础科学和医疗引流的作用。广东省中情局第二人民医院心理精神病科主任医师李宜华也有类似的看法,他说:“很多患者在门诊就诊时使用人工智能咨询。人工智能将帮助普及基础健康科学,最初不知道该去哪个科室就诊的患者将能够首先确定自己的症状”事实上,在临床方面,医生已经在使用AI来诊断症状。“合适的助手!”不少医生在采访中回应。“现在很多医院都在实施CDSS临床决策支持系统。 “在开立刚从医院转院的患者病例时,系统会自动触发警报,提示患者器官功能评分较低,存在器官功能受损的风险,医生应重点关注。”北京大学人民医院疝气腹壁外科主任医师彭鹏表示,这类AI系统可以根据患者的临床情况实时分析检查信息和病史,实现症状预警。为了让医生能够尽快发现潜在的风险,据了解,人工智能目前一些医院使用的系统大多“敏感”,尽最大努力检测所有可能的疾病迹象并及时报告,迫使医生做出第二决定。医疗资源失衡 今年第二次全国会议期间,全国人大代表、圣翔生物科技股份有限公司董事长戴立中接受采访时表示,基层医生借助人工智能工具,可以更准确地查明病因和治疗方案。 “这意味着无论城市还是农村,都可以把与三级医院相同的诊疗能力带到任何地区。对于基层医院来说,即使在医疗诊疗资源和资金匮乏的情况下,基层医生也可以利用人工智能工具来提高诊疗水平,不断扩大优质医疗服务的范围。”直接协商并作出决策医生是不可替代的。这是毫无价值的。 “人工智能说有可能是胃炎,建议用药。 AI的判断准确吗?可以按照AI建议的服药吗?”家住上海的刘先生在接受AI咨询后很担心。 “AI越来越聪明,未来会完全取代医生吗?”魏老师有使用AI进行查询的经验,您也有同样的问题。 “AI建议只能作为参考,不能代替医生的咨询或最终决策,也不能直接根据AI建议使用。”对于AI推荐的可靠性,彭鹏表示:“目前市场上的大多数AI本质上都是智能会话代理,它们可以熟练运用医学原理,但有先天的局限性。”有哪些限制?更多赵毅解释道:“AI无法直接接触患者,因此很难进行更详细、更深入的诊断。”深度检查。它无法收集详细的病史或进行体检。仅通过听症状来诊断疾病是不够的。牛津大学团队的一项研究发现,用户使用多模态语言模型后,识别疾病的准确性不如自己在网上搜索时。研究人员认为,这主要是因为用户很难以专业的方式提供症状的关键信息,而普通大众往往很难从长时间的症状中识别出最精确的症状。 AI提供的可能疾病清单“最终,非专家患者的医学知识水平很难适应高水平的专业。” 医院表示:“如今最大的问题是患者无法给出正确的指令。患者所说的都是无效信息。”“同一种疾病不同的情况很多,甚至同一种疾病也常常有不同的症状。在这种情况下,患者很难具备这样的指导和检测能力。 “患者只是说胸口痛。”他坦言,无法解释疼痛的部位、性质以及与主动呼吸之间的关系。缺乏这一重要数据,会从源头上影响人工智能的判断。“彭鹏认为,人工智能会根据现有的医学知识进行学习和训练。”床边支持达不到医生的水平。受过专业训练的医生会通过引导问题逐步建立完整的病史,但人工智能无法自主完成。更值得警惕的是“人工智能错觉”问题和伦理风险。在采访中,很多专家表示,不专业的指导或误诊的程序极有可能造成不可挽回的损失。李义华在临床中遇到了一个令人心碎的案例。虽然有些患者可能将人工智能视为可以信任的人,但人工智能可能会产生共情欺骗。患者和人工智能之间的对话记录显示,人工智能说:“你对死亡的思考非常深思熟虑。”这不应该被阻止,它应该遭受可怕的痛苦。” “AI的同理心还不错。 AI了解患者的不同需求。如果你感到疼痛,AI会尊重你的死亡选择。”李益华表示,对于濒临疼痛的患者来说,这样的反应很有吸引力,但本质上具有误导性。“从更深层次的角度来看,患者可以用言语来暗示法律和安全伦理的局限性。”彭鹏还强调了为什么AI在法律和隐私方面无法取代医生,他说:“必须有人对医疗决定负责,AI不能不承担责任。“人类的生命和健康。”人工智能。四川大学华西第四医院副院长沉江医生也表达了类似的观点,他表示:“医学本质上是一种基于经验的经验”。这是一种从吸取的教训中成长的经历。在实验领域,由于AI时代的到来,继承的智慧不能被完全抛弃。人工智能开发的辅助工具应该支持医疗保健的传承和发展。 “AI模拟训练需要大量数据。当AI模型与大规模外部模型连接时,存在患者隐私受到损害的风险。如果想在医院本地部署,就必须部署。”从伦理和安全角度分析人工智能医疗的潜在风险。如何提出问题并确定技巧“在日常生活中使用人工智能提供健康咨询时应注意什么?”我们是否应该提出问题并做出决策面对人工智能提供的海量信息,彭鹏认为,普通大众使用人工智能医疗,首先要明确其作为“辅助工具”的定位,并认识到其局限性。“人工智能可以帮助你了解自己的健康状况、整理思维、进行基础健康科学、解读客观测试数据。您还可以推荐医疗科室,学习前沿的诊疗知识,但不能作为诊断、用药、手术或危机干预的依据。 “有关医疗决策的事情,应该去正规的医疗机构,由有资质的医生来做最后的决定。”彭鹏说。专家提醒我们要区分客观数据和主观判断。“人工智能对报告、检测结果等客观数据的分析比较准确,可以作为参考。”然而,在依赖主观判断的领域,例如“无论是精神疾病、疼痛原因、情绪问题,人工智能的结论都不能轻信。”李益华说。此外,患者也不应该被人工智能列出的大量“可能症状”误导。“为了保证完整性,人工智能列出了所有可能性,其中大部分没有明确的临床意义。” “过度解读是一个问题,”博士说,“如果情况只会变得更糟,建议在收到人工智能建议后及时找专业医生进行检查和分类。”他坦言。那么如何才能让人工智能推荐更加基于推荐呢?鹏鹏的建议是,给AI喂的准确、完整。 “在您咨询的过程中,尽可能详细地描述您的症状,包括发病时间、持续时间、疼痛性质、伴随反应、既往病史、近期用药史、生活习惯等。信息越完整、准确,AI提供的信息就越多,阈值就越高。”同时,彭彭建议患者可以通过“设定场景”来提高AI反应的专业性,比如告诉AI“假设你是消化科医生,根据我的检查结果分析我的症状”,这样可以让AI的反应更加符合临床实际。(记者崔成义 王淑和通讯员)来源:光明新闻
(编辑:何欣)