文章主题:OpenAI, ChatGPT, 癌症治疗方案, 错误信息

666AI工具大全,助力做AI时代先行者!

由于ChatGPT等生成型模型存在准确性问题,它们不太可能在近期取代医生。

据 IT之家 8 月 27 日报道,尽管 ChatGPT 在全球范围内风靡一时,但一项最新的研究指出,在关键领域,该聊天机器人的表现尚不能替代人类专家。该研究由美国哈佛医学院附属的布里格姆妇女医院研究人员完成,他们发现 ChatGPT 生成的癌症治疗方案存在诸多错误。

打开凤凰新闻,查看更多高清图片

最近一项重要的研究成果在《美国医学院学会肿瘤学杂志》上发表,该研究探讨了 ChatGPT 在治疗各种癌症案件中的表现。研究人员向 ChatGPT 提供了多种癌症病例的治疗方案,然而,在三分之一的回答中,都存在不准确的信息。此外,研究也揭示,ChatGPT 在混合正确与错误信息方面具有倾向性,这使得我们难以判断哪些信息是真正有用的。

该研究的合著者Danielle Bitterman博士指出,他们对错误信息与正确信息交织的程度感到惊讶,这种情况甚至让专家难以察觉。她强调,虽然大型语言模型经过训练能够给出具有高度说服力的回答,但它们并非专为提供准确医疗建议而设计。因此,错误率以及回答的不稳定性成为临床领域亟待解决的关键安全问题。

在2022年11月,ChatGPT的问世引起了广泛关注,甚至在一夜之间便获得了1亿活跃用户的认可。然而,即使如此,生成型人工智能模型仍存在一定的缺陷,即在某些情况下可能会出现“幻觉”,这表现为 confidently providing misleading or entirely incorrect information。

IT之家近期注意到,我国正积极尝试将人工智能技术引入医疗领域,主要目的是为了优化管理流程。不久之前,一项具有重大意义的研究发现,采用人工智能手段进行乳腺癌筛查是安全且有效的,同时有可能大幅降低放射科医生的工作负担。此外,哈佛大学的计算机科学家近期的一项研究结果显示,最新版的GPT-4模型不仅能够轻松通过美国医学执照考试,还显示出与部分医生相当甚至更强的临床判断力。

然而,鉴于生成型模型如 ChatGPT 存在准确度问题,其在短期内替代医生的可能性并不大。《美国医学院肿瘤学杂志》的一项研究揭示了 ChatGPT 在回答中的误率:其中高达 12.5% 的回答属于“幻觉”类别,而在涉及到晚期疾病的局部治疗或免疫疗法问题时,其很可能提供错误的信息。

OpenAI 已经承认 ChatGPT 可能不可靠,该公司的使用条款警告说,他们的模型并非旨在提供医疗信息,也不应该用于“为严重的医疗状况提供诊断或治疗服务”。

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注