近年来,人工智能在医疗领域的应用逐渐增多,其中自然语言处理模型如ChatGPT在提供医疗建议和信息方面引起了广泛关注。然而,最新的研究表明,尽管ChatGPT在许多领域取得了成功,但它在癌症治疗方案上的准确性仍有待提高。
这项由布里格姆妇女医院的研究人员进行的研究发现,在一个由ChatGPT提供的癌症治疗方案的回答中,有三分之一的信息是错误的。更令人担忧的是,ChatGPT倾向于混合正确和错误的信息,这使得很难区分哪些信息是可靠的。
研究人员对这种错误和不稳定性的程度感到震惊,他们指出这是临床领域亟需解决的重要安全问题。然而,这并不意味着人工智能在医疗领域没有潜力。相反,人工智能的发展在某些领域已经显示出巨大的潜力。
早些时候的一项重大研究发现,使用人工智能筛查乳腺癌是安全的,并且可能将放射科医生的工作量减少近一半。此外,一位哈佛大学的计算机科学家最近发现,最新版本的模型GPT-4在美国医学执照考试中表现出色,暗示其在临床判断力方面可能优于一些医生。
然而,尽管存在这些进展,当前的研究结果表明,像ChatGPT这样的生成型人工智能模型在提供医疗信息时仍存在准确性问题,并且在回答有关晚期疾病的局部治疗或免疫疗法的问题时最容易出错。因此,OpenAI 已经承认ChatGPT的不可靠性,并在使用条款中明确警告说,他们的模型并非旨在提供医疗信息,也不应该用于“为严重的医疗状况提供诊断或治疗服务”。
目前,尽管人工智能在医疗领域发展势头强劲,但由于生成型模型的准确性问题,它们不太可能在近期取代医生的角色。然而,这并不意味着我们应该放弃对人工智能在医疗中的应用。
相反,这个研究的结果提醒我们需要更加慎重地使用和开发这些模型,并将其作为辅助工具,而不是替代品。进一步的研究和实践将有助于增加这些模型的准确性和可靠性,为医疗专家提供更好的支持和决策依据,从而提高医疗服务的效果和质量。