OpenAI澄清,ChatGPT并非提供个性化法律或医疗建议的工具,仅用于帮助理解信息。研究发现,它回答医疗问题的准确率仅约三成。
OpenAI近日重申,ChatGPT不能被用于获取个性化的法律或医疗建议。公司在向CTVNews.ca发表的声明中指出,这并非新政策,而是对既有规则的进一步说明。
“ChatGPT从未是专业法律或医疗建议的替代品,”OpenAI表示,“但它仍是一个帮助人们理解健康与法律信息的强大工具。”
10月29日,OpenAI更新了使用政策,明确规定用户不得使用ChatGPT获取“需要专业执照的个性化建议”,除非有持证专业人士的参与。这一表述比今年1月29日的旧版本更为清晰。旧版仅要求用户不得“执行或协助任何可能显著影响他人安全、福祉或权利的活动”,其中也包括提供个性化的法律、医疗或财务建议。
在加拿大,ChatGPT迅速成为不少人搜索健康答案的首选。但研究显示,这样的依赖或许有隐患。
加拿大滑铁卢大学的研究人员曾测试ChatGPT-4在医疗问答中的表现,他们基于医学执照考试改编了若干开放性问题,结果显示,只有31%的回答完全正确,34%的回答被认为表达清晰。这意味着,尽管ChatGPT善于组织语言,却未必能准确提供医学知识。
另一项由不列颠哥伦比亚大学在10月发表的研究发现,ChatGPT在语言上极具说服力,甚至会影响病人与医生在现实中的交流时间。
研究者指出,ChatGPT给出的医疗回答往往语气自信、态度友好,听起来比真实医生还更“可信”。这导致不少患者在看医生前,已经被AI的语气“劝服”,即使信息本身存在错误,也难以被察觉。
不少医生因此抱怨,患者常常带着“AI诊断”来就诊,甚至坚持按照ChatGPT的说法来理解自己的病情。
OpenAI的这次澄清,某种意义上是给这一现象踩下了刹车。公司希望用户理解,ChatGPT的角色不是取代医生或律师,而是作为信息的“翻译者”,帮助人们更好地理解复杂的概念。
然而,正如学者们所警告的那样,在AI语言日益流畅的今天,“自信的错误”或许才是最危险的幻觉。

2025王摸鱼秋款卫衣,玩梗系列