OpenAI更新ChatGPT使用政策,禁止提供专业医疗、法律和财务建议
IT之家 11 月 2 日消息,据 Teknotum 报道,OpenAI 已于 10 月 29 日更新了 ChatGPT 的使用政策,禁止其在某些原本被认为最具价值的应用领域提供服务 —— 例如解读医学影像、协助医疗诊断,以及提供法律或财务建议。
此举旨在防止 ChatGPT(以及其他任何 OpenAI 模型)输出可能被视作专业性、受托性或具有法律约束力的建议,以符合欧盟《人工智能法案》(EU AI Act)和美国食品药品监督管理局(FDA)的相关指导要求。

简而言之,这项政策调整相当于为医生、律师和金融顾问等专业人士设立了一道“职业防护盾”。今后,当用户寻求专业建议时,ChatGPT 将引导他们咨询人类专家,而非自行提供建议。
IT之家注意到,这一变化最初由 Reddit 用户发现:他们尝试上传医学影像请求分析时,模型拒绝处理或发表评论。但实际上,此次禁令的范围远不止于此。

ChatGPT 明确表示:“我可以以一般性方式解释法律法规、法院程序和监管条款,帮助您理解通俗语言含义,但我无法起草、解释合同,也无法就具体法律文件或个人案件提供法律建议。”
同时补充道:“我可以讨论经济趋势、投资组合理论或预算概念,但我不能推荐具体的证券、交易操作、税务策略,也不能提供针对个人情况的投资建议。”
这些限制直接抹杀了用户此前认为极具价值的一整类信息服务。律师和金融专业人士收费高昂,且服务质量并不总是可靠;而 ChatGPT 曾能快速处理复杂问题,并给出尚可接受的答案。
同样,在临床诊疗时间紧张的情况下,许多患者也依赖 ChatGPT 获取非正式的健康信息参考。
一位 Reddit 用户“bhannik-itiswatitis”评论称:“ChatGPT 在法律事务方面的表现非常出色,我从中受益良多,节省了大量费用。也许正因如此,他们才要收紧这方面的功能。”
另一位用户“8bit-meow”则表示:“它对我慢性病的帮助远超我的医生,让我省下了大量无谓就诊的开销。显然,我们不能让普通人真的降低医疗支出。”
需要强调的是,新规定并未阻止专业人士使用 ChatGPT 来增强自身服务能力。但随之而来的是一个棘手的问题:如何验证使用者是否真的是具备资质的医疗或法律从业者?这个问题或许指向了一个全新的产品方向,比如“ChatGPT 医疗版”、“法律版”或“金融版”等垂直领域专用版本。
版权声明
本文仅代表作者观点,不代表本站立场。
枣庄零距离