OpenAI 重塑人工智能学习机制,惩罚谎言,奖励诚实
来源: CoinWorld
时间: 2025-09-09 04:31:16
OpenAI 发现,大型语言模型中的幻觉现象源于其训练和评估方法,这些方法鼓励猜测而非承认不确定性。该公司建议加大对自信错误(confidential error)的惩罚力度,并对不确定的回答给予部分积分,类似于标准化测试中的负面评分。数据显示,以准确性为奖励的模型错误率更高,而承认不确定性的模型则表现更可靠。OpenAI 正在实施这些改进,以减少其最新模型中的幻觉现象。