用户分享了自己在使用gpt-5-high进行微调训练role play模型时的经历。由于system prompt过长,导致training loss和eval loss都很低,用户原本认为是过拟合,而其他AI如gemini和claude则认为是数据量不足。然而,gpt-5-high精准地指出问题在于训练评估时应该对前面内容进行掩蔽,从而解决了问题。用户对gpt-5-high的能力表示赞赏,并认为尽管有时会批评,但close ai和奥特曼(可能是指其他AI)依然有实力。用户还提到了感谢88code提供的codex额度,使得他们能够接触codex。最后,用户通过一个链接分享了这个话题,并注明了来源是。

标签: none

评论已关闭