我不是技术人士,问一个可能在技术人士看来是很肤浅的问题:hallucination 这个问题可以用在prompt 最后加一句这样的话来解决吗: "Don't make up things that are untrue. If you don't know the answer, just say you don't know." 在我看来,既然模型都可以按照CoT的思路来回答问题,应该也能理解不要瞎编的命令吧?
@fanjingwen96588 ай бұрын
我觉得不会,因为 model在train的时候并没有任何loss来penalize wrong answer,它optimize的是让回答as human like as possible,或者如果有RLHF 的话,as aligned as possible,所以光光 prompt应该解决不了。但我也不是这方面的专家哈哈,可能我是错的