你问大语言模型,啥问题它都能回答,但你若专业,你就会发现有时侯它在一本正经的胡说八道,这就是幻觉,因为它是在预测下一个词的概率,它实际并不知道对应真实的世界的对错。
简而言之,就是,大语言模型的幻觉就是不知道自己不知道,在不知道的情况下还是能胡诌八扯,从文字上看似自圆其说。
知道这个原则AI发展到什么程度,不用再听别人的忽悠了。
而且有傻逼忽悠你的时候,你看他知道不知道自己不知道,也就知道了。

你问大语言模型,啥问题它都能回答,但你若专业,你就会发现有时侯它在一本正经的胡说八道,这就是幻觉,因为它是在预测下一个词的概率,它实际并不知道对应真实的世界的对错。
简而言之,就是,大语言模型的幻觉就是不知道自己不知道,在不知道的情况下还是能胡诌八扯,从文字上看似自圆其说。
知道这个原则AI发展到什么程度,不用再听别人的忽悠了。
而且有傻逼忽悠你的时候,你看他知道不知道自己不知道,也就知道了。
