幻觉–不知道自己不知道

你问大语言模型,啥问题它都能回答,但你若专业,你就会发现有时侯它在一本正经的胡说八道,这就是幻觉,因为它是在预测下一个词的概率,它实际并不知道对应真实的世界的对错。

简而言之,就是,大语言模型的幻觉就是不知道自己不知道,在不知道的情况下还是能胡诌八扯,从文字上看似自圆其说。

知道这个原则AI发展到什么程度,不用再听别人的忽悠了。

而且有傻逼忽悠你的时候,你看他知道不知道自己不知道,也就知道了。

发表评论

邮箱地址不会被公开。 必填项已用*标注

此站点使用Akismet来减少垃圾评论。了解我们如何处理您的评论数据