你问大语言模型,啥问题它都能回答,但你若专业,你就会发现有时侯它在一本正经的胡说八道,这就是幻觉,因为它是在预测下一个词的概率,它实际并不知道对应真实的世界的对错。
简而言之,就是,大语言模型的幻觉就是不知道自己不知道,在不知道的情况下还是能胡诌八扯,从文字上看似自圆其说。
知道这个原则AI发展到什么程度,不用再听别人的忽悠了。
而且有傻逼忽悠你的时候,你看他知道不知道自己不知道,也就知道了。

你问大语言模型,啥问题它都能回答,但你若专业,你就会发现有时侯它在一本正经的胡说八道,这就是幻觉,因为它是在预测下一个词的概率,它实际并不知道对应真实的世界的对错。
简而言之,就是,大语言模型的幻觉就是不知道自己不知道,在不知道的情况下还是能胡诌八扯,从文字上看似自圆其说。
知道这个原则AI发展到什么程度,不用再听别人的忽悠了。
而且有傻逼忽悠你的时候,你看他知道不知道自己不知道,也就知道了。

最近太多的人一聊到AI有一个话题是避不开的,那就是很多人都会被AI取代。
了解当前AI的的训练方式,才能知道底层的逻辑,AI训练的数据其实也是成正态分布的,所以你如果在你所在行业有极深的经验和见地,你的技能就是正态分布的一端,如果你再跨界,除非AI和你学,不然还是替代不了的。

提示词
prompt

看了这篇就知道中医为啥有用,和中医为啥牛逼了。
中医治病就是根据辩证,然后通过模拟一个时空的气,来解决问题的,怎么模拟时空,不就是把在哪个语义空间的有一定特点的天然药物,拿过来,咔嚓一组合,不就有了想要的时空了吗?

没有任何prompt给大模型时,它在干啥?
给大模型一个prompt时它又在干啥?
它把该给你的给你了,之后,它又在干啥?
一切有为法,如梦幻泡影,如露亦如电。

在大语言模型的向量空间里,名词,形容词,动词,都会有比较确定的位置,可是道放哪呢?所以,道可道,非常道。
向量空间好像以前的文章里有,就不多讲了。
最近越发觉得大语言模型可以解释我们这个世界的很多东西。
