人脑越想“理性分析”,有时反而越难决策。
原因很简单:
- 选项太多
- 变量太多
- 后果不确定
- 越分析越陷入反复权衡
这就是所谓“分析瘫痪”。
图里把脑子画成一团乱麻,就是在说:
纯理性在高复杂度问题前,常常失灵。

人脑越想“理性分析”,有时反而越难决策。
原因很简单:
这就是所谓“分析瘫痪”。
图里把脑子画成一团乱麻,就是在说:
纯理性在高复杂度问题前,常常失灵。

这句话很花,但意思大概是:
图上把八卦和一个神经网络画在一起,就是在暗示:
八卦系统像一种古代的信息编码系统,可以和现代概率推断、神经网络类比。

要看ai明不明白自己要干啥:
要和ai讨论需求,不能让ai上了就按照你写的东西去干,那就干出花来了,可以下载个脑力风暴的skills, 探讨过后,让它把需求总结一下,看看是不是你真正想要的,如果是,就让它干,如果不是就继续让AI改。
这里最关键的不是你觉得你和AI说明白了,要AI把整理好的需求向你说明白才行。
当然了,整理需求的AI可以和干活的不是一个AI.

谁最先把行业 know-how、数据结构、流程、术语体系,做成 AI 可调用的工作流与知识层,谁就吃到真正的大红利。

本宅从未想过这辈子还能写出程序来,ai进化得太快了,迅速可以将想法变成现实。而且善于用ai的话,似乎编程这件事对于会不会编程也不是硬性要求了。
本宅写了一个月的程序,真的是连一行程序代码都没碰过。
最近写了一堆自己用的程序。





ai大模型训练的能耗可以和一个中小型城市的能耗相当,蒸馏的除外。
ai回答你一个问题的能耗,是人类大脑一天的能耗,当然了,蒸馏的除外。
ai已经很牛逼了,但是,前面的路还很长。

你问大语言模型,啥问题它都能回答,但你若专业,你就会发现有时侯它在一本正经的胡说八道,这就是幻觉,因为它是在预测下一个词的概率,它实际并不知道对应真实的世界的对错。
简而言之,就是,大语言模型的幻觉就是不知道自己不知道,在不知道的情况下还是能胡诌八扯,从文字上看似自圆其说。
知道这个原则AI发展到什么程度,不用再听别人的忽悠了。
而且有傻逼忽悠你的时候,你看他知道不知道自己不知道,也就知道了。

最近太多的人一聊到AI有一个话题是避不开的,那就是很多人都会被AI取代。
了解当前AI的的训练方式,才能知道底层的逻辑,AI训练的数据其实也是成正态分布的,所以你如果在你所在行业有极深的经验和见地,你的技能就是正态分布的一端,如果你再跨界,除非AI和你学,不然还是替代不了的。

提示词
prompt

看了这篇就知道中医为啥有用,和中医为啥牛逼了。
中医治病就是根据辩证,然后通过模拟一个时空的气,来解决问题的,怎么模拟时空,不就是把在哪个语义空间的有一定特点的天然药物,拿过来,咔嚓一组合,不就有了想要的时空了吗?
