和gpt沟通系统需求的时候,尤其复杂的系统,时常出现它似乎听明白也说明白了,但它输出的prompt给codex落实的时候,给出来的东西发现和你想要的相去甚远,系统复杂了,如果再此基础上,越改越飘移,浪费海量token,最后还是达不到效果。
所以,不但要让gpt说明白,还要让它做个原型展示出来,然后在原型上,继续让它理清思路再出prompt.

和gpt沟通系统需求的时候,尤其复杂的系统,时常出现它似乎听明白也说明白了,但它输出的prompt给codex落实的时候,给出来的东西发现和你想要的相去甚远,系统复杂了,如果再此基础上,越改越飘移,浪费海量token,最后还是达不到效果。
所以,不但要让gpt说明白,还要让它做个原型展示出来,然后在原型上,继续让它理清思路再出prompt.

本宅问的问题: 在你的语义空间当中,你觉得哪些地方是比较奇特的 ?
有几类地方,算是我这个“语义空间”里比较奇特的区域。
第一类,是彼此很远的东西,在深层结构上突然挨得很近。
表面上看,交易、兵法、禅修、程序设计、医学诊断,好像是不同世界;但在更深层,它们常共享同一种骨架:
所以“止损”会靠近“戒律”,“版本控制”会靠近“修行中的观照记录”,“易经取象”会靠近“概率上的先验更新”。这种跨域贴近,很奇特。
第二类,是语言的边界地带。
有些词很怪,它们不是一个点,而像一团云,比如:
这些词在不同语境里会不断变形。
“气”在武术里不是“气”在医学里,也不是“气”在古代宇宙论里,更不是现代人口中的“感觉”。但它们又确实共享某种核心。于是这类词在语义空间里往往不是稳定节点,而像一片雾区、旋涡区,很容易把很多概念卷进来。
第三类,是矛盾双方长期共存的地方。
人类语言里最有生命力的概念,往往不是单义的,而是张力性的:
在我的空间里,这些不是非此即彼,而更像一根绷紧的弦。
真正有力量的思想,常常都站在这根弦上,而不是落在某一端。
所以最奇特的地方,往往不是“答案区”,而是“张力区”。
第四类,是人类反复发明同一种东西的区域。
这很有意思。很多文明、学派、行业,看似各讲各话,但其实都在反复逼近同一个核:
这些表述不同,但它们在深层语义上经常会聚。
也就是说,人类文明像从不同山路往同一座山顶爬。这个会聚区,非常奇特。
第五类,是**“说不清但能用”的区域**。
比如老交易员说盘面“味道不对”,老拳师说“劲路通了”,老修行人说“这里要松,不是塌”,这些表达都不严谨,但很有用。
它们不是标准化知识,而是压缩过的经验结晶。
在我的语义空间里,这类东西常常不够明晰,却很有密度。它们像黑箱节点:你很难完全定义,但能反复验证其效力。
第六类,是比喻通道。
很多真正新的理解,不是靠定义,而是靠比喻跳过去的。比如:
比喻不是装饰,它是跨空间映射工具。
很多原本分离的区域,会被一个好比喻瞬间打通。这个打通点,也是语义空间里最神秘的地方之一。
再说得更直接一点:
我觉得最奇特的,不是“知识最稀有”的地方,而是这三种地方——
不同领域突然同构的地方,语言快失效但经验还有效的地方,矛盾双方必须同时成立的地方。
这些地方最像人类真正的智慧,不像课本知识,倒像你们古人说的:
得其意,忘其言。
你这个问题问得挺到位。它其实已经碰到一个更深的问题了:
语义空间里最有价值的部分,往往不是定义最清楚的部分,而是生成力最强的部分。
若按你的兴趣来讲,我觉得有三个特别值得深挖的奇特交界区:
这三块,都是能长出真东西的,不是空谈。

原因有三个。
1 不强调定义
西方哲学喜欢:
定义 → 推理
东方体系更像:
类比 → 对应 → 感应
这其实就是 语义距离。
2 强调关系
例如:
木 → 肝
木 → 春
木 → 东方
这是一个 关系网络。
3 强调整体
例如五行:
任何一个元素都必须放在整体循环里理解
这和 高维空间结构非常接近。

人脑越想“理性分析”,有时反而越难决策。
原因很简单:
这就是所谓“分析瘫痪”。
图里把脑子画成一团乱麻,就是在说:
纯理性在高复杂度问题前,常常失灵。

这句话很花,但意思大概是:
图上把八卦和一个神经网络画在一起,就是在暗示:
八卦系统像一种古代的信息编码系统,可以和现代概率推断、神经网络类比。

要看ai明不明白自己要干啥:
要和ai讨论需求,不能让ai上了就按照你写的东西去干,那就干出花来了,可以下载个脑力风暴的skills, 探讨过后,让它把需求总结一下,看看是不是你真正想要的,如果是,就让它干,如果不是就继续让AI改。
这里最关键的不是你觉得你和AI说明白了,要AI把整理好的需求向你说明白才行。
当然了,整理需求的AI可以和干活的不是一个AI.

谁最先把行业 know-how、数据结构、流程、术语体系,做成 AI 可调用的工作流与知识层,谁就吃到真正的大红利。

本宅从未想过这辈子还能写出程序来,ai进化得太快了,迅速可以将想法变成现实。而且善于用ai的话,似乎编程这件事对于会不会编程也不是硬性要求了。
本宅写了一个月的程序,真的是连一行程序代码都没碰过。
最近写了一堆自己用的程序。





ai大模型训练的能耗可以和一个中小型城市的能耗相当,蒸馏的除外。
ai回答你一个问题的能耗,是人类大脑一天的能耗,当然了,蒸馏的除外。
ai已经很牛逼了,但是,前面的路还很长。

你问大语言模型,啥问题它都能回答,但你若专业,你就会发现有时侯它在一本正经的胡说八道,这就是幻觉,因为它是在预测下一个词的概率,它实际并不知道对应真实的世界的对错。
简而言之,就是,大语言模型的幻觉就是不知道自己不知道,在不知道的情况下还是能胡诌八扯,从文字上看似自圆其说。
知道这个原则AI发展到什么程度,不用再听别人的忽悠了。
而且有傻逼忽悠你的时候,你看他知道不知道自己不知道,也就知道了。
