一则信号
这条新闻这两天让我反复琢磨 Teknotum:

起初,我以为原因很直白:大部分人在这三个领域都不是专业选手。有人对法律一知半解,有人拿着体检报告一头雾水,有人对投资拿不准主意,顺手就去问模型。
如今的 coding assistant 在巨人肩膀上构建,Agent 运行在一个几十年见持续进化的闭环信号系统当中,调试器,栈追踪,版本管理与影子系统等等为用户肆意的 vibe coding 提供了坚实后盾,用户发现代码错了就回滚或着定义更严格的执行框架,实在不行换个更聪明的模型也没有迁移成本。反馈来的即时,试错成本低廉,犯错宽容度高都是关键基因,这是一个已经踩实的商业化路径。
和编程领域不同,金融、法律、医疗没有一整套“试错极低成本”的生态,一旦出错,动辄就是钱、健康、甚至家庭。用户靠模型赚到了钱,和模型公司没多大关系;可要是亏了钱、闹了纠纷,麻烦就上门了。
可仔细看了一圈用户案例和公司结构,我又觉得没这么简单。除了“极端个例带来的风险”,还有个经常被忽略的主导因素:资本的压力。
资本的另一只手
美国本土不少法律、医疗机构在过去几十年间持续被大型私募并购整合,很多地方已经从“独立判断”变成了“流水线评分”。它们织出一张网:账单能开到天上去,之所以能运作,很大程度因为普通人不了解规则、也不了解机构的底层逻辑。某些大殖子在医院走一圈和主治医师聊聊天,回家收到五千多美元的账单;还不起?去某某慈善基金申请救助——而那个基金,往往还是这张网的另一个节点。
当模型变成“放大镜”
可以想象不远的将来:模型性能继续爬坡、上下文再拉长,几百页的阴阳合同往里一扔,所有猫腻都被逐条标出来;顺带再用律师函的口吻生成一封专业的警告信,把违规点一一圈出(目前以 gemini-2.5-pro 和 GPT-5 high 的能力边界来看,SOTA 模型已经一定程度覆盖了这个场景)。
这时候就有人坐不住了。行业里干了八到十年的老兵当然知道哪些做法灰不灰,但“常年对着法盲动刀”成了习惯。现在对面这个新人类,手里拎着大模型,直接把自己多年积累的 know-how 平推了——那我这年薪二十万美金是白拿的吗?算了,我也去问问模型,怎么反制🤠。
上面这些设想并不离谱,目前已经能看到 鲜活的例子。
另一场“军备竞赛”
金融就更不用多说了。我知道的一些小道消息里,早有对冲基金团队把 LLM 拉上台,当“本体研究员”做资产配置。2024 年年初我看过一些初创产品(例如:MarketSenseAI),实验里模型产出的投资组合与对冲基金主观团队的专业玩家撮的 baseline 还有明显差距;但这不等于未来没可能。用“LLM + 量化”的方式去挖 alpha,一旦跑通,很多中性产品会直接迎来灭顶之灾,市场会被推着进入下一轮“科技竞赛”。
我相信那些智商拉满、资源充沛的玩家还是会跑在前面。但也会出现一批“拿着核武器”的散户制造噪声,让原本在实盘里跑了很久的策略慢慢失效。
为什么“禁止建议”来得正好
如果换位思考,这些私募基金当然会尽早介入,让“难绷的时刻”晚一点到来。理念很简单:用户,最好一辈子是用户;别动不动就威胁游戏规则。
所以,“禁止模型提供决策建议”看上去是在控风险,实际上还守住了某些人的护城河。因为当模型开始让普通人理解规则、拿回一点点对抗不对称信息的能力时,很多行业里的既有分工、价格体系、利润结构,都不再那么稳固。
这才是真正让人坐不住的地方。
