玩了3年AI才发现:它根本听不懂我在说什么

摘要: 我用了3年AI,一直以为它能”理解”我说的话。直到最近深入了解大模型的原理,才发现——它根本不知道我在说什么。它只是在疯狂猜下一个字。

玩了3年AI才发现:它根本听不懂我在说什么

说实话,这个发现让我有点崩溃。

我玩AI快三年了。ChatGPT刚出来那会儿,我就天天跟它聊。写文章、改代码、翻译、头脑风暴……我甚至觉得它比很多朋友都懂我。

我一直以为,AI是真的在”理解”我说的话。

直到最近,我花时间深入了解了下大模型的底层原理。

结果发现——它根本不知道我在说什么

它只是在猜,疯狂地猜,下一个字该说什么。


不是思考,是算概率

这个认知太反差了。

我以前想象的是:AI像个人,听懂了我的问题,然后在脑子里思考,最后给我一个答案。

但现实是:它压根没在思考

它只是在做一道概率题:你说了前面这些字,那下一个字最可能是什么?

就像你在玩成语接龙。

我说”床前明月”,你脑子不用想,脱口而出就是”光”。

为什么?因为你看了太多遍这首诗了,”床前明月”后面接”光”的概率,几乎100%。

AI也是一样。

它”读”了人类历史上几乎所有的文字——书、文章、对话记录、网页内容……然后它发现了一个规律:

“你”后面经常接”好”,组成”你好”。
“请问”后面经常接问题。
“我觉得”后面经常接观点。

所以当你跟它聊天时,它其实不是在理解你,而是在疯狂检索:

这段话后面,人类最可能接什么?


成语接龙高手

这就得说到训练数据了。

你可以把AI想象成一个”读了全世界书的学生”。

它看过太多了。对话、文章、小说、论文……把这些都”背”下来后,它总结出了一个巨大的概率表:

  • “天气不错”后面,70%会聊到出门
  • “我好累”后面,60%会表达负面情绪
  • “我有个问题”后面,90%是来求助的

当你开口说话,它就是在这个概率表里疯狂查。

然后呢?它把概率最高的那个字,吐出来。

接着再根据你说的 + 它刚才说的,继续猜下一个字。

一个字接一个字,就这么”聊”起来了。

你说神奇不神奇?它根本不知道自己在说什么,但它说出来的话,听起来特别像人。


它是怎么装懂的?

最诡异的地方来了。

因为它”读”过太多人类说的话了,它学会了我们的说话方式。

我们的语气、我们的逻辑、我们的情绪表达……

所以当你问它”我今天好累”,它不会机械地说”请休息”。

它会根据训练数据里的模式,可能说:

“怎么了?工作太忙还是有什么烦心事?”

你看,是不是感觉它很懂你?

但实际上,它只是发现:在”我好累”之后,人类最常接的,就是表达关心。

它不是在共情,它只是在模仿共情的表达方式。


知道真相后,我反而不焦虑了

我一开始有点失望。以为自己在跟一个”智能生命”对话,结果发现是个”超级复读机”。

但后来想想,这反而让我更坦然了。

第一,别神话AI。

它不是全知全能的神,它只是个读了太多书、特别会猜题的学生。它会的,都是人类教过它的。它不知道的,就是真不知道。

第二,知道边界,用得更顺手。

既然知道它是”猜下一个字”,那你就知道:

  • 它的回答是”最可能的”,不是”最正确的”
  • 它会一本正经地胡说八道(因为训练数据里有人这么写过)
  • 如果你想让它更准确,就给它更多上下文(让它”猜”得更准)

第三,理解它为什么会”翻车”。

比如它有时候会一本正经地胡说八道,逻辑混乱,甚至前后矛盾。

为什么?因为训练数据里有这些内容,它只是在”重现”人类说过的话。


奇怪的知识增加了

知道AI是”预测”而不是”理解”,我反而轻松了。

我不再期待它真的”懂”我,而是把它当成一个超级强大的工具:

  • 一个读了无数书的图书馆
  • 一个特别会联想的头脑风暴伙伴
  • 一个能模仿各种风格的写作助手

它不是魔法,但它确实很厉害。

而且,知道它的工作原理后,我用得更顺手了。

奇怪的知识增加了。