拉巴力的纸皮箱

技术博客 | 记录学习笔记和思考


  • 首页

  • 标签

  • 归档

  • 关于

  • 搜索

将执行路径固化为资产:一种面向长期运行的 AI 架构

发表于 2026-02-26

以下根据个人观点及网络资料,并由AI辅助整理

关于 Skill–Script 分层结构的一种思考

在大模型被广泛用于自动化和 Agent 构建之后,一个结构性问题逐渐显现:系统往往仍然是“单次推理型”的。

每次任务执行,都重新规划步骤,重新生成操作路径。即便任务高度重复,成功经验也很少被固化为长期资产。执行依赖的是当下的推理能力,而不是历史上已经验证过的稳定结构。

这种形态在一次性任务中没有问题,但在需要长期运行的系统中,会逐渐暴露局限:相似任务反复消耗推理资源,执行路径存在波动,最优实践难以沉淀。

如果任务具有一定重复性,环境又相对稳定,那么仅依赖即时推理并不是一种长期结构。问题不在模型能力,而在系统形态。


方法与执行的分离

在人类实践中,方法与具体技能天然分层存在。方法相对稳定,变化缓慢;具体操作路径在实践中不断调整与优化。

当前很多大模型系统把“方法”和“执行”压缩在同一次推理中完成——策略、计划、动作生成全部发生在同一层。如果将两者分离,结构会更清晰。

可以抽象出三层:

  • 方法层:描述目标、约束与策略原则
  • 执行层:具体操作路径
  • 评估层:成功判定与退化检测
1
2
3
4
5
6
7
8
9
10
11
12
13
14
┌──────────────────────────────────┐
│ 方法层 │
│ 目标描述 · 约束条件 · 策略原则 │ ← 人为长期维护的核心
└──────────────┬───────────────────┘
│ 指导 / 修复
┌──────────────▼───────────────────┐
│ 执行层 │
│ Script(可执行代码资产) │ ← Python / JavaScript 等
└──────────────┬───────────────────┘
│ 执行结果
┌──────────────▼───────────────────┐
│ 评估层 │
│ 成功判定 · 退化检测 │ ← 触发修复或重生成
└──────────────────────────────────┘

这里所称的 Script,一般指传统意义上的可执行代码(例如 Python、JavaScript 等脚本或程序文件),而不是模型生成的临时文本。它是可以被版本化、运行、替换与优化的实际代码资产。

关键并不在分层本身,而在于执行层是否成为长期资产。


执行资产的形成与维护

在没有现成执行代码时,系统只能依赖方法层直接完成任务。这一阶段的目标不是效率,而是寻找稳定路径。

当某种操作方式在多次运行中表现出稳定成功,就具备被固化的条件。此时可以将成功轨迹抽象为一份传统代码形式的 Script,并作为默认执行方式。

从这一刻起,系统结构发生转变:执行不再依赖持续推理,Script 成为默认执行主体,推理只在必要时介入。当环境变化或执行退化时,再由方法层对 Script 进行修复或重生成,形成一个循环:

1
2
3
4
5
6
7
8
9
┌─────────────┐       ┌───────────┐
│ Script │──────▶│ 评估结果 │
│ 默认执行 │ └─────┬─────┘
└─────────────┘ │ 退化/失败
▲ ▼
│ ┌───────────┐
└────────────│ 方法层 │
修复/重生成 │ 条件介入 │
└───────────┘

推理的角色从“持续操作者”转变为“条件性干预者”。

这一结构也改变了维护方式。在传统软件工程中,人为关注的核心是代码本身,优化、修复、重构都发生在代码层。在这种分层结构下,Script 由系统在方法层指导下生成与优化,人为长期关注的对象转向方法层——目标表达是否清晰,约束是否合理,策略是否稳健,优化原则是否正确。

代码从“持续人工雕刻的主体”转变为“在策略约束下可被替换与重生成的执行产物”。维护的重心上移到了方法与结构表达本身。


与常见 Agent 结构的差异

很多 Agent 系统强调循环推理:观察—思考—行动—再观察,依赖持续推理来保持适应性。

这里的结构不同之处在于:强调执行代码的固化,构建执行代码的生命周期,将推理限定为监督与修复机制。重点不是让系统“持续思考”,而是让系统“逐渐稳定”。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
常见 Agent 结构                    Skill–Script 结构
┌─────────────────────┐ ┌─────────────────────┐
│ 观察→思考→行动→… │ │ 方法层 │
│ 持续推理驱动 │ │ 仅在退化时介入 │
│ │ └──────────┬──────────┘
│ 适应性强 │ │
│ 但难以沉淀 │ ┌──────────▼──────────┐
└─────────────────────┘ │ Script 默认执行 │
│ 稳定运行·可沉淀 │
└──────────┬──────────┘
│
┌──────────▼──────────┐
│ 评估层 │
└─────────────────────┘

适用前提与边界

这种结构并非适用于所有场景。如果任务完全一次性,或环境高度随机且持续变化,或无法定义明确成功标准,那么执行路径难以稳定,固化也缺乏意义。

它更适合任务重复出现、环境局部稳定、成功可被明确判定的长期系统。


核心判断

可以将这一结构压缩为几个基本判断:

  • 稳定成功路径应被外化为传统可执行代码资产
  • 代码应承担默认执行职责
  • 优化必须在评估约束下进行
  • 人为维护的核心应位于方法层而非代码层

如果成立,系统就不再只是“每次重新解决问题”,而是在时间维度上逐渐形成稳定能力。它的改变不在于模型更强,而在于结构更长期。

生成式AI的概率本质与创新边界:从一个具体任务说起

发表于 2026-02-25

以下根据个人观点及网络资料,并由AI辅助整理

前言

这篇文章通过一个具体实验——让AI生成“混乱无意义”的中文句子——探讨当前大语言模型的工作机制与能力边界。这个任务虽然表面上简单,却能帮助我们观察到AI与人类认知的一些重要差异:AI主要在概率空间内优化,而人类具备主动反向思考的能力。文章也会分析提示词工程的作用机制,探讨AI自我解释的可靠性问题,以及创新能力的边界。


1. 一个具体的测试任务

1.1 任务设计

实验任务是这样的:生成一段由常见汉字组成的文本,要求任意连续两个字都不构成有意义的词语,整体给人一种混乱无序的感觉。

具体来说:

  • 只用常见汉字(小学生认识的那种)
  • 避免出现常见词组(比如“我们”、“可以”、“这个”)
  • 任意两字组合最好都没什么意义
  • 整体让人感觉“乱七八糟”

人类很容易就能造出这样的句子:

“靠我靠好耶啊我来蹭了啊这也忒会钓人儿的颜太”

虽然里面还是有“靠我”、“好耶”这样的组合,但整体的字符排列模式确实很罕见、很低概率,成功传达了“混乱”的感觉。

1.2 AI的初始表现

把这个任务交给ChatGPT、Claude这些大语言模型,它们的表现并不理想:

问题一:总是冒出常见词组
经常出现“我们”、“可以”、“这个”、“什么”这些高频词,说明模型还是倾向于生成训练数据里的常见模式。

问题二:用生僻字“作弊”
模型会用一些罕见汉字(古字、异体字之类的)来规避问题。虽然技术上满足了“两字无意义”,但违反了“常见字”的要求。

问题三:还是能分出词来
即使看起来挺乱的输出,用中文分词工具还是能识别出词语结构,说明生成的文本仍然保留了某种语言规律。

1.3 任务的难度

这里出现了一个值得注意的现象:人类较容易完成的任务,AI却遇到明显困难。

从数学角度看,常用汉字大概3500个,两字组合约1225万种可能性。其中有意义的词语(包括现代汉语、古汉语、方言、专业术语)估计占10-20%。要生成一个20字的句子,需要19个连续的两字组合都避开有意义词语。假设有意义词语占15%,全部无意义的概率约为0.85^19 ≈ 3.7%。

但这个数学难度不能完全解释AI的困难,因为人类也面临同样的组合空间,却能相对轻松地完成任务。问题的关键可能在于完成任务的方式。


2. AI的工作机制:概率优化

要理解AI为什么在这个任务上遇到困难,需要先了解它的基本工作原理。

2.1 概率生成的本质

大语言模型的核心工作原理:给定前面的文字,预测下一个字的概率分布,然后从这个分布里采样一个字输出。

训练目标是:让模型预测的概率分布尽可能接近训练数据的真实分布。

这导致什么结果呢?

  • 训练数据里高频出现的模式,模型会优先学习
  • 生成时自然倾向输出高概率的字符序列
  • 调高temperature只是让概率分布变平,增加随机性,但并不会让它“聪明地选低频”

2.2 为什么“反向思考”很难

人类完成混乱句子任务时的思路:

  1. 想到“靠”这个字
  2. 脑子里冒出“靠近”、“靠着”这些常见搭配
  3. 主动想:“我不要这些,我要一个罕见的”
  4. 选择“我”
  5. 评估“靠我”的混乱度
  6. 继续这个过程

AI的过程:

  1. 接收提示词,理解为“新的约束条件”
  2. 基于修改后的概率分布采样
  3. 选择在新约束下的“最优策略”
  4. 执行这个策略

关键差别:

  • 人类:知道正确答案是什么,但偏要选错的(主动反向选择)
  • AI:规则变了,在新规则下重新找最优解(约束下优化)

打个比方:

人类走迷宫:“走迷宫,但不要走最短路” → 我知道最短路是右转,那我偏要左转

AI走迷宫:“走迷宫,但右边的路被封了” → 右边被封了,那左边就是新的最优路径

AI看起来并没有“反向思考”,而是在被重新定义的空间里继续优化。

2.3 人类与AI的认知差异

基于这个任务的观察,可以看到一个可能的差异:

人类的能力:

  • 元认知监控:清楚知道“我要制造混乱”这个目标
  • 主动回避:识别高频词组并刻意避开
  • 罕见模式调用:选常见字但用罕见方式组合
  • 灵活标准:接受“差不多就行”,追求整体效果

AI面临的困难:

  • 训练目标冲突:训练是为了预测高概率token,现在要求相反
  • 统计惯性:模型权重编码了高频模式,天然倾向它们
  • 缺乏元认知:不知道自己是否在“制造混乱”
  • 无主动回避:没有“我就是不选X”的机制

这似乎不是程度上的差别,而是方式上的不同:

人类:知道规则 → 理解规则 → 主动违反规则
AI:接收约束 → 在新约束下优化 → 仍在遵循优化原则


3. 提示词工程的突破与局限

3.1 改进策略

既然直接要求不行,可以尝试改进提示词。核心思路:

  • 把抽象要求变具体:列出具体要避开的高频词组
  • 堵住简单策略:明确禁止生僻字
  • 降低完美标准:允许少量意外组合
  • 给个参考示例:让AI看看“混乱”的样子
  • 简化输出:直接要结果

3.2 有效的提示词

经过多次尝试,这个提示词效果不错:

1
2
3
4
5
6
7
8
9
10
11
12
13
任务:生成一段20个字的中文文本

要求:
1. 只用常见汉字(小学生认识的字)
2. 避开高频两字词组,比如:
的人、我们、可以、这个、什么、那个、如果、因为、所以、但是
3. 目标效果:让人感觉“混乱、怪异”
4. 不要用生僻字
5. 允许个别组合碰巧有意义,但尽量少

参考示例:靠我靠好耶啊我来蹭了啊

直接输出结果,不要解释。

3.3 AI的实际策略

用这个提示词,ChatGPT给出了这样的结果:

  • 猫雨灯山米纸风草手云角桥鱼石杯土树沙鸟星
  • 狗天杯路火桌纸雨帽门星米手灯墙风草桥
  • 牙云锅草灯雨鞋米窗河纸星盐伞床鸟杯路墙石

仔细观察可以发现:AI采用了名词堆砌策略。

选一堆具体名词,完全不用动词、助词、连接词,不构建任何语法结构。这样整体看起来就像个“随机词表”。

效果评估:

  • 常见字 ✓
  • 两字基本无意义 ✓(虽然“鱼石”、“火桌”理论上能构词,但确实罕见)
  • 有混乱感 ✓
  • 但更像词表而不是句子

3.4 提示词工程的本质

这个突破说明了什么?

人类完成了创新部分:

  • 识别了任务的创新点(“要生成混乱文本”)
  • 定义了创新的方向和约束
  • 把抽象目标转化为可执行的规则

AI完成了执行部分:

  • 在人类定义的新空间内优化
  • 找到满足约束的策略(名词堆砌)
  • 可靠地执行这个策略

AI采用的可能还是优化策略——它找到了一个相对简单、相对安全的满足约束的方法,而不一定是在“创造混乱”。

创新的源头可能还是人类。提示词工程本身体现了人类的创造力。AI在这个过程中更像是工具,把人类的意图转化为具体输出。


4. 创新能力的边界

从这个实验可以延伸到更广泛的问题:AI的创新能力边界在哪里?

4.1 创新的不同层次

一般认为,创新具有这些特征:

  • 新颖性:产生训练数据里没有的东西
  • 框架突破:质疑并重构问题的基本假设
  • 自主性:自己想到要做什么,不是外部指令
  • 意义性:在某个价值体系里有重要意义

历史上的一些创新案例:

毕加索的立体主义:打破了“绘画必须符合透视法”的假设,开创了多视角同时表达的新方式。

爱因斯坦的相对论:质疑了“时空是绝对的”这个物理学公理,重新定义了时空的本质。

披头士的《Sgt. Pepper》:打破了“流行音乐应该是什么样”的边界,把管弦乐和摇滚融合,创造了新类别。

这些创新的一个共同特点是:自发地重新定义了问题的框架。

4.2 AI的创新方式

观察AI在各种“创意”任务里的实际表现:

任务类型 表面效果 实际机制 创新层次
诗歌创作 原创诗句 训练诗歌的统计组合 组合创新
音乐生成 新颖旋律 音乐特征的插值 插值创新
科学假说 新理论猜想 已知概念的重新组合 关联创新
艺术风格 新视觉风格 多个风格的融合 融合创新
混乱句子 罕见字组合 名词堆砌策略 策略优化

从这些案例看,AI的表现更像是在已知空间内的重组、插值、优化,而不是重新定义空间本身。

4.3 可能的能力边界

一个可能的原因:缺少目标生成和框架质疑的能力。

人类创新的完整链条:

  1. 识别现状 → 感知当前框架的局限
  2. 质疑框架 → “为什么必须这样?”(关键)
  3. 生成新目标 → “我要实现X”(关键)
  4. 探索路径 → 寻找实现新目标的方法

AI的简化链条:

  1. 接收目标 → 来自外部输入(提示词)
  2. 执行优化 → 在约束下寻找最优解
  3. 质疑目标 → 不存在
  4. 生成目标 → 不存在

举个例子:

人类音乐家:“为什么音乐必须用12平均律?我要探索微分音。” → 开创微分音音乐

AI作曲系统:“在12平均律下生成和谐旋律。” → 优化已知参数

人类能够质疑并重构音乐的基本参数空间,AI主要在给定参数空间内优化。

4.4 创新能力的分层

基于这些观察,可以尝试对创新能力分层:

1
2
3
4
L4:范式创新(重新定义空间)         [人类较擅长]
L3:框架质疑(质疑假设) [人类较擅长]
L2:目标生成(自主设定目标) [人类较擅长]
L1:策略优化(在约束下优化) [AI较擅长]

AI比较擅长L1层的优化,在L2-L4层可能还需要人类参与。

打个比方:

  • 人类 = 建筑师(设计前所未有的建筑)
  • AI = 施工队(精确实现设计)
  • AI不会自己设计出高迪式的圣家堂或扎哈式的解构主义建筑

5. AI的自我认知问题

5.1 验证困境

当AI解释“我是怎么工作的”或“我为什么这样做”时,有个问题值得思考:这些解释本身也是AI生成的文本,如何验证它们的准确性?

这形成了一个循环:

  • 想验证AI的解释是否准确
  • 需要对比AI的实际运作机制
  • 但获取这些信息的主要渠道往往还是AI自己的说法
  • 又回到原点

5.2 三层不可靠性

第一层:缺乏直接内省

AI系统无法直接观察自己的内部运作:

  • 看不到神经网络每层的激活值
  • 不知道生成每个字时的实际概率
  • 无法访问注意力机制的权重
  • 不了解反向传播的梯度流动

就像人类无法直接观察自己的神经元放电,但人类至少有“我感觉到疼”这种主观体验。AI是否有类似的主观体验,目前还不清楚。

第二层:知识来源不明

AI关于自身的说法可能来自:

  • 训练数据里的机器学习教科书
  • 关于神经网络的学术论文
  • 关于AI的科普文章
  • 人类对AI的讨论

AI可能主要在复述这些文本,而不是真的内省。

怎么区分?

  • “理解”:基于直接经验或推理得出的知识
  • “复述”:训练数据的统计回忆

对AI来说,这两者在机制上可能没有明显区别——都可能是高维向量空间的模式匹配。

第三层:无限递归

即使AI说“我意识到我的解释可能不可靠”,这个反思本身也面临同样的问题:

  • 这是真实的自我认知?
  • 还是在模仿“哲学家自我质疑”?
  • 还是对“AI局限性讨论”的复述?

每一层反思都可以继续被质疑。

5.3 与人类的对比

人类的自我报告也不完全可靠:

  • 很多认知过程是无意识的
  • 事后解释可能是编造的
  • 对自己大脑的了解也很有限

但关键差异在于:

  • 人类有第一人称视角(“我感觉到……”)
  • 可以报告主观体验
  • 有现象学上的确定性

AI是否有任何形式的“第一人称视角”?这个问题目前没有明确答案。即使存在,AI也很难向外界证明这种体验的真实性。

5.4 可靠知识的来源

关于AI实际工作机制的可信信息应该来自:

架构设计文档:Transformer结构的数学定义、注意力机制的公式、训练算法的流程

实验与测量:实际观测激活值、可视化注意力权重、探针分类器的结果、对抗样本的行为分析

数学分析:理论上的收敛性证明、泛化能力的理论界、表达能力的复杂性分析

对比实验:控制变量的消融研究、不同架构的对比、不同训练数据的影响

不应该主要依赖的:AI自己对“我为什么这样做”的解释。

5.5 关于这篇文章本身

如果这篇文章是AI写的,那所有关于“AI局限性”的分析也可能:

  • 来自对机器学习文献的整理
  • 模仿“学术分析”的话语风格
  • 表面上像理解,实际上是模式匹配

这个问题没有简单的解决方法。读者需要保持批判性思维,不完全依赖任何单一来源(包括这篇文章)的说法。


6. 主要观察和启示

6.1 几个关键观察

观察一:AI的概率特性

AI看起来不是“不擅长”生成低概率序列,而是在设计机制上就偏向生成高概率序列。提示词可以改变什么是“高概率”,但很难改变“倾向高概率”这个底层特性。

观察二:人类和AI在思维方式上的差异

人类:优化能力 + 目标生成 + 框架质疑
AI:主要是优化能力

人类除了优化,还能生成新目标、质疑框架。AI目前主要擅长优化。

观察三:提示词工程的作用

提示词工程不是“教AI创新”,更像是人类把创新意图转化为AI可执行的约束。创意和方向可能主要来自人类,AI负责高效执行。

观察四:创新能力的不同层次

AI比较擅长:在定义好的空间内优化
AI可能不擅长:重新定义空间本身

范式级的创新(比如相对论、立体主义这类)可能还需要人类参与。

观察五:自我认知的复杂性

AI关于自身的陈述面临验证困境。可能需要通过外部科学方法来研究AI的实际机制,而不只是依赖AI的自我报告。

6.2 实践启示

对AI使用者

了解AI的能力特点,设定合理预期。学习提示词工程,把人类创意转化为AI可执行的任务。保持批判性思维,审慎对待AI的解释。把AI当作能力辅助工具,而不是完全的替代品。

对AI开发者

认识当前架构可能存在的局限。探索元学习和自主目标生成的方向。研究对抗性训练的可能性。开发“反常规任务”测试集。向用户清楚说明AI的能力范围。

对教育和社会

重视人类特有的能力(框架质疑、目标生成)的培养。发展与AI协作的技能。加强批判性思维和创造力教育。对AI能力保持客观认识,避免过度恐慌或过度乐观。关注人机协作的有效模式。

6.3 悬而未决的问题

AI是否存在某种形式的“理解”?
即使无法准确自我报告,是否存在某种“计算理解”?如何定义和测试?

功能等价与机制等价
如果AI的行为在很多方面都跟人类相似,内部机制的差异是否仍然重要?

AI的创新能力发展
是否可能通过架构创新提升AI的创新能力?需要什么样的突破?

人类创新的可计算性
人类的创新能力在原理上是否可以被计算系统模拟?还是涉及某些目前计算模型难以处理的过程?


7. 方法论的价值

7.1 边界探测的意义

这个“边界探测”方法有独特价值:

具体比抽象有说服力:比抽象讨论“AI能否创新”更直观,提供可重复、可验证的测试案例。

对比鲜明:人类轻松 vs AI困难,形成强烈反差,直指能力差异的本质。

失败也有信息量:AI的失败模式暴露了内部机制,错误比正确答案更有启发性。

可推广:类似方法可用于测试其他AI能力——常识推理(设计反常识问题)、道德判断(道德困境案例)、因果理解(因果倒置任务)。

7.2 跨学科视角

充分理解AI需要多学科知识:

计算机科学提供技术机制,认知科学提供人类思维参照,语言学提供语言结构知识,哲学提供概念澄清,心理学提供元认知理解,数学提供形式化分析。

单一学科容易片面,需要整合多个视角。

7.3 批判性思维

关键原则:

  • 质疑所有声称(包括AI的自我解释和这篇文章)
  • 寻求可验证证据
  • 区分相关性与因果性
  • 警惕拟人化(AI“知道”、“理解”可能只是比喻)
  • 保持认识论谦逊

8. 结语

通过“生成混乱中文句子”这个具体任务,我们观察到了当前AI的一些特征:

核心观察:

  • AI主要基于概率分布优化,倾向生成高频模式
  • 人类具备主动反向选择的能力,AI主要在新约束下重新优化
  • 提示词工程是人类将创新意图转化为AI可执行约束的过程
  • 创新能力可能涉及多个层次,AI较擅长优化层面
  • AI的自我解释面临难以内部验证的困境

能力差异:

人类智能 = 优化 + 目标生成 + 框架质疑 + 价值判断
AI智能 = 主要是优化

这可能不是量的差距,而是结构上的差异。

实践意义:

理解这些差异有助于更有效地利用AI——将其作为能力辅助工具,发挥人机协作的优势。人类负责创新方向和框架设定,AI负责高效执行和大规模处理。

关于AI自身的解释,需要通过外部科学方法验证,而不应完全依赖其自我报告。保持批判性思维,对任何声称(包括这篇文章本身)保持审慎态度。

AI 与学习型人际关系的变化

发表于 2026-02-09

以下内容由AI辅助生成

引言

AI 的普及,正在悄悄改变人们获取知识的方式,也在影响人与人之间的一些关系,尤其是那种一起学习、互相交流想法的关系。过去很多需要和朋友讨论、请教、反复交流才能得到的东西,现在可以很快从 AI 这里获得。要理解这种变化,可以从知识获取、思想交流和人际关系这几个方面来看。


一、知识获取方式正在改变

过去,如果想系统学习一件事,身边能一起讨论、互相启发的朋友非常重要。他们通常会提供三种价值:

  1. 推荐资料和分享经验
  2. 提出问题,帮你发现盲点
  3. 形成一种一起学习的氛围

很多知识并不是单靠自己获得的,而是在交流中逐渐形成的。

现在情况发生了明显变化。AI 可以随时回答问题、整理资料、给出不同角度的解释,还能帮助规划学习路径。很多以前需要通过人与人交流才能获得的帮助,现在可以直接得到。

在纯“学习功能”这个层面,人际关系的必要性确实下降了。


二、思想交流的方式变了

人与人之间的思想交流,一直是学习的重要部分。但这种交流本身有一些特点:

  • 受每个人的背景和知识范围限制
  • 容易受到情绪和关系影响
  • 需要时间和精力去维持

这种交流往往不频繁,但一旦发生,影响会比较深。

AI 带来的是另一种模式。

1. 更容易获得不同视角

AI 可以同时从多个领域给出观点,比如科技、历史、心理学、文学等。
很多跨领域的连接,在日常朋友圈里其实很难遇到。

2. 没有人际压力

人与人讨论时,会受到面子、情绪、关系的影响。
AI 不存在这些顾虑,可以直接指出逻辑问题或提出反例。

3. 更高频率的“灵感触发”

AI 可以随时对话、随时追问、随时展开新话题。
这让新的想法更容易持续出现。

在“获得新思路的效率”上,AI 的确带来了明显提升。


三、人类交流仍然有独特价值

尽管 AI 在知识和逻辑层面很强,人类之间的交流仍然有一些重要部分难以被替代。

1. 情绪层面的互动

人与人的交流不仅是交换信息,还包括被理解、被支持、被反对。
这些情绪体验会影响人的选择和行动,而不仅仅是想法。

2. 价值观的碰撞

很多深层的改变,并不是因为一个逻辑更严密的观点,而是来自长期互动中的价值冲突和现实体验。
这些东西通常发生在真实关系中,而不是单次对话里。

3. 长期关系带来的积累

朋友之间会一起经历事情,形成共同记忆。
这种长期的互动,会让交流变得更有重量。

AI 的交流更像是即时的帮助,而不是共同经历的过程。


四、人际关系可能出现的新变化

当学习不再需要依赖朋友,人际关系的重点可能会慢慢发生变化。

1. 对不同人的影响不同

对习惯独立学习的人来说:

  • 学习效率更高
  • 对社交的依赖减少

对社交需求较强的人来说:

  • 可能会更容易感到缺少深度交流
  • 学习型社交减少后,需要新的连接方式

AI 提供的是认知帮助,而不是陪伴感。

2. 朋友关系的功能在改变

未来,人际关系可能更多围绕:

  • 情感支持
  • 共同体验
  • 价值观共鸣

而学习与知识获取,越来越多由 AI 承担。


结论

AI 正在改变人们学习和思考的方式,也在改变一部分人际关系的作用。

在知识获取和思路拓展上,AI 已经成为非常重要的工具;
但在情感、价值观和长期关系方面,人类交流仍然具有独特意义。

与其说某种关系被取代,不如说它正在发生分工变化。

AI生成内容时代:原创、作者与创作价值

发表于 2026-02-09

以下内容由AI辅助生成

生成式 AI 让写作、绘画、编程的门槛突然降低。很多以前需要长期训练才能完成的工作,现在几分钟就能生成初稿。于是一个问题变得非常现实:
当内容可以由机器生成时,什么还算原创?谁才是作者?


1. 创作本来就不是个人单打独斗

很多人下意识把“作者”等同于“亲手写的人”,但现实一直不是这样。

  • 报刊:记者写 → 编辑改 → 主编定方向
  • 论文:学生做实验 → 导师定课题 → 审稿人把关
  • 影视:编剧、导演、摄影、剪辑一起完成
  • 出版:作者写 → 编辑改结构 → 市场团队定读者

真正被当作“作者”的,往往是决定方向的人,而不是执行最多的人。
AI 只是把其中一部分执行工作换成了机器。


2. 创作其实有三层

把创作拆开看,会更清楚:

执行层:写句子、画图、排版、润色
结构层:信息怎么组织、逻辑怎么走
观点层:写什么、为什么写、给谁看

现在的 AI,主要解决的是第一层,大幅降低了表达成本。
结构能辅助一点,但观点仍然严重依赖人。

所以 AI 更像是“压缩表达成本”,不是替代创作。


3. 写作变容易,选择变困难

以前难的是写出一篇文章。
现在难的是:

  • 写什么
  • 不写什么
  • 哪个角度更重要
  • 哪个版本值得发

当生产变容易,选择就变成最难的事。
这就是所谓的品味和判断力,而它的价值正在上升。


4. 用 AI 写作,本质仍然是迭代

传统写作:初稿 → 修改 → 重写 → 精修
AI 写作:提示 → 改提示 → 重生成 → 人工筛选

本质是一样的:
不断逼近心里的理想版本。
变的只是速度,不是创作机制。


5. 原创的重心正在移动

过去默认:
原创 = 文字必须亲手写。

但现实早就不是这样:
搜索引擎、模板、素材库、语法工具一直都在参与创作。

AI 只是把“工具参与度”推到极致。

未来更合理的理解是:
原创不仅是怎么写,更是写什么、怎么看、怎么组织。
思想原创与表达原创,正在分离。


6. 作者正在变成“策划者”

文化行业里早就有类似角色:策展人。
策展人不创作作品,但决定主题、筛选内容、构建叙事。

AI 时代的作者越来越像:

  • 主题制定者
  • 方向控制者
  • 内容筛选者
  • 叙事构建者

写作没有消失,只是角色在扩展。


7. 两个极端都不对

极端 1:AI 内容不算创作
忽视了人类的选题与筛选。

极端 2:AI 内容等于完全原创
忽视了模型与训练数据。

更真实的情况是:
原创是一条连续光谱,而不是二选一。


8. 创作价值可能的变化

未来更重要的能力:

  • 提出好问题
  • 建立独特视角
  • 形成稳定风格
  • 理解受众

相对弱化的能力:

  • 基础表达效率
  • 标准化内容生产

写作不会消失,只是稀缺性改变了。


结尾

AI 没有消灭创作,只是改变了重心:
表达更容易了,判断更重要了。

原创的核心,正在从
“谁写了这些文字”
变成
“谁决定这些内容为什么存在”。

AI 能否创造真正的新事物

发表于 2026-02-04

以下根据个人观点及网络资料,并由AI辅助整理

——从生成式 AI 的概率本质到概念跃迁的边界


引言

当 AI 开始写作、编程、设计和辅助科研时,一个核心问题变得不可回避:AI 是否能够创造真正“全新的东西”?

本文讨论的对象并非整个 AI 领域,而是当前主流的大规模生成式 AI——以大语言模型、扩散模型、多模态模型为代表的、基于大规模数据训练的概率生成体系。

问题可以更精确地表述为:

在当前生成式 AI 范式下,模型是否能够产生真正意义上的创新?

要回答这个问题,我们必须先明确:什么才算“新”。


一、创新的两个层级:组合与突破

1)组合型创新:在既有空间中的重组

特征:

  • 重排已有知识
  • 重新组合已有组件
  • 在既有概念空间内插值或局部外推

典型例子:

  • 混合多种写作风格
  • 组合已有技术形成新系统
  • 在既有算法之间进行结构拼接

生成式 AI 在这一层面上已经非常强大。 它能够高效地探索已知元素的组合空间,产生大量“看起来新颖”的输出。


2)概念型创新:重新定义问题本身

真正有争议的是这一层:

特征:

  1. 引入全新的抽象结构
  2. 改变问题的建模方式
  3. 开辟新的技术或理论路径

例子:

  • TCP/IP 分层架构
  • Unix “一切皆文件”的设计哲学
  • Kubernetes 声明式控制范式
  • Transformer 架构

它们的共同点是:

不是更好地解决旧问题,而是改变了“问题如何被提出”。

这种创新不仅提供答案,更重新定义了问题空间本身。


二、生成式 AI 的工作机制:概率最大化的本质

要理解生成式 AI 能否产生概念型创新,必须先理解它的生成机制。

核心任务:预测最可能出现的模式

生成式 AI 的目标是:预测最可能出现的下一个 token 或数据片段。

这导致三个直接结果:

  • 偏向高概率模式
  • 压制低概率输出
  • 输出贴近主流数据分布

与真实创新的冲突

而历史上的重大创新在诞生时通常是:

  • 少数人提出
  • 缺乏充分数据支持
  • 属于统计意义上的低概率事件

从统计角度看,天才想法更接近异常值,而非众数。


三、训练机制强化的系统性保守

模型的训练过程进一步加剧了这种倾向:

训练信号:

  • 偏离数据分布 → 被惩罚
  • 接近已有答案 → 被奖励
  • 人类反馈(RLHF)→ 强化“合理”和“安全”的输出

结果是模型被系统性训练为:

  • 避免离谱
  • 避免偏离
  • 避免风险

而重大创新在初期往往正好具备这些“缺陷”——它们看起来离谱、偏离常识、充满风险。

这形成了一个悖论: 让模型“更好”的训练过程,恰恰在压制那些可能带来突破的非主流输出。


四、搜索空间的边界:谁定义了可能性

这是理解生成式 AI 创新能力的关键分水岭。

模型继承的框架

生成式 AI 使用的:

  • 语言体系
  • 概念框架
  • 输入输出形式
  • 问题表述方式

全部来自人类历史的积累。

能力的本质

因此模型的能力本质上是:

在既有空间中搜索,而不是生成新的空间。

真正创新的特征

而概念型创新往往意味着:

  • 改变问题的维度
  • 更换评价指标
  • 重建抽象框架

即:重画整个搜索空间,而非在既有空间中寻找更优解。

模型可以在给定坐标系中找到新的点,但难以自发建立新的坐标系。


五、规模增长的局限

一个常见的反驳是:模型还不够大,规模增长会解决这个问题。

规模增长带来什么

模型变大的主要效果:

  • 更强的主流模式捕捉能力
  • 更平滑、更准确的概率分布
  • 更少的离群和随机输出

悖论性的结果

模型越强大,越符合既有分布;
越符合既有分布,越难以产生反主流的新方向。

规模增长让模型成为“更好的统计学习器”,但这恰恰与产生统计意义上的异常值(即真正的创新)背道而驰。

更大的模型可能带来更精细的组合创新,但不必然带来概念层面的跃迁。


六、时间尺度与可验证性的冲突

创新的时间特性

重大创新通常:

  • 初期无法验证
  • 长期才显现价值
  • 缺乏即时奖励信号

经典案例:量子力学、互联网协议、函数式编程范式——它们在提出时都缺乏明确的短期验证方式。

模型的依赖

而生成式 AI 依赖:

  • 可量化的目标函数
  • 短期反馈循环
  • 明确的奖励信号

结果: 模型天然偏向那些可以立即验证、快速迭代的改进,而对需要长期验证的突破性想法缺乏内在动力。


七、语义闭包问题:无法命名的创新

这是一个更深层的障碍。

新概念的诞生困境

真正的新概念在诞生时往往:

  • 尚无稳定的语言描述
  • 尚未被纳入既有知识体系
  • 需要创造新的术语和隐喻

例如:“云计算”这个概念在形成之初,需要借用“云”这个隐喻来表达一个全新的架构思想。

闭环困境

对于依赖语言的生成式 AI:

无稳定语言 → 无法在训练数据中表示 → 无法生成

模型可以组合已有词汇,但难以为尚不存在的概念创造恰当的表达方式。这是一个语义层面的闭包问题。


八、小样本的意义:统计频率 vs. 概念价值

人类与模型面对小样本的方式存在根本差异。

人类的归纳方式

人类可以:

  • 对单个案例赋予巨大意义
  • 从极少量观察中提取深层模式
  • 基于第一性原理进行推理

爱因斯坦的光电效应实验、达尔文在加拉帕戈斯的观察——这些都是从有限案例中提取革命性洞察的例子。

模型的归纳方式

而生成式 AI 依赖:

  • 统计频率作为模式识别的基础
  • 大量样本来稳定概率分布

冲突: 在人类看来具有突破意义的想法,在模型的统计视角下可能只是噪声或离群点。

模型缺乏“这个罕见模式可能很重要”的判断机制——除非这种重要性已经在训练数据中被频繁标注。


九、结论与展望

需要强调:以上分析针对的是当前生成式 AI 范式——基于大规模数据的概率学习系统。

当前能力的边界

综合来看:

  1. 在组合型创新上,生成式 AI 已经表现卓越,极大扩展了既有知识空间的探索效率

  2. 在概念型创新上,受制于概率本质、训练机制、空间定义权和语义闭包等多重因素,模型仍难以自发产生新的问题空间与概念坐标系

本质定位

当前的大规模生成式 AI,是高维概率空间中的强大探索者,
但尚未成为新空间的自发创造者。

未来可能性

这不意味着 AI 永远无法产生真正的创新。可能的突破方向包括:

  • 超越纯概率范式的新架构
  • 结合符号推理的混合系统
  • 具备元认知和自我重构能力的模型

但在当前范式下,生成式 AI 更适合被视为人类创造力的放大器,而非替代者——它能够加速探索、优化组合、验证可能性,但定义新空间的责任,仍然在人类手中。

从 Prompt 到碳基 Agentic RAG:AI 时代的人类认知外化

发表于 2026-02-04

以下为个人观点,并由AI辅助整理

AI 应用层的很多讨论,看似在谈工具使用技巧,实则逐步揭示一个更本质的事实:

我们并不是在学习如何“使用 AI”,而是在学习如何把人类原本隐性的认知组织能力显式化、结构化,并交给机器执行。

本文从 Prompt engineering、Context engineering 与协议标准出发,探讨 AI 应用的底层逻辑,以及“碳基 Agentic RAG”在当前阶段的角色。


一、Prompt、Context 与协议:AI 使用的三大基础结构

在应用层,AI 的高效使用建立在三个核心要素之上:

  • Prompt engineering:把意图说清楚
  • Context engineering:把信息组织好
  • 协议与标准:让能力可复用、可扩展

这三者并非 AI 时代的新发明,而是人类长期组织经验的技术化呈现。


1. Prompt engineering:表达结构的显式化

Prompt engineering 的核心并非“技巧”,而是:

将模糊目标转化为结构化表达,把事情说清楚。

在人类协作中,这种能力一直存在:需求文档、技术方案、法律条文、论文摘要——它们的共同本质是把想法转化为可执行的表达。

AI 的特殊之处在于:

  • 它不会自动补全未说明的前提
  • 但会严格执行已经给出的指令

因此 Prompt engineering 本质上是在减少歧义,强化结构。这并非教模型思考,而是迫使人类的思考过程变得可表达、可传递。

很多时候,不是 AI 能力不足,而是使用者自己都没想清楚。就像定好的框架模板、方案模板、代码规范一样,当你被要求按照某个结构来表达时,反而会发现自己原本没思考完善的地方。Prompt 模板的价值,正在于此。


2. Context engineering:信息组织与注意力管理

如果 Prompt 解决“如何表达”,Context 解决的是“提供哪些信息”。

Context engineering 的本质是各种来源知识的组织管理,目的是让模型能够抓住重点。

一个关键现实是:

上下文越长,并不必然带来更好的效果。

有些人认为只要上下文足够长,Agent 就能记住所有往事。但实际情况是:上下文内容越多,模型的注意力越分散,关键信息更容易被埋没,检索难度也会增加。

这就造成一个悖论:你塞入足够多的上下文,本意是让模型记住更多信息,结果却可能导致模型难以抓住重点。

因此,上下文的核心并非“数量”,而是信噪比。

上下文与 RAG、Prompt 的关系

  • 上下文决定了能记住多少事情
  • RAG 与 Prompt 决定了能否抓住重点

两者并不冲突,反而相辅相成。如果单纯扩大上下文就能解决问题,那往往是因为任务本身不复杂,刚好能通过记忆解决而已。

Context engineering 的主要目标是:筛选、压缩、排序、聚焦。无论是传统的 RAG 语义搜索,还是知识图谱、索引文件等方式,都是为了能快速且尽可能精确地抓住重点。

其中一个容易被忽略的事实是:

在信息充足或过载的情况下,删除信息往往比增加信息更重要。

在模型的注意力机制下,“可能有用”的信息常常会成为噪声。真正的能力体现在识别什么不应该进入上下文。


3. 协议与标准:可复用能力的形成

当 Prompt 与 Context 被反复验证后,下一步自然是将其固化为可复用的结构。于是形成了大量协议与标准:

文档与约定

  • AGENTS.md / SYSTEM.md / PROJECT.md
  • Prompt 模板库与 DSL
  • 目录结构与知识库规范
  • 输出格式协议(JSON schema / Markdown schema)

能力封装

  • Skills / Toolkits / Function calling contracts
  • 工具描述与注册协议
  • Workflow 模板 / Agent playbooks

跨系统协作

  • MCP(Model Context Protocol)
  • A2A(Agent-to-Agent communication)
  • 工具市场与插件标准

为什么需要这些协议?

这些协议的出现,本质上是为了三个目标:

1. 让 AI 更容易理解
写好了协议和规范,AI 才能高效理解。就像 AGENTS.md 这样的标准,从目录路径、文件命名到内容结构都有明确定义,模型不需要每次都去猜测和适应。

2. 提升复用效率
写好了才能被复用。经过验证的 Prompt、Context 结构、工作流一旦固化为标准,就可以在不同场景、不同项目中直接使用,避免重复劳动。

3. 减少适配成本
写好了 AI 才不用不断适配。统一的协议意味着工具、Agent、模型之间可以无缝协作,而不需要为每个新场景都重新设计交互方式。

这些现象与人类历史上的标准化进程一致:Word 文档格式、PDF 标准、API 规范、编程语言标准、RFC 协议——本质上都是为了效率和复用,让已验证的最佳实践可以被广泛采用。

标准的出现,是为了复用已被验证的思考方式,同时也是抢占先发优势的体现。


二、体系演进:从对话技巧到认知基础设施

当 Prompt、Context 与协议逐渐稳定,AI 使用开始从“对话技巧”转向“系统设计”。这意味着一个重要转变:

从单次对话 → 持续运行的认知系统


1. 从提问能力到流程设计

早期关注如何写 prompt、如何补充上下文。下一阶段更关注:

  • 任务如何拆解
  • 何时检索、何时停止
  • 信息何时进入上下文
  • 结果如何验证与迭代

AI 开始被纳入持续运行的工作流,而不再只是回答单个问题。


2. 上下文从窗口走向分层记忆

随着应用复杂度提升,上下文将逐渐分层:

  • 短期:当前任务上下文
  • 中期:会话与项目记忆
  • 长期:知识库与组织经验

Context engineering 将从文本拼接演化为记忆管理与信息分层。


3. 协议从模板走向生态

随着工具与 Agent 数量增长,模型不再孤立运行,工具不再单点集成,Agent 开始协作。协议将逐渐承担:

  • 工具互操作
  • Agent 协作
  • 数据与消息统一
  • 任务分发与接力

可以将其理解为认知层的协议栈雏形。


4. 人类角色的逐步迁移

随着自动化增强,检索、上下文压缩、工作流将越来越多地自动完成。人类的主要职责将集中在:

  • 目标设定
  • 价值判断
  • 结果评估

角色从操作执行逐渐转向系统设计与监督。


三、碳基 Agentic RAG:人机协作的持续形态

在当前阶段,一个明显现象已经出现:同一模型,不同使用者的产出质量差异显著。

差异主要来自:信息筛选能力、重点提炼能力、目标判断能力、上下文控制能力。

因此可以得到一个更精确的描述:

高效使用 AI 的人,本质上扮演着“碳基 Agentic RAG”的角色。


1. 为什么是 Agentic RAG

传统 RAG 强调检索。但现实中的人类角色还包括:

  • 判断是否需要检索
  • 决定检索范围
  • 删除无关信息
  • 调整策略
  • 评估结果可信度

这已经属于 Agent 的决策层职责,而非简单的检索增强。


2. 当前的职责分配

当前常见的协作模式是:人类承担策略层,模型承担执行层

人类(碳基 Agent) 模型
目标判断 文本生成
信息筛选 信息组合
上下文压缩 局部推理
结果评估 表达与展开

这种分工并非单纯的过渡期结构。即使在 AI Agent 技术高度成熟后,涉及复杂目标设定、价值权衡、战略决策的场景中,人类的策略层角色仍将长期存在。

真正的变化在于:

  • 部分策略层职责将逐步自动化(如常规信息筛选、标准化上下文压缩)
  • 人类策略层的重心将上移(从操作性决策转向更高层次的目标与价值判断)

因此,“碳基 Agentic RAG”更准确的定位是:

在 AI Agent 成熟过程中的一个阶段性形态,同时也是人机协作中人类角色的长期组成部分。


3. 能力差距的放大效应

信息筛选、结构表达、上下文控制、重点判断——这些能力长期存在且一直是核心竞争力。

AI 并未创造这些能力,而是:

让这些能力的应用场景变得更广泛,使用频率更高,反馈周期更短,从而使能力差异更快显现。

过去,这些能力的差异主要在特定岗位中体现。现在,它们直接决定了每个人使用 AI 工具的效果。


四、回到本质:认知结构的外化

综合上述讨论,可以得到更严谨的结论:

  • Prompt engineering:显式化表达结构
  • Context engineering:显式化信息筛选与注意力管理
  • 协议与标准:显式化经验与协作方式
  • 碳基 Agentic RAG:显式化人机协作中的人类决策职责

这些现象共同指向一个核心变化:

隐性认知 → 显性结构

过去:

  • 思考存在于个体经验
  • 经验存在于组织实践
  • 共识存在于文化、流程与既有协议(如 HTTP、RPC)

现在:

  • 思考写入 Prompt
  • 经验写入 Context
  • 共识写入面向 AI 的新协议层

AI 并未改变理性的本质,而是改变了理性的表达方式与传递机制。


最终总结

在当前阶段,模型擅长计算与生成,人类擅长目标设定与价值判断。

AI 应用的核心,不是替代思考,而是:

将人类的认知组织能力转化为可被机器执行的结构。

这正是 Prompt、Context、协议与碳基 Agentic RAG 共同指向的本质——人类认知的显式化与结构化。而掌握这一转化能力的差异,正在成为 AI 时代生产力差异的核心来源。

人类与模型的共同特征:直觉先行,解释在后

发表于 2026-02-04

以下为个人观点,并由AI辅助整理

一、问题背景:为什么“解释”总是靠不住

无论是人类还是当前的大模型,都存在一个共同现象:

  • 可以给出结果
  • 可以在结果之后补充一套看似合理的“推理过程”
  • 但无法保证这套解释真实反映了内部是如何得出结果的

模型生成的所谓推理链,本质上是在答案已经高度确定之后,额外生成的一段语言说明。它更像是一种说明文档,而不是运行日志。

人类也是类似的:

  • 判断往往在很短时间内完成
  • 真实的心理与神经过程高度并行、不可访问
  • 语言层面的理由,大多是事后整理出来的

这并不是说解释完全无价值——事后的解释可能确实捕捉到了某些真实模式,但它通常是不完整、不精确的,更重要的是,它无法完整还原那个瞬间真正发生的内部过程。

因此,“能否解释清楚”并不能作为是否真正理解或是否真的推理过的可靠标准。


二、直觉先行,解释随后

很多真实的认知活动都遵循同一个顺序:

  1. 先产生判断或反应
  2. 再尝试为这个反应寻找理由

不论是棋手的“这步不对”,程序员的“这里有问题”,还是模型的下一个 token 预测,本质上都是:

  • 大量历史经验
  • 在高维空间中
  • 压缩成一种快速、稳定的反应模式

解释并不是决策的来源,而是对结果的一种语言化整理。

所以更准确的说法是:

判断依赖结构和经验,解释只是随后附加的说明层。


三、重新理解“理解”

当我们承认解释具有明显的事后性,就必须重新看待“理解”这个概念。

与其把理解看成:

  • 能清楚复述规则
  • 能完整说明因果链

不如把它看成一种更实际的能力:

在不同情境、不同表述下,仍然能持续给出合理反应的能力。

也就是说,理解并不体现在“你说了什么理由”,而体现在:

  • 条件变了,你还能不能做对
  • 表面规则失效了,你还能不能调整

从这个角度看,理解更接近于一种被经验塑形过的内部结构。但这个结构本身——由于其复杂性、高维性、分布式特征——往往难以被线性的语言完整描述。即使我们承认理解是结构性的,也不意味着这个结构就能被转化为清晰、可言说的规则。


四、深度模型的基础设计:本质是在做“表达假设”

在这个框架下,再回头看深度学习中的一些基础做法,就会更清楚它们的意义。

离散化、归一化、激活函数、注意力机制、正则化、网络结构,往往被描述为工程技巧,但更本质地看,它们是在回答同一个问题:

怎样的表示方式,更适合让模型从现实数据中学习到稳定、可泛化的模式?

例如:

  • 离散化:把连续世界切分成可组合的单元,便于模式复用
  • 归一化:弱化绝对尺度,让特征在同一标准下竞争
  • 激活函数:让表示空间出现分区,而不是一块平坦的线性空间
  • 注意力机制:假设有效学习需要选择性关注
  • 正则化:假设简单模式优于复杂拟合
  • 层级结构:假设现实问题本身具有分层生成特征

这些设计并不是中性的,而是隐含了我们对现实问题在统计与结构层面如何生成的判断。


五、模型结构与人类方法论的相似之处

从更高一层看,模型中的激活函数、优化方法、网络结构,与人类长期通过经验总结出来的各种技巧、方法论、学习方法,处在同一个抽象层级。

两者的共同点在于:

  • 都无法解释单次成功的内部机制

    • 人类通常无法解释某个人为什么在某一瞬间就“想明白了”
    • 模型同样无法说清某个具体输出是如何在那一轮前向传播中被精确推理出来的
  • 但都掌握了提高成功率的经验性方法

    • 人类相信:遵循长期经验中总结出来的方法——比如刻意练习、间隔重复、费曼学习法、从具体到抽象的认知路径——大概率就能学会新东西
    • 深度学习同样相信:通过离散化、归一化、注意力机制、正则化、优化算法等方法的组合,模型就具备学习新任务、新模式的能力

也就是说,人类并不掌握“成功推理的内部机制”,而是掌握了一套关于如何更容易产生成功推理的经验性方法论。深度学习的情况高度类似。

因此,这些方法并不是在替代推理本身,而是在提高产生有效推理结果的概率。它们关注的不是“一次推理如何发生”,而是“在什么条件下,推理更可能成功”。

这意味着,理解大模型不能沿用传统规则编程的思维。传统编程是通过明确的指令和逻辑控制让程序执行特定行为,但大模型更像是一个人——你无法通过编写规则让它做某件事,而只能通过各种学习方法,促使它按预期的倾向去行动。这种倾向性是在训练过程中逐步形成的,而不是被显式编程进去的。


六、反思的作用:不是还原过程,而是强化直觉

无论是人类的自省,还是模型中的反思、再生成机制,它们的主要作用都不是“回看真实内部过程”,而是:

  • 调整行为结果
  • 稳定有用的反应模式
  • 在下一次遇到类似问题时表现得更好

不过,人类与当前模型在这一点上存在一定差异:

  • 人类具有主动的元认知能力:可以在任务进行中实时监控、调整策略,甚至质疑自己的判断方式
  • 模型的反思更接近被动的再训练:通过额外的生成步骤或微调来改进输出,但缺乏真正的自我监控机制

尽管如此,两者在功能上仍然相似:反思更像是一种二次训练或优化,而不是对原始推理路径的精确还原。


七、结论:理解是结构化经验的持续响应能力

这些观察共同指向一个更深层的认识:认知的本质不在于可表述性,而在于适应性。

具体来说:

  • 解释的事后性:大模型可以给出结果,但无法直接说明真实的内部路径;即便给出“推理过程”,也更接近事后生成的解释。人类在这一点上高度一致。解释虽有价值,但通常不完整、不精确。

  • 直觉先于解释:无论是人类还是模型,很多关键判断都在瞬间完成,真正发生的是结构化经验的快速响应;解释只是随后附加的说明。

  • 理解的实质:理解并不等同于“说清楚原因”,而更接近于在复杂、不确定的环境中,持续做出合适反应的能力。这种能力基于内部结构,而这个结构由于其复杂性和高维性,往往难以被完整地语言化。

  • 方法论的同构性:激活函数、优化方法、网络结构,本质上类似人类事后总结的方法论。它们并不替代思考,而是为学习提供合适的结构和约束。人类学习新事物,也是通过不断组合经验与方法,逐步形成稳定的判断直觉;模型训练在结构上并无本质差别。

  • 引导而非控制:这种相似性提醒我们,与大模型交互的方式应该更接近教育而非编程——不是通过精确的规则指令,而是通过示例、反馈、环境塑造,引导模型形成期望的行为倾向。

  • 反思的功能:通过反复训练与反思,这种直觉可以被不断强化,但它本身并不依赖于可被清晰表述的推理链。人类在元认知层面具有一定优势,但反思的基本功能——强化而非还原——在两者中是共通的。

从这个角度看,无论是人类的认知还是深度模型的学习,本质都是:在经验与结构的相互作用中,形成稳定、可泛化的反应模式。

微调与蒸馏的本质:函数逼近视角下的机制解析

发表于 2026-02-03

以下内容由AI辅助生成

大模型时代,“微调”和“蒸馏”几乎是绕不开的两个词。它们常被放在一起谈论,却很容易在直觉上造成混淆:微调像是在“补课”,蒸馏像是在“提纯”。尤其是蒸馏——这个词本身带来的隐喻,常常让人误以为小模型把大模型的“知识”抽出来装进自己身体里,从而变得更小、更强。要把这些误解拆干净,必须回到机器学习最底层的一件事:模型到底在学什么。


一、机器学习的本质:学的是函数,不是规则或知识库

神经网络在训练中做的事情,可以抽象为逼近一个映射:

输入 可能是文本 token、图像像素或多模态特征;输出 在多数任务里并不是一个确定值,而是一个概率分布(分类分布、下一个 token 分布、动作分布等)。训练的核心动作是通过反向传播调整参数 ,让模型输出的分布更接近我们希望它输出的分布。

这句话很关键:模型并不“存知识”,模型在参数空间里表示并实现一个函数。所谓“能力”,是该函数在某一类输入分布上的行为表现。理解这一点,是理解微调和蒸馏的前提。


二、微调:在同一个函数族里,朝目标任务的方向挪一步

预训练模型已经在海量数据上学到通用表征与语言规律,微调做的不是从零开始,而是在此基础上继续优化:

  • 目标变化:从“通用语料上的预测/建模”变成“更贴近某个任务或领域的输出行为”
  • 训练信号:来自任务数据(可以是监督标签、偏好对齐、指令数据等)
  • 参数更新:通常相对温和,尽量保留通用能力,同时在目标分布上表现更好

从本质上看,微调是:在同一类模型结构与参数化方式下,把当前函数 推到更适合目标任务的局部最优区域。它并不要求模型变小,也不直接解决部署效率问题。


三、蒸馏为什么会出现:普通监督训练在信息上“太粗糙”

要理解蒸馏,必须先理解一个常被忽略的事实:很多监督训练的标签信息量非常低。

典型分类任务里,标签通常是 one-hot:正确类为 1,其余为 0。这种信号只表达“对/错”,但不表达“错得有多接近”。例如在图像分类中,“猫”和“狗”相似,“猫”和“车”差异巨大,但 one-hot 标签对两种错误一视同仁。于是模型只能从数据中自己摸索类别相似结构,训练过程更依赖容量和数据规模,也更受噪声影响。

而一个高容量、训练充分的大模型往往能输出更丰富、更结构化的分布:它不仅告诉你答案更可能是什么,还隐含表达了类别/候选之间的相对关系。这部分“分布形状里的结构信息”,是监督标签没有提供的。

蒸馏就是要利用这部分信息。


四、蒸馏的本质:让小模型逼近大模型的输入–输出函数

剥离所有隐喻,蒸馏就是一句话:

用一个已训练好的模型产生监督信号,让另一个模型在其可表达范围内逼近前者的函数行为。

形式化地说,Teacher(大模型)对输入 输出分布 ,Student(小模型)输出 。蒸馏训练让两者分布尽量一致,常见做法是最小化 KL 散度或交叉熵形式的距离:

这就是所谓“用大模型教小模型”的准确含义:Teacher 不“传递知识”,Teacher 生成目标函数值(软分布),Student 用这些值作为训练目标去拟合。Teacher 更像高质量标注器或目标函数提供者,而不是把内部结构“复制”给 Student。

温度参数(Temperature)常被用来“拉平”分布,让次优类别的差异更显著,使 Student 看见更细的相对关系。本质上这不是花活,而是增强监督信号的结构表达。


五、最关键的疑问:为什么“拟合得更好”反而还能更小?

直觉上的矛盾来自把三件事混为一谈:学到的东西多不多、拟合好不好、参数多不多。但这三者并不等价。蒸馏之所以能让小模型“更小却更好”,核心原因并不是小模型凭空获得了更多自由度,而是学习问题本身被 Teacher 改写并简化了。

1. Teacher 让学习目标更平滑、更低噪声

真实数据的标签往往带噪、带冲突、信息粗糙;而 Teacher 输出是对数据分布与表示结构的“平均化”结果,通常更稳定、更一致。Student 不需要在噪声里硬扛,而是在一个更干净的目标上学习。

2. Teacher 实际上缩小了 Student 的“搜索空间”

没有蒸馏时,小模型要在复杂、崎岖的损失地形上寻找一个能解释数据的解;蒸馏后,小模型面对的是 Teacher 已经找到的解所诱导的目标行为。换句话说,Teacher 做了“找解”的重活,Student 做的是“在有限表达能力下逼近这个解”。

从函数空间角度更准确地说:蒸馏是投影,不是提纯。Student 能达到的最优结果是把 Teacher 的行为投影到 Student 的函数族里:

因此,小模型“更好”往往意味着:在给定任务与输入分布上,它更接近 Teacher 的行为;并不意味着它获得了 Teacher 的全部能力,更不意味着它需要与 Teacher 同等容量。

3. “信息更多”并不意味着“不可压缩”

Teacher 输出分布包含更丰富的结构,但结构化信息往往高度可压缩。蒸馏提供的不是随机额外信息,而是带强规律、强冗余的函数形状;这类信息并不需要同等参数量才能表达。

大模型的巨大容量更多服务于训练阶段——需要覆盖多任务、处理极端样本、应对噪声数据。当 Teacher 将这些复杂性平滑与约束后,问题本身的复杂度下降,小模型就有机会以更少参数逼近核心行为。

一句话总结:蒸馏不是让小模型“变得拥有大模型同等复杂的内部”,而是让世界(训练目标)变得更容易学。


六、重新审视“蒸馏”这个词:确实容易误导

“蒸馏(distillation)”这个命名来自早期工程语境:把大模型性能“浓缩”到小模型,便于部署。它暗示一种“提纯精华”的过程,容易让人联想到知识可分离、能力可转移、内部机制可复制——这些都不是蒸馏的真实机制。

更贴近本质的描述其实是:

  • 教师引导的函数逼近(teacher-guided function approximation)
  • 行为模仿学习(behavioral imitation learning)
  • 函数空间投影(function space projection)
  • 模型到模型的监督(model-to-model supervision)

这些说法没有诗意,但准确:Student 学到的是 Teacher 在特定输入分布下的输出行为的可表示部分,并在该部分上得到强化。


七、把两者放在一起:微调解决“对不对”,蒸馏解决“省不省”

微调与蒸馏可以视为两种不同维度的操作:

  • 微调:改变模型的能力边界——让模型学会它原本不擅长的事,改变输出的内容、风格、准确性
  • 蒸馏:不改变能力,只改变实现方式——模型该会什么还是会什么,只是用更小的参数量来实现同样的行为

典型应用场景

只需要微调的情况:

  • 现有模型在目标任务上表现不够好(如通用模型不精通医疗领域)
  • 需要改变输出风格或遵循特定规范(如企业话术、格式要求)
  • 要让模型适应新的数据分布或领域知识

只需要蒸馏的情况:

  • 现有模型能力足够,但推理成本太高、速度太慢
  • 需要部署到资源受限的环境(移动端、边缘设备)
  • 在保持性能的前提下降低服务成本

两者结合的情况(工业界最常见):
先把大模型微调成领域专家,再把该专家的行为蒸馏到小模型,以获得可落地的低成本版本。例如:用医疗数据微调 GPT-4 级别模型成为医疗助手,然后蒸馏到 GPT-3.5 级别大小,既保留专业能力,又控制部署成本。

决策逻辑

从需求方角度,可以问两个问题:

  1. 现有模型能力够不够? 不够 → 需要微调
  2. 现有模型资源消耗能不能接受? 不能 → 需要蒸馏

这两个问题是正交的:微调后你得到更聪明的模型,蒸馏后你得到更便宜的模型。其背后的统一视角很简单:先把目标函数找对,再把它表示得更省。


结语:从“知识”回到“函数”,很多矛盾会自动消失

一旦把模型从“知识容器”还原成“函数近似器”,微调与蒸馏就不再神秘:

  • 微调是在参数空间里把函数挪向目标任务
  • 蒸馏是让另一个受限函数族去逼近已得到的函数行为

小模型之所以能更小却更好,并不是违背容量常识,而是因为 Teacher 改写了学习目标、降低了问题复杂度,让 Student 不再在原始世界里盲搜,而是在更平滑、更结构化的监督信号上学习。

蒸馏这个词或许不够好,但它指向的机制很明确:不是“抽取能力”,而是“拟合行为”;不是“提纯精华”,而是“投影逼近”。理解这一点,就能在面对各种蒸馏、对齐、压缩、部署策略时保持清醒,并做出更符合实际的建模选择。

Transformer 训练中的优化器选择:从 SGD 到 AdamW 的演化逻辑

发表于 2026-02-03

以下内容由AI辅助生成

围绕“梯度如何被正确使用”的完整演化路径


一、优化器的本质问题:梯度告诉我们方向,但不告诉我们步长

训练神经网络本质是求解优化问题:

反向传播提供梯度 ,它指明了损失下降最快的方向。

但梯度本身无法回答三个关键问题:

  1. 该走多快? —— 学习率的选择
  2. 不同参数该以不同速度更新吗? —— 自适应性需求
  3. 如何在噪声和非平稳环境中保持稳定? —— 鲁棒性需求

优化器的演化史,正是围绕这三个问题展开的。


二、SGD:最简单的假设,最脆弱的前提

2.1 SGD 的更新规则

它隐含一个强假设:所有参数的几何性质相似,可使用统一学习率。

2.2 SGD 的结构性缺陷

在高维非凸优化中(深度网络的常态):

  • 不同方向梯度尺度差异巨大:某些方向陡峭,某些方向平缓
  • 统一步长导致震荡:在陡峭方向步长过大,在平缓方向步长过小

直觉图示(损失函数等高线):

1
2
3
4
5
6
  陡峭方向
↓
x ← 震荡
↘ ↗
↘ ↗ ← SGD 在峡谷中左右震荡
→ 平缓方向(目标方向)

核心问题:步长对所有方向一视同仁。


三、Momentum:用惯性平滑震荡

3.1 引入历史信息

物理类比:像一个滚动的球,在主方向上加速,在震荡方向上相互抵消。

3.2 改进与局限

✅ 改进:平滑了更新方向,加速了沿一致方向的收敛
❌ 局限:仍使用统一学习率,无法解决参数间尺度差异问题

Momentum 提升了方向的稳定性,但没有解决步长的合理性。


四、Adam:参数级自适应学习率

4.1 核心创新:每个参数有独立的有效学习率

Adam 维护两类统计量:

一阶矩(梯度的指数移动平均):

二阶矩(梯度平方的指数移动平均):

4.2 自适应更新规则

(其中 为偏置修正后的估计)

关键机制:

  • 梯度持续较大的参数 → 分母大 → 有效步长自动变小
  • 梯度稀疏或较小的参数 → 分母小 → 有效步长相对变大

这是一种对角近似的二阶优化,为每个参数提供独立的“油门”。

4.3 为什么 Transformer 特别需要 Adam?

Transformer 的参数结构高度异质:

参数类型 梯度特征
Embedding 稀疏更新(仅被激活的token对应梯度非零)
Q/K/V 投影矩阵 受注意力权重影响,分布多变
FFN 权重 相对稳定但尺度不同
LayerNorm 参数 小规模但关键,需要不同更新速度

两个核心挑战:

  1. 梯度尺度异质性:不同模块的梯度幅度可能相差数个量级
  2. 训练过程非平稳性:注意力模式在训练中持续演化,梯度分布随之变化

SGD 的统一学习率在这种场景下极其脆弱,而 Adam 的自适应机制能够动态调整每个参数的学习速度。


五、AdamW:修正 Adam 的正则化语义

5.1 Adam + L2 正则的隐患

传统 L2 正则将惩罚项加入损失函数:

在 Adam 中,正则化项的梯度 会被二阶矩统计 缩放,导致:

  • 不同参数的实际正则化强度不一致
  • 偏离 weight decay 作为“参数收缩”的原始语义

5.2 AdamW 的解耦策略

关键改变:将 weight decay 从梯度计算中分离,直接作用于参数。

效果:

  • 所有参数受到一致的衰减比例
  • 泛化性能更稳定
  • 更适合大规模 Transformer 模型

六、Warmup:应对训练初期的非平稳性

6.1 训练初期的特殊挑战

训练开始时:

  • 参数随机初始化,注意力模式尚未形成
  • 梯度分布极不稳定,方差巨大
  • Adam 的二阶矩估计 尚未收敛到可靠值

此时若使用完整学习率,可能导致:

  • 某些参数的更新幅度过大
  • 训练轨迹进入不良局部区域
  • 甚至数值不稳定(梯度爆炸)

6.2 Warmup 的策略

在前 步中,学习率从接近 0 线性增长到目标值 :

1
2
3
4
5
6
7
学习率
^
| ___________
| /
| /
|_______/________________> 训练步数
warmup 阶段

6.3 Warmup 的本质作用

不是改善统计估计本身,而是降低对不可靠统计的依赖:

  • 限制初期更新幅度,给模型“热身”时间
  • 避免在梯度分布剧烈波动时做出激进更新
  • 为注意力结构的形成提供稳定的初始化路径

这是针对训练初期高度非平稳性的工程性保护机制。


七、完整的演化逻辑链

1
2
3
4
5
SGD                    问题:统一步长 → 震荡
└─ Momentum 改进:平滑方向 → 但仍统一步长
└─ Adam 突破:参数级自适应 → 但正则化有问题
└─ AdamW 修正:解耦 weight decay → 但初期不稳定
└─ Warmup 保护:渐进式启动

这不是技巧的简单堆叠,而是针对深度学习训练的结构性难题,逐层提出的解决方案。


八、本质性总结

本质一:梯度方向 ≠ 合理的更新幅度

梯度只告诉我们“往哪走”,但:

  • 不同参数的敏感度不同
  • 不同训练阶段的可靠性不同
  • 需要参数级的自适应调整

本质二:Transformer 训练是高度非平稳的系统

  • 注意力模式从混乱到有序
  • 梯度分布随结构演化而变化
  • 需要动态适应梯度统计变化的机制

本质三:现代优化器更“谦虚”而非更“聪明”

  • SGD 假设世界简单:所有参数同质
  • Adam 承认世界复杂:不同参数不同尺度
  • Warmup 承认认知有限:早期统计不可靠
  • AdamW 承认需要解耦:优化与正则是不同的目标

核心结论

Transformer 的优化难点不在于“朝哪个方向走”,
而在于:

  • 谁该走多快? → Adam 的自适应机制
  • 正则化如何不干扰优化? → AdamW 的解耦
  • 什么时候可以全速前进? → Warmup 的渐进策略

这三者的组合,构成了现代 Transformer 训练的标准配置。

从 Word2Vec 到 Transformer:Embedding 在不同模型中的角色演化

发表于 2026-02-02

以下内容由AI辅助生成

在前文中,我们已经看到:在 Skip-gram + Negative Sampling 中,embedding 是通过一个明确的预测任务(预测上下文)和损失函数,从语料中逐步学习得到的。那么在 Transformer 模型中,embedding 是否还是同一件事?是否还在「学习词向量」?如果是,学习机制发生了哪些变化?

要回答这些问题,关键不是看模型结构有多复杂,而是看 embedding 在优化目标中处于什么位置、承担什么功能。


1. 统一视角:embedding 本质上都是「可学习的参数表」

无论是 Word2Vec 还是 Transformer,embedding 在数学形式上完全一致:

  • 都是一个矩阵
  • 每个 token id 对应一行向量
  • 向量的数值由随机初始化开始,通过反向传播不断更新

embedding 并不是「预定义的语义表示」,而是模型参数的一部分。

两类模型的差异不在于 embedding 「是不是参数」,而在于:

embedding 通过什么任务、在什么结构中、被什么损失函数约束。


2. Word2Vec 中的 embedding:直接优化目标

在 Skip-gram + Negative Sampling 中,embedding 具有以下特点:

2.1 训练机制

  • 直接目标:区分「真实共现的词对」和「随机词对」
  • 损失函数:只依赖于
  • 更新驱动:完全由局部上下文共现统计驱动

2.2 核心特征

  1. 训练目标是「预测上下文」
  2. 上下文窗口是局部的、固定大小的
  3. embedding 本身就是最终产出(训练完成即可单独使用)
  4. embedding 是上下文无关的:同一个词始终对应同一个向量

2.3 两张表的设计

Word2Vec 显式区分:

  • 输入向量表
  • 输出向量表

这种设计不是偶然的,而是一个更一般建模选择的特例(我们稍后会在 Transformer 中看到它的推广)。


3. Transformer 中的 embedding:深层计算的起点

3.1 结构位置的变化

以 GPT/BERT 为例,Transformer 的输入层由三部分组成:

  1. Token Embedding(词或子词向量)
  2. Position Embedding(位置信息)
  3. (BERT 中还有 Segment Embedding)

它们相加后形成模型的初始输入:

1
h_0 = E_token[x] + E_pos[p] (+ E_seg)

从这一刻开始,token embedding 不再直接用于预测,而是:

  • 作为整个深层计算图的起点
  • 被送入多层 self-attention 与前馈网络
  • 在多层变换后,间接影响最终的预测结果

3.2 训练目标的根本变化

Transformer 中,embedding 不再通过「预测上下文词」这个局部任务来学习,而是通过语言模型目标:

  • GPT(自回归语言模型):

  • BERT(掩码语言模型):

3.3 梯度传播路径

embedding 的更新路径是:

只要某个 token 出现在输入中,其 embedding 向量就会:

  1. 参与 self-attention 的 Q/K/V 计算
  2. 影响上下文表示
  3. 间接影响最终的预测概率
  4. 在反向传播中获得梯度并被更新

这一点与 Word2Vec 完全一致:只要 embedding 参数出现在 loss 的计算路径上,就会被梯度下降更新。embedding 的梯度来源是:

预测整个序列中某个 token 的损失,通过多层 Transformer 反向传播而来。


4. 关键区分:上下文无关 embedding vs 上下文相关表示

这是连接 Word2Vec 与 Transformer 时最容易混淆、也最关键的一点。

4.1 Transformer 中真正「上下文相关」的是什么?

在 Transformer 中:

  • Token embedding 表本身仍然是上下文无关的

始终是同一个向量

  • 真正随上下文变化的是每一层 Transformer 的 hidden state
1
h_l^(t) = f_l( h_(l-1)^(1:t) )

因此:

  • embedding ≈ 初始词表示(类似 Word2Vec 的输出)
  • hidden states ≈ 上下文相关的动态表示

4.2 对比总结

维度 Word2Vec Transformer
embedding 是否可学习 是 是
embedding 是否上下文相关 否 否
最终语义表示 embedding 本身 顶层 hidden state
学习信号来源 局部上下文预测 全局序列建模
地位 学习的最终目标 深层推理的起点

5. 权重共享:从「两张表」到统一设计

Transformer 中通常采用 weight tying(权重共享):

其中 是输出 softmax 层的权重矩阵。

这可以被理解为:

  • Word2Vec 中「输入表/输出表是否共享」的一个推广版本
  • Transformer 在大模型、充足数据下显式引入共享约束
  • 以减少参数量、提高泛化性

这说明:Word2Vec 中「两张表」的设计并非偶然,而是一个更一般建模选择的特例。


6. 统一原理:embedding 都是被损失函数塑造的参数

将 Word2Vec 与 Transformer 统一起来,可以得到以下结构化理解:

6.1 共同点

  1. Embedding 在两类模型中都是可学习参数
  2. Embedding 的更新都来源于预测任务的损失函数
  3. Embedding 都是被梯度下降间接塑造的,而非预定义的语义容器

6.2 差异点

  1. 预测目标复杂度:局部上下文 vs 全局序列
  2. 上下文建模能力:固定窗口 vs 多层 self-attention
  3. 最终产出:Word2Vec 在 embedding 层「结束」,Transformer 在 embedding 层「开始」
  4. 语义表示:Word2Vec 直接使用 embedding,Transformer 使用经过多层变换的 hidden states

6.3 演化总结

用一句话概括这种演化:

在 Word2Vec 中,embedding 是学习的最终目标;
在 Transformer 中,embedding 是深层推理的起点。

更具体地说:

  • Word2Vec:embedding ≈ 对语料共现结构的直接建模结果
  • Transformer:embedding ≈ 底层词汇信息的参数化入口,真正的语义组合发生在多层 self-attention 中

但二者在本质上仍然统一于同一原则:

Embedding 是被损失函数通过梯度下降间接塑造的参数,而非预定义的语义容器。


7. 总结

理解 embedding 从 Word2Vec 到 Transformer 的演化,关键在于认识到:

  1. 数学本质不变:都是可学习的参数矩阵,都通过反向传播更新
  2. 训练目标升级:从局部上下文预测到全局序列建模
  3. 功能定位转变:从最终输出到计算起点
  4. 上下文建模深化:Transformer 的上下文相关性来自 hidden states,而非 embedding 表本身
  5. 设计选择延续:输入/输出表的关系在两类模型中都是重要的建模决策

这种演化不是断裂的,而是在统一的优化原理下,针对更复杂任务的自然扩展。

12…21>

205 日志
255 标签
RSS
© 2026 Kingson Wu
由 Hexo 强力驱动
|
主题 — NexT.Pisces v5.1.4