AI 能否创造真正的新事物

以下根据个人观点及网络资料,并由AI辅助整理

——从生成式 AI 的概率本质到概念跃迁的边界


引言

当 AI 开始写作、编程、设计和辅助科研时,一个核心问题变得不可回避:AI 是否能够创造真正“全新的东西”?

本文讨论的对象并非整个 AI 领域,而是当前主流的大规模生成式 AI——以大语言模型、扩散模型、多模态模型为代表的、基于大规模数据训练的概率生成体系。

问题可以更精确地表述为:

在当前生成式 AI 范式下,模型是否能够产生真正意义上的创新?

要回答这个问题,我们必须先明确:什么才算“新”。


一、创新的两个层级:组合与突破

1)组合型创新:在既有空间中的重组

特征:

  • 重排已有知识
  • 重新组合已有组件
  • 在既有概念空间内插值或局部外推

典型例子:

  • 混合多种写作风格
  • 组合已有技术形成新系统
  • 在既有算法之间进行结构拼接

生成式 AI 在这一层面上已经非常强大。 它能够高效地探索已知元素的组合空间,产生大量“看起来新颖”的输出。


2)概念型创新:重新定义问题本身

真正有争议的是这一层:

特征:

  1. 引入全新的抽象结构
  2. 改变问题的建模方式
  3. 开辟新的技术或理论路径

例子:

  • TCP/IP 分层架构
  • Unix “一切皆文件”的设计哲学
  • Kubernetes 声明式控制范式
  • Transformer 架构

它们的共同点是:

不是更好地解决旧问题,而是改变了“问题如何被提出”。

这种创新不仅提供答案,更重新定义了问题空间本身。


二、生成式 AI 的工作机制:概率最大化的本质

要理解生成式 AI 能否产生概念型创新,必须先理解它的生成机制。

核心任务:预测最可能出现的模式

生成式 AI 的目标是:预测最可能出现的下一个 token 或数据片段。

这导致三个直接结果:

  • 偏向高概率模式
  • 压制低概率输出
  • 输出贴近主流数据分布

与真实创新的冲突

而历史上的重大创新在诞生时通常是:

  • 少数人提出
  • 缺乏充分数据支持
  • 属于统计意义上的低概率事件

从统计角度看,天才想法更接近异常值,而非众数。


三、训练机制强化的系统性保守

模型的训练过程进一步加剧了这种倾向:

训练信号:

  • 偏离数据分布 → 被惩罚
  • 接近已有答案 → 被奖励
  • 人类反馈(RLHF)→ 强化“合理”和“安全”的输出

结果是模型被系统性训练为:

  • 避免离谱
  • 避免偏离
  • 避免风险

而重大创新在初期往往正好具备这些“缺陷”——它们看起来离谱、偏离常识、充满风险。

这形成了一个悖论: 让模型“更好”的训练过程,恰恰在压制那些可能带来突破的非主流输出。


四、搜索空间的边界:谁定义了可能性

这是理解生成式 AI 创新能力的关键分水岭。

模型继承的框架

生成式 AI 使用的:

  • 语言体系
  • 概念框架
  • 输入输出形式
  • 问题表述方式

全部来自人类历史的积累。

能力的本质

因此模型的能力本质上是:

在既有空间中搜索,而不是生成新的空间。

真正创新的特征

而概念型创新往往意味着:

  • 改变问题的维度
  • 更换评价指标
  • 重建抽象框架

即:重画整个搜索空间,而非在既有空间中寻找更优解。

模型可以在给定坐标系中找到新的点,但难以自发建立新的坐标系。


五、规模增长的局限

一个常见的反驳是:模型还不够大,规模增长会解决这个问题。

规模增长带来什么

模型变大的主要效果:

  • 更强的主流模式捕捉能力
  • 更平滑、更准确的概率分布
  • 更少的离群和随机输出

悖论性的结果

模型越强大,越符合既有分布;
越符合既有分布,越难以产生反主流的新方向。

规模增长让模型成为“更好的统计学习器”,但这恰恰与产生统计意义上的异常值(即真正的创新)背道而驰。

更大的模型可能带来更精细的组合创新,但不必然带来概念层面的跃迁。


六、时间尺度与可验证性的冲突

创新的时间特性

重大创新通常:

  • 初期无法验证
  • 长期才显现价值
  • 缺乏即时奖励信号

经典案例:量子力学、互联网协议、函数式编程范式——它们在提出时都缺乏明确的短期验证方式。

模型的依赖

而生成式 AI 依赖:

  • 可量化的目标函数
  • 短期反馈循环
  • 明确的奖励信号

结果: 模型天然偏向那些可以立即验证、快速迭代的改进,而对需要长期验证的突破性想法缺乏内在动力。


七、语义闭包问题:无法命名的创新

这是一个更深层的障碍。

新概念的诞生困境

真正的新概念在诞生时往往:

  • 尚无稳定的语言描述
  • 尚未被纳入既有知识体系
  • 需要创造新的术语和隐喻

例如:“云计算”这个概念在形成之初,需要借用“云”这个隐喻来表达一个全新的架构思想。

闭环困境

对于依赖语言的生成式 AI:

无稳定语言 → 无法在训练数据中表示 → 无法生成

模型可以组合已有词汇,但难以为尚不存在的概念创造恰当的表达方式。这是一个语义层面的闭包问题。


八、小样本的意义:统计频率 vs. 概念价值

人类与模型面对小样本的方式存在根本差异。

人类的归纳方式

人类可以:

  • 对单个案例赋予巨大意义
  • 从极少量观察中提取深层模式
  • 基于第一性原理进行推理

爱因斯坦的光电效应实验、达尔文在加拉帕戈斯的观察——这些都是从有限案例中提取革命性洞察的例子。

模型的归纳方式

而生成式 AI 依赖:

  • 统计频率作为模式识别的基础
  • 大量样本来稳定概率分布

冲突: 在人类看来具有突破意义的想法,在模型的统计视角下可能只是噪声或离群点。

模型缺乏“这个罕见模式可能很重要”的判断机制——除非这种重要性已经在训练数据中被频繁标注。


九、结论与展望

需要强调:以上分析针对的是当前生成式 AI 范式——基于大规模数据的概率学习系统。

当前能力的边界

综合来看:

  1. 在组合型创新上,生成式 AI 已经表现卓越,极大扩展了既有知识空间的探索效率

  2. 在概念型创新上,受制于概率本质、训练机制、空间定义权和语义闭包等多重因素,模型仍难以自发产生新的问题空间与概念坐标系

本质定位

当前的大规模生成式 AI,是高维概率空间中的强大探索者,
但尚未成为新空间的自发创造者。

未来可能性

这不意味着 AI 永远无法产生真正的创新。可能的突破方向包括:

  • 超越纯概率范式的新架构
  • 结合符号推理的混合系统
  • 具备元认知和自我重构能力的模型

但在当前范式下,生成式 AI 更适合被视为人类创造力的放大器,而非替代者——它能够加速探索、优化组合、验证可能性,但定义新空间的责任,仍然在人类手中。