拉巴力的纸皮箱

技术博客 | 记录学习笔记和思考


  • 首页

  • Notes

  • 标签

  • 归档

  • 关于

  • 搜索

AI 能否创造真正的新事物

发表于 2026-02-04
围绕生成式 AI 的概率生成机制,讨论它是否能够实现真正意义上的创新与概念跃迁。
阅读全文 »

从 Prompt 到碳基 Agentic RAG:AI 时代的人类认知外化

发表于 2026-02-04
从 Prompt、Context 与协议出发,讨论 AI 应用背后的人类认知组织能力如何被外化与结构化。
阅读全文 »

人类与模型的共同特征:直觉先行,解释在后

发表于 2026-02-04
对比人类与大模型在“先得出结果、后生成解释”这一共同特征上的相似性与局限。
阅读全文 »

微调与蒸馏的本质:函数逼近视角下的机制解析

发表于 2026-02-03
从函数逼近视角解释微调与蒸馏分别在学什么,以及二者为何相似又不同。
阅读全文 »

Transformer 训练中的优化器选择:从 SGD 到 AdamW 的演化逻辑

发表于 2026-02-03
梳理神经网络优化器从 SGD 到 AdamW 的演化路径,以及 Transformer 训练中常见选择的原因。
阅读全文 »

从 Word2Vec 到 Transformer:Embedding 在不同模型中的角色演化

发表于 2026-02-02
对比 Word2Vec 与 Transformer 中 embedding 的训练方式、参数角色与功能变化。
阅读全文 »

LayerNorm:从“为什么要归一化”到“为什么 Transformer 离不开它”

发表于 2026-02-02
从数值尺度控制与训练稳定性出发,解释 LayerNorm 的作用及 Transformer 对它的依赖。
阅读全文 »

Transformer 架构笔记:组件、机制与设计思路

发表于 2026-02-02
从 Attention、FFN 与 Multi-Head 三个核心抽象出发,梳理 Transformer 的组件、机制与设计思路。
阅读全文 »

从 RNN 到 Transformer:序列建模的结构性转变

发表于 2026-01-31
从序列建模需求出发,说明 RNN、CNN 到 Transformer 在结构设计上的关键转变。
阅读全文 »

从 One-hot 到 Embedding:词的分布式表示是如何从语料中学习得到的

发表于 2026-01-31
从 one-hot 表示讲到分布式表示,解释词向量如何通过语料、损失函数与梯度下降学习得到。
阅读全文 »
<123…22>

211 日志
1 分类
275 标签
RSS
© 2026 Kingson Wu
由 Hexo 强力驱动
|
主题 — NexT.Pisces v5.1.4