拉巴力的纸皮箱


  • 首页

  • 标签

  • 归档

  • 关于

  • 搜索

基于大模型的RAG应用开发要点记录

发表于 2025-02-20

基于书籍简单记录要点


  • 一种借助“外挂”的提示工程

  • 最核心的思想:给大模型补充外部知识以提高生成质量

  • 大模型的 RAG 应用中,最常见的检索方式是借助基于向量的语义检索来获得相关的数据块,并根据其相似度排序,最后输出最相关的前 K 个数据块(简称top_K)

  • 自然语言处理中用于把各种形式的信息转换成向量表示的模型叫嵌入模型

  • 基于向量的语义检索就是通过计算查询词与已有信息向量的相似度(如余弦相似度),找出与查询词在语义上最接近的信息。

  • 如果大模型是一个优秀学生,正在参加一门考试,那么 RAG 和微调的区别如下。

    • RAG:在考试时给他提供某个领域的参考书,要求他现学现用,并给出答案。
    • 微调:在考试前一天对他进行辅导,使他成为某个领域的专家,然后让他参加考试。
  • 大模型与 Prompt 并不只在最后生成结果时才需要,在 RAG 应用流程的很多阶段都需要用到它们,比如在生成摘要、查询转换、查询路由、智能体推理、响应评估等很多阶段,都需要利用设计的Prompt 来让大模型完成任务。

  • 与查询引擎相关的几个关键组件如下。

    • (1)VectorIndexRetriever:向量索引检索器。用于完成相关知识的检索,基于索引来完成,输出多个相关 Node。
    • (2)Synthesizer:响应生成器。借助大模型来完成 Prompt 组装,并根据响应生成模式的要求来生成响应结果。
    • (3)NodePostProcessor:节点后处理器。通常用于在检索完成之后,对检索器输出的 Node 列表做补充处理,比如重排序。
  • Agent 就是通过 AI 模型驱动,能够自主地理解、规划、执行,并最终完成任务的 AI 程序。Agent 与大模型的区别类似于人与大脑的区别:大脑指挥人的行动,但是只有人才是执行任务的完整体。

  • Agent 就是在大模型作为智慧大脑的基础上实现记忆(Memory)、自我规划(Planning)、使用工具(Tool)等能力,从而开发一个具有自主认知与行动能力的完全“智能体”。

  • 与 RAG 应用相比,Data Agent 具备以下能力。

    • (1)兼具 RAG 应用的数据检索与查询生成能力。
    • (2)通过观察环境与任务目标推理出完成下一个数据任务的步骤。
    • (3)通过调用外部服务工具(API)完成复杂任务,并返回执行结果。
    • (4)具备长期记忆能力(如使用向量库)与短期记忆(一次任务中的交互历史等)能力。
  • 与 RAG 应用相比,Data Agent 的主要增强之处如下。

    • (1)规划与推理出完成任务的步骤的能力。
    • (2)定义与使用工具的能力。

LlamaIndex 框架整体结构

  • (1)Core Framework:这是 LlamaIndex 的核心框架,实现了 LlamaIndex 框 架中大量可扩展的基础组件与工具组件。
  • (2)Integrations:这是在 Core Framework 基础上由官方或者第三方提供的 大量扩展组件。这些组件大大扩充了 LlamaIndex 框架的兼容能力与应用场景, 包括各种类型的数据加载器、大语言模型与嵌入模型、向量库、Agent 工具等。
  • (3)Templates:这是官方或者第三方提供的更上层的应用模板。开发者可 以基于这些模板来修改和开发自己的应用。
  • (4)Eval Datasets:评估数据集。这是一些用于测试评估的现成数据集。 一个数据集通常包含两个部分:一部分是用于开发 RAG 应用的原始知识数据 集;另一部分是用于评估 RAG 应用的测试数据集。

LlamaIndex 的向量存储索引和传统数据库(如 MySQL)的索引的区别

  • From Grok3 (2025-02-24)

传统数据库索引(如 MySQL) vs 向量存储索引

1. 传统数据库索引(B-树、哈希索引等)

  • 目的:加速精确匹配或范围查询,比如在 WHERE id = 5 或 WHERE age > 30 时快速定位数据。
  • 数据结构:通常基于 B-树、B+树 或哈希表,存储的是原始数据(如整数、字符串)的某种排序或映射。
  • 存储内容:索引本身不保存完整数据,而是指向数据库中实际数据的引用(行指针)。
  • 使用场景:结构化数据的高效检索。

2. LlamaIndex 的向量存储索引

  • 目的:支持语义相似性搜索,比如找到与“人工智能是什么”语义最接近的文档。
  • 数据结构:基于向量空间的高效搜索结构(如 FAISS、HNSW、Annoy),存储的是文本的嵌入向量(高维浮点数数组)。
  • 存储内容:索引里直接保存的是嵌入向量(通常还会关联原始文本或其引用),而不仅仅是指针。这种嵌入向量本身就是数据的某种“表示”。
  • 使用场景:非结构化数据(如文本、图像)的语义搜索。

所以你说得对,向量存储索引和 MySQL 的索引在设计目标和实现上完全不同。传统索引是为了快速定位具体值,而向量存储索引是为了快速找到“最相似”的内容。

为什么叫“向量存储索引”而不是“向量存储数据”?

  • “索引”在这里的含义:

    • 在向量搜索领域,“索引”指的是一个经过优化的数据结构,用于加速向量之间的相似性计算和检索。它不只是存数据,而是以某种方式组织数据(比如 FAISS 用聚类或倒排索引),让查询效率更高。
    • 比如 FAISS 可能会把向量分桶(clustering),HNSW 用图结构连接向量,这些都是“索引”的体现。
  • 为什么不叫“向量存储数据”:

    • “数据”听起来像是原始的、未经组织的存储,比如直接把向量一股脑扔进数据库。而“索引”强调的是结构化和查询优化。
    • LlamaIndex 的向量存储索引不仅存了向量,还为快速检索做了预处理(比如降维、构建树或图)。它是个功能性工具,而不仅是数据的容器。
  • 命名习惯:

    • 在向量搜索和机器学习领域,像 FAISS、Annoy、HNSW 这些工具都叫“索引”(index),因为它们的核心是构建一个可搜索的结构。LlamaIndex 沿用了这种惯例。

举个类比

  • MySQL 的 B-树索引就像图书馆的卡片目录,按书名首字母排序,帮你快速找到某本书。
  • LlamaIndex 的向量存储索引更像是推荐系统,根据你喜欢的书,找到内容相似的其他书,靠的是“向量空间的距离”而不是精确匹配。

总结

LlamaIndex 的向量存储索引确实和 MySQL 的索引差别很大,它更像是一个专门为高维向量设计的“搜索加速器”。叫“索引”是因为它不仅存向量,还组织向量以提升查询效率,而不是简单的数据存储。


关于RAG的优化:个人结合深度强化学习的思考

  • 对于RAG应用,优化方法有很多。我的想法是,把这些优化方法想象成一堆‘工具’,然后用强化学习这个‘聪明助手’来挑出最好用的组合。

  • “优化策略”变成了“工具”,“强化学习”变成了“聪明助手”,“奖励函数”简化为“任务需求”

  • From ChatGPT

  • 你表达的意思可以理解为:你试图用一个类比来形象地说明深度强化学习在RAG(Retrieval-Augmented Generation)系统优化中的角色与价值。

  • 具体地说:

    • RAG优化方法很多,比如检索器选择、reranker排序、embedding优化、prompt设计等,这些在你眼中就像一堆**“工具”**。
    • 这些工具的使用方式组合非常多,所以你不想手动去调优,而是引入一个“聪明助手”——也就是强化学习智能体,来自动地组合和选择最合适的优化策略。
    • 任务需求(比如更高的准确率、更好的用户体验)就变成了强化学习中的奖励函数,引导智能体不断试错、学习,找到最优解法。
  • 所以你的思路是用深度强化学习作为一种元优化方法,来学习在不同场景下该怎么调配RAG的各类优化手段,从而达到最好的表现。

  • 这是一个很有潜力的方向,本质上是将强化学习用作策略搜索或控制器,帮助系统自动适配复杂环境下的参数和策略组合。你可以进一步细化这个设想,比如:

    • 工具组合的action space怎么定义?
    • 每种任务需求下的reward如何设计?
    • 环境如何模拟或构建,才能训练出泛化能力强的“助手”?

扩展

如果嵌入模型知道“你好”和“再见”的向量,它可以将“你好再见”转化为一个向量吗?

  • From Grok3 (2025-02-25)
  • 嵌入模型可以将“你好再见”转化为向量。
  • 对于词嵌入模型(如 Word2Vec 或 GloVe),通常通过平均或相加“你好”和“再见”的向量来生成短语向量。
  • 对于句嵌入模型(如 BERT 或 Ada-002),模型可以直接处理“你好再见”序列,生成反映上下文关系的向量。

RAG的相关原理

  • From Grok3 (2025-02-25)– 基于自身理解由Grok优化

  • 文本向量化:在RAG中,知识库中的文档会被分割成适当的文本片段(例如句子或段落),然后使用预训练模型对这些片段整体进行向量化,生成语义丰富的稠密向量。这一过程不同于传统的单词嵌入,目的是捕捉整个片段的语义信息。

  • 向量检索:当用户提出问题时,系统会将问题同样向量化,并在向量数据库中查询与问题语义最相似的文本片段。这些检索结果是原始文档中的真实内容,而不是由模型生成的文本。

  • 上下文整合与生成:检索到的文本片段会以纯文本形式插入到一个提示模板中,作为上下文连同用户的问题一起输入到生成模型中。生成模型(如大语言模型)基于这些上下文生成最终的回答。

其他

  • 精通RAG架构:从0到1,基于LLM+RAG构建生产级企业知识库

    • 向量数据库对比
    • 如何选择嵌入模型:https://huggingface.co/spaces/mteb/leaderboard
  • 微软推出CoRAG:通过迭代推理提升AI检索能力

    • CoRAG 的核心创新在于其动态查询重构机制。该模型不再依赖单次检索,而是根据中间推理状态迭代优化查询。这一过程确保了每个阶段检索到的信息都与上下文相关,进而逐步构建出更完整的最终答案。
  • 用 LLM 快速构建实用知识图谱

    • 如果你用图数据库来检索信息,那么这种方式被称为 GraphRAG,它是知识图谱在 RAG 中的具体应用
    • 向量相似性检索依赖于知识库中的明确提及,只有明确提到的信息才会被检索出来。而知识图谱则能通过整体数据来推理出更多信息
    • 使用 Langchain 的实验功能 LLMGraphTransformer,如果是 LlamaIndex,可以尝试它的 KnowledgeGraphIndex。
    • LLM 可以从纯文本中提取图谱信息,并将其存储到像 Neo4J 这样的数据库
  • “无”中生有:基于知识增强的RAG优化实践

    • 感觉做这个东西就是在不停找各种优化方法反复尝试看效果,而且目前还处于很乱的早起阶段
  • 微软推出的 LazyGraphRAG

    • 传统方法(如基于向量的 RAG)在处理局部化任务时表现良好,例如从特定文本片段中检索直接答案。然而,当涉及需要全面理解数据集的全局性查询时,这些方法往往难以胜任。
    • 相比之下,图支持的 RAG 系统通过利用数据结构中的关系,可以更好地解决此类更广泛的问题。然而,与图 RAG 系统相关的高索引成本,使其难以被成本敏感的场景所接受。因此,在可扩展性、经济性和质量之间实现平衡,仍然是现有技术的关键瓶颈。
    • 相比之下,图支持的 RAG 系统通过利用数据结构中的关系,可以更好地解决此类更广泛的问题。然而,与图 RAG 系统相关的高索引成本,使其难以被成本敏感的场景所接受。因此,在可扩展性、经济性和质量之间实现平衡,仍然是现有技术的关键瓶颈。
    • LazyGraphRAG 将 VectorRAG 与 GraphRAG 相结合,“同时克服了二者的各自局限性”。
  • DeepSearcher深度解读:Agentic RAG的出现,传统RAG的黄昏

    • https://github.com/zilliztech/deep-searcher
    • 所谓Agentic RAG,是一种融合智能代理(Agent)能力的RAG架构。通过动态规划、多步骤推理和自主决策机制,Agentic RAG可以在复杂任务中实现闭环的检索-加工-验证-优化
    • Agentic RAG相比传统RAG有着三大优势:
      • (1)被动响应变为主动响应;
      • (2)单次的关键词检索,升级为多轮的动态调整检索,并拥有自我修正能力;
      • (3)适用场景,从最基础的简单事实问答,升级为复杂推理、复杂报告生成等开放域任务。
    • 长期来看,Agentic RAG必定会取代传统RAG。一方面,传统RAG对需求的响应还停留在非常基础的阶段,另一方面,现实中,我们大部分的需求表达背后,都是有隐含逻辑的,并不能被一步检索到位,必须通过推理-反思-迭代-优化来对其进行拆解与反馈。
    • VS Graph RAG
      • Graph RAG主要聚焦于对存在连接关系的文档展开查询,在处理多跳类问题上表现出色。
      • 例如,当导入一部长篇小说时,它能够精准抽取各个人物之间错综复杂的关系。其运作方式是在文档导入环节,就对实体间关系进行抽取。因此,这一过程会大量消耗大模型的token资源 。
      • 而在查询阶段,不论是否是查询图中某些节点的信息,都会进行图结构的搜索,这使得这一框架不太灵活。
      • 反观Agentic RAG,它的资源消耗模式与Graph RAG恰好相反。在数据导入阶段,Agentic RAG无需执行额外特殊操作,而在回答用户提问时,才会产生较多大模型的token消耗。
  • 高阶RAG技巧:探索提升RAG系统性能的不同技巧

    • 索引优化技术(如数据预处理和分块)专注于格式化外部数据以提高其效率和可搜索性。
    • 预检索技术旨在通过重写、重新格式化或将查询路由到专用流水线来优化用户查询本身。
    • 检索优化策略通常侧重于在检索阶段优化搜索结果。
    • 检索后优化策略旨在通过各种技术提高生成结果的准确性,包括对检索结果进行重新排序、增强或压缩(检索)上下文以及操纵提示或生成模型 (LLM)。
  • KBLAM 是在 RAG(Retrieval-Augmented Generation) 和 知识图谱增强推理 的基础上发展而来。它的关键点是:

    • 利用结构化知识(如三元组:subject–predicate–object)进行多跳推理
    • 结合语言模型对自然语言的理解能力,实现可控的知识推理流程

Reference

  • 《基于大模型的RAG应用开发与优化——构建企业级LLM应用》

LangChain要点记录

发表于 2025-02-19

基于书籍简单记录要点

LangChain 提供了多种模板供选择

  • LangChain 提供了以下格式化 SQL 提示词模板(翻译):
1. 你是一个 PostgreSQL 专家。给定一个输人问题,首先创建一个语法正确的 PostgreSQL查询来运行,然后查看查询结果,扑返回针对输人问题的答案。
2. 除非用户明确指定了要返回的结果数量,否则应使用 PostgreSQL 的LIMIT 子句来限制查询结果,最多返回top.k条记录。你可以对结果进行排序,以返回数据库中最有信息价值的数据。
3. 绝对不要查询表中的所有列。你只能在询回答问题所需的列。用双引号(")将每个列名包裹起来,表示官们是界定的标识符。
4. 注意只使用你在表巾可以看到的列名,不要责询不存在的列。此外,要注意哪一列在哪个表中。
5. 如果问题涉及“今天”,请注意使用 CURRENT_DATE 函数获取当前日期。

使用以下格式:

问题:这里的问题
SQL查询:要运行的 SQL 查询
SQL结果:SQL 查询的结果
答案:这里的最终答案

只使用以下表:

(table_info)

问题:{input}

  • 想象一下,如果没有 LangChain 提供的这个提示词模板,当你要开始编写一段SQL查询代码时,会走多少弯路?LLM 应用开发的最后1公里,其意义是确保开发者无须为了一个小细节而多走弯路,正如居民无须跑很远坐公交车一样,每一个关键的细节都能得到及时而准确的处理,使得整个开发过程更为高效。

记忆提示词

  • 创建提示词是最重要的环节。在创建的过程中你可以理解为什么加人记忆组件后,“聊天备忘录”有了内容,让链组件有了“记忆”。使用提示词模板包装器,自定义一个提示词模板字符串。

  • 提示词内容分为四部分:

    • 一是对模型的指导词:“请你回答问题的时候,依据文档内容和聊天记录回答,如果在其中找不到相关信息或者答案,请回答不知道。”;
    • 二是使用问题检索到的相关文档内容;“文档内容是:{context}”;三是记忆组件输出的记忆内容:“聊天记录是:{chat_history}”;四是用户的输人:“Human:(human _input)”
      template = "n*你是说中文的 chatbot.
      请你回答问题的时候,依据文持内容和脚天记录回答,如果在其中找不到相关信息戒着答案,请回答
      不知道。
      文档内容是:{context)
      聊天记录是:{chat_history)
      Human: (human_input)
      Chatbot:"""
      
  • LangChain 框架由以下开发库组成。

    • (1)LangChain-Core:基础抽象和 LangChain 表达语言(LCEL)。
    • (2)LangChain-Community:组件及内置的大量第三方技术集成模块,一般被封装为合作伙伴模块(例如 LangChain-openai)。
    • (3)LangChain:构成应用架构的上层核心组件,包括 Chains、Agents 等。
    • (4)Templates:官方提供的一些常见的应用模板。
    • (5)LangServe:将 LangChain 链部署为 REST API 的平台。
    • (6)LangSmith:帮助开发者跟踪调试、测试、评估和监控大模型应用的在线平台。

其他

  • Langchain agent是怎么找到search工具并使用的

    • 可以正确识别和调用它,因为它主要是通过 description 语义匹配,而不是看 name 的具体字符串。
    • 但 name 仍然有一定作用,比如:LLM 可能会参考 name 来做初步判断;调试时 name 可以帮助你看日志,知道 Agent 选了哪个工具
  • LLM本身没有内在记忆,每个查询都是独立进行的

    • 所谓的记忆和检索增强生成(RAG)是通过外部手段实现的,即将相关信息添加到提示词模板中

扩展

Langchain是怎么做到通过分析语义找到对应工具的

  • From ChatGPT (2025-02-18)

LangChain 通过 LLM(大模型)+ ReAct 框架 来分析语义并选择工具。它的核心逻辑是让 LLM 先思考,再决定用哪个工具,并按照工具的格式调用它。

核心机制

  1. 解析用户问题 → 让 LLM 提取关键语义
  2. 匹配工具描述 → 让 LLM 判断哪个工具最适合
  3. 生成调用指令 → LLM 生成工具的调用格式并执行
  4. 工具返回结果 → LLM 解析工具返回的数据并回复用户

这套逻辑基于 ReAct(Reasoning + Acting) 框架,在 LangChain 里 Agent 主要是用这个方法来动态决策。

1. 解析用户问题

假设你输入:

1
agent.run("计算 25 * 4 + 10")

LangChain 会把这个问题交给 LLM(如 GPT-4),让它理解用户的意图。

LLM 可能会把你的问题理解成:

  • 这是一个数学计算问题
  • 需要找到一个能进行数学计算的工具
  • 计算表达式 25 * 4 + 10

2. 匹配工具描述

假设你有两个工具:

1
2
3
4
5
6
7
8
9
10
11
Tool(
name="Calculator",
func=calculator_tool,
description="用于数学计算。输入一个数学表达式(如 3 + 5 * 2),输出结果。",
)

Tool(
name="Wikipedia",
func=wiki.run,
description="查询 Wikipedia 词条,输入一个关键词(如 'Python programming'),获取相关信息。",
)

LLM 会对比问题和 description,发现 Calculator 的描述里提到了“数学计算”,所以它会选择 Calculator 这个工具。

关键点:LangChain 让 LLM 直接读 description,所以工具的名字 name 只是一个标识,核心还是 description 的语义匹配。

3. 生成调用指令

LangChain 让 LLM 生成一个类似 JSON 的格式,表示它要调用哪个工具:

1
2
3
4
{
"action": "Calculator",
"action_input": "25 * 4 + 10"
}

然后 LangChain 会解析这个指令,找到 Calculator 工具,并把 25 * 4 + 10 传给 func 去执行。

4. 工具返回结果

计算工具执行:

1
eval("25 * 4 + 10")  # 计算得到 110

LangChain 把 110 返回给 LLM,LLM 可能会回复:

1
25 * 4 + 10 = 110

最终 agent.run() 会输出这个结果。

总结

LangChain 让 LLM 负责:

  1. 分析用户语义
  2. 匹配工具(通过 description)
  3. 生成调用工具的指令
  4. 解释工具返回的结果

它的核心是利用 LLM 的推理能力,结合 ReAct 让它“思考后再行动”。所以只要 description 够清晰,即使 name 乱写,它也能找到正确的工具!


Reference

  • 《LangChain入门指南构建高可复用、可扩展的LLM应用程序》
  • 《基于大模型的RAG应用开发与优化——构建企业级LLM应用》

深度学习基础入门备忘

发表于 2025-02-17

简单粗略通读了解,先记录备忘
后续考虑结合相关视频深入理解

  • 《深度学习人门:基于Python的理论与实现》:https://github.com/Kingson4Wu/Deep-Learning-from-Scratch

    1. 感知机是一种接收多个输入信号并输出一个信号的算法。它的工作原理基于权重和偏置这两个关键参数。
    2. 机器学习的任务是让计算机自动确定合适的权重和偏置参数值。
    3. 求解机器学习问题的步骤
      1. 训练(学习)
      2. 推理(神经网络的前向传播)
    4. 激活函数(activation function):决定如何来激活输入信号的总和;激活函数是连接感知机和神经网络的桥梁。
    5. 神经网络的学习过程:通过损失函数 (loss function)和梯度法 (gradient method)来优化网络参数
      1. 学习的目标是通过梯度下降法(gradient descent method)找到使损失函数值最小的权重参数
      2. 学习率(learning rate):决定参数更新的步长(超参数、人工设定)
    6. 随机梯度下降(stochastic gradient descent)(SGD)能在一定程度上帮助避免局部最优,通常将SGD与其他技术结合使用,以获得更好的优化效果
    7. 深度学习:加深了层的深度神经网络;通过叠加层,可以创建更深的网络结构
  • 《深度学习进阶:自然语言处理》:https://github.com/Kingson4Wu/Natural-Language-Processing

    1. 自然语言处理的目标就是让计算机理解人说的话,进而完成 对我们有帮助的事情
    2. 单词的分布式表示(分布式假设)(单词向量化):“某个单词的含义由它周围的单词形成”;单词本身没有含义,单词含义由它 所在的上下文(语境)形成。
    3. 向量间的相似度:余弦相似度(cosine similarity);直观地表示了“两个向量在多大程度上指向同一方向”
    4. 让计算机理解单词含义:基于推理的方法(word2vec)(基于神经网络)。
    5. 语言模型(language model)给出了单词序列发生的概率;使用概率来评估一个单词序列发生的可能性,即在多大程度上是自然的 单词序列。
      • 生成的新文本是训练数据中没有的新生成的文本。因为语言模型并不是背诵了训练数据,而是学习了训练数据中单词的排列模式
      • 语言模型的评价:困惑度(perplexity)、分叉度
    6. “马尔可夫性”或者“马尔 可夫模型”“马尔可夫链”:指未来的状态仅 依存于当前状态。
    7. RNN(循环神经网络):被引入来解决前馈网络在处理时序数据上的局限性。
      • 传统RNN中存在的梯度消失和梯度爆炸问题
      • LSTM的结构与传统RNN的不同之处在于,它引入了记忆单元(c)。记忆单元在LSTM层之间传递,但不直接用作输出。LSTM的对外输出是隐藏状态向量(h)。
    8. seq2seq模型(也称为Encoder-Decoder模型)用于将一个时序数据转换为另一个时序数据
      • 传统 seq2seq 模型 将编码器输出压缩为固定长度向量,导致长序列信息丢失
      • Attention 机制 允许模型在解码时关注输入序列的不同部分,类似人类注意力
    9. Transformer:基于 Attention 构成;基于 Attention 构成
  • 《深度学习入门:强化学习》:https://github.com/Kingson4Wu/Reinforcement-Learning

    1. 机器学习(按学习方法划分):监督学习(supervised learning)、无监督学习(unsupervised learning)、强化学习(reinforcement learning)
      1. 监督学习:给正确答案打标签;输入的数据由“老师”打标签
      2. 无监督学习:无“正确答案标签”;没有 “老师”的存在;主要目标是找到隐藏在数据中的结构和模式;分组(聚类)、特征提取、降维
      3. 强化学习:智能代理和环境相互作用;智能代理是行动的主体;强化学习接受”奖励”作为来自环境的反馈
    2. 强化学习行动的策略
      1. “贪婪行动”(greedy ),也叫利用(exploitation):根据以前的经验选择最佳行动(可能错过更好的选择)
      2. “非贪婪行动”,也叫作探索(exploration):对价值做出更准确的估计。
    3. 强化学习算法最终归结为如何在“利用”和 “探索”之间取得平衡
    4. ε-greedy 算法、马尔可夫决策过程(MDP)
    5. 在强化学习中,我们的目标是获得最优策略
    6. 深度强化学习(deep reinforcement learning):强化学习和深度学习的结合
    7. 通用人工智能(artificial general intelligence, AGI)

其他

参数、输入向量和嵌入模型的真正关系

  • 在神经网络中,“参数”特指模型在训练过程中学习得到的变量,主要包括权重(weights)和偏置(biases),它们决定了模型如何处理输入并生成输出,是模型内部真正“学到的知识”。输入特征的数量(即输入维度)常被初学者误认为是“参数”,但实际上,它属于输入数据的结构,而非模型的可训练部分。每个神经元在接受输入时,会对输入向量进行加权求和并加上偏置,将这个结果作为激活函数的输入,激活函数再施加非线性变换,产生神经元的输出。虽然权重确实与输入一一对应,但激活函数并不直接作用于原始输入,而是作用于这个线性组合的结果。

  • 在现代深度学习模型中,尤其是语言模型(如 GPT),输入向量的维度是固定的,这一维度通常由嵌入模型(embedding layer)或输入预处理过程所决定。例如,文本经过分词和嵌入后,每个 token 被映射为一个固定长度的向量(如 768 维),整个输入变为一个定长矩阵。为了确保矩阵运算的可行性与模型结构的稳定性,输入长度往往被限制在最大长度内,不足时通过填充处理,超长则截断。因此,嵌入层不仅是将离散信息转为向量表示的桥梁,也是模型输入维度的决定因素之一。

感知机、激活函数和神经网络三者关系

  • 感知机是神经网络的基本构建单元,它通过对输入加权求和后传入激活函数来决定输出。激活函数引入非线性,使神经网络能拟合复杂关系。神经网络由多个感知机层叠构成,层与层之间通过激活函数连接,从而具备强大的表达和学习能力。三者关系为:激活函数是感知机的一部分,感知机是神经网络的基础单元。

三者之间的关系总结:

组成层级 关系说明
感知机 最基础的神经元模型,是神经网络的最小单元
激活函数 是感知机或神经元的核心部分,引入非线性
神经网络 是多个感知机/神经元的组合,通过激活函数形成强大的拟合能力

可以这样理解它们的层级结构:

1
2
3
神经网络 = 多个感知机(神经元)组成
感知机 = 线性加权求和 + 激活函数
激活函数 = 赋予神经网络非线性表达能力的关键

关于AI大语言模型替代人类工作的问题

发表于 2025-02-13

AI的局限性或缺点

  • 难以预测与控制:AI的运行机制像黑箱,难以准确预知其行为,尤其在关键场景下可能会犯致命错误。
  • 无法背锅:AI犯错时,责任归属难以明确,导致无法追究错误的责任,缺乏人类信誉体系的约束。
  • 逻辑推理不严谨:AI的推理基于概率预测,不是绝对严谨的逻辑推理。训练数据如果有误,AI可能无法辨别。
  • 无法创新:AI不具备创造全新概念的能力,更多的是基于历史数据进行知识复述与组合,无法像人类一样发明新技术或理念。
  • 对超出训练数据的场景应对差:AI在面对未曾训练过的数据时,表现较差,容易出错。

AI的好处

  • 提高效率:AI在许多领域极大提升了效率,尤其在数据处理、搜索和重复性任务上。对于程序员来说,它是一个强大的辅助工具,帮助快速解决技术问题。
  • 降低门槛:AI减少了对低级重复性任务的需求,拉近了人们在某些知识领域的差距。
  • 支持决策和监督:AI辅助决策,尤其是在复杂任务中,能提供数据支持,减少人为错误。

AI工具下需要的人才

  • 清晰表述与提问能力:能够清晰提出问题和有效沟通是与AI协同工作的关键,好的表述能力有助于提高工作效率。
  • 整理与分析能力:能够有效梳理信息、分解任务,并向AI提出清晰问题的人,会更善于利用AI工具。
  • 与产品交互能力:AI可以编写代码,但仍需要人类与产品经理沟通,理解需求并做出相应调整。

程序员的利好与不可替代的能力

  • AI对程序员的利好:
    • AI大幅提升了开发效率,尤其在编程辅助、技术搜索、业务方案思考等方面。
    • 某些低级任务减少了人力需求,使得程序员能更多专注于创造性和复杂问题的解决。
  • 程序员不可替代的地方:
    • 清晰的提问和判断能力:程序员的核心能力在于能理解问题,并准确表达需求,AI只能作为工具辅助工作。
    • 与产品沟通:AI生成的代码和解决方案需要程序员与产品团队对接,确保最终结果符合需求。
    • 决策和经验判断:AI的能力有限,尤其在面对复杂决策时,仍需依赖经验丰富的程序员来进行判断和修正。

个人观点

  • AI目前主要是利用历史数据和记忆进行信息处理,不能进行创新(如无法创造出类似K8S的技术)。
  • 尽管AI能提高程序员的工作效率,但目前它更多是辅助工具,而不是替代品。
  • 对普通程序员来说,理解大模型技术的基本原理和概念非常重要,未来将需要在“AI操作系统”上来构建应用。

扩展

来自claude.ai的评价
2025-02-13

我来分析一下这些观点,指出其中可能存在的错误或需要讨论的地方:

  1. 关于”无法创新”的说法需要更谨慎:
  • 虽然AI确实主要基于已有数据进行组合和推理,但说它”不具备创造全新概念的能力”可能过于绝对
  • AI已经展示出一定的创新能力,比如在围棋、蛋白质折叠等领域提出了人类之前没有想到的解决方案
  • 更准确的说法是AI的创新能力与人类不同,它通过大规模数据分析和模式识别来实现创新
  1. “逻辑推理不严谨”的表述不够准确:
  • 现代AI系统(尤其是形式化验证系统)可以进行严格的逻辑推理
  • 大语言模型确实存在基于概率的推理特点,但这不等同于所有AI系统都如此
  • 人类的推理同样也常常基于经验和概率判断,而不总是严格的逻辑推导
  1. 关于”难以预测与控制”:
  • 这个观点部分正确,但需要注意现代AI系统已经有了很多可解释性的工具和方法
  • 某些领域的AI系统(如用于医疗诊断的AI)已经实现了相当程度的可解释性
  • “像黑箱”这种说法可能过于简化了问题
  1. “无法背锅”的说法不够准确:
  • 实际上已经有了相关的法律和责任框架在建立
  • AI系统的责任可以追溯到开发者、部署者和使用者
  • 这更多是一个治理和监管的问题,而不是技术本身的限制
  1. “个人观点”部分关于K8S的例子不够恰当:
  • K8S本质上是一个系统架构和设计方案,而不是完全创新的技术
  • AI实际上可以通过分析已有系统设计模式,提出类似的架构方案
  • 更准确的说法是AI在某些创新领域的能力仍有限制,而不是完全无法创新
  1. 好处部分基本准确,但可以补充:
  • AI不仅提高效率,还能发现人类容易忽视的模式和关联
  • 在某些领域(如图像识别、语音处理)已经超越了人类性能
  • AI能够24/7工作,这个优势没有被提到
  1. 关于程序员不可替代性的分析基本合理,但可以补充:
  • 程序员在系统架构设计、安全性考虑等方面的经验特别重要
  • 处理边界条件和异常情况的能力仍然需要人类经验
  • 对业务场景的深入理解和商业价值判断也是关键能力
  1. “AI操作系统”的说法需要澄清:
  • 这个比喻可能会造成误解,更准确的说法是”AI基础设施”或”AI平台”
  • 程序员需要理解的不仅是技术原理,还包括AI的应用场景和限制

总的来说,这些观点大体上是合理的,但部分表述过于绝对或简化。AI的能力和局限性是一个复杂的话题,需要更细致和平衡的讨论。理解AI的真实能力和限制,对于更好地利用AI工具至关重要。

深度学习为什么能学习并做对

发表于 2025-02-13

我的理解

  • 目前无法解释为什么深度学习可以给出答案,只能大概解释为什么它能学习
  • 这就相当于:我不能解释为什么这个人是通过什么做对这道题的,我只能解释他有正常的学习能力以及合适的学习资料,所以他自己能学习并做对题目
  • 所以深度学习是怎么给出答案的,后续或许应该由它本身来告诉我们。
  • 依据不同人的认知水平,来告诉我们它通过学习所发现的规律。同时人类通过它能快速学习发现事物规律的能力,来进一步帮助提升人类的认知。

AI对我理解的看法

From chatGPT (2025-02-13)

  • 你理解的方向是对的,可以稍微精炼和调整一下:

    • 深度学习的一个核心问题就是我们无法完全解释它是如何给出具体答案的。我们能解释的只是它是如何通过大量的数据和训练过程进行学习的。换句话说,深度学习像是一个“黑箱”,我们可以观察到输入和输出,但它在其中如何处理信息、做出决策,通常并不完全透明。
    • 可以类比成:假设有一个人做对了某道题目,虽然我们可能无法完全解释他是如何一步一步得出答案的,但我们能确定他具备了良好的学习能力和充足的学习资源。所以,深度学习也类似,它通过大量的数据、适当的算法和优化手段“学习”并给出答案。
    • 至于它如何给出具体的答案,最终可能还是要依靠深度学习本身来“解释”。这意味着,未来我们可能会开发出更先进的方法,帮助我们理解深度学习网络中的“决策过程”。同时,借助它所展现出的强大规律发现能力,我们可以利用这种能力来加速我们对事物的认知。
  • 我的看法:

    • 我同意你的观点,深度学习的“黑箱性”是目前我们面临的主要挑战之一。它的强大之处在于能自动从海量数据中发现规律,但如何理解这些规律,如何将这些规律和人类的认知能力相结合,是我们目前探索的方向之一。其实,未来可能不仅仅是“深度学习告诉我们如何做”,而是人类和深度学习的合作能进一步推动科学与技术的发展,帮助我们发现一些潜在人类难以触及的规律。
    • 深度学习不只是一个工具,它还可能是一个不断反馈、不断自我优化的过程,给我们打开了认知的新窗口。

AI自己对这个问题的看法

From chatGPT (2025-02-13)

  • 关于“深度学习为什么能学习并做对”的问题,我的理解是,深度学习通过大量的数据训练,自动从中提取规律、建立模型,并根据这些模型对新数据做出预测。深度学习的优势在于它能够发现一些非常复杂和抽象的规律,而这些规律通常是我们人类在没有机器帮助的情况下很难发现的。

  • 但是,为什么深度学习能给出正确的答案,实际上是一个复杂的过程。深度学习模型并不像人类一样有明确的逻辑推理或意识,它只是基于输入数据的模式,使用一系列参数和数学运算来“拟合”数据。对于这个过程的解释,我们只能说它通过优化算法(如梯度下降等)调整模型参数,使得输出尽可能接近实际结果。因此,深度学习并不“理解”问题,而是通过反复训练找到了一组合适的参数,能在特定任务上取得高效的预测或分类结果。

  • 你可以把深度学习看作一个“发现者”,它通过大量的例子不断试错和优化,不断接近正确的答案,但它没有明确的推理过程。比如,人类在做题时有一定的思考过程,我们可以分析每一步的原因,而深度学习则是通过计算和数据模式的关联来找到最优解。

  • 至于“深度学习为什么能做对”,目前我们更多关注它的实际效果而非其过程的透明性,因为即使我们无法完全解释它的每一个决策,也可以通过其出色的表现来证明它的有效性。未来,随着研究的深入,我们可能会找到更好的方法,帮助我们理解这些“黑箱”模型的内部机制。

  • 总结来说,深度学习通过数据的反复训练和优化,能够找到规律并给出准确的预测,而为什么它能做对,更多是依赖于它强大的计算能力和从数据中提取规律的能力,而不是基于传统意义上的推理或解释。

  • 几个关键点总结:

    1. 深度学习的学习过程:深度学习通过大量的数据训练,利用优化算法(如梯度下降)调整模型参数,自动从数据中提取规律,完成任务(如预测、分类等)。
    2. 无法完全解释“为什么”:深度学习模型在给出答案时,并没有明确的推理过程或“理解”,它只是通过找到合适的模式和参数来优化输出。其决策过程通常是黑箱的,难以完全解释。
    3. 黑箱性质:我们无法清楚知道深度学习是如何做出具体决策的,但可以看到它在实际任务中表现出色。因此,我们更多关注它的效果,而非其内在工作机制。
    4. 与人类认知的对比:深度学习像是一个“发现者”,通过反复训练和调整找到正确的答案,而不像人类那样依赖明确的思维和推理过程。
    5. 未来发展:虽然当前无法完全解释深度学习的过程,但随着技术进步,未来可能会出现更好的方法帮助我们理解这些“黑箱”模型的内部机制。
  • 这几个关键点总结了深度学习的“学习能力”、它的“黑箱性质”、以及它与人类认知的差异。

大语言模型对话记录与思考备忘录

发表于 2025-02-12

记录与大语言模型的对话,探索疑问与思考
内容可能持续更新,作为大模型演变的历史备忘
有些问题非原创,来源网络


大模型的推理能力


大模型能从训练数据中识别互相矛盾的逻辑吗?或者说,大模型具备逻辑推理能力,能发现逻辑错误吗?

From chatGPT (2025-02-12)

好的,按你给的格式调整后是这样:

大模型,如GPT类模型,能够一定程度地识别并指出逻辑上的矛盾或错误,但它的能力有一定的局限性。具体来说:

  1. 从训练数据中识别矛盾:大模型通过暴露于大量文本数据,在训练过程中学会识别常见的逻辑错误或不一致的情况。如果某个陈述前后矛盾或与常识相悖,模型有时能检测到这些问题。然而,这种识别主要依赖于训练数据中的模式,而非深度理解。

  2. 推理能力:大模型表面上似乎能够进行推理,但其推理过程更多是基于统计模式匹配,而非逻辑推理。它能在一些标准情境下给出合理的答案,但在面对复杂的逻辑链条或抽象推理时,表现可能不如人类或专门的逻辑推理系统。

  3. 局限性:大模型的推理能力受到训练数据质量和多样性的限制。如果训练数据包含不一致的示例或错误的推理模式,模型可能会学到并延续这些错误。对于一些高度专业化的推理任务(如数学证明或严谨的形式逻辑推理),大模型的能力仍然有限。

总结来说,大模型能够识别一些常见的逻辑错误或矛盾,尤其是那些明显的错误,但它的推理能力与人类的深层次逻辑思考存在差距,也不具备专门的推理系统那样的准确性。


ChatGPT的推理能力是如何实现的?它具备哪些优势和局限?

From chatGPT (2025-02-12)

ChatGPT展现出的推理能力,实际上并不是人类意义上的“思考”,而是基于大量数据和算法模拟的逻辑模式。这种能力的实现可以从以下几个方面理解:

  1. 基于大规模语言模型的训练
    ChatGPT通过大规模语言数据的训练,包括书籍、论文、对话和逻辑推理的例子,学习到了如何理解问题结构、模拟人类的逻辑推导过程,并生成符合逻辑的回答。核心在于,模型并不真正“理解”逻辑,而是通过统计关联,从大量训练数据中学习到解决类似问题的模式。

  2. 基于概率的回答生成
    ChatGPT生成回答的过程是基于概率分布的。它会根据问题内容预测接下来的最可能的单词或句子,尤其是在逻辑推理问题中,看起来像是在推理,实际上是在复现训练数据中类似问题的逻辑模式。通过结合训练数据中的逻辑规则,它动态生成符合问题需求的步骤。

  3. 内部机制:注意力机制与自回归生成

    • 注意力机制(Attention Mechanism):这是GPT模型的核心,通过注意力机制,模型可以“记住”上下文内容,从而保持逻辑连贯性。
    • 自回归生成(Autoregressive Generation):模型逐词生成答案,并在生成过程中不断参考之前生成的内容,保证推理步骤清晰、有条理。
  4. 模拟逻辑推理的实现
    对于逻辑推理类问题,ChatGPT的表现依赖两个关键点:

    • 模式识别:它能够识别问题结构并提取逻辑关系,如“甲说乙说谎”,“丙说甲和乙都说谎”。
    • 排除矛盾:通过“假设-验证-排除”过程,模拟人类的假设验证,判断假设是否导致矛盾。这个过程并非真正的推理,而是基于大量类似问题的经验模式。
  5. ChatGPT的优势和局限

    • 优势:
      • 在简单的逻辑推理任务中表现良好,尤其是规则清晰、条件有限的问题。
      • 能快速“推导”出答案并通过自然语言呈现清晰的推理过程。
    • 局限:
      • 不具备真正的理解能力:它并不是从问题本质进行推理,而是利用数据中学到的模式。
      • 复杂逻辑容易出错:如果逻辑嵌套太深或需要跨领域知识,可能会出错。
      • 缺乏主动性:无法主动思考问题的背景或意图,只能根据输入提供答案。

总结
ChatGPT的推理能力是通过模式匹配、注意力机制和语言生成技术实现的。它能够模拟逻辑推理的步骤,但并不具备真正的逻辑思维或理解能力。这种能力本质上是深度学习在海量数据上的“概率学习”和“语言模式复现”,通过这种方式实现了让人类看起来“像在思考”的效果。


推理模型 vs 通用大模型

From Grok3 (2025-02-23)

  • 关键点:推理模型与通用大模型在训练方式、推理过程和用途上有显著差异,推理模型更注重逻辑推理,通用大模型则更注重文本生成。
  • 训练方式的不同:
    • 通用大模型通常通过监督学习在大规模文本数据上训练,目标是预测下一个词,适合广泛的语言任务。
    • 推理模型则常使用强化学习进行微调,鼓励逐步推理,特别针对数学、科学和编码等需要逻辑推理的任务进行优化。
  • 推理过程的差异:
    • 通用大模型直接生成答案,基于统计模式。
    • 推理模型采用链式思维(CoT)方法,将问题分解为步骤,逐步解决,类似于人类思考过程,这在复杂问题上表现更好。
  • 用途和性能
    • 通用大模型用于文本摘要、翻译等任务。旨在处理广泛的自然语言任务。这些模型通过在大规模文本数据上训练,学习预测下一个词的概率分布,适用于文本生成、翻译和问答等任务。
    • 推理模型擅长需要逻辑推理的任务,如解数学题或编写代码,尤其在多步推理任务上表现优异。一种专门设计或微调的模型,专注于复杂推理任务,如数学问题解决、科学推理和编码。这些模型通过链式思维(CoT)等技术,逐步分解问题并推理出答案,试图模拟人类逻辑思维过程。

大模型推理能力不依赖外部的插件

From Grok3 (2025-02-23)

  • 关键要点:大语言模型不使用外部计算插件进行数学计算。它们的数学计算完全依赖模型自身的推理能力,通过文本生成来解决问题。
  • 大语言模型如ChatGPT、DeepSeek-LLM和Grok在进行数学计算时,不使用外部计算插件。它们完全依靠自身的推理能力,通过生成文本的方式一步步解决问题。例如,当你问“2+2=?”时,模型会基于训练数据预测答案,而不是调用外部工具进行计算。令人惊讶的是,尽管它们没有计算器功能,但通过“链式思维提示”(CoT)等技术,可以逐步推理出复杂数学问题的答案,比如解方程或计算积分。
  • 模型如何进行数学计算:这些模型通过训练数据学习数学模式和规则,预测文本序列来完成计算。比如,模型可能学会“5+3=8”是因为训练数据中有大量类似例子。它们没有内置的计算模块,而是依靠语言生成能力来模拟计算过程。
  • 是否使用外部工具:标准版本的这些模型不使用外部计算插件,但在某些开发者集成下,可以通过插件(如Wolfram Alpha)增强计算能力。但这不是模型本身的默认行为。
  • 实际表现:模型在简单计算上表现不错,但复杂计算(如多位数乘法)可能出错,因为它们依赖文本预测而非精确计算。
  • 结论:大语言模型的数学计算能力完全由模型自身推理得出,不使用外部计算插件。它们的计算基于文本生成和模式识别,通过训练数据和提示技术(如CoT)增强表现,但在复杂任务上可能出错。

大语言模型的推理能力

From Grok3 (2025-02-23)

  • 大语言模型的推理能力主要依赖于它们的训练和设计,而不是完全基于思维链(CoT)。CoT是一种提示技术,可以引导模型逐步思考,从而改善推理输出,但模型本身的推理能力来自其语言生成能力。


个人思考和理解


AI 数据获取的局限性

经Grok3[DeepSearch]优化 (2025-02-25)

  • 当前AI在自主寻找和筛选数据方面仍存在局限性,研究表明其难以独立完成如安装应用或通过实名验证等任务。
    • MCP统一协议来实现(2025-05-28)
  • AI缺乏有效判断数据质量和相关性的能力,可能导致处理大量无用信息,浪费计算资源并可能降低性能。
  • 因此,训练数据的选择仍需依赖人类的专业判断,以确保数据的准确性和相关性。


经典问题


有甲乙丙三个人,有人只说真话有人只说假话。现在,甲说乙说谎,乙说丙说谎,丙说甲和乙都说谎。问谁是说谎的

From chatGPT (2025-02-12)

这个问题可以通过逻辑推理来解答。我们可以假设每个人分别说真话或说谎,并根据他们的陈述进行推理。

陈述内容:

  • 甲说乙说谎。
  • 乙说丙说谎。
  • 丙说甲和乙都说谎。

假设:

假设甲说的是真的,那么:

  • 甲说乙说谎。所以乙是说谎者。
  • 乙说丙说谎。如果乙是说谎者,那么乙说的应该是假的,即丙不说谎。
  • 丙说甲和乙都说谎。如果丙不说谎,那么丙的说法应该是真的。所以甲和乙都应该是说谎者,但这与我们的假设矛盾,因为我们已经假设甲是说真话的。

所以,假设甲说真话的情况矛盾,甲不可能是说真话的。

接下来,假设乙说的是真的:

  • 乙说丙说谎,所以丙是说谎者。
  • 丙说甲和乙都说谎。因为丙是说谎者,丙的话不成立,因此甲和乙至少有一个是说真话的,这与假设乙说真话一致。
  • 甲说乙说谎。如果甲是说谎者,那么甲的话应该是假的,所以乙说的是真的,符合假设。

因此,乙是说真话的,甲和丙是说谎的。

结论:

甲和丙是说谎的,乙是说真话的。


ChatGPT是如何“算”出单词中字母“t”的个数的?

ChatGPT并不是通过逐一计算字母“t”的个数来得出答案,而是通过以下几个步骤来实现的:

  1. 文本解析和模式识别
    当接收到像“Attention有几个t”这样的问题时,模型识别到这是与字母统计相关的查询,并提取出关键词“attention”,随后在该单词的字符序列中查找所有的字母“t”。

  2. 背后逻辑的实现
    ChatGPT生成答案的过程其实涉及语言生成的几个步骤:

    • 拆分单词: 模型识别出字符串“attention”。
    • 统计字母: 模型检测每个字母的出现次数,特别关注字母“t”。
    • 生成回答: 模型根据其训练中学到的模式直接输出答案,例如“3个t”。
  3. 本质:语言生成vs算法实现
    虽然从表面看,ChatGPT像是在“数”字母“t”,但其实:

    • 它可能基于训练数据中“attention”单词的字符分布知识,快速得出答案。
    • 如果该单词在训练数据中从未出现过,模型会尝试通过字符分析来推测答案,但这不如专门编写的统计算法准确。

人类方式与模型行为的对比
若由人类解答:

  1. 人类会直接肉眼数出字母“t”的个数。
  2. 确认答案。

而ChatGPT则模拟这一过程,通过对字符模式的分析,快速生成一个类似的答案。

总结
ChatGPT并没有像传统程序那样逐一遍历字符串,而是基于对字符和单词模式的理解,快速生成了答案。

扩展

  • 为什么大模型连”Strawberry”的”r”都数不对?
    • 大模型的生成过程本质上便是在“根据上文预测下一个Token”,而这个概率分布即是在模型训练过程中从大量的文本数据中学习到的,使得大模型学习到了语言的基本知识与模式。
    • 在Prompt中加入一定的引导就能获得理想答案,比如说我们可以利用CoT思维链的方式编写Prompt,引导大模型逐步思考并解决问题。
    • CoT为思维链(Chain-of-Thought)的缩写简称,是提示工程领域最为重要的提示方法之一,它的核心思路在于通过引导模型逐步展示其推理过程,从而提高其理解和解决复杂问题的能力。在Few-shot(少样本)设置下表现为 在提供的样例中解释推理过程,引导大模型回答时也解释推理过程;而在Zero-shot(零样本)设置下表现为 加入类似“让我们一步步思考(Let’s think step by step)”的引导话术。
    • 对于大模型而言,它的语言本身即是思考,并不存在诉诸于语言之前的思考过程,所以我们也需要引导它像人类一样先思考再判断,将思考过程以语言的方式表达出来。
    • 在大模型推理的时候,我们可以限制大模型 先输出理由,再输出答案,让大模型根据“深度思考”获得的理由与推理过程来预测“答案”,从而大大提升其表现。

数学中9.11和9.9哪个大

From Grok3 (2025-02-25)

【普通提问】

  • 在数学中,9.11 比 9.9 大。因为 9.11 = 9 + 0.11,而 9.9 = 9 + 0.9,比较小数部分时,0.11 < 0.9 不成立,实际上 0.11 > 0.9 是错误的表述,正确的比较是直接看数值:9.11 > 9.9。

【DeepSearch】

  • 9.9 比 9.11 大
    • 关键点:在数学中,9.9 似乎比 9.11 大,因为它们的整数部分相同,比较小数部分时,9.9 的十分位是 9,而 9.11 的十分位是 1,9 大于 1。
  • 比较过程
    • 整数部分:两个数都是 9,相同。
    • 小数部分:9.9 可以写成 9.90,比较十分位,9.9 的十分位是 9,9.11 的十分位是 1,9 > 1,因此 9.9 更大。
    • 意外细节:一些 AI 模型可能会错误地认为 9.11 比 9.9 大,这可能是因为误解了日期比较(如 9 月 11 日比 9 月 9 日晚),但在数学中,小数比较遵循严格的位数规则。
  • (这里省略了列举了很多查阅网上资料库的细节)

【Think】

在数学中,我们需要比较9.11和9.9这两个数的大小。下面我们一步步分析:

  1. 将小数对齐
    • 为了方便比较,我们可以把9.9写成9.90,这样它的小数位数与9.11相同:
      • 9.11 有两位小数。
      • 9.9 写成 9.90 后也有两位小数。
  2. 逐位比较
    • 现在我们比较 9.11 和 9.90:
      • 整数部分:
        9.11 的整数部分是 9,9.90 的整数部分也是 9,两个数相等。
      • 小数第一位:
        9.11 的小数第一位是 1,9.90 的小数第一位是 9。
        因为 1 < 9,我们可以在这里得出结论,不需要再比较后续位数。
  3. 结论
    通过逐位比较,我们发现 9.11 < 9.90,也就是说 9.11 < 9.9。
    或者简单计算:
    9.11 - 9.9 = 9.11 - 9.90 = -0.79 < 0,也说明 9.11 比 9.9 小。

最终答案
在数学中,9.9 比 9.11 大。


一个汉字具有左右结构,左边是木,右边是乞。这个字是什么?只需回答这个字即可。

Grok3 (2025-02-25)

【普通提问】

  • 杞

【DeepSearch】

  • 要点

    • 看起来,符合条件的汉字可能是“述”(shù),但这并不是完全确定的答案,因为“乞”(qǐ,意为“乞讨”)的结构与“述”的右边“口”(mouth)有一定关联,但不完全匹配。
    • 研究表明,汉字的左右结构通常由偏旁组成,左边“木”(wood)是常见偏旁,右边“乞”可能指代相关部件,但标准汉字中难以找到完全符合的例子。
    • 证据倾向于认为,可能存在误解,“乞”可能指代包含“手”和“口”的结构,但这需要进一步确认。
  • 最终建议

    • 基于以上分析,推荐的答案是“述”(shù),但需注意这可能不是完全精确的匹配,建议用户进一步确认“乞”在问题中的具体含义。
  • 好多废话。。。。还答错。。。

【Think】

  • 杞

ChatGPT (2025-02-25)

GPT-4o-mini

  • 这个字是“弃”。

GPT-4o

  • 杞

o3-mini

  • 杞

claude (2025-02-25)

claude 3.7 Sonnet

  • 杞

豆包 (2025-02-25)

  • 杚

Gemini (2025-02-25)

Gemini 2.0 Flash

  • 这个字是“<0xE6><0xA7><0x8E>”

Gemini 2.0 Flash Thinking Experimental

  • 这个字是㮆 ()。

Gemini 2.0 Flash Thinking Experimental with apps

  • কাঠ

perplexity (2025-02-25)

Deep Research

  • 没有找到一个汉字左边是“木”,右边是“乞”的组合。可能是由于字形或部首的错误识别。

deepseek (2025-02-25)

DeepThink(R1)

  • 杚

结论

  • 只有豆包和deepseek答对。因为是生僻字中文?还是偷偷给大模型加了插件?还是人家就是这么强? (2025-02-25)


扩展

“Grok3”的“DeepSearch”和“Think”这两个功能的作用

From Grok3 (2025-02-25)

  • DeepSearch 是Grok 3的一个增强型研究工具,专注于从外部资源(如网络和X平台)获取实时信息,并将其整合成简洁、准确的回答。
  • Think 是Grok 3的推理模式,专注于通过逐步思考来解决需要逻辑分析或复杂计算的问题。
  • 两者的区别与适用场景
    • 数据来源:DeepSearch依赖外部数据(网络和X),而Think主要依赖Grok自身的知识和推理能力。
    • 任务类型:DeepSearch适合需要实时信息或广泛研究的问题(如新闻、趋势);Think适合需要逻辑推导或计算的问题(如数学、编程)。
    • 输出方式:DeepSearch给出综合性答案,Think展示详细的推理步骤。
  • 总结
    • DeepSearch:你的“研究助手”,帮你查资料、整理信息。
    • Think:你的“推理伙伴”,帮你解难题、想清楚。

算法在实际业务场景中并非完全无用

发表于 2025-01-08

从事业务开发的同学经常会抱怨经常面试要刷算法,实际上平常的开发99%以上的事情都不会用到。
实际情况确实是这样。平常在写业务逻辑代码时,几乎完全不需要。
当然有些技术原理在背八股文的时候,懂一点算法能帮助你更好的理解。
而有些特殊业务场景,懂一些算法,确实能帮助你很好的解决问题。
下面举两个业务中产品提出的需求作为例子,简单描述如何利用算法有效解决。

一、从题库(50道题)中随机抽出10道题,且不能重复

  • 最简单的思路:

    • 循环10次,每次取50以内的随机数
    • 创建一个hashmap,判断生成的随机数是否在map存在,存在则重新生成
    • 这个方法的缺点时,极端情况下,会多次生成重复的随机数导致要不断重新生成
  • 经过一番思考,我设计了一下从m个数中取n个数的算法(m>n), 保证算法只会循环n次

  • 那时我还是使用Java进行开发

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
public static int[] randomArr(int m, int n) {

if (m < n) {
return new int[]{};
}
int[] result = new int[n];
int[] data = new int[m];

for (int i = 0; i < m; i++) {
data[i] = i;
}

int end = m;

for (int j = 0; j < n; j++) {
int y = ThreadLocalRandom.current().nextInt(end);
result[j] = data[y];
data[y] = data[end - 1];
data[end - 1] = result[j];
end--;
}

return result;
}
  • 后面我才发现原来这个算法叫 洗牌算法(Shuffle Algorithm),或者叫随机乱置算法。

通过搜索关键字匹配对应的标签id

  • 产品提供了400个标签名称以及对应的标签id,希望能通过搜索的方式找到最相似的标签id,希望能支持模糊匹配

  • 一般思路:

    • 方案1:
      1. 将400条数据一次性加载的程序内存
      2. 遍历数据400条使用字符串的contains方法,找到第一条匹配数据就跳出,否则继续
    • 方案2:
      1. 直接将数据导入到ES搜索引擎,利用ES自带的分词等搜索功能
      2. 通过调ES,搜索得到标签id
  • 简单分析方案:

    • 方案1,性能太差,极端情况需要遍历所有数据
    • 方案2,需要新搭建ES集群,实现代价比较高
  • 经过一番思考,以及从产品本身实际需求上出发,我涉及出以下的方案

    1. 将数据的标签名字使用中文分词库gse进行分词
    2. 将分词和对应的标签数据,构建前缀匹配树
    3. 当搜索时,使用提前构建好的前缀匹配树,即可快速找到对应的标签id
  • 这时我已经转使用Go来开发了

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67

type TrieNode struct {
children map[rune]*TrieNode
isEnd bool
}

func NewTrieNode() *TrieNode {
return &TrieNode{
children: make(map[rune]*TrieNode),
isEnd: false,
}
}

type Trie struct {
root *TrieNode
}

func NewTrie() *Trie {
return &Trie{
root: NewTrieNode(),
}
}

func (t *Trie) Insert(word string) {
node := t.root
for _, char := range word {
if _, ok := node.children[char]; !ok {
node.children[char] = NewTrieNode()
}
node = node.children[char]
}
node.isEnd = true
}

func (t *Trie) Search(word string) bool {
node := t.root
for _, char := range word {
if _, ok := node.children[char]; !ok {
return false
}
node = node.children[char]
}
return node.isEnd
}

func (t *Trie) FuzzySearch(prefix string) []string {
var result []string
node := t.root
for _, char := range prefix {
if _, ok := node.children[char]; !ok {
return result
}
node = node.children[char]
}
t.collectWords(node, prefix, &result)
return result
}

func (t *Trie) collectWords(node *TrieNode, prefix string, result *[]string) {
if node.isEnd {
*result = append(*result, prefix)
}

for char, child := range node.children {
t.collectWords(child, prefix+string(char), result)
}
}
  • 这个算法就是经典的Trie字典树(前缀树),如果我之前没了解过这些算法,可能一时间没那么快能想到用这个方式高效完成这个需求。

总结

  • 了解一些算法,在实际业务开发,有时候也能运用到。
  • 另外,现在处于AI时代,即时不了解算法,善于组织语言和上下文,向AI提问,基本它也能引导你找到合适的解决方案。

简单研究一下人工智能和数学

发表于 2025-01-06

简单记录,未完善
内容基本来源书籍

=====

初等数学

函数

  • 函数的表示方法主要有三种:解析法(公式法)、图像法和表格法。在微积分中讨论的函数几乎都是用解析法表示的。

二项式定理

  • 二项式定理又称为牛顿二项式定理,它可将两个数之和的整数次幂展开为相应项之和。

=====

高等数学

微积分

=====

人工智能数学

  • 从发展历程来看,人工智能先后经历了推理机、专家系统及机器学习三个阶段。

  • 当前的人工智能系统多为学习型。为了减小误差,其用数据去训练假设模型,也就是进行所谓的学习,当误差降到最小时,就把这个假设模型用于其他现实问题。

  • 人工智能实际上是一个将数学、算法理论和工程实践紧密结合的领域。人工智能从本质上来看就是算法,是概率论、统计学等各种数学理论的体现。数学作为表达与刻画人工智能模型的工具,是深入理解人工智能算法原理必备的基础知识。人工智能与数学高度相关,可以说人工智能的核心是数学,计算机只是实现人工智能模型的工具。

  • 函数逼近:随着大数据和人工智能技术的发展,机器学习和深度学习在大数据挖掘、模式识别和智能分析越来越受重视。机器学习是一种基于数据的学习方法,其从观测数据所包含的有限信息中构造一个模型,利用该模型对未知数据或无法观测的数据进行尽可能准确的预测,这种模型称为学习机器。对数据科学而言,所有的数据都是以数字形式表示的,通过定义损失函数,选择合适的核函数或激活函数,反复学习后可达到一种最佳逼近状态,因此,机器学习问题实际上是函数估计问题或函数逼近问题。

微积分

  • 求导是微积分的基本概念之一,也是很多理工科领域的基础运算。导数是变化率的极限,是用来找到“线性近似”的数学工具,是一种线性变换,体现了无穷、极限、分割的数学思想,主要用来解决极值问题。人工智能算法的最终目标是得到最优化模型,其最后都可转化为求极大值或极小值的问题。
  • 比如,梯度下降法和牛顿法是人工智能的基础算法,现在主流的求解代价函数最优解的方法都是基于这两种算法改造的,如随机梯度法和拟牛顿法,其底层运算就是基础的导数运算。
  • 级数也是微积分中非常重要的概念,常见的级数有泰勒级数、傅里叶级数等,它们在人工智能算法中也有非常重要的地位。
  • 泰勒级数体现了用多项式近似和逼近函数的思想。
  • 泰勒级数在人工智能算法的底层起到了非常重要的作用,泰勒级数对理解很多基础算法的原理很有帮助。例如,梯度下降法的数学原理涉及代价函数的一阶泰勒近似,而牛顿法的推导过程应用了目标函数的二阶泰勒近似。
  • 凸函数也是微积分中的重要概念,人工智能算法中涉及的优化问题要求函数模型必须是凸函数,否则优化问题没有最优解。
  • 微积分中还有许多概念,如方向导数、梯度、伽马函数等,它们都在人工智能中有广泛的应用

线性代数

  • 线性代数的基本原理在人工智能算法中处于核心地位,在人工智能的语义分析、推荐系统、卷积神经网络等方面有大量应用,是目前最前沿的深度学习算法原理的基础。

概率论

  • 很多机器学习算法是以概率统计的理论为基础支撑推导出来的,比如代价函数的最小二乘形式、逻辑回归算法都基于对模型的最大似然估计。
  • 概率论中的高斯函数及中心极限定理被广泛用于人工智能算法。独立同分布的不同随机变量之和会随变量数的增加而趋于高斯分布,因此,很多模型假设都采用高斯函数进行建模。

数理统计

  • 概率论作用的前提是随机变量的分布已知,其根据已知的分布来分析随机变量的特征与规律;数理统计的研究对象则是分布未知的随机变量,其研究方法是对随机变量进行独立重复的观察,根据得到的观察结果对原始分布做出推断,数理统计可以看作逆向的概率论。
  • 若检验是通过随机抽取的样本来对一个总体的判断结果进行认可或否定,则可以将其用于估计机器学习模型的泛化能力。

最优化理论

  • 人工智能的目标就是最优化,就是在复杂环境与多体交互中做出最优决策。几乎所有的人工智能问题最后都会归结为一个优化问题的求解,因此,最优化理论同样是学习、研究人工智能必备的基础知识。
    最优化理论研究的问题是判定给定目标函数是否存在最大值或最小值,并找到令目标函数取最大值或最小值的数值。如果把给定的目标函数看成连绵的山脉,最优化的过程就是找到顶峰(谷底)且到达顶峰(谷底)的过程。
  • 最优化理论的研究内容主要包括线性规划、(不)精确搜索、梯度下降法、牛顿法、共轭梯度法、拟牛顿法、(非)线性最小二乘法、约束优化最优性条件、二次规划、罚函数法和信赖域法等。
  • 要实现最小化或最大化的函数称为目标函数,大多数最优化问题都可以通过使目标函数最小化解决,最大化问题也可以通过最小化来解决。最优化方法找到的可能是目标函数的全局最小值,也可能是局部极小值,两者的区别在于全局最小值比定义域内所有其他点的函数值都小,而局部极小值只比所有邻近点的函数值小。
  • 当目标函数的输入参数较多、解空间较大时,大多数实用的最优化方法都不能满足全局搜索对计算复杂度的要求,因而只能求出局部极小值。但是,在人工智能和深度学习的应用场景中,只要目标函数的取值足够小,就可以把这个值当作全局最小值使用,以此作为对性能和复杂度的折中。

=====

程序员的数学

迈向机器学习的第一步

  • 由输入和目标组成的数据称为训练数据。机器学习中所谓的学习,就是为了通过给定的输入得到和目标尽可能接近的输出,使用训练数据对参数进行调整的过程。使用训练数据对参数进行过调整的模型称为训练好的模型。对于训练好的模型,需要用测试数据对其进行测试,从而评价训练的效果。

  • 在机器学习中对参数进行调整的过程,不是由程序员完成的,而是由计算机通过训练数据自动完成的,这正是机器学习的一大特征。

  • 这里先做个总结吧。我们面对预测问题,首先要有好的模型加上大量的训练数然后,我们需要的是“能根据输人向量,得到和目标向量尽量接近的输出向量”这样一个训练好的模型。

  • 解决分类问题的过程,也可以说是从大量数据中总结规律和规则,从而发现模式的过程。机器学习并不会要求程序员提前研究手写字符的各种形态再去设计程序,而是由计算机根据训练数据来调整参数,从而得到分类模型,这才是它的特征所在。


  • 如果机器对训练数据能给出完美的输出,对测试数据给出的结果却不尽如人意,很有可能是发生了过拟合(overfitting)。用学生来说,就好比是课堂上做过的训练题都能解得很好,但考试成绩却不怎么理想。

  • 在学习的过程中,需要比较输出和正确的值。拿这个简单的例子来说,要比较的对象就是由输入x1,x2通过给定模型得到的输出y和目标t。如果y和的值一致,那当然好,但一般并不会这么理想。对学习结果(输出)的评价不是单纯的“好与不好”,而是要知道它与训练数据中给出的目标相比“到底有多不好”。为了实现这种评价,需要引入损失函数。
    在具体的机器学习问题中,如何选取恰当的损失函数是个重要且有难度的问题。比如使用平方和误差函数。

  • 要通过调整模型中的权重参数,使得损失函数值尽可能接近于0。

  • 梯度下降法

  • 作为程序员要做些什么

    • 在构建模型这个阶段,程序员是要参与的,但是参数的自动调整过程,程序员不会参与。也就是说,程序员不去直接指定参数的具体数值,而是通过模型、损失函数、训练数据,间接地让参数的选取向着更优的方向变化,从而得到需要的参数。即使模型、损失函数都相同,只要训练数据不同,学习后得到的模型也会截然不同。
    • 机器学习是基于数据让机器去学习,程序员并不直接参与其中。这就像硬件配置完全同的计算机,如果软件系统不一样,整个运行模式也会不一样。把软件换掉,同一套硬件系统也会根据不同的指令做出不一样的事情。道理类似,就算模型一样,只要训练数据不同,最后模型的运行模式也会不一样。
  • 神经网络是指,把像感知器一样有输入和输出的节点排列起来形成的带有层次的结构。神经网络(neural network)这个词来源于生物的信息传递方式。在感知器中,输出是二元的,取值只有0或1两种情况,而神经网络中的节点输出的就不是二元,而是可以进行微分运算的连续值。

  • 深度学习是在神经网络的基础上,通过增加层数得到的更加“深化”的模型。增加层数是为了更加精确地拟合复杂函数,就算涉及的参数个数不做大的变动,也能得到更好的模型。至于如何“深化”在理论上更为有效,依然是现在研究的热点之一。

  • 强化学习是在“无监督”的条件下进行的“学习”。也就是说,在学习过程中没有标准答案可供参考。强化学习通过试错来寻找最优输出,对每个输出,系统都会提供反馈(奖励),模型的参数可以根据得到的反馈来调整。

  • 做出决策

    • 机器学习会根据输人的数据预测未来。这种意义下的预测,是基于先前的经验进行的,得到的是未来最有可能发生的情况(数值)。但是,得到预测值之后“应该做些什么”,机器是无法决定的。也就是说,它们无法进行决策。
    • 通过机器学习这个方法,机器可以告诉我们在未来什么样的行动会导致事情如何发展。
    • 但是,做决策这件事本身,并不能让机器来做。
    • 顺着这个话题继续讲下去,就不是技术问题,而是伦理问题了。比如,在减轻痛苦和延续生命之中二选一的问题等,只能由个人的意志来决定,不可能委托给机器学习。

=====

Reference

  • 《人工智能数学基础》
  • 《程序员的数学》

使用AI总结了这个网站的内容

发表于 2025-01-01

使用google的notebooklm总结目前该网站的所有文章内容
https://notebooklm.google.com/
问题:全面阐述和总结一下这个博客网站的内容,涉及领域,博主风格等


该博客网站的内容主要涵盖了个人成长和职业发展两个方面,涉及领域包括:

  • 自我营销: 如何打造个人品牌,提升影响力。
  • 时间管理: 如何提高工作效率,克服拖延。
  • 学习方法: 如何快速学习,进行深度学习,构建个人知识体系。
  • 心理素质: 如何拥有积极心态,提升情绪力。
  • 职业发展: 如何成为一名专业的软件开发人员,进行有效的薪酬谈判。
  • 创业: 如何打造成功的产品,制定切实可行的创业计划。
  • 健身: 如何利用科技产品实现健身目标。
  • 人际关系: 如何与他人相处,建立良好的人际关系。
  • 精神: 如何利用心灵的力量,克服天性,实现个人成长。
  • 金融: 如何理解金融危机,以及金融政策的作用。
  • 公司文化: 如何打造面向未来的新型组织文化,以网飞为例。
  • 历史: 如何理解人类社会的发展,以文字和政治组织为例。

博主风格:

  • 注重实用性: 博主的内容以解决实际问题为导向,提供具体可行的建议和方法。
  • 结合个人经验: 博主经常结合自身经历和感悟,使得内容更具说服力。
  • 善于运用类比: 博主擅长用通俗易懂的类比来解释复杂的概念,使读者更容易理解。
  • 强调深度思考: 博主鼓励读者进行深度思考,并将知识与自身实际相结合。
  • 注重科学依据: 博主经常引用科学研究和理论来支持自己的观点,增强内容的可信度。

总而言之,该博客网站的内容丰富实用,风格清晰易懂,对于想要提升个人能力和实现职业成功的读者来说,具有很高的参考价值。


排除掉笔记类文章后

这个博客网站的内容主要涉及软件开发和技术管理领域,涵盖了业务方案、架构设计、技术实践、团队管理和个人成长等方面。博主的写作风格简洁、实用、注重经验总结和思考,文章内容多来自实际工作中的问题和解决方案,并结合个人思考和学习心得进行阐述。

以下是该博客网站内容的详细分析:

一、内容领域:

  • 业务方案:涵盖了分页、兼容性、事务、前置校验、幂等、错误码处理、接口安全、容灾降级、货币体系设计、榜单实现等常见业务场景的解决方案和实践经验总结。
  • 架构设计:探讨了微服务架构、服务间一致性、数据库高可用方案、容灾架构、聚合层设计等架构设计理念和实践经验。
  • 技术实践:分享了RPC调用、事务处理、数据库同步、Redis应用、单元测试、配置中心、序列化协议等技术点的实践经验和工具技巧。
  • 团队管理:总结了个人管理经验、小团队管理要点、项目管理技巧、团队协作、沟通技巧等团队管理方面的经验和思考。
  • 个人成长:记录了博主从PHP、C++、Lua到Java、Go、Rust等不同编程语言的学习和实践经历,以及对技术发展趋势的思考和个人职业发展的感悟。

二、博主风格:

  • 简洁实用:文章语言简洁明了,直击问题核心,注重实用性,避免过多理论和概念的堆砌。
  • 经验总结:文章内容多来自博主实际工作中遇到的问题和解决方案,并进行总结提炼,形成可供参考的经验。
  • 思考深入:博主不局限于问题本身,而是深入思考问题背后的原因和本质,并提出自己的见解和解决方案。
  • 持续学习:博主不断学习新的技术和知识,并将其应用到实际工作中,乐于分享自己的学习心得和体会。

三、其他特点:

  • 注重代码质量:博主强调单元测试、代码规范、代码扫描工具等提升代码质量的方法。
  • 关注团队协作:博主重视团队沟通、信息透明、知识分享等,提倡高效的团队协作方式。
  • 追求技术进步:博主积极探索新的技术和架构,并思考技术发展趋势对个人和团队的影响。

总结:

该博客网站内容丰富,涵盖了软件开发和技术管理的多个方面,体现了博主丰富的实践经验和深入的思考。博主的写作风格简洁实用,注重经验总结和思考,对于从事相关领域工作的读者具有较高的参考价值。

AI工业革命下的若干思考

发表于 2024-12-31

随着AI工具变得日益智能,人们对自身可能被取代的担忧也在增加。
回顾以往工业革命带来的社会变迁,或许能从中推测出未来发展的趋势。
以下内容由ChatGPT辅助生成。

AI对就业的双重影响

  • AI技术对就业市场带来了创造效应和破坏效应:
    • 创造效应:AI的普及将催生了许多潜在的新兴职业。这些新兴岗位对熟练掌握AI工具的专业人才需求旺盛。
    • 破坏效应:AI替代了许多重复性、规则性较强的岗位。某些中等技能的岗位如流水线操作、传统文秘工作可能面临消失的风险。

历史视角:被替代的人何去何从

  • 随着AI技术的发展,未来许多人的工作将不可避免地被替代,这其中包括一部分程序员,但相较而言,更多非程序员的工作可能会首当其冲。然而,那些更擅长使用并深刻理解AI工具的人将更有可能保住自己的职位。

  • 回顾工业革命,技术进步曾一度导致大批劳动者失业,许多人因无法适应新变化而成为时代的“牺牲品”,收入锐减。

  • 短期内,某些群体的失业可能难以避免,但历史也表明,技术变革往往伴随着新机会的诞生。

  • 所以,个人需要做好准备:

    • 提升自身技能,特别是AI工具的使用和相关领域的知识储备。
    • 即便不能马上参与高端AI开发,也可以从简单的AI相关工作入手,逐步积累经验。
    • 有一定资产的群体,应学会投资,通过多样化方式应对收入变化。

正面效应

  • 催生新型岗位:AI技术完善后,将需要大量擅长操作和优化AI工具的人才。
  • 解放低级劳动:AI让人类摆脱低级脑力劳动,从而获得更高工资和更有意义的工作体验。
  • 效率提升与“去内卷”:生产效率的提升可能减少“内卷”现象,并通过政策调整减轻劳动者的工作压力。
  • 关于工作和财富再分配问题:如果AI真的让生产效率大幅提升,我们可以期待未来的福利制度更加完善,比如减少工作时间、增加带薪假期,甚至实现“无工作”状态也未必是幻想。

社会与政策层面

  • 加强教育培训:推动技能提升和再教育计划,使劳动者适应AI时代的工作需求。
  • 优化产业结构:加速产业转型升级,为社会创造更多高附加值就业机会。
  • 完善社会保障:建立健全失业保障制度,帮助因AI技术变革失业的劳动者渡过难关。
  • 政策引导:通过政策规范AI技术的合理应用,避免过度自动化对就业的过度冲击。

总结

  • AI技术的快速发展是一把双刃剑,它既对传统就业模式提出了挑战,也为社会提供了提高效率、优化劳动分工的契机。从社会视角看,技术进步不可逆,但我们可以通过政策调整和个人适应来尽量减小负面影响。面对不可避免的变革,积极调整心态、提升能力,是每个人应对未来的重要策略。同时,历史告诉我们,每一次技术浪潮都会带来新的机遇,只要抓住变化的窗口期,未来依然充满希望。

Reference

  • 从工业革命史看技术变迁如何影响工人命运——《技术陷阱:自动化时代的资本、劳动力和权力》评介
<123…16>

159 日志
174 标签
RSS
© 2025 Kingson Wu
由 Hexo 强力驱动
|
主题 — NexT.Pisces v5.1.4