2026/4/18 8:50:31
网站建设
项目流程
调查问卷网站建设方案,常德建设网站多少钱,广东建网站公司,wordpress php 得到页面描述接上文#xff1a;LoRA 矩阵分解#xff1a;Rank#xff08;秩#xff09;与数值的确定机制 “梯度更新”听起来很抽象#xff0c;我们用一个教大模型写诗的例子#xff0c;来看看矩阵 A 和 B 是怎么一步步“长脑子”的#xff0c;也就是它们如何从随机数和零值#xf…接上文LoRA 矩阵分解Rank秩与数值的确定机制“梯度更新”听起来很抽象我们用一个教大模型写诗的例子来看看矩阵 A 和 B 是怎么一步步“长脑子”的也就是它们如何从随机数和零值变成了有意义的特征提取器。0. 设定场景教 AI 写“李白风”古诗Base 模型原始大脑一个普通的 AI给它输入“月亮”它只会写“月亮圆又圆”平平无奇只会陈述事实。目标通过 LoRA 微调让它学会李白的豪放派风格。输入“月亮”它要写“举杯邀明月”。LoRA 矩阵设置矩阵 A (探测器)负责从输入里提取特征一开始是瞎猜的随机数。矩阵 B (执行器)负责把特征转化成豪放的指令一开始是全 0不起作用。第一阶段初始状态 (Step 0) —— “我是谁我在哪”输入x 月亮矩阵 A (随机)里边是高斯随机数。它看着“月亮”这个词完全不懂啥意思可能随机激活了代表“香蕉”或者“汽车”的神经元瞎猜特征。矩阵 B (全 0)完全关闭状态。增量Δ W B × A \Delta W B \times AΔWB×A不管 A 猜到了什么乘以 B 的 0 之后结果都是0。最终输出最终结果 原始模型直觉(Wx) LoRA修正(0)输出“月亮圆又圆”。Loss (误差/老师的教鞭)心理预期Label“举杯邀明月”。实际输出“月亮圆又圆”。误差很大Loss Function损失函数不仅计算出错了还会计算出**“原本应该往哪个方向走”**即梯度。第二阶段第一次反向传播 —— “被骂醒了”这时候反向传播Backpropagation开始工作了它拿着误差的账单回来找 A 和 B 算账梯度对矩阵 B 说“喂你全是 0 怎么行刚才那个输入你应该给我变出点‘酒’和‘杯’的权重来你需要增大能输出‘豪放词’的那些参数值”结果B 开始不再是 0 了它开始积累一点点数值这些数值的方向是指向“豪放词汇”的。梯度对矩阵 A 说“你刚才瞎猜什么香蕉刚才输入的是‘月亮’你要调整你的参数以后看到‘月亮’就要激活第 3 行和第 5 列假设这些位置对应‘景物’特征”结果A 的随机数被微调它开始试图把“月亮”这个词和特定的特征向量对应起来。第三阶段训练中途 (Step 500) —— “摸索门道”经过 500 次的“输入-挨打-修正”循环输入x 月亮矩阵 A (探测器进化 - 对应“动作分”提取)A 已经学聪明了。它不再瞎猜而是学会了特征提取。看到“月亮”、“酒壶”、“长剑”A 就会输出一种特定的向量信号比如[0.8, 0.1]。意义这就像电影推荐里A 算出了**“这个输入包含了 80% 的豪放因子”**这就是“动作分”的由来。矩阵 B (执行器进化 - 对应“评分”转化)B 也定型了。它学会了只要 A 传来“豪放因子”高的信号我就要狠狠地去增加“邀”、“影”、“歌”这些字的生成概率。意义这就像电影推荐里因为“豪放分高”B 就给出了**“推荐输出‘举杯’这一词”**的高评分。第四阶段训练完成 (Step 2000) —— “神功大成”输入x 大河矩阵 A精准捕捉检测到“大河”属于宏大场景虽然没见过几次但它和“月亮”一样属于“豪放类”输入。A 输出特征向量[0.9 (豪放), 0.05 (婉约)]。矩阵 B接收到0.9的豪放信号。B 计算0.9 × 权重- 极大地提高了“奔流”、“到海”等词的权重。最终输出原始模型可能想接“大河向东流”通俗歌词权重高。LoRA 在旁边猛推一把Δ W \Delta WΔW介入把“通俗”权重压下去把“古典狂放”权重拉上来。结果“君不见黄河之水天上来”。总结从数学到意义所谓“慢慢变成有意义的动作分、爱情分”在数学上就是Loss (损失)指明了目标方向要李白不要儿歌。Gradient (梯度)是雕刻刀它削减掉 A 和 B 中没用的连接增强了能哪怕蒙对一点点的连接。Steps (迭代)是积累过程。最终A被雕刻成了“李白雷达”特征提取器。B被雕刻成了“写诗外挂”风格投射器。它们相乘的Δ W \Delta WΔW就是在这个特定任务上对原始大脑的一份**“补丁包”**。