2026/4/17 19:03:04
网站建设
项目流程
在县城做团购网站,备案通过 网站打不开,做搜狗网站优化排名软,网站建站代理AI率#xff1a;本篇文章AI率约50%#xff0c;与AI battle回合约30次 推荐理由#xff1a;有一些对AI ops的思考和洞察#xff0c;所以推荐 AI时代的写作
AI对写博客、写公众号的作者来说#xff0c;可能是一个致命的打击#xff0c;因为AI写作实在是太简单。因为我自己…AI率本篇文章AI率约50%与AI battle回合约30次推荐理由有一些对AI ops的思考和洞察所以推荐AI时代的写作AI对写博客、写公众号的作者来说可能是一个致命的打击因为AI写作实在是太简单。因为我自己就写文章我自己对AI影响写作习惯也有很多纠结的地方我也很难受。这里再把以前的对写作的思考拿出来为什么写作为自己巩固知识。输出才可以加强输入看一眼和写一遍是完全不一样的写作的时间可能是看一遍时间的好几倍。就比如看到一句有道理而且自己很懂的话自己在写一遍时你会发现这句话里面有非常多的细节。为自己合理利用他人偏见。主要是为了利用他人偏见让自己坚持写作以及提升内容的可信度自己看的知识可能差不多就得了写给公众看就要字斟句酌对他人负责。相对的不是真·字斟句酌为自己提升知名度。这就很依赖写作水平了。为他人/社区传播知识。好东西要拿出来大家一起看和使用这是Postgres开源社区的内核所在。鼓励分享不鼓励藏着掖着这也是我一直秉持的理念。结交圈子。我不是为了这个来但确实认识了一些小伙伴人力写作已经很难了在AI时代人力写作约等于地狱模式就像没有目标地逆行看不到光在哪而人们都在往反方向走。我自己当然体验过AI解读、翻译、写成文章但总感觉那不是我的或者失去了训练我自己的初心或者更深层次一点我想感受到作品的生命力。整个DBA圈子的文章可以用鱼龙混杂来形容写啥的都有。而我自己一直都喜欢内容性文章偏PG原理和运维的比如灿灿和向博的文章我都是翘首以盼每次必细品。一般内容性文章都不会有特别多的流量灿灿和向博都各自在公众号吐槽过··我自己也很随缘。但是我上一篇文章《pg运维数据库运维经验2025》涨了很多粉实属让我惊讶。所以我这几天一直在思考这个问题为什么一个人非AI写的、非完备的、DBA的、知识性的文章会有这么多人感兴趣AI对DBA意味着什么对运维的思考运维的本质和AI Ops运维要做很多事情为了减少讨论的范围我在运维工作中极少一部分–故障响应来解读DB Ops的本质。首先我的观点“运维不仅仅是技术问题”很多人通过人会犯错AI也会犯错来解释可以给AI权限让它大胆的干具体的说是AI的错误率人的错误率即可完成替换。我2年前也是这么想的现在我不这么认为。因为真实环境没有那么简单至少还有如下因素需要考虑共识问题。DBA可能误删数据这确实是共识但还有一个共识容易忽略。在一般场景下团队都认为DBA不会去删数据。如何理解呢 比如招聘一个DBA一个负责的团队会考核这个人是不是精神状态正常然后默认他不会删除数据并在长期的工作中会这么想我至少不会时刻都在考虑同事把库删了。但“招聘”一个AI DBA他没有精神状态不会有人认为他不会删数据“他会删数据”是所有人的共识这就形成了部署阻力。数据的重要程度。C端数据和B端数据的重要性不同零售、互联网、政府、金融行业的数据重要性也不同对数据越重视的行业对数据可靠性和业务连续性越敏感。个人电脑没有业务连续性数据可靠性只有一个人在乎但金融行业业务连续性可以直接引起广泛的社会关注金融行业的数据可靠性就不可能说有问题。AI Ops的部署需要考虑系统重要程度来部署不存在所有领域一起上的情况。管理体系。例如在金融系统中DBA有高权限并有一套管理办法那么AI DBA是不是应该也有对应的管理办法才能去部署什么异常登入库什么异常登入后台它要怎么申请权限申请多久在什么场景申请多大的权限这都是未解决的问题。AI本身安全性。例如《STRATUS》这篇论文提到prompt注入攻击目前还没有有效的解决方案例如你给AI注入“drop database”这个prompt它可能就执行了。但人基本没有这个问题你跟DBA说drop database它只会反问你你要干嘛。责任问题。运维工程不是“知识问题”而是“责任问题”。运维的核心工作之一就是在故障发生时在有限的时间内做出对系统不可逆的决策并对该动作负责。AI 可以取代“可形式化的操作”但无法取代“必须承担后果的判断”至少现在还没有充满噪音。运维是“开放系统”不是封闭推理系统。数据库运行在一个极其复杂的环境中而 AI 的推理前提是世界是可被文本描述的。但真实运维世界是世界是充满噪声、偶然性和非文档化行为的。情境压力。真实业务环境下包含恢复时间压力、组织和客户的情绪管理等。《GOOGLE SRE》这本书中描述了一个常见的恢复场景客户在问什么时间恢复、领导在问为什么不切换、工程师在压力下收集各种信息和各种人打电话确认恢复手段。AI感受不到这个压力前两个问题本质上不是技术问题但不能不做答。真实场景下当时的回答大概率马马虎虎。我们可以想象一下全自动AI运维真的发生需要什么条件AI不会干掉重要数据至少绝大部分人对AI需要达成这种共识需要完善的管理办法包括如何给AI权限就如同如何给DBA权限一样解决AI本身被攻击的问题。不止是LLM而是包含AI的整套IT体系不问责的运维文化或者直接消灭运维也是一种思路接受错误判断。对存在噪音和环境形成共识并容忍AI Ops的迭代周期如果长时间没有恢复或者影响面扩大也不要人干预。因为如果一旦需要人干预那么那个人还是运维半自动AI Ops无压力恢复情境。指领导、客户、社会舆论不需要回复或者他们相信某AI的回复这是人的转变不是IT系统的转变。AIOps、Agent的研究成果清华这个AIDB仓库的目录有许多AI4DB的论文人是看不过来了用notebooklm汇总了论文分类再次为了减少讨论范围主要是减少我的投入人力我们主要看数据库诊断相关的内容。AIOps在学术上有不错的进展。AIOps研究通过将机器学习、强化学习及大语言模型集成于数据库管理涵盖参数调优、索引建议、查询优化与故障诊断等关键任务旨在构建具备自感知与自修复能力的“自动驾驶”数据库系统在显著提升复杂工作负载性能与运维效率的同时推动DBA从低效的手动干预转型为高层级的架构监管者。关于“DBA数据库管理员是否会被淘汰”的问题目前的科研趋势和工业实践尤其是自动驾驶数据库和大语言模型的应用显示DBA的角色正在经历一场从“手动操作者”向“高级管理者/监督者”的深刻转型而非简单的被取代。DBA核心价值将转向管理AI运维策略、确保数据安全合规、以及处理AI无法解决的极端异常场景。另一篇AI Ops前言综述的文章对Agent这样描述“这说明AI Agent并非银弹要应用Agent不只需要模型和agent层面的进步还需要需要整个被运维系统具备足够的支持能力比如类似Kubernetes的声明式接口、良好的可观测性、可逆的操作设计。Stratus的初步实验证明了Agent在自动运维上的潜力但距离生产部署在性能、可靠性和安全性上仍有巨大的问题。”开发领域因为如火如荼的vibe coding要明显比AI在运维领域的应用快很多。我也很想有个confirm、redo的运维遥控器问题是现在确实没有。即使我们现在幻想有一天有vibe maintaining应该也没有几个运维会打开yolo模式。DBA的价值DBA的价值是拍板背锅侠吗背书好像确实不能通过AI解决。那么DBA的价值就是拍板背锅侠吗毕竟dba的知识远低于AI只是AI不能拍板罢了。瞬时上下文“DBA 的知识远低于 AI”这在通用知识比如如何优化一个 SQL或者某个配置参数的含义上确实是事实。但 AI 缺少瞬时上下文Runtime Context。 AI 知道数据库原理但它不知道你公司双十一流量激增的瞬间那个负载均衡器后面藏着的陈年历史债。DBA 拥有的是关于“这台特定机器、这个特定业务、这些特定人”的非结构化经验。在极端故障面前AI 给出的是“概率最高的建议”而 DBA 给出的是“在这个特定压力下最能保住命的那个操作”。“混沌系统”的最后闸门数据库是所有 IT 架构中最脆弱、最不容错的部分代码坏了可以回滚数据丢了公司可能就倒闭了。AI 的逻辑是基于历史数据的推演。当出现从未见过的底层硬件坏道、极其罕见的分布式死锁或者黑客的新型攻击手段时AI 的“建议”往往会失效甚至造成二次伤害。“拍板”的核心不是“选哪个方案”而是**“承担风险的对冲”。这种对极端情况的掌控力**是目前的AI无法提供的。信任链DBA是信任链的维护者例如让 AI 审计 AI那么谁来审计 AI 的审计逻辑在数据安全、合规和伦理层面必须有一个拥有最高权限且可追责的人类作为信任链的终点。我们反过来想如果 DBA 真的只是“知识较少的拍板背锅侠” 那么企业其实早就会把 DBA 的拍板权交给SRE或者架构委员会、甚至AI等等责任主体。但现实是在真正关键的时刻企业仍然会把电话打给“那个人”。这说明问题从来不是“谁更聪明”而是谁能在不确定性中为组织承担后果。DBA 是数据库这个混沌系统中最后一个拥有止损权、责任权和信任终结权的人类。那么拍板都是DBA说了算吗显然不是。DBA 并不拥有“目标决策权”而是拥有“风险否决权”——他们不能决定业务要不要冒险但可以决定系统不能承受哪些冒险。在简单、低风险、可回滚的场景下拍板往往由流程或系统自动完成只有当决策进入高风险、不可逆、责任必须收敛的区间时DBA 才会被推到台前。Postgres DBA的特殊性针对 Postgres (PG) DBA 这个特定群体其特殊性会更加显著。在现代技术组织中DBA 并不天然拥有架构决策权也不垄断索引或参数的制定。架构师可以设计方案开发可以编写 SQLAI 甚至可以给出看似完备的最佳实践建议。但这些决策大多发生在抽象层、设计层和概率层它们假设系统是可回滚、可重放、可修正的。Postgres 的特殊性在于它将大量自由度交给使用者而这些自由度最终都会转化为真实系统中的长期副作用写放大、IO 模式变化、Vacuum 失衡、WAL 膨胀以及难以预测的性能退化。这些副作用无法在设计阶段完全预演也无法被单一角色分包处理更无法在事故发生后简单“撤回”。当系统进入不可暂停、不可重放的状态时唯一仍需对整体结果负责的人往往就是 DBA。因此Postgres DBA 的价值不在于“替别人做决定”当然也可以啦而在于在所有决定已经发生之后持续管理它们在现实世界中的后果。“架构师定义理想开发实现功能AI 预测未来而 DBA 守护真实。”这个守护真实的能力是基于PG DBA拥有足够了解Postgres、足够了解系统真实环境、足够了解系统的历史和足够的即时上下文。在AI的时代还需要再增加一个足够了解AI。为什么还要学习这两年听到读书无用论比以往多了许多说这种话我一般都嗤之以鼻。借此机会好好盘一盘。数据库基础知识还有没有价值答案是价值更高了。我们从解释权、主动学习和为什么我还在反复看经典来解读。1.问题的解释权基础知识让你做到三件事提前识别“系统性必炸点”把判断逻辑讲清楚把“我拍脑袋”变成“这是系统决定的结果”学数据库基础知识的真正意义不是为了“多干活”而是为了划清责任边界提升话语权让系统为你的判断背书2.主动学习成为更稀缺的能力在 AI 时代知识获取的“技术壁垒”趋近于 0。主动学习能力是稀缺的。为什么“主动学习”在 AI 时代反而更稀缺这点很反直觉但非常现实。AI 让“被动学习”极其舒服随问随答、无需长期投入、不必承受认知不适。但是导致的结果是越来越多的人停留在“即时满足层”不愿意再去学习基础知识。当所有人都在倒退时你发现你走的更快了。3.为什么还在反复看《The Internals of PostgreSQL》这种经典技术人员需要看书是因为书不是在给答案而是在帮我建立一个可以反复运行、不断修正的认知模型而 AI 目前更擅长回答问题而不是塑造这种模型。AI 很难成为这种“长期对话对象”它的回答是不稳定的。另一个方面从认知经济学 信息论 token 成本的视角来看书的价值。首先你不用跟 AI battle 来 battle 去battle 的真正成本不是钱而是你的注意力和上下文维护能力。其次书中的几十万字不仅不需要你输入大量的prompt也不需要你付出过多的tokens。再次这个书籍的知识经过了作者和读者的反复验证是已压缩过的知识是最容易学习的。所以经典书籍 极低 token 成本下获得高密度、被人类反复验证过的专注知识的压缩结果。4.学习AI本身这不需要我说了。跟AI的battle让我得出一个有趣的关于“为什么还要看书”的结论在 AI 时代知识是廉价的判断力才是昂贵的 而判断力来自于稳定、可校准的认知模型 稳定的认知模型本身是“长期高质量知识摄入”的副产品。另一个可以佐证读书有用论的一个现实证据是我现在这篇文章依赖于我读过的一些书、论文、其他文章和资讯如果没有这些这篇文章不会与各位见面。为什么大家还爱看人写的文章偏爱漏洞的心理人类写的技术文章难免漏洞百出我自己看我去年写的运维经验2024就可以找到很多漏洞。即便是前几天刚完成的运维经验2025我也认为这篇文章是不完备的跟AI写的东西差别很大。但是为什么读者还是喜欢这种漏洞百出的技术文章呢原因可能是人类不是被“信息正确性”吸引而是被“可共情的不完美心智痕迹”吸引。从《智力简史》这边书中可知人类的智力模型本身就包含自我试错式的探险和观察别人的行为并映射自我这两种模型这是一种学习过程是人类与生俱来的。我们的大脑默认会扫描文本中的的犹豫、不确定、逻辑断裂、表达不顺、情绪泄漏等等这些在 AI 文本中被系统性地忽略。在文字的漏洞和情绪中读者可以感受到作者的思考和情绪而AI只是给出了结果读者几乎不会与AI有情绪共鸣。一般来说只有真实经历过的人才会留下这种“不好看”的痕迹。所以我相信很多人跟我一样一眼纯AI的技术文章不保证100%判断正确一般不会有情绪读下去。但如果是人类认真写的会认真读下去去感受作者的感受去抓他的不足或场景缺陷。当然作者也可以喂一些提示词模仿之前文章的口吻或者故意留漏洞不过我没有认真这么做过简单试过生成了几篇感觉情绪带入还是比较差。后面也不想再继续深入尝试了再试下去意义也不大。白嫖大神的ATTENTIONAI文章和大神文章的核心差异不是“写得好不好”而是经济性问答、行业领先的Attention的问题。大神写作是在替读者分配注意力AI 写作是在避免遗漏任何可能相关的信息。这不是能力问题而是目标函数不同。真正高价值的技术文章不是告诉你所有正确答案 而是替你挡住 80% 你现在不该关注的东西。大神为什么敢“删”AI 为什么不敢因为他们为你的理解结果承担认知责任AI不承担你学错、用错的后果。于是大神会刻意过滤那些目前不需要注意的细节。这种过滤本身就是专家价值。对人类来说学习的瓶颈不是信息不够而是注意力有限、不知道先看哪里。大神的文章直接把结果给你对你说你就看着这个。但你面对LLM的时候你知道该找什么东西吗这并不是在否定 AI 文章的价值。AI 擅长的是“在你已经知道问题边界时快速铺开信息空间”而大神文章擅长的是“在你尚未建立判断框架时替你先收缩问题空间”。前者适合查漏补缺、横向扩展后者适合建立主干认知和关键直觉。真正高效的学习方式并不是二选一而是先借助大神完成 Attention 对齐再利用 AI 在被限定的空间内做放大搜索。这不是在说AI的东西没有用或者人类写的东西没用而是各自有用。AGI能解决所有问题吗驳Musk最近Musk又在画大饼看完以后我并不赞同。共同富裕还是无用阶级无用阶级是尤瓦尔在《未来简史》中的观点他认为当AI的生产力超过普通人的时候用AI干活会替代让普通人干活。这些人就成为了无用阶级。资源会愈发集中在少数精英和大公司手中大部分人会失业但是失业情况目前没有有效政策可以为之兜底。这个观点刚好与马斯克式的共同富裕有出入马斯克认为当AGI实现时所有人都不需要担心生存、教育、医疗生产力高到政府会给大部分人兜底。我目前支持尤瓦尔的观点。其实从身边感知性统计也可以看出来无用阶级的人数正在上升。高生产力可以制造乌托邦吗一个支持我不同意AGI乌托邦的理论来自于另一本书《进化心理学-择偶标准》。其中有一个观点令我印象深刻出于社会分工和生物培育良好后代的考虑男性偏爱年轻、健康的女性女性偏爱健康、有资源的男性。这个刻在我们基因里的默认筛选导致了人是不会平等生活的你不想成为被淘汰的那个。所以一个不攀比、没有竞争的、资源平等的乌托邦如果能够维持下去生产力只是必要条件之一还有许多必须解决的社会问题容易被大众忽略。这里不是狭义的单指进化心理学有些东西没有被仔细讨论比如《黑猩猩政治》中的权力纷争其实也应该被考虑。卡尔霍恩的老鼠乌托邦实验1972 年动物行为学家约翰·B·卡尔霍恩John B. Calhoun设计并详细描述了一个著名的实验环境——“宇宙 25 号”。这是一个专门为老鼠打造的实验室“乌托邦”几乎在每一个方面都力求完美食物、水源和筑巢材料充足居住环境定期清洁没有捕食者威胁温度通过风扇与供暖保持在 20℃至 31℃之间稳定舒适。老鼠数量走向灭亡看起来有些疯癫我选择只看过程部分1)暴力增加 2)不再追求异性 3)同性行为增加 4)独处行为增加 5)男性爱打扮自己 6) 冷漠 等等。当然这个实验会有一些缺陷从《智力简史》中描述的智力模型来看老鼠和人的智力模型还差着一个灵长类动物它不能代表人类社会。但是至少可以看出乌托邦会引起新的社会问题人们不会老老实实的过日子。基于经济学的社会从现代经济学的角度来看AGI 是否能够实现“共同富裕式乌托邦”可分为两种类型来看保留现代经济和不保留现代经济。如果保留现代经济AGI 可以被视为一种极端高效的“通用生产要素”。 它显著降低了知识生产、决策支持、组织协调和边际劳动成本提高了全社会的生产率上限。在这一前提下财富分配、公共服务供给和社会保障机制仍然依托市场、价格信号、激励机制和制度约束运行。AGI 的作用更多体现在扩大“可分配蛋糕”的规模而非自动解决分配问题。换言之****共同富裕依然是政治经济学问题而不是技术问题AGI 只能降低实现目标的成本却无法替代制度设计。那么如果不保留现代经济而是试图绕过市场、价格与激励体系直接依靠 AGI 实现某种“技术乌托邦”是否可行答案几乎可以确定是否定的。没有现代经济的乌托邦在 20 世纪 60–70 年代已经被反复验证为失败。其根本原因并不在于当时“技术不够先进”而在于信息与激励问题的结构性不可解即便拥有强大的集中式计算能力也无法替代分散个体通过价格机制传递的偏好信息更无法在长期内维持创新动力、责任约束和资源配置效率。AGI 可以提高集中决策的计算能力但无法消除“谁为决策负责、谁承担后果、谁拥有选择权”这一经济学基本问题。因此AGI 并不是现代经济的替代者而是现代经济框架下的放大器。任何脱离市场机制、激励结构和制度约束的“技术乌托邦”无论是否引入 AGI本质上都会重演历史上的失败路径只是失败形式更加隐蔽、成本更高。生产力包括 AGI 带来的智力提升只是乌托邦所需条件之一而且远远不是最关键的那一个。乌托邦不是算力问题也不是智力问题而是人类行为在制度约束下的稳定性问题。AI解决不了所有问题的数学基础以下抄自吴军的《数学之美》“1900年希尔伯特提出了许多问题其中一个是‘任意一个多项式不定方程能否通过有限步的运算判定它是否存在整数解’。如果对希尔伯特这个问题普遍答案是否定的那么就说明很多数学问题其实上帝也不知道答案是否存在因为不定方程求解问题还只是数学问题中很小的一部分。对于连答案存在与否都无法判定的问题答案自然找不到的。正是希尔伯特对数学问题边界的思考让图灵明白了计算的极限所在····马蒂亚塞维奇严格地证明了除了极少数特例在一般情况下无法通过有限步的运算判定一个不定方程是否存在整数解。这个问题的解决对人类认知上的冲击远比它在数学上的影响还要大···如果连解都不知道就更不可能通过计算来解决他们了”“理性状态的图灵机可以解决的问题只是有答案的问题中的一部分··很多工程上的问题并非人工智能问题···今天我们所要担心的不是人工智能或计算机有多么强大更不应该觉得他们无所不能因为他们的边界已经清清楚楚地由数学的边界划定了···世界上还有许多需要由人来解决的问题如何利用好人工智能工具更有效地解决属于人的问题才是应该给予更多关注的。“看吧读书有用吧直接给你讲明白你大概率问不出来也拿不到这么通俗易懂的答案看吧关注硬核技术up有用吧我帮你筛选了快“点关注”⭐️总结作为一个写技术文章的博主写此类社会问题是比较少的。本来就想简单写写上一篇文章为什么有流量结果为了解释这个现象有点把问题扩大化了。本篇的局限性只讨论了DBA工作的很小一部分–故障恢复没有讨论其他工作的智能化问题。GPT太了解我了看上去在PUA我。它确实说的很有道理但我无法给它说的东西背书。这就有点套娃了AI帮我确认AI不能背书这个输出本来就无法背书。从我自己的视角来看它的思路确实不错金句频出。有些Ops场景当然是容易AI化的但通过这篇文章的讨论在故障恢复这个领域搞AI化难度还是有的。我从来没有放弃用AI也从来没有放弃用人脑我只是喜欢识别AI在什么场景下好用什么场景下不好用什么场景下用不了。这让文章的基调看起来对AI的未来很悲观其实我的想法不是悲观。这篇文章的开头你可以看到 AI率是50%实际上我还跟几个小伙伴讨论过类似问题也包含自己的思考所以这篇文章真正的智力比例是AI率50%其他人脑率10%我的人脑率40%所以这篇文章也算是”不放弃使用AI也不放弃使用人脑“的一个典型案例了。最后用几个问题简单表面我的观点为什么人们还是爱看人写的文章心理偏好和注意力对齐读书有没有用不只是书有用而且比以往还有用烂书比以往更没用知识品味比以往更重要AIOps会不会实现会但还要时间而且并不容易。这需要学术突破和运维含DBA的思考和实践DBA会不会被替代不会跟软件开发者一样会经历工作模式的改变但不会消失留下来的DBA是哪些人“懂DB又懂AI不依赖AI又不放弃判断的人”AGI会不会实现会AGI会不会实现全面富裕不会如果想跟我讨论AI Ops或者文章中的问题可以在各个PG群里找我应该好找或者给我留言也可以。refhttps://github.com/TsinghuaDatabaseGroup/AIDBhttps://mp.weixin.qq.com/s/urqh4NZDmkXvDllBCCdZDAZhao, Y., et al. (2025). “STRATUS: A Multi-agent System for Autonomous Reliability Engineering of Modern Clouds”.Advances in Neural Information Processing Systems (NeurIPS)https://zhuanlan.zhihu.com/p/631632685《数学之美》