2026/4/18 9:58:13
网站建设
项目流程
网站空间3个g多少钱,官方网站建设的方法有哪些方面,如何网站做百度推广,网件路由器登录网址AI安全与蒙昧时代
摘要
针对前沿AI模型的严格许可和监控提案可能无效甚至适得其反#xff0c;它们将以不可持续的方式集中权力#xff0c;并可能逆转启蒙时代取得的社会成果。在保卫社会与赋能社会自我保护之间的平衡是微妙的。我们应倡导开放、谦逊和广泛磋商#xff0c;以…AI安全与蒙昧时代摘要针对前沿AI模型的严格许可和监控提案可能无效甚至适得其反它们将以不可持续的方式集中权力并可能逆转启蒙时代取得的社会成果。在保卫社会与赋能社会自我保护之间的平衡是微妙的。我们应倡导开放、谦逊和广泛磋商以制定出符合我们原则和价值观的、并能随着我们对这项可能向好或向坏改变社会的技术有更多了解而不断演进的应对措施。核心问题日益强大的人工智能的快速发展让许多人要求被保护也有许多人提供这种保护。最新的一份白皮书题为“前沿人工智能监管管理对公共安全的新兴风险”。该文的许多作者与某中心、某机构以及由这两家公司的投资者资助的各种组织有关联。FAR声称政府的参与将需要确保此类’前沿AI模型’被用于公共利益。但我们真的能确保这一点吗代价是什么FAR未能解决一个巨大的、显而易见的问题。任何能够访问强大AI模型完整版本的人其拥有的权力都远远超过只能通过受限服务访问该模型的人。但只有极少数人能够访问完整的模型。如果AI真的变得极其强大那么这种巨大的权力差异将是不可持续的。虽然表面上似乎满足了各种安全要求但FAR中推进的监管制度最终会导致大量权力被置于现有的大公司手中凭借它们能访问原始模型使它们相对于所有其他参与者——包括试图监管或约束它们的政府——拥有信息不对称优势。这可能导致社会的毁灭。原因在于由于这些模型是通用计算设备不可能保证它们不会被用于有害的应用程序。这就像试图制造一台不会被误用例如用于发送勒索邮件的计算机。完整的原始模型远比任何基于它构建的确保安全的服务更强大。完整的原始模型是通用的它可以用于任何事情。但如果你给某人一个通用计算设备你无法确定他们不会用它来造成伤害。因此你改为让他们访问一个服务该服务只提供了通往完整模型的一个小窗口。例如某中心向公众提供了一个经过严格控制和调优的、基于文本的GPT-4对话界面但不提供对GPT-4模型本身的完全访问。如果你控制着一个强大的、调节所有信息消费和生产的模型并且它是一个专有秘密你就可以塑造人们的信仰和行为——并随意审查任何内容。FAR所倡导的理念最终将导致AI的前沿技术对不在少数几家公司工作的人来说变得遥不可及而这些公司的统治地位将因这些理念而被巩固。对于社会来说这是一条极其危险且脆弱的道路。监管竞赛那么让我们回顾一下在这些监管提案下会发生什么。我们拥有世界上最强大的技术且一直在快速发展但只有少数大公司能够以不受限制的方式访问该技术最强大的版本。接下来会发生什么显然现在所有关心权力和金钱的人都迫切需要找到一种方法来获得对这些模型的完全访问权限。毕竟任何无法访问历史上最强大技术的人都不可能参与竞争。对他们来说好消息是这些模型实际上只是一堆数字。它们可以极其容易地被复制一旦你得到它们你可以毫无成本地传给所有的朋友。周围有许多擅长数据外泄的专家他们知道如何利用勒索、贿赂、社会工程学以及经验告诉我们非常有效的各种其他方法。对于那些有远见不使用这种令人不快的方法、但拥有资源的人来说他们也可以通过花费大约1亿美元来加入AI能力者的行列。即使是《财富》全球2000强中最小的公司其年收入也有70亿美元这样的支出完全在其预算范围内。当然大多数国家的政府也能负担得起这笔费用。当然这些组织中的任何一个都不能在不违反拟议法规要求的情况下直接向公众提供这些模型但根据定义每个组织中至少有一些人将拥有访问完整模型权力的权限。那些渴望权力和财富但未能获得模型权重的人现在有了新的目标让自己进入拥有大型模型组织的权力职位或者让自己进入做出这些决策的政府部门的权力职位。那些最初出于为社会发展AI的善意而成立的组织很快会发现它们变成了所有公司在成长过程中都会加入的企业逐利机器的一部分并由那些擅长追逐利润的人来运营。事实是这项旨在控制AI使用的整个努力是徒劳且无效的。不仅模型的扩散无法控制因为数字信息太容易被窃取和复制事实证明对训练模型所需计算量的限制也无法执行。这是因为现在世界各地的人们可以虚拟地联合起来共同训练一个模型。例如某机构已经创建了一个完全去中心化、开放、可扩展的AI云最近的研究表明使用这种方法可以取得很大进展。图形处理单元即用于训练模型的实际硬件与用于玩电脑游戏的硬件完全相同。目前世界上用于玩游戏的计算能力比用于AI的还要多。世界各地的游戏玩家只需在他们的电脑上安装一个小软件就可以选择帮助训练这些开源模型。组织如此大规模的活动会很困难但并非没有先例例如某项目和某项目的成功。开发者们已经在思考如何确保普通人能够继续训练这些模型——例如在某机构最近的一次采访中某公司创始人某解释了其新公司某是如何致力于开发某的他解释其设计基于一个前提你能在不引起怀疑的情况下往家里接入的最大电力是多少答案之一就是电动汽车充电器。所以他正在建造一个使用与汽车充电器相同电量的AI模型训练系统。AI安全社区深知这个问题并提出了各种解决方案。例如某机构AI政策专家某最近发表的一篇有影响力的论文研究了可以添加到计算机芯片中的监控机制并指出“随着先进的机器学习系统的能力开始在地缘政治和社会秩序中发挥重要作用可能变得至关重要1政府能够在境内强制执行有关开发先进机器学习系统的规则以及2各国能够相互核查对方对潜在的、未来关于先进机器学习开发的国际协议的遵守情况。”任何解决此问题的方法都必须确保要求所有此类芯片制造商在其芯片中包含该监控功能因为很明显如果有一家公司不这样做那么所有想要训练自己强大模型的人都会使用那家公司的芯片。某指出“在硬件层面详尽地执行此类规则将需要监控和管理个人公民对其个人电脑的使用这在伦理上是高度不可接受的”。然而现实情况是为了使集权和控制有效此类规则是必需的因为个人电脑只需通过互联网连接就可以用于训练大型模型。当自称为AI安全运动先驱的某提出对未经授权的数据中心进行空袭并威胁使用核战争以确保未能控制计算能力未经授权使用的国家遵守规定时许多人感到震惊。但轰炸数据中心和对所有计算机进行全球监控是确保FAR所提议的那种安全合规的唯一途径。监管使用而非开发某提出了另一种替代强制安全标准或模型许可的方法即监管高风险和有害的应用而不是开源AI模型。这就是大多数法规的运作方式通过责任追究。如果有人做了坏事那么他们就会有麻烦。如果有人创造了一个通用工具而其他人用它来做坏事那么工具制造者不会因此陷入麻烦。像互联网、计算机、纸和笔这样的两用技术并不局限于只供大公司使用任何人都可以制造计算机或造纸。他们不必确保他们制造的东西只能用于社会利益。这是一个关键的区分监管使用即通过使模型成为系统的一部分——尤其是像医疗这样的高风险系统——来实际投入使用模型与监管开发即训练模型的过程之间的区别。这个区分之所以关键是因为这些模型实际上只是数学函数。它们接收一堆数字作为输入计算并返回另一堆不同的数字。它们本身不做任何事情——只能计算数字。然而这些计算可能非常有用事实上计算机本身也仅仅是计算器因此得名“计算机”。它们在被使用的时刻——即连接到某个实际可以做事的系统时——才变得有用。FAR论述了这种区别声称AI能力的改进可能是不可预测的并且往往难以在没有深入测试的情况下完全理解。因此不要求模型在部署前经过充分测试的法规可能无法可靠地防止已部署的模型构成严重风险。这是一个不合逻辑的推论。因为模型在被使用前不会造成伤害所以开发模型不可能是一项有害的活动。此外由于我们讨论的是通用模型我们无法确保模型本身的安全——只能尝试确保模型使用的安全。另一个有用的监管方法是考虑保护对敏感基础设施如化学实验室的访问。FAR简要考虑了这个想法称对于前沿AI开发特定领域的法规可能很有价值但很可能会遗留一部分高度严重和规模的风险未得到解决。但它没有进一步研究而是基于一个假定的可能存在的剩余风险子集来推广一种方法而正如我们所看到的这种方法可能会破坏几个世纪的文化、社会和政治发展。如果我们能够构建先进的AI我们应该预期它至少能帮助我们识别需要加固的敏感基础设施。如果可以使用这样的基础设施来造成伤害那么似乎极有可能可以识别它——如果AI无法识别它那么它就无法利用它。当然实际处理已识别的威胁可能并不简单例如如果事实证明一台桌面DNA打印机可以用来制造危险的病原体那么加固所有这些设备将是一项巨大的工程。但这仍然比限制世界上所有的计算设备要小得多且侵入性更小。这引出了另一条有用的监管路径部署披露。如果你正在考虑将任何使用AI的自动化系统连接到任何类型的敏感基础设施那么我们应该要求披露这一事实。此外某些类型的连接和基础设施应要求事先进行仔细的安全检查和审计。通向集权的道路更好的AI可以用来改进AI。这已经被多次看到甚至在早期能力较弱、资源较少的算法时代也是如此。某机构已经使用AI来改进数据中心能源使用方式创建更好的神经网络架构并创建更好的方法来优化这些网络中的参数。模型输出已被用于创建训练新模型所使用的提示用于创建这些提示的模型答案以及解释答案的推理过程。随着模型变得更强大研究人员将找到更多方法来使用它们改进数据、模型和训练过程。没有理由相信我们已经接近该技术的极限。没有任何数据可以用来明确预测这能走多远或者接下来会发生什么。拥有完整模型访问权限的人可以比没有的人更快、更好地构建新模型。原因之一是它们可以充分利用强大的功能如微调、激活以及直接研究和修改权重的能力。例如最近的一篇论文发现微调使模型能够以比基础模型少几个数量级的参数来解决具有挑战性的问题。这种反馈循环导致集权大公司变得更大其他参与者无法竞争。这导致了集权、竞争减少进而导致价格更高、创新减少、安全性降低因为存在单点故障以及更大的利润动机鼓励冒险行为。还有其他强大的力量推动着集权。以某机构为例。某机构拥有比地球上任何人都多的数据。更多的数据直接导致更好的基础模型。此外随着人们使用其AI服务他们正在获取越来越多关于这些互动的数据。他们使用AI来改进产品使其对用户更具粘性并鼓励更多人使用从而导致他们获得更多数据这进一步改善了他们的模型和基于模型的产品。同时它们日益垂直整合因此几乎没有强大的供应商。它们制造自己的AI芯片运行自己的数据中心并开发自己的软件。对前沿模型开发的监管鼓励了更大的集权。特别是许可制这是FAR中提出的一种强有力的集权力量。对前沿模型开发的许可要求新进入者在获准开发与当前技术水平相当或更好的模型之前必须申请许可。这使得与现有参与者竞争变得更加困难。并且它为监管俘虜开辟了一条极其强大的途径因为它导致一个非民主的许可委员会在谁有权建造地球上最强大的技术这个问题上拥有最终决定权。因此这样的机构可能成为世界上最强大的团体。开源与AI启蒙新时代替代渴望控制和集权所带来的安全感和确定性的是再次承担我们几百年前承担过的风险相信人性和社会的力量与善良的风险。正如启蒙时代的思想家们提出如果每个人都受教育会怎样如果每个人都有投票权会怎样这样的难题一样我们应该提出这样的问题“如果每个人都能获得AI的全部力量会怎样”需要明确的是提出这样的问题可能并不受欢迎。反启蒙运动是一个持续了百年的强大运动抵制对进步的信仰、所有人的理性、自由民主以及社会日益世俗化。它依赖于一个关键假设正如法国哲学家某所阐述的“总的来说如果人只依靠自己就过于邪恶而不能享有自由。”从启蒙运动的结果我们可以看出这个前提是完全错误的。但这个想法就是挥之不去。几十年来社会学家们一直在研究和记录精英恐慌——精英们倾向于假设普通人在灾难面前反应会很糟糕因此必须控制他们。但这也是错误的。事实上正如某所解释的这不仅仅是错误“我把这些危机时刻看作是人民权力和积极社会变革的时刻。我书中的一个主要例子是墨西哥城1985年的地震引发公众对一党制的不满从而导致了公民社会的重生。”当我们应对AI误用的威胁时拥抱对进步和所有人理性的信仰会是什么样子许多专家正在研究的一个想法是开源模型可能是关键。模型只是软件——它们是体现为代码的数学函数。当我们复制软件时我们通常不称之为扩散。这个词通常与核武器相关联。当我们复制软件时我们称之为安装、“部署或分享”。因为软件可以被自由复制它激发了一场巨大的开源运动认为这种分享是一种道德善举。当所有人都能受益时为什么要将价值限制在少数人手中这个想法是强大的。今天几乎你使用的每个网站都在运行一个开源网络服务器而它又安装在开源操作系统上。大多数程序都是用开源编译器编译的用开源编辑器编写的。像维基百科这样的开源文档具有变革性。最初这些都被视为疯狂的想法并有很多怀疑者但最终它们被证明是正确的。简单地说如果没有开源你今天使用的大部分计算机和互联网世界将不会存在。如果最强大的AI模型是开源的会怎样仍然会有坏人试图利用它们伤害他人或不公正地致富。但大多数人不是坏人。大多数人会使用这些模型来创造和保护。还有什么比让拥有AI全部力量的人类社会发挥其巨大的多样性和专业知识尽力识别和应对威胁更安全的呢如果世界顶尖的网络安全、生物武器和社会工程学学者们正在利用AI的优势来研究AI安全并且你可以自己获取和使用他们的所有工作这与只有少数营利性公司的人能完全访问AI模型相比你会感到安全多少为了获得完全访问模型所带来的更佳功能并减少商业控制——这一领域之前一直是一个拥有分享文化的开放研究社区——开源社区最近介入并训练了许多相当有能力的语言模型。截至2023年7月其中最好的模型已达到与第二梯队廉价商业模型相似的水平但还不及GPT-4或Claude。它们的能力正在迅速提高并吸引了来自富有捐赠者、政府、大学以及那些试图避免权力集中并确保能访问高质量AI模型的公司的越来越多的投资。然而FAR中的安全保证提案与开源前沿模型是不兼容的。FAR提出在可证明安全部署可行之前避免前沿AI模型的潜在危险能力被开源可能是谨慎的。但是即使一个开源模型以与经监管批准的封闭商业模型完全相同的方式、使用完全相同的数据进行训练它仍然永远无法提供相同的安全保证。这是因为作为一个通用计算设备任何人都可以用它来做任何他们想做的事情——包括使用新数据集和新任务对其进行微调。开源并非灵丹妙药。这仍然需要谨慎、合作以及深入细致的研究。通过使系统对所有人开放我们确保整个社会既能从其能力中受益也能致力于理解和应对其潜在危害。某机构和某机构顶尖的AI和政策团队联手回应美国政府关于AI问责制的征求意见指出“为了使基础模型能够促进公共利益其开发和部署应确保透明度、支持创新、分散权力并最小化伤害……我们认为开源基础模型可以实现所有这四个目标部分原因在于开源的内在优点促进透明度、促进创新、反对集中化”此外他们警告说“如果闭源模型不能被研究人员和技术专家审查安全漏洞可能在造成伤害之前无法被识别……另一方面跨领域的专家可以审查和分析开源模型这使得安全漏洞更容易被发现和解决。此外限制谁可以创建基础模型会减少有能力的基础模型的多样性并可能导致复杂系统中的单点故障。”实际上访问最好的AI模型对于研究AI安全至关重要的这一想法是当今两家最先进的AI公司——某中心和某机构——起源故事的基础。许多人感到惊讶的是这些公司的高管们大声警告了AI潜在的生存风险但他们自己却正在构建这些模型。但这并不矛盾——他们已经解释说他们这样做的原因是他们认为如果不接触最先进的模型就不可能正确地理解和减轻AI风险。今天开源模型的访问正面临严重风险。欧盟AI法案可能会基于与FAR相似的原则有效地禁止开源基础模型。技术创新政策分析师某在其文章欧盟监管开源AI的尝试适得其反中写道“理事会对开源进行监管的尝试可能会创建一套复杂的要求危及开源AI贡献者但可能无法改进通用AI的使用。开源AI模型通过挑战大型科技公司对通用AI的统治以及使公众了解AI的功能提供了巨大的社会价值。”首要原则不造成伤害FAR得出结论关于应对前沿AI模型所带来挑战的最佳监管方法的不确定性不应阻碍立即采取行动。但或许它们应该被阻碍。事实上AI政策专家某和某正是这样建议的——不要急于采取监管行动‘围绕新技术的恐惧遵循一种可预测的轨迹称为技术恐慌周期。恐惧增加、达到顶峰然后随着时间的推移随着公众对技术及其益处变得熟悉而下降。事实上创意领域其他先前的生成式技术如印刷机、留声机和电影放映机也遵循了同样的过程。但与今天不同的是当时的政策制定者不太可能做太多事情来监管和限制这些技术。随着对生成式AI的恐慌进入最动荡的阶段政策制定者应该深吸一口气认识到我们正处于一个可预测的周期中并将任何直接针对生成式AI的监管工作暂时搁置。’相反或许监管者应该考虑希波克拉底的医学指导“不造成伤害”。医疗干预可能有副作用有时治疗可能比疾病本身更糟糕。有些药物甚至会损害免疫反应使身体过于虚弱而无法抵抗感染。监管干预也是如此。确保安全的集权化和监管俘虜影响不仅可能对社会造成直接伤害甚至可能导致安全性降低。如果只有一个大型组织掌握着巨大技术力量的钥匙我们就会发现自己处于一个脆弱的境地社会的其他部分无法获得相同的力量来保护自己。一场权力争夺甚至可能成为触发滥用AI从而导致社会毁灭的导火索。AI监管的影响将是微妙、复杂且难以预测的。在保卫社会与赋能社会自我保护之间的平衡是极其微妙的。急于监管似乎不太可能成功地走好这条钢丝。我们还有时间。人类社会所有能力的总和是巨大的AI要超越这种能力是一项艰巨的任务。某中心的技术专家某曾赢得多项技术预测竞赛与某机构的AI总监某共同完成了一份长达114页的关于AI发展时间框架的深入分析结论是我们估计到2043年出现变革性通用人工智能的可能性小于1%。重要的是时间越长我们学到的东西就越多。不仅仅是关于技术还有社会如何应对它。我们不应急于实施那些可能将社会推上一条难以摆脱的反乌托邦道路的监管变革。关于高级语言模型的AI安全担忧并不新鲜。早在2019年初我写了关于AI零日威胁和某中心GPT-2的一些思考作为对某中心有争议且在当时不同寻常地决定不发布其新语言模型权重的回应。在考虑这个决定时我指出关于这个话题最深入的分析是《人工智能的恶意使用》这篇论文。该论文的主要作者现在在某中心工作并深度参与了关于模型发布的决策。让我们看看该论文的建议政策制定者应与技术研究人员密切合作调查、预防和减轻AI的潜在恶意使用。人工智能领域的研究人员和工程师应认真对待其工作的双重用途性质让与误用相关的考虑影响研究重点和规范并在可预见有害应用时主动联系相关参与者。应在方法更成熟的研究领域如计算机安全中确定最佳实践并在适用的情况下引入到AI领域。积极寻求让更广泛的利益相关者和领域专家参与这些挑战的讨论。《人工智能的恶意使用》由来自14个机构的26位作者撰写涵盖学术界、民间社会和工业界。主要作者现在是某中心的政策主管。有趣的是看到某中心作为FAR的联合创建者已经偏离这些最初的想法有多远。《恶意使用》论文中的四项建议充满了谦逊——他们认识到有效的风险应对涉及主动联系相关参与者向方法更成熟的研究领域如计算机安全“学习以及扩大参与讨论的利益相关者和领域专家的范围”。重点不在于集权和控制而在于外联与合作。机器人末日即将来临的想法是一个引人注目且引人入胜的想法。FAR警告我们必须防范模型可能具有情境感知和欺骗性并链接到一篇声称我们目前的道路最终很可能导致AI的全面接管即AI系统可能发动暴力起义或政变的文章。这是一种可以推动我们去做某些事情、任何事情、让我们感觉更安全的那种想法。抵制这种反应需要成熟和冷静的头脑。古希腊人教导我们傲慢的危险过度的骄傲、自大或过度自信。当我们过度自信地认为我们知道未来会发生什么时我们很可能会反应过度并创造出我们试图避免的那个未来。如果在我们试图避免AI末日的过程中我们集中控制了世界上最强大的技术注定未来的社会退回到一个封建状态其中最有价值的商品——算力——被少数精英所拥有。我们就会像俄狄浦斯王一样被预言会杀死父亲并娶母亲为妻最终却因试图避免这一命运的行为而恰恰实现了预言。或者像法厄同一样如此自信于自己能够控制太阳战车以至于偏离了他父亲赫利俄斯为他规划的中间道路在此过程中几乎摧毁了地球。《人工智能的恶意使用》指出了一种不同的方法基于谦逊与许多领域的专家协商与受技术影响的人合作在一个从经验中学习的迭代过程中。例如如果我们采纳他们的建议并向计算机安全专家学习我们会学到该领域的一个关键思想是通过隐匿实现安全——即以隐藏秘密作为安全的基础——是无效且危险的。网络安全专家某某机构信息技术政策中心主任和某在最近的一份分析中详细阐述了许可制和类似监管即只有少数几家公司能够开发最先进的AI可能导致的五大主要AI风险单一文化可能会加剧安全风险。单一文化可能导致结果同质化。界定可接受言论的边界。影响态度和观点。监管俘虜。我们如何走到这一步我认识的所有花时间使用GPT-4和某等工具的人都对其能力感到震惊——包括我自己尽管它们有很多错误或称幻觉但它们几乎可以为任何主题提供各种帮助。我每天都用它们来处理各种事情从编程帮助到我女儿的玩耍点子。正如FAR所解释的“基础模型例如大型语言模型是在大量、广泛的自然语言和其他文本语料库上进行训练的通常起始于预测下一个’标记’的简单目标。这种相对简单的方法产生了具有惊人广泛能力的模型。因此这些模型比许多其他类别的AI模型具有更通用的功能。”它接着说“在关注可能具有危险的、新兴能力的基础模型时我们对前沿AI的定义排除了窄模型即使这些模型可能具有足够危险的能力。例如优化化合物毒性或病原体毒力的模型可能导致预期或至少是预见的伤害因此可能更适合用更有针对性的法规来覆盖。我们的定义关注的是可能——而不仅仅是确实——拥有危险能力的模型。”因此作者们提出了负责任的前沿AI开发和部署的安全标准和授权监督机构识别和制裁违规行为或者通过许可前沿AI的部署甚至可能包括其开发。他们提出这样做是为了确保模型被用于公共利益。假设这些提案被接受并且这项法规被创建。接下来会发生什么有两种可能性AI能力的增长达到极限因此尽管AI可能是一项非常重要的技术但我们不会达到可能毁灭社会的超级智能。AI能力持续发展直到它成为人类历史上迄今为止最强大的技术力量。某中心CEO某的预测被证明是有先见之明的拥有这项技术的人也许能捕获宇宙中所有未来价值的光锥。对于情况1没有太多需要讨论的。FAR中提议的法规最多是不必要的并可能导致对一个相当有价值的产品空间产生一些监管俘虜。这很遗憾但我们能承受。但这不是FAR提案旨在处理的情况——对于像我们已有的普通技术的误用风险我们已经有大量简单、易于理解的方法通常基于对误用的责任追究即如果你使用某种技术做了坏事你会有麻烦制造技术的人通常不会因此有麻烦除非他们存在疏忽或以其他方式明确直接促成了坏事。因此我们应该关注情况2——AI被证明确实影响巨大的情况。需要明确的是没有人确定这会发生但许多长期研究AI的人认为这是一种真实的可能性。人类最强大的技术由于通用或基础模型如某中心的GPT-4、某机构的某和某机构的某的出现我们现在正处于通用人工智能时代。这些模型是通用计算设备。它们可以回答成功程度不一你提出的几乎任何问题。随着基础模型变得更强大我们应该期待研究人员找到更多方法利用它们来改进数据、模型和训练过程。当前的模型、数据集创建技术和训练方法都相当简单——基本思想用几行代码就能描述。有很多相当明显的途径可以极大地改进它们没有理由相信我们已经接近该技术的极限。因此我们应该期待在未来几个月和几年内看到越来越快的技术发展周期。没有任何数据可以用来明确预测这能走多远或者接下来会发生什么。许多研究人员和AI公司高管认为可能没有实际极限。但是这些模型的训练成本很高。得益于技术进步训练相同规模的模型成本正在降低但模型正变得越来越大。GPT-4的训练成本可能在1亿美元左右。目前所有最强大的模型如GPT-4、某和某都是由美国分别是某中心、某机构和某机构和中国的大公司训练的。共同建设已经有许多监管举措正在实施包括某机构的《AI权利法案蓝图》、某机构的《AI风险管理框架》以及某的旨在保护美国人免受算法歧视的某项行政命令。AI社区也开发了共享重要信息的有效机制例如数据集数据表、“模型报告模型卡和生态系统图”。法规可以要求数据集和模型包含关于它们如何构建或训练的信息以帮助用户更有效、更安全地部署它们。这类似于营养标签虽然我们不禁止人们吃太多垃圾食品但我们努力为他们提供做出良好选择所需的信息。拟议的欧盟AI法案已经包含了对此类信息的要求。尽管有许多好的工作可以借鉴但仍有很多事情要做。AI世界发展迅速我们每天都在学习。因此重要的是确保我们做出的选择在未来保持可选择性。现在为我们选择一条单一道路并决定以不可阻挡的势头冲下去还为时过早。相反我们需要能够作为一个社会对新的机遇和威胁做出快速且明智的反应。这意味着让所有相关领域的广泛专家以及受影响社区的成员参与进来。我们在政策制定机构中建立的能力越强效果就越好。如果决策者缺乏对AI的深刻理解他们别无选择只能听从行业的意见。但正如某机构网络政策中心国际政策主任某所说“我们需要让CEO远离AI监管”“想象一下某机构的CEO向国会解释说由于金融产品对立法者来说太复杂而无法理解银行应该自行决定如何防止洗钱、启用欺诈检测和设定流动性贷款比率。他会被哄笑离开房间。愤怒的选民会指出全球金融危机期间自我监管的效果如何。从大烟草到大石油我们已经从惨痛的教训中认识到企业无法制定无私的法规。他们既不独立也无法创造能够制衡自身权力的力量。”我们还应该小心不要让引人入胜的科幻场景分散我们对当前真实危害的注意力。某神经网络的共同创造者该架构为包括GPT-4在内的所有顶级语言模型提供支持警告说“这项技术存在真实的风险。有理由害怕这项技术以及谁使用它如何使用它。因此把我们所有的时间都花在辩论我们的物种是否会因为超级智能AGI的接管而灭绝上是对我们时间和公众思维空间的荒谬浪费……我真的希望公众知道一些关于风险的更奇幻的故事是[没有根据的]。它们是应该进行的对话的干扰。”蒙昧时代如果面对一种新的力量、面对不确定性、面对对我们安全的威胁我们退缩到集权化、控制、将权力限制在少数人选定的确定性中会怎么样这就是蒙昧时代。是启蒙时代原则的倒退。我们将创造一个拥有者和未拥有者的世界。“拥有者”大公司、有组织犯罪、政府、以及所有说服亲友为他们获取权重副本的人、所有访问黑客分发这些权重的暗网网站的人、所有复制它们的人……可以构建越来越好的模型这些模型可以根据FAR用于大规模宣传、生物和网络威胁开发或者仅仅用于确保击败所有竞争对手并垄断最具战略意义和利润最丰厚的行业。“未拥有者对社会提供的价值微乎其微因为他们只能通过提供有限但安全”应用的狭窄门户访问AI。推动对AI能力的商业控制是危险的。创造了休克主义一词的某现在警告说AI很可能成为进一步剥夺和破坏的可怕工具。一旦我们走上这条道路就很难回头。事实上可能不可能回头。技术政策专家某、某和某在他们的文章我们是在自动化恶的平庸性与激进性吗中指出部署糟糕的解决方案例如设计不当的法规可能需要数十年来纠正如果该糟糕的解决方案被证明对某些人有利可图“AI工具的快速部署与含铅汽油的推广有很强的相似之处。汽油中的铅解决了一个真正的问题——发动机爆震。含铅汽油的发明者某知道铅中毒因为他自己就患有这种疾病。实际上有危害较小的其他方法可以解决这个问题这些方法直到立法者最终介入创造出正确的激励措施来抵消销售含铅汽油所获得的巨大利润时才得到开发。”随着集权我们将创造拥有者和未拥有者而拥有者将能访问一项使他们比其他人强大得多的技术。当巨大的权力和财富差异被创造出来时它们会被那些最渴望权力和财富的人所攫取历史告诉我们暴力是消除这种差异的唯一途径。正如某所说那些使和平革命不可能的人将使暴力革命不可避免。也许随着AI的力量和维护控制所需的监控的建立即使是暴力也将成为一种无效的解决方案。如果我们确实开始朝这个方向前进让我们睁大眼睛明白它会将我们带向何方。启蒙时代的脆弱性在人类历史的大部分时间里未来是可怕的。是不安全的。是未知的。我们以最简单和最明显的方式回应集体地将我们的信任寄托在比我们更强大的他人身上来保护我们。大多数社会将教育和权力等危险工具限制在少数精英手中。但后来情况发生了变化。一个新的想法在西方生根发芽。如果存在另一种安全的方式呢相信整个社会的普遍善良而不是将信仰寄托在强大的精英身上如果每个人都能受教育会怎样有投票权会怎样能接触技术会怎样这——尽管还需要几个世纪的进步才能完全实现其承诺——就是启蒙时代。既然我们这么多人都生活在自由民主国家很容易忘记这是多么脆弱和罕见。但我们可以看到世界各国现在正滑向专制领导人的怀抱。正如某所说“总是可以让人民听从领导人的命令。这很容易。你只需告诉他们他们正受到攻击……”让我们明确一点我们没有受到攻击。现在不是放弃我们在平等和机会方面来之不易的进步的时候。没有人能保证你的安全但我们可以共同努力与AI一起建设一个为我们所有人服务的社会。附录背景本文档最初是对《前沿人工智能监管管理对公共安全的新兴风险》的一次红队评估。尽管对政策提案进行红队评估并不常见主要用于计算机安全但或许应该这样做因为如果不进行仔细分析可能难以预见其风险。随着欧盟AI法案议会版本的发布其中包括对基础模型开发的全面新监管以及我被要求审查的其他司法管辖区的其他类似私人监管提案我决定将我们的分析扩展到更广泛地覆盖模型开发的监管。在撰写此评估期间我与来自监管、政策、AI安全、AI能力、网络安全、经济学和技术转型社区的70多位专家讨论了这些问题并查阅了300多篇学术论文。某和我一起录制了几次专家访谈我们将在未来几周内发布。我们的观点是社会成功过渡到AI未来最重要的基础是让全社会参与、投入并知情。因此我们正在努力建立一个跨学科的社区资源以帮助那些应对高级AI潜在机遇和威胁的人们。该资源将被称为AI Answers。您正在阅读的这篇评估是该项目开发过程中产生的第一个公开成果。如果您是政策制定者或该领域的决策者或者在您认为其成果可能对该领域有用的任何领域进行研究我们希望听到您的声音致谢某在本文的整个撰写过程中一直是我的密切合作者我非常感谢他的智慧、耐心和坚韧。非常感谢我们好心的审稿人提供的详细反馈某、某、某、某、某和某。特别感谢FAR的作者之一某他慷慨地花费时间帮助我加强对他自己论文的批评我也非常感谢与某的多次深入交谈他深思熟虑的分析对本文思想的发展至关重要。我还要感谢某、某、某和某感谢某和我与他们进行的引人入胜的对话。感谢来自某中心的某和来自某机构的某同意审查过程并为我们研究提供了FAR的预发布版本。脚注虽然对论文作者公平地说——这是我未曾见过在任何地方被提及或讨论过的问题。如果AI能力继续发展没有极限就会发生这种情况。前沿模型的成本可能继续上升。生成式AI初创公司某最近融资13亿美元并计划将大部分资金用于GPU。但即使在这个成本下仍有数百家公司能够负担得起训练一个模型。即使他们负担不起这也意味着盗窃将成为竞争的唯一途径。这并不意味着模型不会扩散。尽管FAR中没有讨论这些。至少在AI强大到足以证明此类监管是合理的前提下。这并不意味着模型开发可以不考虑伦理或影响。诸如开源、负责任创新、知情对话和民主决策等概念都是模型开发的重要组成部分。但这确实意味着我们不需要在开发阶段确保安全。截至2023年7月唯一提供微调和激活功能的商用模型是较旧的、能力较弱的模型并且没有任何主要商用模型提供权重。某中心计划在未来为GPT-4提供一些微调和激活功能但到那时他们已经比其他人领先了一年多。无论如何在没有权重访问权限的情况下开发者完全定制和调整模型的能力仍然有限。更多精彩内容 请关注我的个人公众号 公众号办公AI智能小助手或者 我的个人博客 https://blog.qife122.com/对网络安全、黑客技术感兴趣的朋友可以关注我的安全公众号网络安全技术点滴分享