2026/4/18 12:27:30
网站建设
项目流程
怎么用代码创建网站教程,优化设计四年级数学上册答案,大连建设工程信息网招标公告,中移电子商务有限公司为什么扣款里德布莱克曼#xff1a;人工智能的伦理
《伦理机器#xff1a;完全无偏见、透明且尊重的人工智能简明指南》一书的作者解释了为什么追求合乎伦理的人工智能的公司最终必须将责任归于其高层领导。
当某中心新兴技术与智能平台部门的高级实践经理在2020年底创建某机构云服务的…里德·布莱克曼人工智能的伦理《伦理机器完全无偏见、透明且尊重的人工智能简明指南》一书的作者解释了为什么追求合乎伦理的人工智能的公司最终必须将责任归于其高层领导。当某中心新兴技术与智能平台部门的高级实践经理在2020年底创建某机构云服务的“负责任AI”团队时便开始寻找可以合作的思想领袖。人工智能和机器学习技术是变革者具有显著的上升空间但也存在潜在的负面影响。部署这些强大技术时伴随着一系列潜在问题——从法律关切到伦理困境。资深商业领袖们逐渐意识到他们的组织缺乏相应的人员、制度知识和实践来解决这些风险。某机构的客户正在寻找关于如何负责任地使用基于AI的工具的指导。随着某机构对负责任AI做出坚定承诺该经理找到了她的第一位合作伙伴。里德·布莱克曼是一位前哲学教授转行的企业家他于2018年投身于这一领域创立了咨询公司Virtue旨在帮助各公司在组织内部建立负责任的人工智能和机器学习实践。布莱克曼的新书是一本关于如何应对一些艰巨且可能充满危险领域的操作指南。强大的技术意想不到的后果对布莱克曼而言商业中的AI伦理实际上是关于智能系统的设计这些系统旨在处理比人类高效得多的特定、狭窄任务。机器学习由看似无穷无尽的数据宝库驱动使得自动决策能够产生比以往任何时候都更快速、更准确的结果。不幸的是事实证明此类系统也可能产生有缺陷或意想不到的结果对公司的声誉和利润造成重大损害。基于AI的产品和服务越是融入全球经济就越清楚地表明监督至关重要。通过一位参与AI工作组的共同同事介绍双方很快意识到他们有相似的目标并建立了合作关系。虽然许多高管认为“负责任AI”有点深奥但布莱克曼持相反观点。“对他来说AI伦理不是模糊的”该经理说“他有办法围绕这个话题展开对话帮助人们就什么是好的和正确的达成一些具体的想法。”他们共同为某机构的客户举办研讨会并提供这本书作为指导探讨如何思考和实施有效的内部流程和计划。响应“警报”布莱克曼的哲学背景被证明是思考AI影响的有用基础。毕竟道德上负责任的行为是大多数关于人性对话的核心。但在教学十年后他对学术环境感到厌倦。布莱克曼有创业倾向在读研究生时他曾创办了一家成功的烟花批发企业。他注意到尽管仍处于起步阶段但商业中AI的采用已经激增。离开学术界他曾在科尔盖特大学和北卡罗来纳大学教授哲学的决定是基于那种创业热情以及意识到一个新市场正在形成。“那是2018年我意识到工程师们正在围绕AI对社会即将产生的影响敲响警钟”布莱克曼说并引用了某分析公司丑闻的余波。到2020年和2021年围绕AI伦理和责任的讨论达到了白热化程度。布莱克曼为诸如《哈佛商业评论》和TechCrunch等刊物撰写了有关该主题的文章。他以一个不同寻常的视角来处理这个问题。他区分了两类群体为善的AI和不作恶的AI。“‘为善的AI’群体的人问自己一个问题‘我们如何利用AI这个强大工具创造积极的社会影响’”布莱克曼解释道。“这通常是企业社会责任的范畴。他们的目标背后通常没有商业模式。”“不作恶的AI是关于风险缓解。这些人有一个目标这个目标可能在伦理特性上存在或不存在比如向人们发放贷款、面试求职者、诊断人们的各种疾病并推荐治疗方案他们问自己‘我们如何使用AI来帮助我们做这些事情同时又不至于在伦理上搞砸’”这个问题是企业领导者的首要关切。因为随着这些产品和服务触及伦理边界其实施会对商业声誉产生严重影响。通往“为善”与“不作恶”AI之路布莱克曼说公司长期以来一直在努力寻找创建和维护伦理健全组织的方法而AI增加了新的复杂性。确保他们使用的工具准确、可靠并基于可靠的科学是一项具有挑战性的任务。他指出的另一个问题是高层领导特别是CEO和COO认为这是一个需要工程师和数据科学家解决的技术问题。布莱克曼坚持认为这是错误的。“最终这取决于高层领导”布莱克曼说。“初级工程师和数据科学家想做正确的事但事实是只有在你有自上而下的正确实施策略的条件下你才能系统地设计、开发、采购和部署合乎伦理的工具。更重要的是你无法仅通过数学方法解决这些问题。数据科学家需要相关专家的支持这些专家可以帮助做出必要的定性判断这是任何稳健的伦理风险评估的必要组成部分。”布莱克曼坚持认为如果领导者愿意了解足够多关于AI和ML如何与伦理相交的知识伦理并非“模糊”或难以理解和缓解。他说大多数组织对这一新挑战反应缓慢的原因是他们可能要么不知道存在问题要么“他们可能知道存在问题但没有人负责。如果没有人负责就不会有预算来解决问题。公司的行为准则通常过于笼统和模糊无法有效解决这个问题。”“高层领导在智力上被这个话题吓倒了”布莱克曼说。“他们说‘这是数据科学家要弄清楚的事情。不是我。’”在他的书中布莱克曼阐述了他认为组织为了理解AI伦理必须理解的关键区别结构与内容。等式的内容面侧重于需要避免的伦理问题。结构面旨在如何减轻这些风险。布莱克曼认为大多数领导者对内容面只有肤浅的了解偏见是坏的公平是好的黑箱算法是可怕的。那么他们接着问我们的结构应该是什么样子“他们回答得太快了”布莱克曼说“然后就会遇到问题。如果你在内容面上更深入那么结构面就会自然显现。”他建议更深入意味着探索偏见的表现形式理解歧视性影响的概念并制定强有力的AI伦理声明。对内容面有了全面的理解企业就可以创建适当的程序、流程、政策和基础设施来识别和降低风险。发展合作伙伴生态系统对该经理来说建立“合作伙伴生态系统”是扩展某机构云服务工作规模的关键方法。客户开始越来越多地询问关于AI和ML的问题。“我们一贯的回应方式是通过我们的负责任AI框架在组织中实例化原则我们在参与中提供的战略指导以及利用符合负责任AI原则的服务和工具”该经理解释道。“我们已经打开了潘多拉魔盒无法关上”该经理说。“我们如何处理我们拥有的这种巨大的AI力量并确保它不造成伤害”与某机构云服务合作是一个强有力的伙伴关系布莱克曼补充道。“将我们在定性评估、伦理技术和软件工程方面的集体经验结合起来为客户服务具有巨大价值”该经理表示同意。更多精彩内容 请关注我的个人公众号 公众号办公AI智能小助手或者 我的个人博客 https://blog.qife122.com/对网络安全、黑客技术感兴趣的朋友可以关注我的安全公众号网络安全技术点滴分享