seo网站有哪些中小企业网站模板
2026/4/18 18:42:12 网站建设 项目流程
seo网站有哪些,中小企业网站模板,电商网站搭建,如何做游戏软件开发某中心的学者迈克尔卡恩斯和亚伦罗思讨论了机器学习的伦理问题 两位世界领先的算法偏见专家回顾了过去一年的事件#xff0c;反思了我们学到了什么#xff0c;我们仍在努力解决什么#xff0c;以及我们还有多远的路要走。 2019年11月#xff0c;宾夕法尼亚大学计算机科学教…某中心的学者迈克尔·卡恩斯和亚伦·罗思讨论了机器学习的伦理问题两位世界领先的算法偏见专家回顾了过去一年的事件反思了我们学到了什么我们仍在努力解决什么以及我们还有多远的路要走。2019年11月宾夕法尼亚大学计算机科学教授迈克尔·卡恩斯和亚伦·罗思发布了《伦理算法社会意识算法设计的科学》一书。卡恩斯是沃伦网络与数据科学中心的创始主任也是宾夕法尼亚大学工程学院的网络与社交系统工程项目的创始主任。罗思是宾夕法尼亚大学网络与社交系统工程项目的联合主任并与辛西娅·德沃克合著了《差分隐私的算法基础》。卡恩斯和罗思是机器学习领域的领先研究者专注于算法的设计和实际应用。他们著作的核心论点涉及“将公平性和隐私等社会规范嵌入其代码中的算法设计科学”在书籍发布时就已经具有现实意义。快进一年这本书的主题变得更为重要。某中心科学与卡恩斯和罗思两人最近都成为了某中心学者坐下来探讨过去一年的事件是否影响了他们的观点。我们讨论了定义和追求公平的意义差分隐私在现实世界中如何应用以及它能实现什么监管机构面临的挑战这两位宾夕法尼亚大学教授会给学习人工智能和机器学习的学生什么建议等等。问在过去一年里设计具有社会意识的算法的叙事是如何演变的过去一年的事件是否以任何方式改变了你们的观点亚伦·罗思我们这本书的主要论点是在任何特定问题中你必须首先仔细思考在公平性或隐私或其他社会期望方面你想要什么然后你如何权衡这些东西与你可能关心的其他事情如准确性的相对价值——这一基本论点并没有真正改变。现在随着新冠病毒大流行我们看到的是一些应用领域其中你希望管理准确性和隐私之间的权衡方式比我们通常看到的更为极端。例如在疫情爆发期间接触者追踪可能非常重要尽管你无法在保护个人隐私的同时进行接触者追踪。由于情况的紧迫性你可能会选择牺牲隐私以换取准确性。但因为我们的书的核心信息是具体问题具体分析所以论点本身没有改变。迈克尔·卡恩斯过去一年的事件特别是新冠病毒、由此产生的社会限制以及围绕这些限制的紧张局势以及美国最近的所有社会动荡显然使我们书中的主题变得更加相关。这本书极大地关注了算法用于好坏目的的使用包括接触者追踪或发布人们移动或健康数据的统计数据以及机器学习、人工智能和算法更广泛地用于监视等应用。由于我们的书在较高层面上是关于当平等或隐私等社会规范与使用算法来优化性能或错误率等事物之间存在冲突时所产生的紧张关系我认为过去一年没有改变我们对这些问题技术层面的看法。显然社会被迫以非常直接的方式面对这些问题这是由于过去一年的事件其方式是我们以前从未有过的。从这个意义上说我们的时机非常幸运因为我们现在讨论的问题比以往任何时候都更加相关。问这如何影响你们定义公平性的能力公平性是否可能成为一个固定的定义还是需要根据事件或特定用例进行调整卡恩斯没有一种正确的公平性定义。在每个应用中你必须考虑你想要保护的是哪些群体以及你想要保护他们免受哪些伤害。这随着时间和不同场景而变化。罗思即使在去年的事件之前公平性始终是一个非常依赖于背景和观察者的概念。一个社会可能主要关注种族的公平性另一个可能主要关注性别的公平性不同的社区可能有其他规范。过去一年的事件凸显了这些规范不仅会因空间或社区而异而且还会因时间而异。人们对接触者追踪等相对侵入性技术的态度现在可能与一年前大不相同。如果一年前我告诉你“假设有一种疾病一些人被感染最有效的抑制方法是进行接触者追踪。”许多人可能会说“这对我来说听起来很侵入性”但既然我们都经历了另一种选择——被封锁六个月——人们的想法可能会改变。我们肯定看到了围绕健康相关数据的隐私规范发生了变化。问标准化机构在审核算法方面面临着重大挑战。考虑到挑战的规模需要发生什么才能让这些群体有效地做到这一点罗思尽管目前尚未实现但监管机构正在考虑这个问题并正在联系像我们这样的人以帮助他们以正确的方式思考这个问题。我不知道有任何监管机构已经准备好以我们在书中讨论的那种技术方式大规模地、明智地审核算法。但有些监管机构已经意识到他们应该准备这样做并且这些机构已经开始朝着这个方向进行初步行动。卡恩斯我们与标准制定机构的许多对话清楚地表明他们意识到作为一个整体他们在技术上已经落后于他们所监管的行业。他们没有合适的资源或人员来进行一些更技术化的审计。但在这些对话中我们也清楚地认识到即使你能打个响指就获得合适的人员和资源这也只是更广泛框架的一部分。其他重要的部分包括更精确地制定最佳实践以及仔细思考这些规范应该是什么样子。让我举一个具体的例子我们在书中主张的一件事是在消费者金融等领域有许多法律和法规试图通过限制算法可以使用哪些输入来确保公平。这些法律法规说“为了确保你的模型没有种族歧视你一定不能使用种族作为变量。”但事实上不使用种族作为变量并不能保证你不会建立一个有种族歧视的模型。实际上这可能会加剧这个问题。我们在书中主张的是与其限制输入不如将你期望的行为指定为输出。所以与其说“不要使用种族”不如说“模型的输出不应该有种族歧视性。”问差分隐私在过去几年中已经从理论科学显著地发展到应用科学。差分隐私是如何被利用的这如何帮助平衡隐私和准确性之间的权衡罗思在大约过去五年里差分隐私已经从一个学术话题转变为一项真正的技术。例如2020年美国十年一次的人口普查将首次在差分隐私的保护下发布其所有统计产品。这是因为根据法律人口普查必须保护被调查者的隐私。过去几十年用于保护统计数据的临时技术已被证明无效。我认为我们将看到的是人口普查今年发布的统计数据将更好地保护美国人的隐私。然而在权衡的主题下使用严格的隐私保护并非没有成本。某些类型的分析例如依赖于高粒度人口普查数据的详细人口统计研究现在可能在差分隐私下无法进行。我们已经看到这在数据下游用户和必须敲定细节的人口普查工作人员之间在公共领域上演。我们也看到了在疫情期间差分隐私的其他有趣用途。一些技术公司在发布疫情期间收集的个人移动数据统计数据时利用了差分隐私。差分隐私最擅长的是发布那种人口水平的统计数据它正是为了防止你了解任何特定个人的太多信息而设计的。如果你想知道由于新冠病毒限制不同城市的人们移动减少了多少这些数据集让你可以回答这个问题而不会让那些移动设备在最精细级别提供数据的个人失去太多隐私。问那么差分隐私如何帮助保护个人信息罗思通常情况下你最想了解一个数据集的事情并不是关于特定个人的事实而是人口层面的汇总比如早上6点开门时我的超市里挤满了多少人。如果你告诉我足够多的汇总统计数据我可以做一些数学计算并从这些数据中推断出特定个人的数据。汇总统计数据可能泄露个人数据这一事实是一个不幸的意外实际上与你真正想了解的东西关系不大。在最基本的层面上差分隐私会对你正在发布的统计数据添加少量噪声这样你告诉我的就不是早上6点在我当地超市的确切人数而是大约的人数加减一些小数字。幸运的数学事实是你可以添加相对较小的噪声量这些噪声仍然可以让你获得良好的估计但足以冲淡特定人的贡献使得不可能了解到太多关于任何特定个人的信息。它让你能够访问你好奇的那些人口层面问题而不会无意或意外地了解到特定的人这正是危险的一面。卡恩斯为了使这一点稍微具体一些假设我想做的是每天告诉大家下午1点在我附近几个街区的超市里有多少人。如果你碰巧在一点钟在那个超市那么你的GPS数据就是计入该计数的数据点之一。你可能认为你下午1点在超市的存在是你不想让全世界知道的隐私信息。那么假设在一个典型的日子超市里可能有几百人但我添加一个数量级正负25的数字。添加这个随机数字在数学上可以证明会掩盖任何个人对该计数的贡献。我将无法查看该计数并试图找出在场的任何特定个人。如果我添加一个介于负25和25之间的数字我无法将总计数影响100。我仍然可以在一定分辨率内获得准确的计数但我将为当时在场的每个人以及所有不在场的人提供隐私。问像公平性、问责制、透明度、可解释性和隐私这样的主题如何在宾夕法尼亚大学和其他高等教育的计算机科学课程中体现卡恩斯当亚伦和我刚开始研究机器学习公平性及相关主题的技术方面时这个领域相当冷清。这大概是六七年前关于这些主题的论文并不多。有一些较早的更多来自统计学文献但在机器学习内部并没有一个规模较大的社区思考这些问题。在研究方面现在情况正好相反。所有主要的机器学习会议都有大量关于这些主题的论文和研讨会他们有针对这些主题的研讨会。现在有独立的关于机器学习中的公平性、问责制和可解释性的会议而且每年都在增长。现在这是一个非常活跃、充满活力的研究社区。此外尽管为时尚早但这已经是一个足够重要的主题以至于现在已经开始有努力在本科阶段教授这些内容。例如过去两年在宾夕法尼亚大学我试点开设了一门名为“数据伦理科学”的课程。它特意称为“数据伦理科学”而不是“数据科学的伦理”。这表明它是一门关于使算法在不同规范如公平性和隐私下更加伦理的科学的课程。它不是典型的工程伦理课程那种课程在一定程度上旨在教你成为一个负责任的好人你查看出问题的案例研究然后讨论你会采取哪些不同的做法。这门课是一门科学课。它说这是机器学习标准原理这些标准原理如何可能导致我的预测模型出现歧视行为这里有一些替代原理或对原理的修改以及实现它们的算法可以避免或减轻那种行为。问是否有更多学科交叉的方法来应对这一系列挑战罗思这绝对是一个跨学科的领域。在宾夕法尼亚大学我们一直在积极与法学院和犯罪学系对此感兴趣的人合作。到目前为止我们还没有真正开设关于这些主题的跨学科学科本科生课程。从长远来看这些课程会很好但在研究和研究生层面我们进行跨学科对话已经有好几年了。卡恩斯不仅在教学层面甚至在研究社区中对这些话题确实有各种各样的观点。尽管我们的书专注于这些问题的科学方面但我们确实花了一些时间提及科学只能带我们走这么远。特别是我们在书中试图预见的一个批评并且我们非常清楚的是使算法更合乎道德的技术工作只是更大的社会学或某些人称之为社会技术管道中的一小部分。机器学习始于数据止于模型。但在数据的上游是数据收集的整个方式和收集条件。关于这类问题的对话非常有趣、令人兴奋且必要的一点是即使在这些问题上有相当多的科学内容要讲你也不应该只是埋头研究科学。你需要与机器学习管道上游和下游的人交流因为他们带来了非常不同的观点并且常常可以指出一些观点这些观点可以帮助你以积极的方式改变你科学看待事物的方式。问如果我是个正在探索人工智能或机器学习的学生我想影响这个特定的对话除了技术技能外我应该培养什么样的技能卡恩斯我非常强烈主张的是广泛思考开阔思路大胆思考。是的你将在特定的模型和框架中做技术工作你知道你想在这些框架中取得成果。但同时也要阅读来自非常不同领域的人对这些问题的看法。参加他们的会议不要只参加机器学习会议以及关于机器学习公平性的子分会。参加那些特意旨在汇集科学家、法律学者、哲学家、社会学家和监管机构的跨学科会议和研讨会。听听他们对这些问题的看法留意他们是否认为你正在研究的问题是否相关甚至是否有解决方案。这就是我对待职业生涯的方式专注于我所擅长和认为从科学角度来看有趣的东西但不是在科学真空中。只要有可能我就刻意让自己接触来自完全不同视角的人对同一组主题的思考。好消息是现在有很多这样的机会。如果你从事材料科学的某个分支可能不可能走出世界去获取多元化的观点但现在每个人对人工智能和机器学习伦理都有看法所以对于这个假设中的学生来说走出去寻找挑战或拓宽他们技术观点的来源并不缺乏。罗思一个新的博士生甚至一个成熟的研究者很容易陷入的一个陷阱是在论文的引言中以某种公平性问题为动机但最终发现自己解决的是一个与现实世界联系不大的狭隘技术问题。我自己有时也有这样的问题但这个领域确实有很多重要的问题需要解决。这是一个如果运用得当理论方法可能非常有价值的领域。有价值的是要掌握“多语言”能力。与来自其他领域的人交谈可能很困难因为这些领域有不同的词汇和不同的世界观。然而理解这些不同社区的观点非常重要。有一些跨学科团体正在研究公平性、问责制和透明度他们汇集了来自各种背景的人积极致力于发展至少一种共享的词汇——并希望达成一种共享的世界观。问你们最近成为了某中心的学者。是什么激励你们承担这个角色罗思我的大部分职业生涯都是作为一名理论家度过的所以我思考隐私和公平性的方式主要是抽象的。我一直喜欢思考诸如差分隐私在原则上能做什么和不能做什么或者你可以以什么样的方式向人们做出语义上的公平性承诺同时仍能与尝试从数据中学习保持一致某中心和AWS的吸引力在于它是理论与实践结合的地方。在这里我们正在部署真实的机器学习产品隐私和公平性问题都是真实且紧迫的。我希望通过涉足这些问题的实践而不仅仅是理论不仅我能对实际重要产品的运作方式产生一些影响而且我会学到一些有助于发展基于现实世界的新理论的东西。卡恩斯在加入某中心之前我在量化金融行业有过一段第二生涯。虽然我花时间在金融领域做实际的事情但这更多只是运用我在机器学习方面的一般知识。有机会来到某中心并在实际技术环境中真正思考我们讨论的话题似乎是一个绝佳的机会。我也是这家公司的长期粉丝和观察者。我认识这里的人已经很多年了并和他们有过很好的交谈。所以我怀着极大的兴趣观察了某中心在过去的十年多里如何从零开始发展其机器学习能力并逐渐扩大其应用范围。现在已经到了这样一个地步机器学习不仅在公司内部被广泛用于优化各种流程、推荐等而且还在全球范围内以诸如Amazon SageMaker等服务的形式被客户使用。我对此非常关注因为当我在80年代末的研究生院学习机器学习时相信我那是人工智能中一个人们会扬起眉毛的冷门角落。我从未想过我们会达到这样一个地步不仅《华尔街日报》期望每个人都知道他们在谈论机器学习时的意思而且它实际上会成为一个大规模销售的产品。我一直从学术界和金融界观察这些发展。将我当前非常具体的研究兴趣和其他兴趣与深入了解一家伟大技术公司的内部运作结合起来似乎是一个绝佳的机会。和亚伦一样我本已很高的期望在我在这里度过的时间里更是超出了我的预期。更多精彩内容 请关注我的个人公众号 公众号办公AI智能小助手或者 我的个人博客 https://blog.qife122.com/对网络安全、黑客技术感兴趣的朋友可以关注我的安全公众号网络安全技术点滴分享

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询