历史

通过开源社区,我们可以做什么?【yabo亚博app】

2021-01-16 07:08

本文摘要:这意味着研发的价值观、种族主义和人类的不足都反映在软件中。这些出口种族主义的机器没有进行大规模生产分配,而是将各种社会种族主义隐藏在科学技术客观性的面纱之下。我们周围还有很多人没有意识到算法种族歧视,但算法种族主义对法律、社会正义、政策和更多领域的影响与他们密切相关。

开源社区

通过开源社区,我们可以做什么?在我们的世界里,算法无处不在,种族主义也是如此。从获取社交媒体新闻到流媒体服务,从网上购物到计算机算法,特别是机器学习算法,已经渗透到我们日常生活的各个角落。

就种族主义而言,我们应该参照2016年美国议会选举,了解种族主义如何影响我们的社会。(约翰肯尼迪、种族主义、种族主义、种族主义、种族主义、种族主义、种族主义)很难想象我们经常忽视的是这两个空房子,即计算机算法中不存在的种族主义。

与我们大多数人的理解不同,技术并不客观。AI算法和决策程序由开发人员形成。

他们加载的代码、“训练”数据、对算法进行变形测试的过程等都会影响这些算法今后的自由选择。这意味着研发的价值观、种族主义和人类的不足都反映在软件中。只要在实验室里的面部识别算法上拍白人的照片,遇到非白人的照片时,可以指出照片中的人是人类。(威廉莎士比亚、哈姆雷特、科学)这个结论并不意味着AI是“可笑”或“天知道”的。

这说明缺乏训练数据的偏差——多种多样的面部照片。这不会造成非常严重的后果。这样的例子并不少。美国各地的州法院系统都是“黑匣子”,用于判罪犯。

由于训练数据的问题,这些算法对黑人有偏见,对黑人罪犯不自由选择更长的服刑时间,因此监狱的种族差异仍然不存在。而且这些再次发生在科学技术的客观性伪装中,这是“科学”的自由选择。美国联邦政府用于机器学习算法,计算福利性支出和各种政府补贴。

但是这个算法的信息(例如制作者和教育信息)很难找到。这将减少政府职员向经营者支付不公平补贴的概率。算法种族主义比这个好。

从Facebook的新闻算法到医疗系统、警察装载摄像机,我们作为社会的一部分,很有可能输出各种种族主义、性别歧视、仇外心理、社会经济地位种族主义、偏见确认等。这些出口种族主义的机器没有进行大规模生产分配,而是将各种社会种族主义隐藏在科学技术客观性的面纱之下。

这种情况意味着不能再继续下去了。在对人工智能进行大规模研究开发的同时,要减少研发速度,慎重开发。

算法种族主义的危害已经够多了。我们如何增加算法种族歧视?最坏的方法是算法训练数据开始审查。据微软研究院称,这种方法非常有效。数据分布本身具有一定的种族歧视性。

程序员手里的美国公民的数据分布不平衡,当地居民的数据比移民少,富人的数据比穷人少。这几乎是经常发生的情况。不是这个数据的平均值,不会让AI得出对我们社会的错误结论。

(约翰肯尼迪,学)例如,机器学习算法通过统计分析得出“大部分美国人是富裕的白人”的结论。即使男性和女性的样本在训练资料中大量生产,也经常会出现种族歧视的结果。

如果培训资料中的所有男性职业都是CEO,所有女性的职业都是秘书(即使实际男性CEO人数比女性少),AI可以得出女性天生不适合做CEO的结论。在一定程度上,很多研究表明,执法人员部门AI在检测新闻中经常出现的犯人照片时,不会令人难以置信地偏向黑人和拉美裔居民。训练数据中不存在的种族歧视还有很多其他形式,出乎意料地比这里提到的要少。

但是训练数据只是审查方式之一,通过“变形测试”找到人类不存在的种族主义也具有一定的重要性。拍印度人的照片要识别我们自己的照相机吗?在一定程度的两位申请者中,我们的AI会不会偏向于推荐住在市中心的申请者呢?对于信息中的当地白人恐怖分子和伊拉克裔恐怖分子,缉毒算法如何不自由选择呢?能把急诊室的摄像头调到儿童病历吗?这些数据对AI来说是非常复杂的数据,但可以通过多种测试来定义和表示。为什么开源适合这个任务?开源方法和开源技术都有很大的潜力,可以改变算法种族主义。

现代人工智能已经被开源软件占领,TensorFlow、IBMWatson和scikit-learn等软件包是开源软件。开源社区已经证明,需要开发经过强大和严格测试的机器学习工具。在某种程度上,我坚信开源社区也可以制定避免种族歧视的测试程序,并应用于该软件。哥伦比亚大学和利海大学销售的调试工具(如DeepXplore)提高了ai变形测试的强度,提高了可操作性。

此外,这是麻省理工学院的计算机科学和人工智能研究所完成的项目,开发了开放源代码社区不接受的灵活、缓慢的原型研究软件。开源技术已经证明了审查和分类大规模数据组的能力。

在数据分析市场份额(Weka、RapidMiner等)中,开源工具的份额最突出。开源社区应该设计识别数据种族主义的工具,已经在网上公布的大量培训数据组(如Kaggle)也应该利用这种技术进行识别检查。

算法

开源方法本身非常适合避免种族歧视程序的设计。内部对话、个人软件开发及非民主决策引发了很多问题。开源社区应该就软件公开发表展开对话,开展大众化,保持与公众的关系,这是处理这个问题最重要的。(大卫亚设,Northern Exposure(美国电视连续剧),开源社区名言)如果网络社团需要组织和机构拒绝接受这些开源特性,那么在开源社区避免算法种族歧视的机器设计也不会太成功。

我们该怎么参与呢?教育是最重要的部分。我们周围还有很多人没有意识到算法种族歧视,但算法种族主义对法律、社会正义、政策和更多领域的影响与他们密切相关。

让这些人说算法种族歧视是如何组成的,他们给我们的最重要影响是最重要的,因为想改变目前的局面是从我们自己身上转移的唯一方法。(约翰肯尼迪,种族主义、种族主义、种族主义、种族主义、种族主义)对我们中与人工智能一起工作的人来说,这种交流尤为重要。人工智能的研发、警察、研究人员等今后设计人工智能时,要清楚今天这种种族主义不存在的危险性。

为了避免人工智能中不存在的种族主义,应该从意识到种族主义的存在开始。(约翰肯尼迪、种族主义、种族主义、种族主义、种族主义、种族主义、种族主义)最后,我们要围绕AI伦理化,建立并加强开放源码社区。

需要创建变形实验教学模型、软件工具、千兆字节教学数据之一,现在是利用开源方法来应对与数字时代相当的威胁的时候了。(威廉莎士比亚,《北方执行报》)。


本文关键词:最重要,种族主义,美国,种族歧视,yabo网页版

本文来源:yabo亚博app-www.bjdfeicuiedu.com