网站首页 > 人工智能AI > 人工智能应用 对于AI伦理学的研究受到科技巨头的资助,这有伦理问题吗? 正文

对于AI伦理学的研究受到科技巨头的资助,这有伦理问题吗?

admin 2019/10/15 人工智能应用 625℃

人工智能

[db:标签][db:标签]度上,该算可以代表人们做出许多影响他们生活的决定,但是大多数人仍然不知道它。该软件可以诊断疾病,将您列入工作面试清单或评估您是否符合假释条件。随着机器学习人工智能的复杂性日益增加,自动化决策的影响将达到前所未有的水平,并且管理这些决策的规则可能与民族国家的法律一样多。但是,民选政府的立法是开放的,技术行业私下投入了大量资金,试图影响有关机器决策的一系列道德辩论。

在过去的两个月中,Spotlight和NS Tech调查了行业对英国AI伦理学研究的支持。 《信息自由法》的数据显示,过去五年来,GoOGle已花费数百万英镑来资助英国大学的研究工作。牛津只有一所大学获得了至少1,700万英镑的收入。

截至这份调查报告印发之时,这家搜索巨头的母公司市值超过7500亿美元,并且其商业活动在过去两年中被欧盟委员会罚款82.4亿欧元。法国数据保护当局于今年1月处以5000万欧元的罚款,英国信息委员会办公室目前正在调查该公司是否涉嫌违反与数据相关的欧盟法律。

尽管牛津大学的大部分资金都用于技术研发,但Google和英国AI公司Deepmind——由Google的母公司Alphabet——全资拥有,并为牛津大学互联网研究所(OII)。一系列研究主题,例如道德,技术公司的公民责任以及自动决策(ADM)的审查和透明度。

研究所的几位学者就AI伦理学和自动化决策等问题发表了公开评论,尤其是Luciano Floridi教授,SAndra Wach副教授Sandra Wachter教授和Brent Mittelstadt博士。弗洛里迪(Floridy)是信息委员会办公室的顾问,英国政府数据伦理与创新中心委员会成员,欧洲委员会AI高级专家组(HLEG)的代表。今年年初,他在Google的AI伦理委员会工作了一段时间。

2017年1月,Floridy,Wacht和Mittersted在学术期刊《国际数据隐私法》(国际数据隐私法)上联合发表了一篇论文,暗示欧洲数据法并未赋予欧盟公民解释该隐私权的权利。机器的决策要求。其他专家对上述软件缺陷争议中的潜在缺陷表示担忧。根据牛津大学互联网研究所的网站,后来由Google资助了三位学者来研究“隐藏的道德和法律原则,以及一系列可能影响对自动决策审查的辩论的潜在政策”。

卢西亚诺·弗洛里迪(Luciano Floridy)

同年之后,DeepMind还承诺资助该研究所类似项目所涵盖的一系列研究。该部门在网站上宣布,资金将促进“在欧洲进行可解释,负责的算法和自动化决策研究”。该项目于2018年1月启动,负责人是Wacht。 Mitterstedt的部分工作也从中受益。

当Spotlight要求研究所找出是否有Google或DeepMind资助的论文时,一位发言人展示了四篇论文,每篇论文都是在2018年4月或更晚时间撰写或发表的。的。

Spolight发现了Wacht和Mitterstedt撰写的两篇论文,它们讨论了建立算法责任制的方法,但没有具体说明研究资金来自DeepMind。其他被问到此事的学者表示,从论文的主题领域披露公司资金是一种标准惯例,如果有必要,出于透明的原因不要披露它。

该研究所的一位发言人说,其研究经费中只有很小一部分来自商业界。该公司坚持“最高的学术独立标准”,并且该学科的所有运作均遵循“牛津大学的学术自由”。文化,这意味着“研究结果的价值或尊严不受外部资金的损害”。该公司还提到,Wacht和Mitterstedt最近发表的论文承认了DeepMind的资助,并批评了该行业,并呼吁加强监管。

“为了透明起见,”发言人说,“我们将在官方网站上披露所有公司赞助商的详细信息,牛津大学将公布其年度收入和支出明细。 ”与许多其他与调查相关的机构不同,牛津大学互联网研究所拒绝透露个人从Google获得的资助金额。该校另一名发言人说:“发表在学术期刊或会议论文集上的研究结果将始终列出支持其工作的资金来源”。 DeepMind表示,他们很高兴为学术界提供资金,并为通过一些无限制的捐款支持牛津大学感到自豪。

Google十多年来一直在资助技术伦理研究。 2017年,问责制运动(CfA)宣布,自2005年以来发表的329篇文章涉及“涉及Google利益的公共政策研究论文已由Google资助。” Google还与许多欧洲组织合作建立了许多政策研究机构,其中包括与创新机构Nesta合作的伦敦Readie。

“问责制”执行董事丹尼尔·史蒂文斯(Daniel Stevens)当时说:“ Google利用其无与伦比的财富和力量试图影响各个层次的决策者。”谈到他自己组织开展的公司资助的研究时,他说:“从最小的意义上讲,监管机构应该具有多重意识。他们所指的法律和学术研究是Google的自称。

但是,问责制运动也打破了甲骨文的资金,甲骨文曾经在谷歌上提起诉讼。阿姆斯特丹大学最近发表的有关公司融资的论文称,这次事故“得到了充分强调”。 Google发言人说:“公司资金与科学研究之间的纠缠。”

“学术机构应以适当的方式披露我们的资金”,这些赠款仅适用于“无关的研究,并且“我们资助的研究人员和机构经常发表我们不同意的研究。

诸如Google,Facebook和Amazon之类的科技巨头正在花费巨额资金来资助AI伦理学研究。

有多家Google公司为此类研究提供资金。 Facebook在一月份宣布,它计划向慕尼黑工业大学捐赠750万美元。美元为其新的AI伦理研究中心提供资金。两个月后,亚马逊宣布将与美国国家科学基金会(NSF)合作,“在未来三年内专注于与AI相关的股权问题,以确保年度可用性。高达1,000万美元的研究经费。

学术界一直在争论这项经费的伦理性质。一些学者认为商业对支持学术研究很重要,而另一些学者则质疑这种研究。真的有可能完全独立吗? 卡迪夫大学的“数据公平实验室”和“资助事项”倡议成员说:“这在一定程度上引起了依赖性,特别是在每个人都有获得资助的压力的时代。”莉娜·邓西克(Lina Dunsik)说:“在这种情况下,压力将进一步增加,关于大学是否应该接受这笔钱的辩论将更加频繁。”牛津大学表示,过去五年来都没有拒绝过。要求Google,Amazon,Facebook,Apple或Microsoft资助。

“如果一所大学从其业务实践中对商业模式至关重要的,具有道德,政治和法律意义的公司接受资金,那么它就被认为是过失。”哈佛法学院Yochai Benkler教授最近在《自然》杂志上写道:“如果政府将政策框架的决策权授予大多数行业委员会,那也是一种失职。”

去年,德国哲学教授托马斯·梅琴格(Thomas Metzinger)被提名为欧盟AI专家组道德小组成员之一。 AI高级专家组的52名成员中有近一半是行业代表。

Metzinger和一位机器学习专家的任务是为在欧洲使用AI画一条“红线”。他说:“我们花了六个月的时间。” “我们与许多其他专家进行了交谈,参考了他们的建议,最后形成了一种观点并将其完善为一份毫不妥协的规范性文件。原则上。 “麦琴格绘制的两个“红线”是,不应使用人工智能来构建自动致命武器或社会信用评分系统。但是,在他提交提案后,该小组的一些成员表示了红线。过于严格,要求适当的软化。他回顾说,欧盟委员会通过的最终版本将“严重关注”一词改为提及上述事项。

委员会希望欧洲明年在人工智能方面投资200亿欧元,其中一些专家提议建立一个类似于欧洲核研究组织(CERN)的特殊研究机构。梅琴格说,确保法规与技术发展同步的方法之一是建立一个具有轮换制度的联合伦理研究中心,在整个欧洲范围内,应增加720名与AI相关的应用伦理学教授。

该中心的概念是鼓励年轻的伦理学家与开发商合作,建立受过良好教育的下一代学生网络。公众不断了解情况并促进公众辩论,”梅辛格说。

本文由Oscar Williams在NsTech网站上撰写。

(翻译:琳达)

资料来源:新政治家

原始标题:Big Tech如何资助关于AI伦理的辩论

上次更新:06/24 143 336 005未经正式许可,严禁使用本文。保留所有权利。
网站地图