展会信息港展会大全

IEEE发布指导文件:AI也要讲道德 否则世界会乱套
来源:互联网   发布日期:2016-12-14 15:37:43   浏览:40929次  

导读:科技讯12月14日消息,据国外媒体Techcruch报道,电气和电子工程师协会(IEEE)今天发布了一份名为《道德化设计(Ethically Aligned Design)》的框架指导文件。该协会希望借助该文件帮助科技行业打造能够造福人类的AI自动化系统,改变道德伦理无需担虑等想法...

科技讯12月14日消息,据国外媒体Techcruch报道,电气和电子工程师协会(IEEE)今天发布了一份名为《道德化设计(Ethically Aligned Design)》的框架指导文件。该协会希望借助该文件帮助科技行业打造能够造福人类的AI自动化系统,改变道德伦理无需担虑等想法。

这份文件涵盖了一系列详尽建议。这些建议来自100多位在学术界、科学界、政府和企业部门、AI领域、法律和道德、哲学和政策等领域的“思想领袖”。

要让AI在设计上合乎道德标准,并能造福全人类,避免出现算法偏见等潜在问题,我们需克服的诸多障碍之一是,是在道德标准上,科技行业缺乏相应的道德标准,道德责任的界定也是一片空白。

近几年来,AI自动化技术在越来越多的系统中得到应用,IEEE希望这份文件成为AI /AS技术人员的重要参考。该协会也希望在2017年3月6日之前获得有关各方对该文件的反馈,届时相关所有评价和反馈将予以公开。

这份篇幅长达136页的文件由数个章节构成。首个章节阐述了一些基本原则,如确保AI要尊重人权、实现透明运作、对自动化决策予以说明、如何把相关的“人类规范或价值观”融入到AI系统中、如何解决潜在的偏见、获取信任等等。

另一个章节表示,应利用方法理论来指导伦理化研究和设计。该章节指出了一些问题:科技业缺乏道德规范和道德界定;目前技术类学位课程中并没有教授道德规范;业界缺乏一个监督算法操作的独立审查机构;算法的编写中并未应用“黑盒组件(black-box)”。

文件中提出了一点有助于克服科技业道德盲点的建议,即确保打造AI自动化技术的背后团队应由“背景各异的跨学科人员”构成,这样所有潜在的道德问题都能够被覆盖。

该协会建议,创立标准以“监督智能和自主化技术的研发过程,以确保终端用户不因这些技术成果而受到伤害。”

此外,还需创建“一个独立的国际协调机构”,以监督产品在发布时、使用期间以及与其他产品之间的相互影响是否符合道德标准。

IEEE写道,“工程师必须识别和评估与黑盒软件相关的道德风险,并在必要时实施风险缓解策略。”

“技术人员应能够通过透明和可追踪的标准来合理描述他们的算法或标准。考虑到AI /AS系统的本质,除了可预测性,我们还需实现可追溯性和补救性。”

“同航空领域的飞行数据记录器类似,算法的可追溯性可让人类了解到,什么样的算法将产生什么样的特定结果,或哪些可疑或危险的行为。”

这一方面,该文件得出的结论是,工程师应“从伦理关怀层面十分慎重地”部署黑盒软件服务或组件。

文档另一个章节的主题是人工智能的安全性和造福潜力。该章节警告,随着AI系统“越来越无法预料,会产生更多意想不到的行为,因此这类系统变得越来越危险”。

“在自主化和AI系统的研发和部署上,研究人员和开发人员将面临越来越复杂的问题。”

此外,该文件还指出AI系统固有的不对称现象。由于向AI系统输入的是个人数据,因此AI技术带来的利益也无法保证对等性。为了解决这种不对称问题,最基本的要求是人们应对个人数据从各自独特身份的角度进行定义、访问和管理。

Facebook无法过滤假新闻等事件均属于算法失败的例子。这些事件备受关注,从而导致AI道德和责任归属的问题成为今年社会和政治的热门议题之一。(子旸)

赞助本站

人工智能实验室
AiLab云推荐
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港