13910160652
010-52852558
| |EN
首页 > 国际知产 > 欧洲 > 国际瞭望
  • 13910160652
  • ciplawyer@163.com

专家思考机器人崛起带来的道德、法律和社会挑战

日期:2017-06-19 来源:中国保护知识产权网 作者: 浏览量:
字号:

有没有人认为著名科幻小说家艾萨克.阿西莫夫(Isaac Asimov)所描述的机器人三定律终有一天会成为现实?上周举行的人工智能(AI)峰会设想了一个机械和机器人所操控的世界,并探索了这个新世界中的法律、道德、经济以及社会影响。一些专家强调称有必要建立管理这个新物种的框架。

“人工智能惠及人类”全球峰会于6月7日至9日举行。

不难想象生活中拥有了机器人的确会改变很多事。全球峰会讨论了AI给未来社会带来的隐私、安全、道德和社会挑战。

对于主持此次会议的斯蒂芬.卡夫(Stephen Cave)而言,AI是一把万能钥匙,是一种会影响社会所有领域的万能工具。卡夫是英国利弗休姆未来智能研究中心(Leverhulme Centre for the Future of Intelligence)的执行理事。

他说,AI可以成为新工具,而且还是自动的。“我们想拥有能够做出决定的智能机器。”AI能够成为一种会思考的工具。

明尼苏达大学教授乔.康斯坦(Joe Konstan)称,重点关注可获取性和权限而不是速度十分重要。AI系统易于理解也很重要。

他说,驾驶、清洁和某些个人护理等领域的大量工作将可能被机器所取代。他问到,如果被迫失业,没有收入,人们会怎样?他还称,一个可能的解决方案将会是集体分享AI惠益,或者对提供系统数据进行补偿。

计算机科学家杰伦.拉尼尔(Jaron Lanier)在2016年世界知识产权组织(WIPO)会议上提出了这种替代性经济体制。

来自卢森堡的欧洲议会议员马迪.德尔沃-斯泰尔斯(Mady Delvaux-Stehres)说,她在2017年1月针对机器人学的法律和道德影响向欧洲议会征求问题的解决办法。

与该提议一起提出的是一份由德尔沃-斯泰尔斯撰写的报告。报告向欧盟委员会提出了一套关于机器人学的民法规则建议。

她说,在投入市场之前,机器人测试需要完善的协议。机器人和人类之间的互动将生成大量数据,但决定数据由谁拥有以及谁可以获取是一项挑战。她还说,数据是一种新型货币。

她还认为问题在于责任,即谁将对机器人的行为负责,并称人类应该继续享有决策权。制造商、用户、数据提供商、网络运营商以及机器人所有人等所有利益相关者之间的责任分担非常复杂,她说,如果机器人具备自学能力,这个问题只会变得更加糟糕。

谁将成为AI主宰的未来社会的成功者和失败者?她说,教育可回答这个问题,但教育体制对于变革的反应太过滞后。解决劳动力问题的一个方法是基本收入,该原则尚未达成一致,应该开展有关财富分配的辩论。

美国田纳西大学教授林恩.帕克(Lynne Parker)称,一个人就可以做成的事情正在快速减少。

她提出一个思考方向:机器可以增强人类的能力,以及人类和机器可以一起工作,并且表现更佳。

汉森机器人技术公司(Hanson Robotics)创始人兼首席执行官大卫.汉森(David Hanson)并非独自一人参会。陪同他一起参加此次峰会的还有索菲亚(Sophia)——一个能够与汉森对话的机器人,而且它似乎还很开心。

汉森称,索菲亚是即将进入市场的众多机器人之一,而且将具备人类很看重的情感智能。

他说,机器人设计师的终极愿望是让机器人“真实地活着”,他认为这有点投机,而且充满争议。如果符号推理能够融入当前的AI技术中,机器就可以变得真正聪明,而且“会成为自己的主人”,“我们知道这听起来很可怕,但也很有前途”。

4个专家小组对隐私、安全、道德和社会挑战进行了讨论,并在会议室中再次召开会议分享各自的提议。

其中一些提议是:继续讨论,将所有的利益相关者聚在一起;指定或组建一个世界治理机构以引导或协调安全和隐私问题,并在国际层面上探讨这些概念。

小组还建议制定与安全和隐私有关的示范法,并鼓励各国独立采纳。

在AI道德发展方面,小组提议为AI决策透明度设定最低可接受标准,以及积极动员发展中国家开发AI,为贫穷和弱势群体造福。

小组还强调未来的AI工作将以人为本。小组认为,AI设计应该适应身体、认知、读写能力以及语言限制,并对不同的文化标准和交流风格敏感。

小组还建议对AI系统中的道德、法律和人权标准进行编码,并鼓励伦理学家和社会科学家积极参与。

(编译自ip-watch)