Select Language

AI社区

数据要素产业

给机器人做规矩要趁早 智能机器人需“约束”

12-05 23:56 TAG: 机器人 规矩 智能机器 约束

  “机器人三原则”已经实际应用。

  曹其新教授介绍说,对于机器人用于医疗领域和研发医疗机器人,目前美国未加限制,欧洲定了一些规矩,而日本根据“机器人三原则”,明确禁止。这类机器人直接跟人的生命打交道,伦理问题最为突出:它具备人工智能,可以自主学习并独立手术,但如果“学艺不精”出了事故,那是不是意味着没有遵守“三原则”?或者,机器人在手术时发现患者病入膏肓、已没有继续手术的必要,因此不做了,那又如何评判这种行为的对错?曹教授说,“伦理道德还不完善”的机器人,不适合用在敏感领域。

  其实,现在大多数用于医疗的机器人,并不是智能机器人,都需要人工操作,可以说是一种高端医疗器械。

  有智能就复杂了

  随着智能机器人研发的不断进展,当机器人也会有想法时,问题就复杂了。

  今年5月初,欧盟评出了对未来影响最大的六项技术,其中一项是伴侣机器人。科学家们纷纷预言,不久的将来,家家户户都会有个机器人。

  当伴侣机器人成为家庭一员,这些能自主学习、自己成长,能像人一样思考和做决定,而行动能力比人更胜一筹的家伙,需要遵守哪些规矩?机器人的伦理道德,逐渐成为学界关注的热点。

  不久前,上海交通大学主办了全球机器人大会,收到好几篇探讨机器人伦理道德的论文。而据说在过去的会议上,这类论文几乎没有。前来参会的日本东北大学教授小菅一弘介绍,机器人研发领域的国际顶级期刊今年1月专门出了一期专刊,主题就是“robotethics”,这一前沿课题的几位重要学者都发表了文章。他还说,日本2002年就在福冈市尝试制订了针对机器人的交通规则,福冈由此成为全球第一个机器人可以上路行走的城市。

  韩国和一些欧洲国家表示,有意制订“机器人道德法”,以此作为机器人研制者、使用者以及机器人本身的道德伦理规范和行为准则;它对机器人产业将有重大指导作用,“机器人道德法”的各项规定将编写成电脑程序,安装于机器人。