您好,欢迎您访问我们的网站,我们将竭诚为您服务!
深圳市界倍里自动化设备有限公司
专业代理销售和服务,专注各种贴片机/接料机等

李经理:13902949561
邮箱:jbl9561@dingtalk.com

主页  > 新闻中心  > 公司新闻  > 如何约束机器人道德

分类栏目

联系我们

公司电话:13902949561
地址:深圳市了龙岗区宝龙大道宝龙三路4号宝捷讯工业园3楼
手机号码:13902949561

新闻详细内容

如何约束机器人道德

发布时间:2019-11-15 15:10 作者:handler 浏览量:222

   2018年12月18日,欧盟人工智能高级别专家组发布了一份人工智能品德准则草案。在许多人担忧人工智能取代人类、破坏品德的大布景下,该草案旨在指导人们制作一种“可信赖的人工智能”。怎么才能让机器人更令人信赖?可否赋予它们品德修养呢?就此论题,作者采访了美国匹兹堡大学科学哲学和科学史系杰出教授、西安交通大学长江讲座教授科林·艾伦。

问:发展人工智能的品德应选用怎样的模式?

       艾伦:咱们曾在《道德机器》中评论了机器品德发展模式,以为“自上而下”和“自下而上”相混合的模式是相对佳答案。首先谈一谈“自上而下”和“自下而上”意味着什么。咱们以两种不同的方法使用这两个术语。一个是工程的视角,也就是一些技术和计算机科学的视角,例如机器学习和人工进化,而另一个则是品德学视角。机器学习和人工进化并不从任何准则开端,它们只是试图使机器符合特定类型的行为描述,并且在给定输入使机器以这种方法行事时,它的行为可以符合特定类型,这叫“自下而上”。与之相比,“自上而下”的方法则意味着一个清晰的、将规矩赋予决议计划过程的模式,并且试图写出规矩来指导机器学习。咱们可以说,在工程领域中,“自下向上”是从数据傍边学习经验,而“自上向下”则是用断定的规矩进行预编程。

问:怎么让人工智能具有道德?

       艾伦:首先要说的是,人类自己还不是完全有道德的,将一个人培养成有道德的人可不是一件简单的事。人类的实质都是出于利己主义做事,而不考虑别人的需求和利益。但是,一个道德的智能体必须学会抑制自己的愿望以方便别人。咱们现在构建的机器人,其实并不具有自己的愿望,也没有自己的动机,因为它们没有自私的利益。所以,训练人工智能和训练人的品德是有很大差异的。对机器的训练问题在于,咱们怎样才能赋予机器一种才能,让它敏感地察觉到哪些对人类的品德价值观而言是重要的工作。此外,机器需求认识到它的行为会对人类形成苦楚吗?我以为是需求的。咱们可以考虑通过编程,使机器按照这种方法行事,且无需考虑怎么让机器人优先考虑他者利益,究竟现在的机器还不拥有利己的天性。

问:什么是人工智能的“品德”?

       艾伦:人工智能的“品德”,或者说“道德机器”“机器品德”,有很多不同的意义。我将这些意义归为3种。第一种意义中,机器应具有与人类完全相同的品德才能。第二种意义中,机器不用完全具备人类的才能,但它们对品德相关的现实应该具有敏感性,并且能依据现实进行自主决议计划。第三种意义则是说,机器规划者会在相对低层面上考虑机器的品德,可是并没有赋予机器人重视品德现实并做出决议计划的才能。

       就现在而言,第一种意义所想象的机器仍是一个科学幻想。所以,我在《道德机器》一书中略过了对它的评论,而更有兴趣评论那些介乎第二、第三种意义之间的机器。当下,咱们期望规划者在规划机器人时可以考虑品德因素。这是因为,在没有人类直接监督的情况下,机器人可能将在公共领域承担越来越多的工作。这是咱们第一次发明可以无监督地运行的机器,这也是人工智能品德问题与以往一些科技品德问题之间相对实质的区别。在这样的“无监督”情境中,咱们期望机器可以做出更道德的决议计划,期望对机器的规划不仅仅要着眼于安全性,更要重视人类在乎的价值问题。

电脑版 | 手机版