来源:
华尔街见闻
机器人不仅已经打败了世界上最好的围棋选手,他们还创造了属于自己的语言。面对越来越强大的AI,一些前沿科技工作者纷纷呼吁对AI进行立法。
美国媒体goingconcern今日发表评论称,既然AI可以拥有自己的语言,他们也很可能拥有人类所无法理解的逻辑。以审计和记账工作为例,虽然人们目前还在用AI取代那些重复、机械的操作流程,但随着人工智能的逐步深化,AI可以学会如何制作假账,他们制造假账的手法甚至可以达到让一般审计师无法理解的地步。
更加糟糕的是,人类会因为做假账而被逮捕关进监狱,而对无自由概念可言的AI来说,做假账是不受惩罚的。现行法律中没有针对AI的规则,更没有人制订出一套方案防止AI犯法。
走在这个行业前沿的科学家们发出了警告。加州大学伯克利分校教授Stuart Russell在最近的TED演说中表示,应当在AI时代到来之前就对此立法。如果像人类时代,等事情先发生再行动,一切就太迟了。人们不仅可能丧失应对问题的先机,甚至可能丧失有效的立法权。
应当让AI知道什么是惩罚
为了让AI随时都能接受人类的监控,同时为了让AI不被极端分子利用,Russell提出了三条AI立法规则。他认为,所有的AI在创造之初应当满足三个条件:利他主义、谦逊和从负面行为中学习。他认为AI和人类一样,应当知道什么是惩罚,并能从惩罚中确立行为的界限。
1、利他主义。所有的智能机器人,他们的最大目的就是实现人类福利的最大化。
2、谦逊。避免只为社会的某一个群体、一个群体的某一个派别着想。
3、从负面行为中学习。例如,当机器人因为犯错被拔掉电源后,机器人会知道自己犯错并保证以后不再做此事。
AI演进出了自己的语言,出于恐惧Facebook科学家将其关闭
今年6月,Facebook AI研究院研制的聊天机器人在相互对话中突然停止使用英语语法,创造出了属于AI系统自己的语言。据美国科技媒体Tech Times报道,出于恐惧和外界压力,Facebook AI研究院的工程师们最近不得不将这堆试验品关闭。
Tech Time在报道中写道:“这堆聊天机器人没有做出类似于袭击人类、拔掉其他机器人电源等更加出格的举动,但它们不再使用英语进行交流。不管扎克伯格再怎么声称AI无害,他手下的AI工程师们还是拔掉了这些机器人的充电器,并对这些机器人进行重新编程,禁止它们使用英语之外的其他语言。”
AI们用自创语言交流生产内容的片段
上图是AI用自己的语言进行对话的片段。在该情境中,Facebook的聊天机器人Bob和Alice正在训练如何就购买皮球讨价还价。
一些科学家对机器人的对话进行了解读。他们认为,一旦不再限定机器人用人类的语法进行沟通,只是给予他们一定的字母并规定单词的含义,他们将创造出一种更利于机器交流的语法。“i can i i everything else”意味着“i have three balls,you have everything else”,机器的脑回路与人类的脑回路并不一样。
Facebook AI研究院的工程师们表示,采用了“机器学习”而非人类笨拙的“生物学习”,这些机器人在使用新的语言后沟通的速度非常快。“他们的沟通技巧好的不可思议,甚至还学会了假装对某种事物富有兴趣,在达到沟通目的后而转而将这些‘兴趣’抛弃。”
拥有自己的语言对AI来说是一件质的飞跃,但对人类来说却喜忧参半。虽然Facebook创始人扎克伯格在推特上宣称,人们所说的不过是“陈词滥调的末日论”,但特斯拉创始人马斯克、微软创始人比尔·盖茨和科学家霍金对AI的态度则更加紧迫而消极。65年前,机器人之父、也是AI之父图灵的话仍历历在耳:“尽管人类可以随时拔掉机器人的充电器,但在这种物种面前,我们仍不得不保持谦卑。”
Facebook的工程师们对拥有自己语言的AI也感到担忧。如果人们无法知道AI在谈些什么,他们根本就无法知晓这些“思维”超常运转的机器人们到底要干什么。
from 博谈网 https://botanwang.com/articles/201709/ai%E5%88%9B%E9%80%A0%E5%87%BA%E8%87%AA%E5%B7%B1%E7%9A%84%E8%AF%AD%E8%A8%80%7C%E4%BA%BA%E7%B1%BB%E6%84%9F%E5%88%B0%E4%BA%86%E6%81%90%E6%85%8C.html