网络通信
返回首页

让 AI 臣服的关键,在于掌控它的心理因素

2017-07-10 来源:21IC中国电子网

 早在 2014 年,英国物理学家史蒂芬‧霍金(Stephen Hawking)接受英国 BBC 采访时就曾预言:“全面性的开发人工智能有一天可能会导致人类灭亡!”,今年 4 月在北京全球移动互联网大会上,霍金的远程视讯演讲又再度提到 AI 发展议题,他忧心地表示,“人工智能一旦脱离束缚,人类将不可能与之竞争”。下面就随网络通信小编一起来了解一下相关内容吧。


让 AI 臣服的关键,在于掌控它的心理因素

AI 失控会威胁人类?如何让它“关机”

霍金和其他在“生命未来研究所”(Future of Life Institute)的科技企业家如 Tesla CEO 伊隆‧马斯克(Elon Musk)等 1000 多名人工智能领域研究的重要专家就曾共同发表公开信,表示人工智能可以带给社会极大帮助,但其深远影响也值得各界深思协商,不可控制的人工智能会带给世界多大的威胁,没有人能做担保。

去年,Google 旗下的伦敦人工智能研究公司 Deep Mind 与英国牛津大学人类未来研究所(Future of Humanity Institute)与机器智慧研究所(Machine Intelligence Research Institute)联合发表了〈可被安全中断的人工智能〉研究报告,提出帮人工智能加上“红色按钮”的方法,防止人工智能高度发展后伤害人类或环境,并指出如何让人工智能无法学会让红色按钮失效。

不过,目前该团队只有部分算法可以达到“红色按钮”的目标,而中断人工智能的运作,其他部分则无法安全中断,需要再接再厉。

不过帮人工智能加上开关是不是可行的解决办法,目前还没有定论,如瑞典哲学家 Nick Bostrom 在 Ted Talk 中就抱持不同的意见,他认为,即使情况需要,人类也不一定会按下开关,如即使知道我们过度依赖网络,我们也不会主动把网络关掉。

为了测试人工智能是否可以被中断运作,加州柏克莱大学(University of California, Berkeley) 的研究团队设计了名为“关开关”(Off-Switch Game)的测试。在这个测试中,机器人被指定完成任务,而人类可以在任何时刻按下机器人关机键接手完成任务。

顺我者昌,逆我者亡——要关掉方便的 AI 吗?

让 AI 臣服的关键,在于掌控它的心理因素

不过机器人也可以选择让关机键失效。在测试中,被给予高度“信心”的机器人从不让人类把自己关掉,因为自己的工作效能大于人类;而“自信心不足”的机器人则可以轻易让人类接手工作。

团队中的博士生成员 Dylan Hadfield-Menell 表示,让机器人信心不足并不是好事,如由 AI 驾驶的无人车送小孩去上学时,任何时刻 AI 都不应该让小孩接手驾驶。

太顺从人类的意志不一定是好事,像是大家每天使用的脸书,脸书的算法顺从人意,尽把我们想看的动态送到我们面前,这样的“过滤泡泡”(Filter Bubble),却使推播的信息把我们困在“同温层”里,使得动态墙可能出现错误或虚假的新闻。

进化历程脱离掌控,AI 会终结人类吗?

对于 Handfield-Menell 团队的成员来说,“关开关”测试只是开始,他们会接续一连串测试机器人决策过程的实验,希望了解机器人在得取不同程度的信息时,会如何影响 AI 做出最终决定。

因为在不太久的未来,当我们送出更多机器人上街或在公司、工厂甚至餐厅、便利商店工作时,我们需要知道,他们会不会因为比人类更快速的演化,最终作出不利人类全体利益的决定,像阿诺史‧瓦辛格主演的电影那样,成为真实的“魔鬼终结者”。

以上是关于网络通信中-让 AI 臣服的关键,在于掌控它的心理因素的相关介绍,如果想要了解更多相关信息,请多多关注eeworld,eeworld电子工程将给大家提供更全、更详细、更新的资讯信息。

进入网络通信查看更多内容>>
相关视频
  • 微波毫米波电路分析与设计

  • 天线原理与基本参数

  • Digi-Key: Follow Me 系列(1) 直播回放及答疑记录

  • 无线感测网络

  • 微波五讲

  • 天线原理 哈工大 林澍

最新器件
精选电路图
  • CCD图像传感器在微光电视系统中的应用

  • 非常简单的150W功放电路图

  • 优化电路板布局的简单方法

  • 一个简单的立体声平衡指示器电路

  • 电谐波图形均衡器示意图

  • 一种构建12V和230V双直流电源的简单方法

    相关电子头条文章