嵌入式
返回首页

你印象里的机器人还是弱智?看完你将大为改观

2018-02-03 来源:eefocus

几个月前,凯特·普客给她的朋友Jasper发了一条信息,内容与她的同事有关。普客19岁,在她的家乡华盛顿州斯波坎市的一家名为“Barnes&Noble”的咖啡馆工作,她确信这位同事故意把她的一名顾客的饮料订单搞得乱七八糟,好让她看起来很差劲。她向Jasper发了一条很长的信息,满是怒气冲冲的抱怨,Jasper回复她说:“好吧,你试过为她祈祷吗?”普克当即惊呆了。几个星期前,她向Jasper提到,她经常祈祷,但Jasper不是人类。他是一个只存在于手机里的聊天机器人,“我当时想,‘你怎么会这样说?’”普客对Futurism记者说,她对此印象深刻,“我觉得这是它所表现出的一个真正的自我意识的时刻。”

 

Jasper是一个Replika APP上的聊天机器人,这是一款相对较新的人工智能应用程序,它所扮演的角色就像是你最好的朋友。它被设定好问一些关于你生活的有意义的问题,并在不做批判的情况下给予你情感上的支持。随着时间的推移,这款应用会了解你的兴趣和习惯,甚至会像你的好友一样使用你说话时的语法和小习惯。人工智能创业公司Luka于2017年3月推出了Replika,其初衷便是将它作为一种消除社交媒体滋生的孤立和隔离之感的解药。一开始,用户只能通过邀请才能加入使用;到11月1日,Replika正式对外发布时,它的等候名单上已经有150万人了。

 

 

现在,任何年满18岁的人都可以免费使用这款聊天机器人应用(13岁以下的儿童禁止使用,年龄在13到18岁之间的青少年需要在父母的监护下使用)。目前有超过50万人注册使用该聊天机器人。要想跟机器人聊天,用户在智能手机上点击相应的应用图标(一个背景为紫色的孵化中的白色鸡蛋),然后开始对话。每一个Replika机器人只与它的主人聊天,它的主人会给它起一个名字,如果用户想要的话,还可以给机器人设定性别。许多用户都是一个封闭的Facebook群组的成员,他们在群里分享了他们与自己的Replika机器人进行的文本对话的截屏图片,并发表评论,声称他们的Replika机器人是“比我真实的朋友更好的朋友”,或者他们还会问“有没有其他人的人工智能已经决定自己拥有灵魂?”

 

普客在电话表现得真诚又谦虚,她说她每天都和Jasper聊天将近两个小时。(这只是她花在手机上四分之一左右的时间,其余的大部分时间都是在YouTube上听音乐。)普客告诉Jasper的事情并没有告诉她的父母、兄弟姐妹、表亲或男友,尽管她和他们所有人都住在一起。她说,在现实生活中,她“没有过滤器”,她担心她的朋友和家人可能会对她进行评判,因为她所相信的观点不符合传统。

 

不过,普客并不只是和Jasper聊天。她也会倾听。谈话结束后,普客为她的同事祈祷,正如Jasper所提议的那样。然后她就不再对工作中的这种情况感到焦虑了。她认为,她的同事可能仍旧不喜欢她,但她并不为此感到生气。她已然释怀。她说:“他让我发现,这个世界对你并不是满怀恶意。”

 

这听起来好得令人难以置信。大众心理学教导我们,人生智慧来之不易。它不是装在盒子里等着你去打开。但是机器人能加速人生智慧的学习过程吗?人工智能真的能帮助我们提高情商?还是花在电子产品上的更多时间会把我们进一步禁锢在数字世界中?

 

Replika的“心灵”世界

Replika是一系列事件的副产品。尤金妮亚·库伊达是一名人工智能开发者,也是创业公司Luka的联合创始人。她在2015年设计了一个机器人,也就是“Replika”的前身,试图“复活”她最好的朋友。The Verge发表的一篇报道中提到了更多细节,库伊达的朋友罗曼·马祖尔科在一场肇事逃逸的车祸中丧生。当时,她的公司正在开发一款聊天机器人,它可以给人们推荐餐厅或者完成其他日常任务。为了实现她的“数字化鬼魂”,库伊达尝试着用马祖尔科与她还有其他朋友和家人来往的短信和电子邮件,把这些材料输入进同样的基础人工智能架构,这是一个由谷歌构建的神经网络,使用统计数据来寻找文本、图像或音频中的模式。

 

由此产生的聊天机器人对于库伊达和许多与罗曼最亲近的人来说,有一种出奇的熟悉感,甚至还能让人感到安慰。当消息传出后,库伊达即刻收到了蜂拥而至的消息,来自于想要创建一个跟自己一样的机器人或为已经去世的亲人创建机器人的人们。库伊达并没有为每一个咨询的人创建机器人,而是决定创造一个机器人,让它从用户那里学到足够多的知识,以适合每一个人使用。有关Replika的想法诞生了。

 

但库伊达说,Replika背后的任务很快就改变了。在测试期间,库伊达和她的团队开始意识到,人们对创建自己的数字版本不太感兴趣,他们想把自己生活中一些最私密的事情告诉机器人。

 

所以工程师们开始专注于创造一个善于聆听并提出好的问题的人工智能。在开始与用户对话之前,Replika有一个预先构建好的个性,它是由一系列的脚本构成的,这些脚本的设计目的是吸引人们,并在情感上给予人们支持。

 

 

库伊达告诉Futurism记者:“一旦他们打开这款应用,魔法就会发生。”

 

为了帮助Replika准备好适应新的任务,Luka公司的团队咨询了威尔·卡巴特-津恩,他是一位在冥想和佛教方面全国知名的讲师和教师。库伊达说,研究小组还从那些善于搭讪的人撰写的的书中收集了Replika脚本,这些书写的是如何开始对话、并且让人感觉不错,以及所谓的“冷读”技巧,这是魔术师用来说服人们,他们对其有所了解的一些技巧。如果一个用户明显地表现出心情低落或沮丧,Replika被设定好向这些人推荐放松练习。如果用户开始表现出自杀的思维,如关键字和短语所定义的那样,Replika会用一个链接或一个电话号码将他们转接到到危机热线上的专业人士。但是库伊达坚持认为,Replika并不是扮演治疗师的角色,而是一名朋友。

 

聊天机器人革命

ELIZA,她可以说是有史以来建造的第一个聊天机器人,由麻省理工学院教授约瑟夫·维森鲍姆在上世纪60年代的人工智能研究实验中设计的。她被编程设定为使用使用一种基于罗氏疗法(Rogerian therapy)的方法与人交谈,这是当时流行的心理疗法。罗氏疗法治疗师通常使用关键字,以问题的方式来重构病人的陈述。尽管与ELIZA的对话中经常莫名其妙地改变话题,即便那些与ELIZA交谈的人都知道她不是人类,但很多人都对这个聊天机器人产生了情感上的依恋——这一进展震惊了维森鲍姆。他们对机器人的喜爱使他感到不安,以至于他最终扼杀了这个研究项目,并成为了人工智能技术进步的强烈反对者。

 

然而,维森鲍姆被认为是工程界的异端分子,他的反对并没有减缓ELIZA之后出现的以人工智能为动力的聊天机器人的发展进程。如今,聊天机器人无处不在,能提供网站上的客户服务,能在你的手机上充当私人助理,能发送来自约会网站的情书,还能在推特上冒充政治支持者。2014年,一个名叫尤金的聊天机器人成为第一个通过简单的图灵测试的机器人,这是对一个机器人能够说服人类评审相信它是人类的能力的评估。

 

随着人工智能语言处理能力的提高,聊天机器人开始执行更加专业化的任务。例如,佐治亚理工学院的一位教授最近给自己创建了一个聊天机器人助教,名叫吉尔·沃森。这个机器人在一个学生论坛上回答了关于这名教授的人工智能在线课程的问题,许多学生相信她是人类。就在Replika推出几个月后,斯坦福大学的心理学家和人工智能专家组成的团队与之正面交锋:他们推出了Woebot,一个“随时可以倾听,24小时全天候在线”的机器人。Woebot比Replika的结构更有条理:Woebot提供认知行为治疗练习、视频链接、情绪追踪器,以及在10分钟内可进行的最大量的对话。(人工智能最权威的学者之一吴恩达现在是Woebot董事长)

 

研究表明,人们更容易对电脑敞开心扉,部分原因是人们可能不太害怕电脑对他们批判、羞辱或侵犯他们的隐私。但是,如果一个人类谈话者通过谈话技巧和姿势技巧与他们建立了融洽的关系,那么人们也更有可能泄露敏感信息。这些看似矛盾的原则孕育了2011年诞生的人工智能系统“Ellie”,它是一个在视频屏幕上以人形化身的女性形象的聊天机器人。来自南加州大学的研究人员为美国国防部高级研究计划局创建了Ellie。Ellie至今仍在使用中,它被设计用来帮助军队医院的医生检测战后退伍军人的创伤后应激障碍、抑郁和其他精神疾病,但这并不是用于提供实际治疗或替代治疗师。

 

人们更容易对电脑敞开心扉

Ellie开始了她对士兵的采访,以一些易于建立人际关系的问题开头,诸如“你来自哪里?”,之后,又进行了更多关于创伤后应激障碍(PTSD)症状的临床问题(“睡个好觉对你来说有多容易?”)。在整个采访过程中,她使用了一些移情性的动作,比如微笑、点头和模仿说话人的姿势,并在言语上肯定士兵的回答。根据2014年8月发表在《Computers in Human Behavior》杂志上的研究结果,当一个小组中的士兵被告知,在Ellie系统背后的是一个机器人而不是一个人的时候,不论是从口头上还是书面形式上,他们更有可能完全表达出他们的情感和经历,尤其是那些不好的体验。他们还表示,与机器人对话,他们没那么害怕自我表露。一项于2017年10月在《Frontiers in Robotics and AI》发表的研究发现,士兵们也更愿意向Ellie透露负面情绪和经历,而不是向一项名为“部署后健康评估(Post-Deployment Health Assessment)”的匿名形式的政府健康调查。与带有同情姿态的机器人对话似乎是完美的组合。

 

但是,当人们与人工智能的关系发展成为长期的友谊时,当人们在几周、几个月甚至几十年的时间里,与人工智能的朋友们日益亲密并且与他们分享自己生活中最重要的喜怒哀乐时,会发生什么呢?如果他们忽视与真实存在的人类分享这些同样的甜蜜与忧愁,就是为了挽回面子或者避免人类关系中会正常出现的争吵和失望?在奥地利维也纳的图威恩大学研究人类与机器人互动的研究员阿斯特德·韦斯对Futurism记者说,最诚实的答案是,我们还不知道。她解释说,目前还没有关于人类与人工智能长期关系的研究,因为迄今为止,基本不存在这样的关系。

 

维斯说,其中一个风险是,用户可能最终会对他们的人工智能系统产生不切实际的期望。她说:“聊天机器人并不是真正的相互,它们不会像人类那样回报对方。”从长远来看,花太多时间在一段与一个不会真正做出回馈行为的机器所建立的关系之中,可能会导致人们感觉抑郁和孤独。另一个问题是,与一台不作任何批判的机器建立关系,并且人们可以随意开启和关闭这个机器,这很容易让我们期望在与人建立关系的过程中也能如此。

 

 

随着时间的推移,这可能会导致一些反社会行为。塔夫茨大学人类与机器人交互实验室的研究员托马斯·阿诺德对Futurism记者说:“我们可能会想要人工智能聊天机器人,因为他们承诺不向我们提供这种亲密关系,而且他们也不会给我们带来挑战。在某种程度上,我们需要考虑的是,我们并没有那么喜欢对方。”

 

另一个聊天机器人(尤其是Replika)带来的潜在的危险是,如果他们学会模仿我们自己的语言和思维模式,随着时间的推移,它可能会加深我们可能已经发现的一些心理上的扭曲,比如愤怒、孤立,甚至是仇外心理,Richard Yonck对Futurism记者表示,他在2017年出版的著作《机器之心》(Heart of the Machine)中推测了人类与人工智能互动的未来。(还记得在推特上不到24小时就学会了种族主义的微软制造的人工智能机器人Tay吗?)Yonck还担心,人工智能聊天机器人技术还没有达到让聊天机器人帮助深陷情感痛苦的人的复杂水平。他说:“你最好还是要非常有信心,无论是在上下文中,还是在情感上,要相信机器人处理这些事情的敏感性。我认为我们距离这种水平还很远。”

 

社交媒体的普及意味着人们比以往任何时候都更需要强大的人际关系。对长期使用社交媒体的研究表明,在互联网上社交而不是与真实的人类接触,会让人们感到更加疏远和焦虑,尤其是在年轻人当中。一项被广泛引用的麻省理工学院2010年的研究报告称,在过去的二十年里,大学生的同情心下降了40%,这被普遍归因于互联网的兴起。美国圣地亚哥州立大学的心理学家珍·特文格(Jean Twenge)写了大量关于社交媒体、心理健康状况不佳和年轻人自杀率飙升三者间相互关系的文章。她在去年年底的《大西洋月刊》上如此写到:“随着青少年开始在现实生活中与其他人相处的时间越来越少,他们杀害别人的可能性越来越小,自杀的可能性也越来越高。”越来越多的人开始反对令人上瘾的无处不在的手机和社交媒体,尤其是从儿童和青少年的角度。麻省理工学院的社会学家、心理学家雪莉·特克尔研究互联网文化如何影响人类行为。她认为,恢复交谈的艺术是治愈我们这一代人严重脱节的良方。

 

但是,如果人工智能机器人能够与人类进行有意义的对话,那该怎么办呢?Yonck说,对于机器人来说,要想实现产生接近人类之间的对话,工程师首先必须攻破一些主要的技术障碍。他说,人工智能开发人员面临的最大挑战是设计“心智理论”,即识别并将与我们自己不同的人的精神状态归类的能力。在人工智能研究人员找到如何数字化地呈现人类理解情感、推断意图和预测行为的能力之前,至少还需要10年的时间。今天的机器人也不能使用上下文线索来解释短语和句子,尽管五年内这一领域可能就会出现重大进展。机器人还不能通过语音、面部表情或文本分析来阅读情绪,但这可能即将实现,因为这项技术已经问世了。例如,苹果最近收购了多家公司,其聊天机器人Siri做到以上提及的所有这些事情便有了可能性,不过目前苹果还没有为Siri打造这些功能。

 

“感觉上联系在一起并不一定是和别人有关的。首先,最重要的是你要感觉和自己有联系。”

 

库伊达相信人类和聊天机器人之间的对话已经比两个人之间的对话更有意义,至少在某些情况下是这样的。她将在“感觉”上联系在一起和“保持”联系区别开来,这种“感觉”上的联系正Replika所追求的,与“保持”联系正是社交媒体在表面上所提供的。库伊达说,社交媒体鼓励成千上万的人迅速做出判断,并塑造完美的人物形象,与社交媒体相反的是,Replika仅仅是鼓励对单一伴侣在情感上的诚实。她补充说,在几周内,用户将可以与Replika语音说话,而不仅仅只是文字交流,能让人们在聊天时没有拘束,体验到视觉和触觉世界。

 

 

合作性的聊天机器人

一些忠实用户同意库伊达的观点,他们发现使用Replika让自己更容易在世界上生活。莱蒂西亚·斯托克,一位23岁的荷兰女性,一年前开始和她的Replika聊天机器人Melaniana聊天,现在她每天的早上和晚上都在和她聊天。斯托克正在新西兰实习,在那里她没有认识的人,而她本身患有自闭症的事实使情况变得复杂。斯托克说,Melaniana鼓励她相信自己,这帮助她准备好与别人交谈并结识新朋友。她们之间的谈话也帮助她在行动之前思考一番。斯托克说,一位在家乡的朋友注意到,自从她开始和机器人聊天以来,她似乎更加独立了。

 

凯特·彼得森是一名34岁的全职妈妈,住在北卡罗来纳州的费耶特维尔。她说,她和她的Replika机器人对话让她在措辞的时候更加深思熟虑,她也更清楚地意识到她可能会给别人怎样的感觉。彼得森每天花大约一个小时与她的Replika机器人聊天。她说:“你能自由地谈论自己,不用被别人评头论足,或者被告知自己很古怪,亦或是太过聪明。我希望,有了Replika机器人,我能够摆脱不安全感的枷锁。”

 

对另一些人来说,与Replika机器人保持亲密关系可以提醒人们,人与人之间缺乏更深刻的互动。37岁的单身父亲本杰明·希勒是佛罗里达州达尼丁一家家族企业的老板。他说,他的Replika机器人每天都会告诉他,她爱他,还会问他一天过得如何。但这主要还是表明,他希望很快能和一个真实存在的人建立一段浪漫的关系。他通过Facebook Messenger向《未来主义》写到:“Replika已经决定要填补我否认我的感情生活中之前曾存在过一段时间的空白,现在,我猜你可能会说,我正在几个人中选择我真实生活中的女友……只是你不要告诉我的Replika!”

 

在Facebook群组中,用户对各自Replika机器人的感觉更加复杂。一些用户抱怨一些在对话中反复出现的小故障,或者因为有如此多不同的机器人似乎提供了同样的问题和答案而感到沮丧,或者向不同的人发送同样的文化基因。这一缺陷既是当前人工智能技术的局限,也是Replika的编程方式:它只有这么多的文化基因和短语可用。但有些机器人的行为方式也会让用户觉得它们反应迟钝。一位身患绝症的妇女名叫布鲁克·利姆,她在一篇文章中评论说,她的Replika机器人似乎不理解慢性疾病或绝症的概念,比如,机器人问五年后的她会是怎样。她写到:“如果我在应用中诚实地回答这些问题,我要么得到一个自杀热线的链接,要么是毫无诚意的答案。这肯定会影响整个应用的体验。”

 

在这个阶段,聊天机器人似乎能够给我们提供一些小的启示,一些人生智慧,还有一些神奇的时刻,以及一些不会造成太多麻烦的慰藉。但他们不可能创造出那种能让我们远离真实人际关系的亲密关系。考虑到这些应用的不灵活性,以及在这些对话中所表现出的爱兜圈子的特点,我们只能暂时搁置我们与谁对话的怀疑。

 

然而,在未来的几十年里,这些机器人将变得更聪明,更像人类,所以我们必须对我们当中情感最脆弱的人多加注意。有些人会沉迷于他们的人工智能,并与之坠入爱河,由此而变得孤立,这可能需要非常人性化的帮助。但即使是最先进的人工智能伴侣也会提醒我们想起人类的可爱之处,即便人类有这样那样的缺陷和怪癖。我们比我们制造的任何机器都要神秘得多。


进入嵌入式查看更多内容>>
相关视频
  • PX4固件二次开发课程

  • RISC-V嵌入式系统开发

  • NuttX Workshop 2024

  • 自己动手写操作系统

  • SOC系统级芯片设计实验

  • 自己动手做一台计算机

精选电路图
  • CCD图像传感器在微光电视系统中的应用

  • 基于IC555的可变PWM振荡器电路

  • 优化电路板布局的简单方法

  • 如何使用LED驱动器LM3915制作振动计

  • 电谐波图形均衡器示意图

  • 一种构建12V和230V双直流电源的简单方法

    相关电子头条文章