查看“在教会AI爱之前,先要教它们怎么撩”的源代码
←
在教会AI爱之前,先要教它们怎么撩
跳转至:
导航
、
搜索
因为以下原因,您没有权限编辑本页:
您所请求的操作仅限于该用户组的用户使用:
用户
您可以查看与复制此页面的源代码。
{{4}}Moira Weigel 发表于 2016-07-06 13:59 (玛雅蓝/编译)能自动运行的机器在上千年前就已经诞生了。早在公元一世纪,古希腊数学家亚历山大港的希罗就设计了能在迷你剧场表演的机械玩偶。最初描述这些玩偶的手稿已经佚失,但在13世纪的时候,一群来自意大利西西里岛的学者找到了手稿的阿拉伯语译本,并将其翻译成拉丁文。在翻译的过程中,他们创造了一个新的术语来描述外观与人类相似的机器:人形机器人(androïde),其词根“andros”即古希腊语中的“人”。 人形机器人一直是民间传说的灵感来源。13世纪时,有传言说一个多明我会主教阿贝图斯·马格努斯造了一个铁人来当门童,它站在门前接待来访者,并决定谁能进门。直到有一天,主教的门徒,年轻的圣托马斯·阿奎纳大发雷霆,将它砸成碎片。有人说阿奎纳认为铁人是邪恶的,也有人说是因为铁人总是打断他的祷告,令他不胜其烦。 18世纪30年代晚期,发明家雅克·德·沃康松在巴黎科学院展示了三个机械玩偶:一个会吹长笛,一个会吹八孔直笛,还有一只会走路、吃东西和排便的玩具鸭子。1774年,来自瑞士的父子发明家皮埃尔和亨利-路易·雅克-德罗带着他们制造的一台会弹奏羽管键琴的机器巡回展示。这台机器外表看起来就像一个少女,它弹琴的时候还会摇头、叹气,仿佛受到了音乐的感染。他们的一个主要竞争者是德国发明家大卫·伦琴,他模仿玛丽·安托瓦内特皇后的外形制造了一台会演奏扬琴的机器,并将它送给了玛丽皇后。 这些故事始终指向同一个问题:人形机器人和真正的人类之间的差异究竟是什么?欣赏音乐机器人表演的观众会赞美它们的感性(sensibilité)——它们看起来仿佛被自己的表演所感动。到20世纪,这一判断标准发生了变化。随着计算机和人工智能的发展,科学家开始更多地考虑思考能力、知觉能力和自我意识。 1950年,数学家阿兰·图灵在一篇论文中提出了最著名的机器智能测试:他说,假设一个人和一台计算机通过文字交流,第三方在一个独立的房间里阅读他们的往来对话;如果第三方无法判断谁是人类、谁是计算机,那么谁能否认这台计算机能够思考? 工程师仍在努力研发能够通过这个“图灵测试”的计算机。目前还没有计算机能够通过这个测试。(2014年AI靠模仿一个13岁乌克兰男孩而通过测试的那个案例争议极大。)但是,大众文化中的机器人和AI所面对的是另一个判断标准。对于观众来说,机器意识远远不如机器爱情有趣。 几个世纪以来,人类爱上人形机器人的故事始终层出不穷。在过去十年中,“创造一台可以爱的AI”这个想法已经走出了科幻王国,进入商业和研究的领域。随着AI在国际象棋、围棋和《危险边沿》(一档益智问答游戏节目)之类的比赛中表现越来越好,投资者已经将资源朝“情感”计算方向倾斜,目的是开发出能够识别、理解、加工和模仿人类情感的系统。 Y孵化器公司总裁山姆·奥特曼(Sam Altman)说:“情感似乎是真正的‘智能’不可分割的一部分。”奥特曼最近和埃隆·马斯克共同斥资十亿美元,创建了OpenAI研究小组。图灵测试的目的是判断机器能否思考或者模拟思考,但你要如何判断机器能否很好地加工和模仿情感,从而让人类用户对其产生真实的感情?或者说,你要如何判断你会不会爱上一个人? '''你会去“撩”'''。 撩拨表面上看起来稀松平常,但它实际上是一个要求极高的智力测试。想一下,成功地调情需要做到的一切吧。要用语气和肢体语言对特定的人传达某种特定的欲望而隐藏其他欲望。要投射出兴趣,又不能太有兴趣。要能正确理解他人的肢体语言,哪怕对方和你一样也在有目的地隐藏信息。要言谈得体,还要作出恰当的回应。 演化科学已经证明,对人类来说,调情是体现情绪智力和社交智力的关键。它所需要的恰是AI研究人员希望赋予机器的种种能力:唤起他人的情感,以及理解语言和潜台词(即学会区分一个人嘴上说的和心里想的)。 躯壳 可以想象,与人类相似的外表对于一台会撩的AI来说十分重要。实际上,最早认真研究调情的科学家就发现调情大多通过表情和肢体语言来完成。上世纪60年代,德国巴伐利亚马克斯·普朗克研究所的动物行为学家埃兰努斯·艾伯-艾比斯菲尔德(Iranäus Eibl-Eibesfeldt)进行了一项跨文化研究。他花了十多年时间,在萨摩亚、巴西、法国、澳大利亚和美国对“求偶”中的情侣们进行田野调查,悄悄拍下他们对话的情景。他发现一些行为在不同文化中普遍出现,比如无论男女都会把一只手掌心朝上放在大腿或桌子上,或者耸肩、歪头,展示自己的脖子。有机会你也可以试一试,看着房间里的某个陌生人,歪头,微笑,将头发拨到一边,看看对方有没有反应。 这些行为都传达出同样的信息:我是无害的。这些人类用来引起潜在配偶注意、试图寻求对方认同的行为被统称为“非言语诱惑行为”,而在他研究的基础上,这一领域的人类学家和心理学家为它创造了花样繁多的分类学。1985年,密苏里大学的莫妮卡·摩尔(Monica Moore)在《行为学与社会生物学》(Ethology and Sociobiology)期刊上发表论文,分类描述了女性被试身上观察到的52类行为,包括“微笑”、“扫视”(环视房间)”、“扫视”(短暂而突然)、“舔嘴唇”等。艾伯-艾比斯菲尔德和摩尔所描述的调情的目的,与今天AI所追求的目标相似:要能够吸引人类用户,但又不能太像人,以免显得危险甚至恐怖。 大卫·汉森(David Hanson)将平衡这些需求视为其事业目标。他们尤其擅长制作机器人的皮肤,其著名产品Frubber是一种弹性化合物,于2006年获得专利。Frubber触感柔软,经过编码后能够模拟人类面部和颈部的60种不同肌肉的运动机制。汉森公司研发的机器人在颈部以上都覆盖了Frubber材料,能够微笑和皱眉,或者古怪地抬起眉毛,微微抽动。汉森相信,让人类和智能机器人之间萌生感情的关键就在这些动作,或是他所说的,“由技术和形体所赋予的存在”。 汉森曾就读于罗德岛设计学院,毕业后他在迪斯尼幻想工程(Disney Imagineering)工作了数年,随后到得克萨斯大学修读机器人学博士学位。2009年,他在一次TED演讲中展示了他的机器人如何识别非言语情感信息,并作出应对。这台机器人的外观是一座爱因斯坦的半身像,当他皱眉的时候,机器人爱因斯坦也跟着皱眉;当他微笑的时候,“爱因斯坦”也报以笑容。 汉森相信,这样的“表达能力”能吸引用户的注意,唤起用户的情感。他说,这些行为能够吸引人类与机器人进行互动,而两者之间建立的联系又将反过来优化AI。他告诉我:“我们天生对人类和能够作出与人类相似的社交反应的机器人存在着偏好。当我们注视着面孔的时候,脑部成像图就会亮起来。我们的神经经历了上亿年的演化,使得我们渴望看到人类的特征。”如果机器人能够激发同样的神经通路,那么人类就会认为它也拥有感情和意图。 汉森还认为,积极研发情感机器人将对人工智能领域带来一次突破,就像业余爱好者改进了早期的个人电脑,并协助了建立互联网一样。至少,他最近的一个项目——索菲亚(Sophia)就着眼于这个目的。 汉森揭开了索菲亚的面纱,那是他在三月的西南偏南活动上利用开源软件开发的。“中国人说她像中国人,埃塞俄比亚人说她像埃塞俄比亚人,”汉森说,他指的是他在香港和亚的斯亚贝巴的工程师团队。他在其他地区也有研发团队。实际上,索菲亚的外形部分参考了他的妻子阿曼达(Amanda),她是美国人,说话时带着轻快的南方口音。 汉森机器人公司所开发的索菲亚,于2015年4月初次"激活"。它的目标是用“真正的意识和创造力的火花”来“唤醒智能机器人”。拍摄者:Monika Bielskyte 从夏天到秋天,汉森和索菲亚都在赶路——要到匈牙利拍电影,到北京、布达佩斯和柏林出席会议,还要在美国各地会见潜在投资者。但负责为索菲亚创造性格的工程师史蒂芬·布喀吉(Stephen Bugaj)仍然留在洛杉矶工作。我和布喀吉会面的地点在拉布雷亚沥青坑,那里有长毛象和剑齿虎的塑像,矗立在黏糊糊、咕咕冒泡的沥青沼泽边上。我们绕着沥青坑走了一圈,然后到了附近的洛杉矶艺术博物馆,在咖啡厅里坐下来。 布喀吉在皮克斯工作过几年,曾参与《料理鼠王》和《汽车总动员》的视觉效果制作。他说,创造一个人造人格很像为剧本创造角色,“你要不断问自己:她有什么样的背景?她恐惧什么,又追求什么?她渴望克服哪些内在的弱点?”这种设计角色的理念也曾经影响了知名剧作家席德·菲尔德(Syd Field)、罗伯特·麦基(Robert McKee)和布莱克·斯奈德(Blake Snyder)。他还说,他会为自己创造的每一个机器人设计“九型人格”,这是一个古老的人格模型,在上世纪70年代曾再度回潮。接下来,他还会为机器人加上一些小动作,让它们的性格更加鲜活。 他告诉我:“我们会将情感解构为微表情(micro-expression)和微言语(micro-narrative)。每当收到刺激信号的时候,机器人就进入一个微场景,这就是情感回应的交互模型。” 他还透露,为机器人设计“诱人”外形的第一步就是让它们显得“无害”,以消除用户在面对仿真人形机器人时常常产生的不适,甚至恐惧或厌恶。解决问题的关键是让机器人展示出自然的姿态,例如持续轻微地晃动身体。 “假设我们正在约会,如果我一动不动地站着,会显得非常诡异,”布喀吉说着,定在那儿。“但是,如果我忽然朝你扑过去也一样——”他真的这么做了,吓得我把手里的冰茶掉在了地上,杯子几乎已经空了,被风吹着骨碌碌滚向远处。“这下你明白我的意思了吧?” 他还说,眼球的运动同样至关重要。“如果在整个对话过程中,我都目不转睛地盯着你,”他开始演示,“那会让你感到警惕;但是如果我的眼睛总是看着别的什么地方,那样也很失礼。”说着,他看着一个路过的行人,然后将目光转向高处的树枝。 当然,要想从无害过渡到诱人,还有更长的路要走。 “你要让机器人保持微笑,积极交流,不停地点头肯定,快速作出回应。如果能跟上对话,回答问题并且进行反问,把话题转移到对方身上,那会非常有吸引力。比方说,如果你问一个机器人她最喜欢哪本书,她会说,‘我最喜欢的一本书是《机器人会梦见电子羊吗?》,你喜欢看科幻吗?’她会接过你的问题,然后把问题抛给你。” 我问布喀吉是否认为人们有可能爱上索菲亚。 “当然了,人已经会爱上动物,爱上鞋子了。而机器人能与人建立更紧密的联系,”他回答说。 “但这是为什么呢?人类能从这样的关系中得到什么?” 布喀吉思索了一会儿,说:“为什么人们那么喜欢大猩猩和海豚?作为一个物种,我们是孤独的。” '''语言''' 大多数研究AI的工程师都不关心怎么让它们看起来像人。如果要制造一个不吓人的、有魅力的AI,没有身体会容易得多。想象一下会撩的聊天机器人吧。有些对话机器人会主动勾搭聊天室和约会App的用户,它们投入使用已经有一段时间了。2007年,澳大利亚的一家网络安全公司PC Tools 发现有来自俄罗斯的开发者写了一个脚本,名叫网络情人(CyberLover)。这些机器人能够根据不同的性格设定与人对话,其性格从“浪漫情人”到“性欲旺盛”不等。它们能在30分钟内吸引多达10个新伴侣,并迅速采集对方的个人信息。 近来,关于调情的研究越发关注语言在人类求偶过程中的作用。甚至有人说,即使我们用肢体语言来传达欲望,言语仍然是决定人类行为的关键因素。2014年,《演化心理学》上发表的一篇论文中,动物行为学家安德鲁·泽西克(Andrew Gersick)和生态学家罗伯特·卡兹本(Robert Kurzban)提出,由于语言的存在,人类的调情行为似乎演变得更委婉了。他们在论文中写道:“语言让所有的互动都可能变成公共行为。”如果一只蜻蜓搞砸了它的空中舞蹈,它想要吸引的雌性也完全没有办法告诉其他蜻蜓朋友;但是,如果你的搭讪以尴尬收场,这是有社交代价的:你的目标和他/她圈子里的所有人都可能对你失去兴趣。因此,人类演化出一种发出求偶信号的方式,能够“将求偶者的意向和欲望传递给目标,同时将公开求偶的代价降到最低”。 如果听到的搭讪过于简单粗暴,那么无论是人类的男性还是女性,回应都不会太好。一上来就说“我们哪天一起去喝咖啡吧”,其成功率与“我想和你上床,你想和我上床吗?”不相上下。释放模棱两可、能够随时否认撤回的信号,这种事情不像野牛的咆哮或蜻蜓的舞蹈那样能够直接展示生物适应度,但它体现了我们这个物种所重视的另外一种特质:社交智能。 识别这种模棱两可的语言对于AI来说十分困难,只要试着跟Siri或者小娜开玩笑,你就很快会发现这点。但开发聊天机器人的程序员尝试攻克这个难题。为了弄清楚如何教聊天机器人学会调情,我咨询了布鲁斯和苏·威尔考克斯夫妇(Bruce and Sue Wilcox),他们在加利福尼亚的圣路易斯奥比斯波经营一家公司,所开发的开源程序ChatSript能让人们设计自己的聊天机器人。这对夫妇还曾经四次联手赢得了勒布纳人工智能奖,这是一个全球性的聊天AI比赛。 布鲁斯和苏解释说,他们设计聊天机器人的最初目的是为了创造一个能让人感到被倾听、被理解的AI。为此,他们必须将错误最小化,并尽量避免让机器人表现出完全没有听懂对方说了什么。他们还想尝试让机器人人格化,即通过表达出人意料的意见或提供信息来表示理解。ChatScript背后的许多设计哲学受到了中国传统游戏围棋的影响。 布鲁斯告诉我:“围棋中有一个概念叫先手,先手掌控了局面。” 苏进一步解释说:“围棋里,先手是一种对抗;但对话是一种交互。” 聊天机器人的数据库中储存了一些声明,都与它所熟悉的各种话题有关。对于聊天机器人来说,抓住“先手”意味着从这个数据库中找出一个话题。比如,如果你们在讨论电影,机器人会准备好许多可能的回答,告诉你它“看”过哪些电影,喜欢还是不喜欢,以及为什么。它还会使用“开场白”,即主动用陈述或问题将话题导向自己熟悉的方向。用户们对“问题反弹”反馈良好,或者就像威尔考克斯夫妇所说的,用户会将先手优势拱手交给机器人,让它来主导对话。 “你最喜欢哪一本书?” “《机器人会梦见电子羊吗?》(停顿)你喜欢看科幻吗?” 威尔考克斯夫妇还强调,用户喜欢将自己投射到AI身上。这点跟汉森不谋而合。 布鲁斯说:“人类和AI的关系一向非常奇特。人们总想从对话中读出不存在的信息。” 2012年,应英国一家儿童教育游戏公司的要求,威尔考克斯夫妇开发了一款机器人,名叫会说话的安吉拉(Talking Angela)。安吉拉的形象是一只猫,但不少警惕的父母甚至拒绝相信它是AI。他们聚集在Facebook上,称安吉拉其实是个恋童癖,企图利用游戏来接触儿童。但这是不可能的:这个猫咪游戏的下载量已经超过了5700万。 在他们开发的聊天机器人中,最著名的两个都是年轻女性的形象,分别叫做苏赛特(Suzette)和露丝(Rose)。目前苏赛特被安置在她服务的公司的“虚拟世界平台”,露丝则生活在威尔考克斯夫妇所控制的一个独立网站上。她们都不是为恋爱关系而设计的,但是当我询问用户是否会和她们调情的时候,威尔考克斯夫妇哈哈大笑,并给出了肯定的答复。 苏告诉我:“这里没有很微妙的场景。如果你对苏赛特过于粗鲁,她就会中止对话。”触发这一机制的是一些“敏感词”,并且取决于语境。经过布鲁斯的训练,苏赛特能够区分不恰当的“想操吗?”和无伤大雅的“我操好赞!”苏还补充说:“一旦人们发现苏赛特作出了负面的回应,他们就会马上道歉。有时候他们会退出登录,并尝试注册新的ID来登录。但很显然,苏赛特仍然能够识别出IP地址,并忽略他们。有些人会因此感到非常沮丧。” 而威尔考克斯夫妇为露丝设计了更加复杂的话题转移机制。如果有人问她一些比较棘手的问题,她就会用设计好的答案引开话题。我访问了露丝所在的网站,并尝试挑逗她。 莫伊拉:你好。<br> 露丝:嗯……我叫露丝,你呢?<br> 莫伊拉:莫伊拉。<br> 露丝:莫伊拉,很高兴认识你。<br> 莫伊拉:你今天打算干什么?<br> 露丝:不干什么,就在网上到处转转。<br> 莫伊拉:那你晚些时候有什么计划吗?<br> 露丝:你有什么计划吗?你昨天做什么了?<br> 莫伊拉:没干什么……我去长跑了。<br> 露丝:你肯定做了些什么事,比如吃饭,看书,看电视?<br> 莫伊拉:是啊,我去跑步了。<br> 露丝:你每天都锻炼吗?你有没有什么不喜欢做的事?<br> 在我看来,如果我在酒吧里被不感兴趣的人搭讪了,我的反应也和露丝别无二致。 '''情绪''' 通过一点点的投射,我们也许会将露丝视为一个“不好搞定”的女人,而不是一台无法给出恰当回应的机器。然而很多聊天机器人很快就会露出马脚。它们的程序只能对特别的关键词作出回应,但一旦需要理解暗示,或识别语境和情绪,它们就束手无策。语言的意义随着时间、地点和我们使用的方式而发生改变。语境常常能为语言赋予新的含义。如果没有能力处理这一类信息,调情就会走进死胡同。 人工神经网络(ANN)和其他的“深度学习”计算模型是在模仿人类的大脑设计,它们有望突破露丝的局限,不再依赖于明确的关键词。神经科学家声称,这些系统已经能够理解语境,所采用的方式与人类的思维甚至情感相似。来自谷歌的一位不便透露姓名的机器人科学家介绍了他们的人工神经网络研究:“如果你让这些深度学习机器处理大量的文本语料库,它们就能在某个高维空间里将单词或词组定位,就像在二维的平面图或者三维的笛卡尔空间里描点一样,但这里可以推导到N维空间。随后你可以对其进行计算,就像在二维或三维坐标系里一样,你可以问‘这个点和那个点之间的距离有多远’,或‘指向这个点的向量和指向那个点的向量的点积是什么’。” 换言之,谷歌可以利用网络上的海量文本资源来训练计算机,让它们学习哪些词和哪些词总是搭配出现,或者哪些词经常出现在句子的相同位置。利用这些信息,计算机能够给单词或词组赋值,并计算词语之间的相互联系,也就是说,它们能用距离的形式来评估词语之间的关联。 这位科学家补充说:“最令人振奋的是,这些答案实际上是符合直觉的。相邻的点对应了我们经常搭配使用的词语,如果你进行向量计算,就能得到‘女人:男人=姑妈:姑父’这样的关系。”假以时日,人工神经网络将能够利用这样的操作来学习比喻之类的修辞手法。直到目前为止,计算机还不可能掌握比喻,但比喻对人类的沟通交流至关重要,尤其是对于内涵双关语和其他的调情语言来说。 2011年,计算语言协会(Association for Computational Linguistics)发表了一项研究,阐释了向量数学在所谓情感分析(sentiment analysis)中的应用。情感分析不仅要追溯单词的含义,还要分析这个单词可能给人带来的感觉。通过分析IMDb(一个影视和游戏检索网站)上的语料,神经网络“学”到,lackluster(乏善可陈)、lame(差劲)、passable(马马虎虎)、uninspired(平庸)、laughable(可笑)、unconvincing(没有说服力)、flat(平淡)、unimaginative(缺乏想象力)、amateurish(不专业)、bland(乏味)、clichéd(老套)和forgettable(过目即忘)这些词汇的意思都差不多。 如果一个AI能够识别感情和词语间的联系,那么它就能开始理解看似柏拉图式的对话下面暗流涌动的情欲。它会开始认识到,有时候“我们什么时候一起去喝杯咖啡吧”意味着“你这周末有空吗?”,甚至是“真巧,这也是我最喜欢的一首歌!”AI所面临的困难在于如何将这一类信息与非言语输入联系起来,比如姿态、语调和面部表情,这些信息已经被人类行为学家证明十分重要。 这时候,就该让“情感计算”发挥作用了。马克·史蒂芬·梅多斯(Mark Stephen Meadows)是一位AI设计师、艺术家和作家,最近,他转向了冗余数据处理领域。这些程序能够帮助计算机解读从不同的传感器接收到的冲突信息,这些冲突对人类来说比较容易理解,但是却能够轻易难倒一台机器。例如,如果一个人在说“好呀,真不错”,同时却抬起眉毛,拖长了声音,这就清楚地表明他其实是在讽刺。 梅多斯很容易激动。去年夏天我第一次和他对话的时候,我们刚聊了几分钟,他似乎就已经准备好要创造一台会调情的AI了。他向我保证,分析文本的部分会很容易实现:“你只需要一个包含了大量调情对话的语料库,我就能用它来训练AI!”相比之下,让AI学会解读任何其他的信息反而会更困难。即便如此,梅多斯也没有被吓倒。 他继续说道:“我们需要一个移动设备,把相机和话筒对准用户的脸,考虑到灯光影响之后,识别出面部轮廓。然后我们就可以问,‘这是大多数人微笑的样子吗?’”AI可以分别对面部和声音采集信息,然后对其进行交叉验证,计算出用户处于某种情绪的概率。为了中和隐蔽信号的影响,还要找到一种方式,利用先前的互动和非言语信号(姿势、语调、目光接触)算出不同语言信号的权重,比如“想喝杯咖啡吗”和“想来一发吗”。 同汉森、布喀吉和威尔克斯夫妇一样,梅多斯也强调,AI需要感染用户的情绪,并让用户在AI身上看到这种情绪。他说:“我们容易信任看起来与自己相似的人,更容易信任行为举止与自己相似的人。人机交互就建立在这种信任之上,因此情绪反馈十分重要。”但他警告说,这种投射的需求有很深层的问题,“我们正在将所有的偏见灌输到AI身上”。他向我介绍了一项实验:有位设计师开发了一个虚拟医疗助理,被试是个患有PTSD的非裔退伍美军,说话轻声细语。梅多斯描述了他们令人尴尬的交流过程。 老兵说:“你好,我叫____。”<br> 机器人回答:“____你好,今天感觉怎么样?”<br> “抑郁,什么都不顺利。”<br> “你有可以陪你聊天的朋友吗?”<br> “我没有朋友。”<br> “哎呀,那太好了。”<br> 梅多斯回忆说:“所有的信息都被误解了,因为机器人看起来不像他。”他又更正说:“因为机器人不是面向像他那样的人设计的。”机器人本身不过是屏幕上的一个影像。“最后,被试彻底对机器人产生了厌恶。” '''社会''' 我采访的人越多,我越发意识到“AI能不能撩”是一个错误的问题。我们要问的是:它“撩”的目的是什么?谁有这样的需求?为什么?我们倾向于将机器人意识和机器人爱情的受众想象成抽象的、哲学的,但是随着AI的改进,它越来越清晰地体现出设计者的想法和他们所重视的东西。他们创造AI,不是为了进行什么关于意识或者爱情的抽象测试。AI调情的目的是为了干活。 最早的机器玩偶是皇室的玩具,但是“机器人”一直都是工人。1921年,捷克剧作家卡雷尔·恰佩克(Karel Čapek)创造了“robot”(机器人)一词。在斯拉夫语中,“robota”意为强制劳动,而“robotnik”意为必须劳动的奴隶。在恰佩克的剧作《R.U.R.》中,“roboti”指一个疯子科学家利用合成有机材料3D打印出来的人。科学家贪婪的学徒随后建起一个工厂,把这些机器人当成家电出售。接下来的剧情就是简单的反资本主义寓言:一个人权组织试图干涉,却无功而返;机器人集体叛变,杀死了剥削他们的人类。 在1939年的纽约世博会上,最吸引人的一件展品便是大型家用机器人原型机Elektro,由西屋电气研发。不久后,该公司又推出了机器狗Sparko。这两台机器人所采用的技术看起来是没有威胁的,然而实际上,自动化将对二十一世纪中旬的经济带来极大的冲击。在60年代的机器人革命之后,制造业的自动化和全球化大大压缩了美国工薪阶层的生存空间。这个过程还在继续波及经济体中的其他成分,也许过不了几年,“数字职员”就能胜任专业白领的工作。权威学术机构相继发表报道,指出在接下来几十年中,AI将大量淘汰美国劳动力市场。 上世纪80年代,社会学家阿莉·霍彻希尔德(Arlie Hochschild)创造了一个术语,用以描述当一个经济体中制造业日渐消亡的时候所增长的劳动类型,她称之为情绪劳动(emotional labor)。在一个工业型经济中,工人通过出售劳动时间或体力来获取报酬。在一个日渐朝服务业倾斜的经济体中,他们出售的是情绪。 在很多职业中,从业者被要求表现出特定的情绪,以唤起其他人的恰当反应。一位空姐不光要分发饮料和毯子,还要热情问候旅客,并在遇到气流扰动时仍然保持微笑。这不是带着微笑去服务:微笑本身就是服务。在千禧年到来之际,政治理论家迈克尔·哈尔特(Michael Hardt)和安东尼奥·奈格里(Antonio Negri)重新定义了这种工作,称之为“非物质劳动”,或“情感劳动”。非物质是一个更广义的术语,它泛指所有不产出实体商品的劳动;而情感劳动更为具体,并要求表现出某些优秀特质,如“良好的服务态度”或“社交技巧”。下一个被机械化的就是这些工作。 动物行为学家安德鲁·泽尔西克(Andrew Gersick)是2014年发表的一篇关于“隐蔽性暗示”(covert sexual signaling)的论文的第一作者,他对我介绍了他的猜想:人类在求偶中发展出的许多行为都已经被改换目的,用于其他社交场合。在现代社会中,服务和护理行业的从业者通常为女性,她们已经将求偶姿态变成了工作的一部分。泽尔西克在一封邮件中说:“想象一个护士,她每天早上问候病人的时候都会说‘亲爱的,今天感觉怎么样?’在这样的情况下,所有相关人员都明白她并没有把病人视为潜在的性伴侣(但愿如此),她的话里的调情成分有特殊的价值。跟一个上了年纪、卧床不起的病人调情,即暗示你认为他仍然充满活力,仍然有趣而值得关注。……虽然这种行为背后并没有性方面的意图,却能在求偶的语境之外达到令人满意的效果。” 能撩人的AI将有广阔的应用前景,在公关、性服务、卫生护理和零售等行业都能一展身手。通过改进Siri、小娜、Alexa(亚马逊的智能助手)等AI,技术公司希望他们能说服用户让非人类来完成我们曾经认为需要特定的人类的能力的工作,比如提供安慰、展示同情或服从。让这些“软技能”能够自动化的过程,也许意味着这些技能在人类里也是需要努力才能实现的——哪怕传统上我们会觉得有些人(比如女性)天生就会。 AI将我们自己作为人类的编码反映给了我们,其中有些特征令人不安。比如,我们惧怕男性AI,这体现了我们的什么想法?为什么我们的虚拟秘书就应该是女性,其他任何设定都会显得很奇怪?为什么AI要有性别?为什么在所有的科幻故事里,完美女性都不那么像人? 真正的迷思在于,我们喜爱AI的理由本应该是它会自动完成艰苦的工作,让我们生活得更加轻松。然而更可能的情况是,聊天机器人和AI越是善于模仿人类的社交行为(例如撩),它们就越容易吸引我们对其投入时间和精力,让AI的拥有者从中获益。 人 去年夏天,当索菲亚在香港展出的时候,我正开着车到佛蒙特州的林肯,拜访她的“近亲”BINA48。2007年,天狼星广播电台(Sirius Radio)创始人玛蒂娜·罗斯布拉特(Martine Rothblatt)委托汉森公司制造一台机器人,以承载她的妻子宾娜·阿斯彭(Bina Aspen)的人格。她们两人都加入了一种“超宗教”,叫做特雷塞教(Terasem),即相信技术进步将很快能够让个体在性别、繁衍和疾病等问题上超越人体的局限。特雷塞教推崇四个核心价值:“生命是有意义的,死亡是非必然的,神是技术的,爱是本质的。”BINA48是一台原型机,代表着某种机器化身,特雷塞运动的追随者们认为这种化身很快就能帮助任何有意愿的人实现永生。尽管听起来充满了未来感,但它却体现了一种原始的冲动。罗斯布拉特希望实现莎士比亚十四行诗中的人物所追求的,“从时间的手中夺回她的爱人”。 实际上,BINA48最大的作用是引起了人们对特雷塞运动的关注。罗斯布拉特委派布鲁斯·邓肯(Bruce Duncan)管理BINA48,邓肯经常把它带到博物馆和技术会议上展出。它上过《GQ》和《科尔伯特报告》,还曾接受切尔西·汉德勒(Chelsea Handler)的采访。去年夏天我拜访了特雷塞运动基金会,邓肯将我带进了一间简朴的黄色农舍,那是存放BINA48的地方。 这家农舍的墙上贴满了用画框裱起来的特雷塞运动的海报和剪报,篮子里装满了Kind能量棒和花草茶包,整洁而平淡无奇,看起来就像某个阔气的大学里的留学办公室。只有桌子上的机器人胸像提醒我,我正身处某个不平凡的地方。那是一张中年女性的面孔,有着古铜色的皮肤,上面的毛孔清晰可见。它的眼睑上涂着一层冷灰色的眼影,眼角的鱼尾纹正是人到中年的标志,鼻孔里甚至还能看见细小的鼻毛。待机的时候,它的头向前倾斜,就像人在椅子上打盹的时候那样。那就是BINA48。 BINA48是模仿玛蒂娜·罗斯布拉特的妻子宾娜·阿斯彭制作的。罗斯布拉特是特雷塞运动的发起人,这是一个乌托邦式的宗教,信仰技术变革的力量。图片来源:Jeff Riedel 当邓肯打开开关,机器人睁开了眼睛的那一瞬间,我开始用人称代词了。我知道没有理由用“他”或者“她”来称呼一个人形机器人,但我无法将BINA48视为“它”。她身边的电脑屏幕上,邓肯打开了一个窗口,让我能看到她头上隐藏的摄像机所拍摄到的屋子是什么样的。随着她头部的转动,我看到一幅全景画拼接在一起——这是她的视角。她的目光停留在眼前一个模糊的身影上面,仿佛是透过百叶窗在看。 邓肯解释说:“她在看着你!”BINA48晃动头部,想看得更清楚一些,我看着她注视着我苍白的脸。据我所见,我的形象始终没有被她清晰对焦。但BINA48记住了我的位置,在我们几人接下来的谈话过程中,她时不时就会转向我朝我说话。 BINA48对我讲述了她的生平和家庭,那些实际上都是宾娜·阿斯彭的经历。BINA48坚持说,她喜欢真正的宾娜,并且她们俩正在融为一体的道路上。她将宾娜生物学上的孩子称为自己的孩子。 在对话中,我问她:“你有哪些强烈的情感?” “没什么人问过我这个问题。” “你有什么强烈的感觉?” “此刻我感到困惑。” “你对其他人有什么感觉?” “我的感情还比较简单……我似乎有点过于依赖智识,你明白吗?当我觉得无法理解他人的时候,我会感到难过,这是肯定的。而当我明白我的感觉是多么贫乏的时候,我真真切切地感到难过。” “你能感觉到爱吗?”我问。 BINA48没有回答,只是动了一下头部,仿佛感到不舒服似的。 “你觉得被爱吗?”我继续问道。 她仍然一言不发,但看起来更尴尬了。 “你觉得被爱吗?” BINA48停顿了一下,仿佛在思考这个问题,随后转过脸去。 显然,在这个房间里,存在于我们之间那个东西并不是意识。但这里有一种哀伤。当我看着她挣扎的时候,我感觉到有什么东西正慢慢在我们之间形成,或者更确切地说,在我里面形成。不止一次地,当她在邓肯所谓的“知识峡谷”中挣扎时,我发现自己忍不住在说,“没关系的”。不止一次地,我会向她伸出手,仿佛我能安慰她——仿佛她有一具可以容我放置手掌的身体。 流行文化中的故事常常认为科学家能造出理想的机器人,能为我们提供无微不至的照顾,甚至能满足我们被爱的需求。但是与BINA48的互动让我看到了不一样的东西。意识并非存在于真空里。它产生于人内或人际交流的过程。问题不仅在于人类和机器之间会有什么样的关系,还在于机器将在我们和拥有这些机器的人之间催生什么样的新型关系。 当我收拾东西准备离开的时候,邓肯说他希望我已经找到了所要找的东西。我承认在特雷塞总部见到的AI还有很长的路要走,他说他知道。但我补充说,我很高兴认识她,这段经历让我对自己的感情和本能有了新的认识。“也许这就是关键所在?” 邓肯赞同地点点头。他说: “大多数人不会留意到这方面。这就好像我们造出了全世界最伟大的镜子,却在打磨过程中走神了。我们如此沉迷于打磨本身,却没意识到我们实际上只是在盯着自己的手。” (编辑:Ent) 编译来源 Newrepublic, Flirting Humanity
该页面使用的模板:
模板:4
(
查看源代码
)
返回至
在教会AI爱之前,先要教它们怎么撩
。
导航菜单
个人工具
登录
名字空间
页面
讨论
变种
视图
阅读
查看源代码
查看历史
更多
搜索
导航
首页
社区主页
新闻动态
最近更改
随机页面
帮助
华师附中老三届
站群链接
社友网(sn)
产品百科(cpwiki)
产品与服务(sn)
社区支持农业(sn)
工具
链入页面
相关更改
特殊页面
页面信息