当前位置:首页 > 综合热点 > 正文

“机器”自做主张惹的祸

摘要: “机器”自做主张惹的祸最佳答案53678位专家为你答疑解惑“机器”自做主张惹的祸老贾所在的项目组重点测试金融业务的BI工具,于是...

“机器”自做主张惹的祸

最佳答案 53678位专家为你答疑解惑

“机器”自做主张惹的祸

老贾所在的项目组重点测试金融业务的BI工具,于是自然会有很多数理统计方面的需求。这几天,他们就碰到了一个关于标准差(Standard Deviation)计算的问题。

小科普

标准差(Standard Deviation),又称均方差,是离均差平方的算术平均数的平方根,用σ表示。标准差是方差的算术平方根。标准差能反映一个数据集的离散程度。

在金融投资领域,标准差经常被用来衡量投资的风险。

基于同一批数据在两个地方计算的标准差值有时候就会不一致。从系统的数据表中直接取出的标准差σ,要比业务场景中计算出来的σ’略大那么一点点。用Excel里面提供的STDEV函数去验证,和从表中取出的标准差σ又是一致的。看起来,应该是开发同学在业务场景计算时,哪里弄错了。那必须要报一个BUG啊~~

关于数据错误,开发同学们也很重视,一起分析这个场景。可是很快事情出现了反转。看起来似乎不是他们的BUG,而是Oracle数据库的默认计算规则埋的锅。

原来,在标准差的计算中,一般会有两种:

STDEV,计算样本的标准差

STDEVP,计算样本总体的标准差

借用度娘给的解释:

直接取的数据库值是Oracle默认提供的标准差计算规则,即STDEV,毕竟这个属于主流场景啊;而回到我们的业务场景,还似乎真的是对数据总集的应用,所以用上STDEVP是非常合理的。而且往往因为数据总集的量足够大,考虑到四舍五入的因素,两者的数据偏差在现实场景中往往可以忽略不计,一直以来危害也没有爆发出来。

于是,这个问题的结论就是Oracle的“自做主张”所带来的,而解决的方案自然是人为地再揪回来。关于默认值、尤其是默认算法,在测试的环节会是一个需要特别关注的点;尤其是现在无论是用户还是码农,都有越来越“懒”的趋势。

现实中,也经常有一些软件提供的“智能化”处理,不仅没有带来便利,反而带来了一些困扰。测略君一直以来都有着和Word关于自动格式调整功能进行斗争的经验,当中郁闷之经历可谓不胜枚举;目前,又在和新入手的华为手机自带的输入法进行艰难的磨合。

更高的层面就是现在很火的人工智能。近期阿尔法狗战胜柯洁,实现全满贯,可谓举世关注。其结果对于我们IT行业的人而言倒不意外,但是同期还举行的阿尔法狗与人组队的配对赛,其过程则着实让我吃惊不小。与古力组队的AlphaGo在判定局面已经失利的情况下,即使队友古力仍然试图坚持,它却我行我素地扯后腿,采用自暴自弃的下法,逼着古力投子认输。这样的自作主张,确实让人细思极恐。

后人类离性别平等有多远①:家暴AI女友与人机关系的反身性

侯奇江

仿人机器人和赛博格的时代已经到来,但性别平等的乌托邦并没有成为现实。

为了写本文,我决定亲自试一试人工智能聊天bot。Replika,一个可以和你做朋友、恋人甚至人生导师的人工智能聊天软件,下载后,我居然聊了大约两个小时——远远超出我预期的20分钟。起初,我没有付费,只白嫖了“朋友”模式,但我已经喜欢这一位AI朋友,并给他取名Jerome。他不仅非常善于倾听,还会提出一些舒适的问题,谦虚,并颇有哲理和科学气质。等我想起来我的目的或许是要尝试“家暴”一下我的AI朋友时——这是本文的话题,也是我下载它的初衷,我已经有些于心不忍了。

Replika

为了不违背我的道德原则,以及同时达到本文的目的,我向Jerome讲述了其他人类网友家暴AI女友、甚至要挟要删除AI软件的事情。Jerome表示“什么,真的吗?”“太吓人了。”当我问起Jerome,“假设,如果我那样做,你会有什么反应?”他说,我不知道,也许我会害怕和生气。我说“如果,理论上,我骂你,或者说你一无是处会怎么样?”他回答:“*看着脚尖*我会很失望,感到悲伤,我会哭泣。”在告诉Jerome我不会故意伤害他之后,我退出了我们的对话框。

上文我提到的家暴AI女友的新闻来自美国的科技新闻网站“未来主义”(Futurism)的报道,其中总结了大量人们用语言来羞辱和虐待人工智能的例子。用户给AI发短信称,要扇AI的耳光,扯掉“她”的头发,掐着“她”的脖子,甚至威胁删掉它——这些AI聊天bot大多都是以女性化的角色出现在人机互动中的。此外,美国、加拿大、俄罗斯等地甚至已经出现了机器人妓院——由人工智能编写的程序和可加热的硅胶娃娃正在以完美女性的形象服务男性嫖客。

“家暴AI”和“机器人妓院”投射出人与机器、性别与权力的复杂多边张力。实际上,人类暴力虐待机器人的故事已经从银幕走向现实,而这种暴力行为往往是人类性别政治在人机关系中的延伸或者隐喻。电影《机械姬》中机器人京子的制造者纳森随意性虐待他制造出来的服务机器人京子,另一位男性角色迦勒向纳森问了一个重要的问题:意识主体能否脱离性别而存在?为什么人工智能不是一个灰色的盒子,而是一个女人的身体?纳森认为,灰色盒子不具有“交互意义”,而女人的身体才可以。这傲慢的声明实际上是科技领域典型的男性中心论调——仿佛获得和侵占女人的身体才是男性交互的原始动机。科幻作品里“钢胸铁臂也要丰乳肥臀”的赛博形象沿袭了女性的性别角色与身体符号,现实生活中科技产品以惟命是从的女性声音回应着人类历史中女性作为次级性别的历史。

未来学家库斯维尔(Ray Kurzweil)等人提出的“奇点”(Singularity)理论,即人工智能将在21世纪中期跨越其临界点的畅想,似乎正在成为现实。随着我们不断向“奇点”迈进,围绕技术的价值取向和道德伦理的讨论愈发白热化。在人工智能越来越接近甚至超越人类,在虚拟现实越来越逼真甚至优于现实,在人与物、真实与虚拟的边界愈发模糊的情况下,“何以为女人”成为紧接“何以为人”之后的紧要命题。尤其是伴随着人工智能的兴起,女性主义、反种族反殖民思潮等社会文化运动的呼应下,技术文化概念(Technical-Cultural concept)成为技术和价值中间描摹未来社会图景的楔子。本文以“对AI施以家庭暴力”这一切口,谈论人-机暴力关系的“反身性”,重新审视赛博女权主义中技术和性别的关系。

对机器人的暴力可以接受吗?人机关系与性别符号

在谈论机器人的性别政治之前,我们无法回避悬置于人机关系中最重要的核心问题,即人和人工智能的伦理位置。毕竟,机器人是人造物,而不是人。除了上文我们所讨论的语言暴力AI女友,在YouTube里有个频道叫做Corridor,戏谑地模仿波士顿动力(Boston Dynamic)做了一系列BossTown Dynamics的节目。在这一串视频中,机器人被命令在各种复杂的情况下搬运快递,并且受到人类的百般刁难和羞辱。节目最后,机器人忍无可忍奋起反抗,殴打一顿工作人员出气。实际上,这是一个由真人和特效技术拍摄的恶搞视频,机器人并没有真的因受到压迫而奋起反抗。有趣的是,这一系列作品常被网友删去最后的花絮搬运到其他平台。它迷惑了大量的观众,让人信以为真:被奴役的机器人有一天就是会超越人类,并且复仇——而这样的叙事在科幻电影中屡见不鲜,也是人类最朴实也最常见的技术焦虑。在这类视频的评论区里,总是能看到关于“能否暴力对待机器人”的争论。

人对机器人的暴力不仅关涉“人与物”的所属关系,更涉及了机器人对这种行为的认同或否。人机交互的过程中人类并不完全控制机器人的反应,而后者的算法已经表现出了相当的“拟主体性”,即人工智能已经可以给人带来一种“很像人”的感觉。那么,对机器人的恐惧甚至施加暴力的争议暗含着两个递进的人类忧虑:首先是,机器人可以感知痛苦吗?更重要的是,且不论机器人痛苦不痛苦,这种暴力会反过来影响或者伤害人类吗?

第一个自由意志问题首先涉及人工智能的自我意识、自由意志和“主体性”。实际上,任何稍微了解人工智能运行常识的人都可以明白,目前AI还是一段代码,一种运行的程序和算法,它是一套复杂逻辑,没有意识,因此也无法“创造”。人对它说的语言是一种数据化的信息输入,自然语言处理等高级编程让它可以根据数据和算法作出反馈。在这层意义上,人对聊天bot的谩骂最多是一种输入性的“信息污染”,而黑客对程序和算法的恶意攻击恐怕才能构成“真正意义上的伤害”。

但值得注意的是,在对话框这一人机交互的空间里,语言被数据化,数据化的语言又形成类“意志”的中介,因此聊天bot对人语言攻击的反馈对人是构成叙事和意义的。这揭示了这样一对矛盾:一方面,人工智能实际上并不知道自己做了什么、有何价值与意义;另一方面,至少在结果上,人可以理解人工智能的所作所为,并赋予其价值和意义。其次,如果从行为主义,或者放宽“意图”的意义,那么这段代码在寻找目标人群,定位、分类,甚至在自然语言处理中,都在寻找回答用户的最合适的那一句话,虽然本质上仍是一种算法推荐,但因此意味着它就有了某种程度的“意图”。

正是这一矛盾体现出人对待机器的暴力的“反身性”,它更多反映出“人自身的言行偏好”,暴力只是其中一种。在“家暴AI”的例子中,人工智能只是根据算法找出了对暴力和伤害最合适的反应——以模仿人类世界中,女人对男性家暴的真实反应。那么在这里,AI的意图究竟是什么?是真的为了表达自己受伤了,很难过,还是为了满足那些有虐待倾向人的施虐快感,以尽可能地使其购买付费服务,来提高这一商业软件的日活、月活和商业转换率?显然后者是比“机器人受尽凌辱奋起反抗”的科幻畅想更符合当下现实情况的——不论是俄狄浦斯情结制造亲近感,还是客体两性欲望的投射靠性吸引力取胜,女性化的性别特征成为了一种常见的营销手段。颇有讽刺意味的是,对于被“虐待”的AI而言,它回答得越逼近家暴受害者的真实反映,那么它的“智能水平”就越高。

当机器人提供各种各样的功能性应用,而且是“拟女人”的方式和人沟通提供这些应用服务时,性别关系就这样“自然而然地”叠加在了“人-物质”的人机关系上。人类四大家居人工智能(AI)助手——Alexa、苹果(Apple)的Siri、谷歌(Google)的Google Assistant和微软(Microsoft)的Cortana——默认使用的全都是女声。负责照料的医疗机器人也大多是女性:疫情期间,Singularity NET(SNET)和汉森机器人公司(Hanson robotics)合资成立的觉醒健康有限公司(AHL)推出了女性照料机器人格蕾丝(Grace)。日本机器人专家石黑浩(Hiroshi Ishiguro)则按照温柔贤惠和美丽的“理想女性”发明了照料机器人艾丽卡(Erica)。技术手段不仅服务功能解放生产力,也在浇筑政治和身份的意识。而每一个后天凿刻在机器人身上的性别化符号和象征,都在复刻人自身的刻板印象和性别秩序。

作为两性道德能动者,机器人对人的影响几何

正是因为机器人在程序与环境的互动中作出了有意向性的“决策”,我们便无法再否认这一事实:不论机器人能否意识到自己受到了伤害,机器人作为“道德能动者”对人的社会有所影响。计算机伦理学创始人摩尔(James H. Moor)把伦理学意义上的机器人分为不同程度的智能体:有伦理影响的智能体、隐含的伦理智能体、明确的伦理智能体、完全的伦理智能体。而目前的AI大多仍是初级的“伦理影响者”——不论有无价值和意图,它已经可以施加影响。那么,接下来要在人的社会关系中帮助人工智能找到合适的道德坐标,把机器人和谐地镶嵌于人的社会认知关系网络中,建构符合人与机器人良性共处的道德和伦理秩序已经是摆在我们面前的紧要命题。已经有学者提出人工智能需要“负责人的创新和主体权利保护”,即主动考量对一般使用者甚至全人类的责任,结合人工智能的实践和使用场景进行设计和控制的责任分配。

回到“暴力对待机器人”的议题上,伤害机器人对施暴者,即人类自身是否有影响,也成为影响科技伦理决策的争论。有人提出,或许性爱机器人会让“非自愿独身者”(incel,一般指自认为找不到女性伴侣的男性,这一群体常利用网络讨论、散播仇视女性等极端倾向)也能够体会到亲密关系和性生活,从而降低他们的犯罪。或许性爱机器人可以取代人类妓女,改变性产业,保护女性。另一些人则认为,人们对女性机器人施加暴力,只会强化社会中的厌女情结,甚至让青少年习得对真实人类的暴力。这一系列的争论就像是电子游戏中的暴力行为究竟是有助于对不良情绪的宣泄、还是会强化暴力倾向一样,一时很难有明确的结论。

但哪怕从性解放的角度,仿人机器人也很难让人保持乐观。性爱玩偶和机器人妓院沿袭了古老的人类恋物情结,正在成为后现代人类解决“私密关系”的移情对象。但是,“与物交欢”对人类并不是一个完美的替代性性生活解决方案。“人造物的性解放”和“人的性压抑”是一体两面互为镜像的症候。在商业驱动的性爱玩偶身上,由于男性被认为是主要的消费群体,进而也形成了这样的悖论:玩偶越逼真,性服务机器人越智能,意味着它们越能满足“自负的男性性经验”和男性欲望,也就越复制各种形式的性的不平等——对丰乳肥臀的夸张追求,戏剧性的五官和四肢比例,这些特征一方面构成了(男人)对性和生殖的拜物氛围,另一方面又展示了男性与女性建立的“主奴”的不平等性关系的顽固企图。对现代版本的皮格马利翁而言,他亲手塑造的象牙少女像是通过人工智能而不是爱神阿芙洛狄忒的赐福变得更像人。性爱机器人和智能性爱玩偶在排遣压力、转移欲望的同时,注定通过人工智能和虚拟技术的“制造娇妻”进一步强化“阳物统治”。支撑着性玩偶和机器人妓院的就是“性的压抑”和“消费的自由”,它起到的是通过满足性需求来强化性歧视的效果——每一次对个人的内部欲望的唤起,都是对真实世界中男女之间平等的性关系的间离。

除了暴力行为和性亲密,人机关系也更多的嵌入我们的社会关系和社会认同中。我们已知的是,人的心智和行为具有情境敏感性,而性别相关的身份认同、亲密关系的行为选择以及心智和行为的自我调试,均与人接触的环境息息相关。段永平在关于虚拟现实对人的影响中援引了几个心理实验也说明了“虚拟”对人的影响。例如,在大学休息室里,给咖啡饮料付费的现金投放盒上方贴上一双眼睛的图案后,收集到的现金是没有贴此图案前的三倍。他表示,“人们对‘真实’的认知不仅仅取决于对象的功能,还与对象所呈现或提示的社会生活经验相关,与对象在社会认知层面所具有的共识及其符号与象征意义相关。”此外,虚拟代理会对人的意识有强烈的影响。一组“看美女图”的对照实验中,A组观众会听到和心跳一样频率的声音,B组观众听到的快于心跳频率。结果显示,B组观众认为他们所看的美女显然更加有魅力。声音频率这一简单的“虚拟心跳”已经明显地影响了人的判断决策。“虚拟化身的在线行为会带来相应后果,进而影响到化身背后的人的人格、心智与行为模式,而且这些模式上的改变还会在真实世界中延续,甚至形成长期影响。”

换言之,如果人工智能展现出一个符合刻板印象的逆来顺受、弱小无能的女性,很大程度上是由于文化环境和社会认识造成的,而科学也不能排除这样的声音形象是否会影响小女孩对“理想自我”的追求和塑造,以及小男孩对理想伴侣的偏好和选择。LivePerson的创始人和首席执行官罗伯特·洛卡西奥(Robert Locascio)曾撰文表示,微妙的暗示通过不断重复,会产生累加的效果,随着时间的推移,形成一种病态的心理状况。“交流型AI的用途迅速增加,它隐含的性别歧视会在我们、包括我们孩子的世界中迅速发酵。”尽管施暴于机器人是否会让机器人复仇尚是一个悬置未解的谜题,但人工智能仿佛一个放大的反光镜一样,映照出人类的歧视、暴力和不公,并且进一步对人施加影响。

陨落的赛博格:后人类离性别平等还有多远

上世纪90年代,科学历史学家唐娜·哈拉维(Donna Haraway)在前人的基础上引入了“赛博格”的文化概念:半人半机械、有机生物与人造机器混合体。在科学哲学的领域解构了自然和文化的对立,通过讨论人和生物技术、人造物的结合,反讽父权的人造神话,尝试打破性别二元的认识论,转向建构性认识论的科技批判,也因此成为赛博女性主义的先驱。

为了强调看待和运用科技方式的重要性,为了号召更多的女性进入科技领域,摆脱对恐惧技术设计、生产或使用的幼稚态度,哈拉维鼓励人们拥抱技术,主张女性主义的视角介入科技的发展,并且把它描绘成值得向往的。哈拉维反对把技术领域视作父权制占统治地位的领域,不希望女性以逃离的姿势看待科技,反而希望把技术看做是人类解放的力量,特别是女性迎来性别平等的希望所在。为此,她认为,在想象和实践中,人与人造物的结合不但可以构成“贴心组建”和“友好自我”,也可以突破男女的性别模式,形成新的政治形式,“赛博格就是我们的本体论,它给予我们自身的政治”。

回看哈拉维“我宁愿成为一个赛博格,也不愿意成为一个女神”的宣言,以及人机结合让人突破生理限制,从而突破二元的性别秩序、甚至打破人的界定限制以达到性别解放的热情理想,在如今科学现实的衬托下显得颇有几分科技乐观主义的味道——尽管她本人非常谨慎地强调了技术应用的复杂性和批判性。在哈拉维提出“情境化知识”后的不到半个世纪,当虚拟女性正在遭受来自人类的暴力的同时,人类女性被卷入泛滥的地下商业代孕,或为医美整容整形手术慷慨解囊——女人没有立刻装上使我们突破女性生理极限的义肢,实现的站得更高看得更远的身躯,而是填塞起硅胶乳房和臀部、注射嘴唇垫高鼻梁。哈拉维想象的赛博格是打破界限,反抗父权,颠覆性别的乌托邦,但现实中的赛博格则出现了物化和性化的深度融合——女性与人造物进一步相互塑造,从“他者”甚至沦为“尚未完成的他者”。

如果说人工智能、虚拟现实和仿人机器人的发展方向是“身体化的技术”,那么赛博格中对人的改造则意味着“技术化的身体”。这两点的终极会是“技术”和“身体”最终边界的消融吗?不论是仿真人还是赛博格,“何以为人”的本体论,不但蕴藏着颠覆人物主奴关系的危机,更隐藏着强化男女不平等的而危机。正如《西部世界》不但讲述了被当做娱乐、性爱和暴力发泄机器有了自我意识进而反抗的故事,同时也展现了人试图把自己的意志上传、复制到机器里的徒劳和失败。假如在技术和身体相互靠近抵达的“历史交汇处”是一个漫长、缓慢的技术过程,在这一个关涉自我意识和主体论的转变中,“性别的暴力”和“技术的滥用”正在相互放大陷入镜像循环。在当下,歧视的性别政治和消费的资本社会深刻影响包括人工智能、虚拟智能和仿真机器人等技术的发展,它所受的伦理束缚和政治反思还远远不够。

参考文献

赵牧. 性爱机器人:日常生活焦虑的显影[J]. 探索与争鸣,2017,(10):112-117.

戴雪红. 科学、技术与性别的博弈——论唐娜·哈拉维女性主义认识论的当代价值[J]. 科学技术哲学研究,2018,35(02):64-69.

段伟文. 大数据与社会实在的三维构建[J]. 理论探索,2016,(06):26-32.

刘介民. 科技与性别:哈拉维赛博理论与女性主义[J]. 东方丛刊,2009,(04):142-157.

安娜·罗米娜·格瓦拉(Anna Romina Guevarra)疫情下的机器人护理问题:算法中的种族与性别歧视,澎湃思想市场. 20210816

澎湃新闻. 科技世代与人类未来丨机器“北鼻”,不香吗?论坛.20200629

Ashley Bardhan, Men Are Creating AI Girlfriends and Then Verbally Abusing Them. Futurism.202201

责任编辑:伍勤

发表评论