原文标题:你以为是人工智能,其实是只能人工
(EON/编译)还记得前段时间谷歌演示的智能助手Duplex吗?它能模仿人类打预约电话,甚至还会发出人类惯用的语气词,接电话的店员甚至没有意识到,电话的另一端根本就不是真人。

然而,你可能没注意到的是,当开发者们共同致力于让AI变得更像人时,有些创业公司却打起来了另外的算盘:让人冒充AI。

谷歌CEO介绍Duplex。图片来源:Google

对于这些公司来说,这一招既可以省下大量的研发费用,还可以忽悠到投资。正如ReadMe公司的CEO格雷戈里·科贝格(Gregory Koberger)所说的那样,“把活儿交给真人,能让你跳过大量技术和业务发展方面的挑战。”

他在推特上吐槽道:“如何建立一家AI创业公司?1.雇佣大量廉价劳动力假扮成假扮人类的AI。2.等着AI被发明出来。”

这种做法已经是业界周知的秘密了,但是大部分消费者还蒙在鼓里。

创业第一步——假装有AI
前不久,据《华尔街日报》报道,谷歌允许大量第三方应用的开发者读取Gmail用户的邮件。在被曝光的第三方公司中,圣何塞的艾迪森软件公司(Edison Software)就在用假的AI。他们的AI工程师会浏览用户的个人邮件,来改善所谓的“智能回复”功能。不过,他们的隐私政策并未提及人类会看到用户的邮件。

其实,早在2008年,就有一家名为Spinvox的公司作假了。他们号称能将语音留言转化为文字,结果被指控这些工作都是海外电话中心的人工来完成的。

2016年,据彭博社报道,在X .ai和Clara这样的日程应用公司,人类员工每天都要花12小时假扮AI聊天机器人。这项工作太令人头脑发麻了,以至于员工们说他们期待机器人能真正取代人类。

2017年,业务支出管理应用Expensify承认,他们通过人工转写收据,而不像对外声称的那样用“智能扫描技术”。扫描过的收据会被发布到亚马逊的劳力众包平台Mechanical Turk上,然后接受低薪的人来阅读和转写这些收据。

人工并不便宜
在某些情况下,人类被用于训练AI系统,来提升AI的精确度。例如,名叫Scale的公司用大量的人类工作者,向自动驾驶系统和其他AI系统提供训练数据。此外,谷歌的Duplex也用到了人类训练者。

M聊天界面。图片来源:Facebook

Facebook曾在2015年推出虚拟助手M的测试版。M能预约和提供礼物建议等,只不过,它也是由人工协助的。当时我们用不到它,因为它只对旧金山湾区的1万人开放,而现在,Facebook彻底关闭了这一项目。虽然我们用不上它了,Facebook表示M的特性将会保留在聊天应用Messenger里。

这种人工协助AI的出发点其实是好的,AI系统会在人类的协助下学会应答各种指令,最终变得更加智能。然而,它的代价还是有点大。

首先,Facebook需要大量昂贵的劳动力,因此将服务扩大不太可行。其次,当M完成一项任务时,用户总是会提出更难完成的要求。就这样,M要达到的自动化程度远远超过了当前的机器学习技术。

AI技术应该更加透明
聊天机器人Woebot的创始人、心理学家艾莉森·达西(Alison Darcy)表示,这种方法并不适用于心理支持方面的服务,例如Woebot。

“作为心理学家,我们有伦理准则作为指导。其中,不去欺骗人们就是非常明确的一项。”

Woebot能够向用户提供精神健康方面的支持。图片来源:Woebot

研究表明,当人们认为自己在和机器而非人类交谈时,他们更愿意袒露心声,这是因为精神卫生方面的求助常常和污名化联系起来。南加州大学的研究团队用虚拟心理咨询师Ellie测试了这一研究。他们发现,当患有PTSD的退伍军人知道Ellie是AI,而不是人类操作的机器时,他们更有可能坦诚讲述自己的症状。

另外一些人认为,公司们应该一直公开自己的服务是如何运行的。

“我不喜欢人们假装成AI。”罗谢尔·拉普兰(Rochelle LaPlante)说,他为很多提供假AI服务的公司工作过。

“对于我来说,这不太诚实,而且有欺骗的意味。我希望自己正在使用的东西不是这样的。而从工作者的角度来看,这就像是我们被推到了幕后。我不希望我提供劳动的公司转变态度,而且向客户隐瞒真相。”

这样的道德困境也出现在试图让AI更像人类的项目中,例如谷歌的Duplex。该项目在最初演示的时候,AI 并没有向打电话的对象表明身份。Duplex立刻引发了争议,人们担心这种略带欺骗性的技术会被有心之人利用。

“人们对AI已经有很多主要的担忧了,而缺乏透明并不能帮助我们解决问题。”达西说。(编辑:Ent)

题图来源:Imperva

编译来源 The Guardian, The rise of 'pseudo-AI': how tech firms quietly use humans to do bots' work.
译文版权属于果壳网(guokr.com),禁止转载。如有需要,请联系sns@guokr.com
如在其他平台看到此文章被盗用,请告诉我们(文章版权保护服务由维权骑士提供)

作者:Olivia Solon
链接:https://www.guokr.com/article/443086/
来源:果壳
本文版权属于果壳网(guokr.com),禁止转载。如有需要,请联系sns@guokr.com

Last modification:October 15, 2019
如果觉得我的文章对你有用,请随意赞赏