炼数成金 门户 商业智能 人工智能 查看内容

伪人工智能兴起:科技公司悄悄利用人类来做机器人的工作

2018-7-12 15:01| 发布者: 炼数成金_小数| 查看: 21135| 评论: 0|原作者: 钱利鹏 译|来自: Python程序员

摘要: 一些公司使用人工来训练AI系统;另外一些公司则暗中依赖人力却声称拥有可升级的AI技术。开发一项由人工智能驱动的服务非常困难。事实上,因为太难,一些初创公司已经使用了更便宜、更简单的方法,即让人类像机器人一 ...

工具 测试 计算机 人工智能 机器人

利用“奥兹国魔法师技术”,一些公司向投资人隐瞒了其对人力的依赖。(译注:在人机交互领域,奥兹国魔法师实验是让测试人员与计算机系统进行交互,测试人员以为计算机是自动响应的,但实际上是由看不见的人操作或部分操作的。来源: 维基百科,词条Wizard of Oz experiment)

一些公司使用人工来训练AI系统;另外一些公司则暗中依赖人力却声称拥有可升级的AI技术。
开发一项由人工智能驱动的服务非常困难。事实上,因为太难,一些初创公司已经使用了更便宜、更简单的方法,即让人类像机器人一样工作,而不是让机器像人类一样工作。

“使用人力完成一项工作可以让你跳过大量的技术难题。显然,它不会升级,但它可以让你在开展业务的初期跳过困难的工作,构建一些东西,”ReadMe公司的首席执行官格雷戈里·科贝格说。他说他遇到了很多“伪AI”。

“这基本上是用人力作为人工智能的原型。”他说。
本周《华尔街日报》的一篇文章(链接:https://www.wsj.com/articles/techs-dirty-secret-the-app-developers-sifting-through-your-gmail-1530544442)揭露了这一做法,文章曝光了数百家第三方应用程序开发商,谷歌允许他们访问人们的收件箱。

加利福尼亚州圣何塞市爱迪生软件公司内,人工智能工程师正通过浏览用户的个人电子邮件 (隐匿了他们的身份)来改进“智能回复”功能。该公司在其隐私政策中并没有提及会使用人工查看用户的电子邮件。

《华尔街日报》文章中曝光的第三方公司还不是第一批这么做的。 2008年,一家将语音邮件转换为文字信息的公司,Spinvox公司被指控在海外呼叫中心使用人工而不是机器来完成其工作。

2016年,彭博社报道了一些公司雇佣工人每天工作12小时,假装聊天机器人提供日程安排服务,这些公司包括X.ai和Clara等。因为这项工作太单调,工人们表示他们期待被机器人取代。

2017年,开发业务费用管理应用程序的Expensify公司承认,他们一直在用人工来转录部分本应由“智能扫描技术”处理的收据。扫描件被发布到亚马逊的Mechanical Turk劳务众包平台上,然后由低薪工人阅读和转录这些收据。

“我想知道Expensify公司SmartScan的用户是否知道MTurk平台上的工人会看到他们的收据。”罗谢尔·拉普兰说道,他是推特上的零工经济的倡导者。他说:“我正在查看某人的Uber收据,上面有他们的全名、上车和下车的地点。”

即使是在人工智能上投入巨资的Facebook,其Messenger中的虚拟助手M也依赖人类的工作。
一些公司使用人工训练AI系统以提高其准确性。一家名为Scale的公司雇佣了大量工人,他们专门为汽车自动驾驶和其他人工智能系统提供训练数据。工人们查看摄像头或传感器捕捉到的图片,在上面标注汽车、行人和骑车人。通过大量的人工校准,AI学会自己识别这些物体。

另外一些公司假装拥有了AI技术,告诉投资者和用户他们已经开发了可升级的AI技术,同时秘密地依赖人力工作。

心理健康聊天机器人Woebot公司的创始人、心理学家艾莉森•达西将此描述为“奥兹国魔法师技术”。

她说:“你模拟了某种东西未来的终极体验。但要真正达到人工智能水平需要大量的时间,现在一些服务的背后不是算法,而是一个真实的人。”开发一个优秀的人工智能系统需要大量的数据,有时一些公司在投资一项服务之前会用这种投机的方法来确认是否有足够多的需求。

她说,这种方法不适合像Woebot这样提供心理服务的公司。
“作为心理学家,我们遵守道德准则。不欺骗人是非常重要的道德原则之一。“

研究表明,当人们与一台机器而不是一个人交谈时,他们倾向于透露更多信息,因为一个人寻求心理健康支持时常常有耻辱感。

来自南加州大学的一个团队用一个名为Ellie的虚拟治疗师对此进行了测试。他们发现,患有创伤后应激障碍的退伍军人,更有可能在知道Ellie是一个人工智能系统时吐露他们的症状,而不是被告知有人在操作机器时。

另外一些人则认为一家公司应始终让运营方式保持透明。
“我不喜欢这样”,拉普兰在谈及那些假装提供人工智能服务但实际雇用人类的公司时说,“我感觉这不诚实,是一种欺骗,我不想使用这样的服务。”
“从工人角度考虑,感觉他们被推到了幕后。我不喜欢一家公司使用了我付出的劳动之后,向客户撒谎,不告诉他们真相。”

AI系统模拟人类也产生了类似的道德窘境。例如Google的 Duplex,这是一个机器人助手,用于电话预约和预定服务,它可以通过一些迟疑的语气词如“嗯”、“呃”等,制作出令人毛骨悚然的逼真电话效果。

在经过最初强烈反对之后,谷歌表示,它的人工智能语音将与人类语音明显区分开来。

“在他们的演示版本中,柔和的对话感觉有点欺骗性。”达西说。尽管预订餐馆座位看起来是一种没什么风险的互动,但如果同样的技术掌握在坏人手中会更有欺骗性。

例如,如果你能制作出真人电话语音,模拟名人或政客的声音,会发生什么?
达西说:“人们对人工智能已经有了很大的恐惧,当缺乏透明度时,就不能真正促进人机之间的对话。”

英文原文:
https://www.theguardian.com/technology/2018/jul/06/artificial-intelligence-ai-humans-bots-tech-companies 

声明:文章收集于网络,如有侵权,请联系小编及时处理,谢谢!

欢迎加入本站公开兴趣群
商业智能与数据分析群
兴趣范围包括各种让数据产生价值的办法,实际应用案例分享与讨论,分析工具,ETL工具,数据仓库,数据挖掘工具,报表系统等全方位知识
QQ群:81035754

鲜花

握手

雷人

路过

鸡蛋

最新评论

热门频道

  • 大数据
  • 商业智能
  • 量化投资
  • 科学探索
  • 创业

即将开课

 

GMT+8, 2018-11-14 13:13 , Processed in 0.172708 second(s), 23 queries .