OR 新媒|oror.vip跨平台阅读首选
2022-08-09 17:06
商业与经济

人工智能设备也需要“保姆”

人工智能也会出错;我们应降低对人工智能的信任。
日本AI,失去的不止三十年
Parmy Olson

■早在2018年,埃塞克斯大学的社会学教授皮特⋅法西(Pete Fussey)就在研究伦敦警方如何使用面部识别系统在街上寻找嫌疑人。在接下来的两年间,他随伦敦警察局的警员们一起坐上警车,看他们利用摄像头和面部识别软件,监视这座城市的各个角落。

法西在此过程中有两个重要发现,并在2019年的一篇研究报告中进行了论述。首先,面部识别系统很不准确。他观摩的六次行动总共获得电脑生成的42条匹配信息,其中只有8条正确,准确率为19%。

第二,更令人不安的是,大多数情况下,警察认为面部识别系统很可能是对的。他说:“我记得有人说,‘如果我们不确定,就应该假设是匹配的。’”法西将这种现象称为“遵从算法”。

这种遵从已成问题,而且不仅限于警务部门。

在教育领域,ProctorU销售一种软件,可以监控用家中电脑参加考试的学生。该软件使用机器学习算法来寻找作弊的迹象,比如可疑的姿势、翻阅笔记或探测房间里的其他面孔。这家位于阿拉巴马州的公司最近对高校如何使用其人工智能软件进行了调查。该公司发现,在被人工智能软件标记为可疑的考场表现中,只有11%得到了学校或考试机构的复查。

该公司称,但事实上,这种软件有时可能出错。举个例子,如果一名学生在揉眼睛,或者背景中传出狗叫等不寻常的声音,该软件就可能不经意地将这名学生标注为可疑。据《纽约时报》报道,今年2月,一名参加远程考试的青少年被另一家公司提供的此类软件错误地指控作弊,仅仅因为她在考试时低头思考。

与此同时,在招聘领域,几乎所有的世界500强公司都使用简历过滤软件来分析他们每天收到的海量求职信。然而,哈佛商学院最近的一项研究发现,数百万符合条件的求职者在第一阶段就被拒之门外,因为他们不符合软件设定的标准。

这些实例的共同点是人工智能设备的不可靠性。这类系统设有巧妙的机制,通常是一个粗略模仿人类大脑工作原理的“神经网络”。但它们也会犯错,而且往往只有到客户手上才会显露错误。

销售人工智能系统的公司出了名地喜欢宣扬接近100%的准确率,却只字不提这些数据来自实验室,而不是现实环境。例如,去年《自然》杂志刊登了一篇报告,研究对象是数十个声称能通过扫描发现新冠病毒的人工智能模型,但由于方法和模型存在缺陷,这些软件无法真正在医院使用。

解决办法不是停止使用人工智能系统,而是用更多具有专业知识的人来“照看”它们。换句话说,把我们对人工智能的过度信任收回一部分,放到人类身上,并把我们的注意力重新转向人工与自动化的融合。(按照咨询业的术语,这有时被称为“增强智能”。)

一些公司已开始聘请更多的领域专家,他们既能熟练使用软件,又非常了解这些软件所服务的行业。就警察使用面部识别系统来说,理想情况下,这些专家应该是深谙面部识别技术的所谓“超级识别者”。他们或许应该与警察一起坐在警车里。

值得称道的是,ProctorU引人注目地将业务转向了“人类保姆”。该公司在进行内部分析后表示,将停止销售单纯的人工智能产品,只提供“受到监测的服务”,也就是依靠约1300名外聘人员对软件做出的决策进行复核。

ProctorU的创始人贾罗德⋅摩根(Jarrod Morgan)对笔者称:“我们仍然相信科技,但让人类完全退出决策过程从来都不是我们的本意。当我们意识到正出现这种情况时,我们采取了相当激烈的行动。”

使用人工智能设备的公司需要提醒自己,这些软件可能犯错。英国企业家达德利⋅内维尔-斯潘塞(Dudley Nevill-Spencer)的营销公司Live & Breathe专门销售用于研究消费者的人工智能系统。他说,人们需要听到这样的话:“听着,这台机器不太可能出错,这是肯定的。”

内维尔-斯潘塞最近与笔者在Twitter Spaces上讨论时说,他的员工中有10名领域专家,其中大部分人都接受了培训,能承担指导人工智能系统和了解所处行业的双重职责。他说:“这是知道机器是否真正有效的唯一方法。”

总的来说,我们不能责怪人们对算法的遵从。围绕人工智能的变革特性,一直有无数的炒作。但过于相信它,会带来一个风险,那就是随着时间的推移,我们越来越难以摆脱对它的依赖。当利害不大,且软件通常很准确时,比如我把导航的工作交给Google Maps,这没问题。但在治安、抓作弊和招聘等利害攸关的事情上,使用未经证实的人工智能决策就不行。

必须让具备专业技能的人类参与其中,否则机器将不断犯错,而我们将为此付出代价。■

相关内容
OR
+
读者评论
MORE +

热门排行榜
OR
+
日本AI,失去的不止三十年
2022-08-09 17:06
商业与经济

人工智能设备也需要“保姆”

人工智能也会出错;我们应降低对人工智能的信任。
Parmy Olson

■早在2018年,埃塞克斯大学的社会学教授皮特⋅法西(Pete Fussey)就在研究伦敦警方如何使用面部识别系统在街上寻找嫌疑人。在接下来的两年间,他随伦敦警察局的警员们一起坐上警车,看他们利用摄像头和面部识别软件,监视这座城市的各个角落。

法西在此过程中有两个重要发现,并在2019年的一篇研究报告中进行了论述。首先,面部识别系统很不准确。他观摩的六次行动总共获得电脑生成的42条匹配信息,其中只有8条正确,准确率为19%。

第二,更令人不安的是,大多数情况下,警察认为面部识别系统很可能是对的。他说:“我记得有人说,‘如果我们不确定,就应该假设是匹配的。’”法西将这种现象称为“遵从算法”。

这种遵从已成问题,而且不仅限于警务部门。

在教育领域,ProctorU销售一种软件,可以监控用家中电脑参加考试的学生。该软件使用机器学习算法来寻找作弊的迹象,比如可疑的姿势、翻阅笔记或探测房间里的其他面孔。这家位于阿拉巴马州的公司最近对高校如何使用其人工智能软件进行了调查。该公司发现,在被人工智能软件标记为可疑的考场表现中,只有11%得到了学校或考试机构的复查。

该公司称,但事实上,这种软件有时可能出错。举个例子,如果一名学生在揉眼睛,或者背景中传出狗叫等不寻常的声音,该软件就可能不经意地将这名学生标注为可疑。据《纽约时报》报道,今年2月,一名参加远程考试的青少年被另一家公司提供的此类软件错误地指控作弊,仅仅因为她在考试时低头思考。

与此同时,在招聘领域,几乎所有的世界500强公司都使用简历过滤软件来分析他们每天收到的海量求职信。然而,哈佛商学院最近的一项研究发现,数百万符合条件的求职者在第一阶段就被拒之门外,因为他们不符合软件设定的标准。

这些实例的共同点是人工智能设备的不可靠性。这类系统设有巧妙的机制,通常是一个粗略模仿人类大脑工作原理的“神经网络”。但它们也会犯错,而且往往只有到客户手上才会显露错误。

销售人工智能系统的公司出了名地喜欢宣扬接近100%的准确率,却只字不提这些数据来自实验室,而不是现实环境。例如,去年《自然》杂志刊登了一篇报告,研究对象是数十个声称能通过扫描发现新冠病毒的人工智能模型,但由于方法和模型存在缺陷,这些软件无法真正在医院使用。

解决办法不是停止使用人工智能系统,而是用更多具有专业知识的人来“照看”它们。换句话说,把我们对人工智能的过度信任收回一部分,放到人类身上,并把我们的注意力重新转向人工与自动化的融合。(按照咨询业的术语,这有时被称为“增强智能”。)

一些公司已开始聘请更多的领域专家,他们既能熟练使用软件,又非常了解这些软件所服务的行业。就警察使用面部识别系统来说,理想情况下,这些专家应该是深谙面部识别技术的所谓“超级识别者”。他们或许应该与警察一起坐在警车里。

值得称道的是,ProctorU引人注目地将业务转向了“人类保姆”。该公司在进行内部分析后表示,将停止销售单纯的人工智能产品,只提供“受到监测的服务”,也就是依靠约1300名外聘人员对软件做出的决策进行复核。

ProctorU的创始人贾罗德⋅摩根(Jarrod Morgan)对笔者称:“我们仍然相信科技,但让人类完全退出决策过程从来都不是我们的本意。当我们意识到正出现这种情况时,我们采取了相当激烈的行动。”

使用人工智能设备的公司需要提醒自己,这些软件可能犯错。英国企业家达德利⋅内维尔-斯潘塞(Dudley Nevill-Spencer)的营销公司Live & Breathe专门销售用于研究消费者的人工智能系统。他说,人们需要听到这样的话:“听着,这台机器不太可能出错,这是肯定的。”

内维尔-斯潘塞最近与笔者在Twitter Spaces上讨论时说,他的员工中有10名领域专家,其中大部分人都接受了培训,能承担指导人工智能系统和了解所处行业的双重职责。他说:“这是知道机器是否真正有效的唯一方法。”

总的来说,我们不能责怪人们对算法的遵从。围绕人工智能的变革特性,一直有无数的炒作。但过于相信它,会带来一个风险,那就是随着时间的推移,我们越来越难以摆脱对它的依赖。当利害不大,且软件通常很准确时,比如我把导航的工作交给Google Maps,这没问题。但在治安、抓作弊和招聘等利害攸关的事情上,使用未经证实的人工智能决策就不行。

必须让具备专业技能的人类参与其中,否则机器将不断犯错,而我们将为此付出代价。■

相关内容
OR
+
 

读者评论
OR

 

分享:
每日头条
OR
+
最新资讯
OR
+
热门排行榜
OR
+
OR品牌理念
+

■ 或者,  留一段影像,回一曲挂牵。丝丝入扣、暖暖心灵 ,需飘过的醇厚与共。
■ 或者,热烈空雨伴芬芳泥土;绿绿生命缠锐意骄阳。
回望,回望,一马平川红酒飘散断归途。
■ 或者,灰蒙蒙空气重回道指一万四千点。滚动时光,照进现实,流逝过往,回归未来。

■ OR 新媒体是一个提供时政、经济、文化、科技等多领域资讯的平台,旨在为用户提供优质的阅读体验。网站的网址是oror.vip,用户可以通过浏览器在台式电脑 、笔记本电脑 、平板电脑 、手机访问。.......