OR 新媒|oror.vip跨平台阅读首选
2023-10-04 12:06
科技

NASA为何要将AI机器人送上火星?

在带来生存威胁的同时,人工智能还会带来商业福利,如更高的效率、更高的利润率和更多的休闲时间。
日本AI,失去的不止三十年
JANET VERTESI,THE CONVERSATION

■自ChatGPT于2022年年底发布以来,许多新闻媒体都报道了人工智能带来的伦理威胁。科技专家警告说,机器人杀手决心要灭绝人类,而世界经济论坛则预测,机器将抢走人类的工作。

科技行业在投资人工智能提高生产力工具的同时,也在大幅裁员。好莱坞的编剧和演员正在罢工,以保护他们的工作和肖像权。学者们不断揭示这些系统是如何加剧现有的偏见或创造毫无意义的工作——以及无数其他问题。

有一种更好的方式将人工智能引入工作场所。作为一名与美国国家航空航天局机器人航天器团队合作的社会学家,我知道这一方法,因为我亲眼目睹过。

我研究的科学家和工程师们正忙着借助配备人工智能的火星车探索火星表面。但他们的工作并非科幻小说中的幻想。这是一个机器智能和人类智慧结合在一起追求共同目标的例子。

这些机器人不是取代人类,而是协助我们拓展和完善人类的特质。在此过程中,他们避免了常见的道德陷阱,并为与人工智能合作指明了人道主义路线。

人工智能的替代神话

机器人杀手和失业的故事说明了“替代神话”是如何主导人们对人工智能的看法的。从这个角度来看,人类可以而且将会被机器自动化所取代。

在带来生存威胁的同时,人工智能还会带来商业福利,如更高的效率、更高的利润率和更多的休闲时间。

经验证据表明,自动化并不能降低成本。相反,它通过淘汰地位低下的工人,增加了留下来的地位较高的工人的工资成本,从而加剧了不平等。与此同时,当今的生产力工具激励员工为雇主多干活,而不是少干活。

直接替代的替代方案是“混合自主”系统,即人和机器人协同工作。例如,自动驾驶汽车必须经过编程,才能实现在实际路况中与人类驾驶员共同驾驶汽车。之所以说自主是“混合的”,是因为人类和机器人在同一个系统中进行相关操作,他们的行为会相互影响。

然而,混合自主往往被视为迈向替代的一大步骤。它可能会导致系统中的人类仅仅是训练、管理或教授人工智能工具。这让人类背上了“幽灵工作”的包袱——程序员们希望机器学习很快就能淘汰那些无需动脑且零碎的任务。

替代引发了人工智能伦理方面的危险信号。诸如标记内容以训练人工智能或清理脸书(Facebook)帖子之类的工作通常涉及创伤性任务,而且是由南半球的低薪劳动力完成的。大批自动驾驶汽车的设计者痴迷于“电车难题”——决定何时或是否碾压行人是合乎道德的(一辆有轨电车驶来,前方的轨道上有5个人,片刻之后这5个人就会被电车碾压致死;此时你手边有一个拉杆,拉动之后电车会变道,这5个人可以幸免于难,但变道后的轨道上也有1个人,这个人将被电车碾压致死。考虑以上情形,你是否应该拉动拉杆)。

但我对美国国家航空航天局机器人航天器团队的研究表明,当公司拒绝“替代神话”,转而选择组建人机团队时,人工智能的许多伦理问题就会消失。

拓展而非替代

强大的人机团队在拓展和增强人类能力而不是取而代之时表现更好。工程师们制造出的机器可以完成人类无法完成的工作。然后,他们将机器和人力巧妙地结合在一起,可以朝着共同的目标迈进。

通常情况下,这种团队合作意味着让机器人去做对人类身体有危险的工作。扫雷、搜救、太空行走和深海机器人都是现实世界中的例子。

团队合作还意味着充分利用机器人和人类感官或智能的综合优势。毕竟,机器人拥有许多人类不具备的能力,反之亦然。

例如,人类在火星上只能看到一直延伸到地平线光线昏暗、尘土飞扬的红色地形。因此,工程师在火星车上配备了相机滤镜,以“看到”人类在红外线中看不到的光的波长,从而传回色彩艳丽的伪彩色照片。

与此同时,火星车上的车载人工智能无法得出科学发现。只有将色彩斑斓的传感器结果与专家讨论相结合,科学家才能利用这些机器人的眼睛揭开火星的新真相。

尊重数据

人工智能面临的另一项伦理挑战是如何收集和使用数据。生成式人工智能在未经艺术家和作家同意的情况下使用他们的作品进行训练,商业数据集充斥着偏见,而ChatGPT在回答问题时会产生“幻觉”。

人工智能训练时使用这些数据在现实世界中造成的后果包括诉讼和种族定性。

火星上的机器人也依靠数据、处理能力和机器学习技术来完成工作。但它们需要的数据是视觉和距离信息,以生成可驾驶路径或推荐绝妙的新图像。

通过关注它们周围的世界而不是我们的社会世界,这些机器人系统避免了困扰当今人工智能的监视、偏见和剥削等问题。

关怀伦理

机器人与人类的情感完美融合后,它们可以通过激发人类的情感来团结与之共事的群体。例如,经验丰富的士兵在战场上悼念损坏的无人机,家人会为他们的扫地机器人(Roombas)起名并赋予其个性。

当勇气号和机遇号探测器受到火星沙尘暴的威胁时,我看到美国国家航空航天局的工程师们焦虑不安,流下了眼泪。

与拟人化(将人类特征投射到机器上)不同,这种感觉源于对机器的关怀。它是在日常互动、共同成就和共同承担责任的过程中形成的。

当机器激发出关怀意识时,它们就能强调——而不是削弱——人类的特质。

更好的人工智能是可能的

在人工智能可能被用来取代工人的行业中,技术专家可能会考虑如何通过巧妙的人机合作来增强人类的能力,而不是削弱人类的能力。

剧本创作团队可能会喜欢能即时查找对话或交叉引用的人工代理。艺术家们可以编写或设计自己的算法,以激发创造力,并保留作品的声誉。为软件团队提供支持的机器人可以改善会议沟通效果,发现编译代码时出现的错误。

当然,拒绝替代并不能消除人工智能的所有伦理问题。但是,当替代不再是目标时,许多与人类生计、代理和偏见相关的问题就会发生转变。

替代幻想只是人工智能和社会众多可能实现的未来的一种。毕竟,如果“机器人”取代了所有主角,就没人会看《星球大战》了。要想对人类与人工智能的未来有一个更合乎伦理道德的愿景,你可以看看那些已在太空和地球上幸存下来并表现良好的人机团队。■ 

注:本文仅代表作者个人观点                                                                                              
读者评论
MORE +

热门排行榜
OR
+
日本AI,失去的不止三十年
2023-10-04 12:06
科技

NASA为何要将AI机器人送上火星?

在带来生存威胁的同时,人工智能还会带来商业福利,如更高的效率、更高的利润率和更多的休闲时间。
JANET VERTESI,THE CONVERSATION

■自ChatGPT于2022年年底发布以来,许多新闻媒体都报道了人工智能带来的伦理威胁。科技专家警告说,机器人杀手决心要灭绝人类,而世界经济论坛则预测,机器将抢走人类的工作。

科技行业在投资人工智能提高生产力工具的同时,也在大幅裁员。好莱坞的编剧和演员正在罢工,以保护他们的工作和肖像权。学者们不断揭示这些系统是如何加剧现有的偏见或创造毫无意义的工作——以及无数其他问题。

有一种更好的方式将人工智能引入工作场所。作为一名与美国国家航空航天局机器人航天器团队合作的社会学家,我知道这一方法,因为我亲眼目睹过。

我研究的科学家和工程师们正忙着借助配备人工智能的火星车探索火星表面。但他们的工作并非科幻小说中的幻想。这是一个机器智能和人类智慧结合在一起追求共同目标的例子。

这些机器人不是取代人类,而是协助我们拓展和完善人类的特质。在此过程中,他们避免了常见的道德陷阱,并为与人工智能合作指明了人道主义路线。

人工智能的替代神话

机器人杀手和失业的故事说明了“替代神话”是如何主导人们对人工智能的看法的。从这个角度来看,人类可以而且将会被机器自动化所取代。

在带来生存威胁的同时,人工智能还会带来商业福利,如更高的效率、更高的利润率和更多的休闲时间。

经验证据表明,自动化并不能降低成本。相反,它通过淘汰地位低下的工人,增加了留下来的地位较高的工人的工资成本,从而加剧了不平等。与此同时,当今的生产力工具激励员工为雇主多干活,而不是少干活。

直接替代的替代方案是“混合自主”系统,即人和机器人协同工作。例如,自动驾驶汽车必须经过编程,才能实现在实际路况中与人类驾驶员共同驾驶汽车。之所以说自主是“混合的”,是因为人类和机器人在同一个系统中进行相关操作,他们的行为会相互影响。

然而,混合自主往往被视为迈向替代的一大步骤。它可能会导致系统中的人类仅仅是训练、管理或教授人工智能工具。这让人类背上了“幽灵工作”的包袱——程序员们希望机器学习很快就能淘汰那些无需动脑且零碎的任务。

替代引发了人工智能伦理方面的危险信号。诸如标记内容以训练人工智能或清理脸书(Facebook)帖子之类的工作通常涉及创伤性任务,而且是由南半球的低薪劳动力完成的。大批自动驾驶汽车的设计者痴迷于“电车难题”——决定何时或是否碾压行人是合乎道德的(一辆有轨电车驶来,前方的轨道上有5个人,片刻之后这5个人就会被电车碾压致死;此时你手边有一个拉杆,拉动之后电车会变道,这5个人可以幸免于难,但变道后的轨道上也有1个人,这个人将被电车碾压致死。考虑以上情形,你是否应该拉动拉杆)。

但我对美国国家航空航天局机器人航天器团队的研究表明,当公司拒绝“替代神话”,转而选择组建人机团队时,人工智能的许多伦理问题就会消失。

拓展而非替代

强大的人机团队在拓展和增强人类能力而不是取而代之时表现更好。工程师们制造出的机器可以完成人类无法完成的工作。然后,他们将机器和人力巧妙地结合在一起,可以朝着共同的目标迈进。

通常情况下,这种团队合作意味着让机器人去做对人类身体有危险的工作。扫雷、搜救、太空行走和深海机器人都是现实世界中的例子。

团队合作还意味着充分利用机器人和人类感官或智能的综合优势。毕竟,机器人拥有许多人类不具备的能力,反之亦然。

例如,人类在火星上只能看到一直延伸到地平线光线昏暗、尘土飞扬的红色地形。因此,工程师在火星车上配备了相机滤镜,以“看到”人类在红外线中看不到的光的波长,从而传回色彩艳丽的伪彩色照片。

与此同时,火星车上的车载人工智能无法得出科学发现。只有将色彩斑斓的传感器结果与专家讨论相结合,科学家才能利用这些机器人的眼睛揭开火星的新真相。

尊重数据

人工智能面临的另一项伦理挑战是如何收集和使用数据。生成式人工智能在未经艺术家和作家同意的情况下使用他们的作品进行训练,商业数据集充斥着偏见,而ChatGPT在回答问题时会产生“幻觉”。

人工智能训练时使用这些数据在现实世界中造成的后果包括诉讼和种族定性。

火星上的机器人也依靠数据、处理能力和机器学习技术来完成工作。但它们需要的数据是视觉和距离信息,以生成可驾驶路径或推荐绝妙的新图像。

通过关注它们周围的世界而不是我们的社会世界,这些机器人系统避免了困扰当今人工智能的监视、偏见和剥削等问题。

关怀伦理

机器人与人类的情感完美融合后,它们可以通过激发人类的情感来团结与之共事的群体。例如,经验丰富的士兵在战场上悼念损坏的无人机,家人会为他们的扫地机器人(Roombas)起名并赋予其个性。

当勇气号和机遇号探测器受到火星沙尘暴的威胁时,我看到美国国家航空航天局的工程师们焦虑不安,流下了眼泪。

与拟人化(将人类特征投射到机器上)不同,这种感觉源于对机器的关怀。它是在日常互动、共同成就和共同承担责任的过程中形成的。

当机器激发出关怀意识时,它们就能强调——而不是削弱——人类的特质。

更好的人工智能是可能的

在人工智能可能被用来取代工人的行业中,技术专家可能会考虑如何通过巧妙的人机合作来增强人类的能力,而不是削弱人类的能力。

剧本创作团队可能会喜欢能即时查找对话或交叉引用的人工代理。艺术家们可以编写或设计自己的算法,以激发创造力,并保留作品的声誉。为软件团队提供支持的机器人可以改善会议沟通效果,发现编译代码时出现的错误。

当然,拒绝替代并不能消除人工智能的所有伦理问题。但是,当替代不再是目标时,许多与人类生计、代理和偏见相关的问题就会发生转变。

替代幻想只是人工智能和社会众多可能实现的未来的一种。毕竟,如果“机器人”取代了所有主角,就没人会看《星球大战》了。要想对人类与人工智能的未来有一个更合乎伦理道德的愿景,你可以看看那些已在太空和地球上幸存下来并表现良好的人机团队。■ 

注:本文仅代表作者个人观点                                                                                              
 

读者评论
OR

 

分享:
每日头条
OR
+
最新资讯
OR
+
热门排行榜
OR
+
OR品牌理念
+

■ 或者,  留一段影像,回一曲挂牵。丝丝入扣、暖暖心灵 ,需飘过的醇厚与共。
■ 或者,热烈空雨伴芬芳泥土;绿绿生命缠锐意骄阳。
回望,回望,一马平川红酒飘散断归途。
■ 或者,灰蒙蒙空气重回道指一万四千点。滚动时光,照进现实,流逝过往,回归未来。

■ OR 新媒体是一个提供时政、经济、文化、科技等多领域资讯的平台,旨在为用户提供优质的阅读体验。网站的网址是oror.vip,用户可以通过浏览器在台式电脑 、笔记本电脑 、平板电脑 、手机访问。.......