OR 新媒|oror.vip跨平台阅读首选
2023-01-17 13:26
商业与经济

微软的AI编程工具 将会重塑数千种职业

GitHub认为,五年内,开发人员就可以实现用Copilot编写多达80%的代码;研究人员和程序员很有可能克服掉所有这些挑战,人工智能程序将得到大规模应用。
微软百度暂别国内第一大桌面搜索引擎宝座,ChatGPT助推必应上位
彭博

■如今,“生成式人工智能”可能是被宣传得最火的科技用语。它指的是一种人工智能技术,可以按照用户的提示生成艺术作品、文本或代码。2022年此概念因Dall-E程序而出名,该程序能够根据命令创建一系列奇妙的艺术图像。目前,微软公司希望借助其新的名为GitHub Copilot的人工智能编程工具,将这项轰动互联网的技术普及到广泛的应用领域。

早些时候,微软旗下的代码托管平台GitHub广泛发布了这款计算机程序员可以使用的人工智能编程工具。当他们输入内容的时候,Copilot会提示程序中接下来可能出现的代码片段,就像是经过训练的会用Python或JavaScript语言做交流的自动提示机器人。对于接近手工劳动的编程工作,它特别实用,可以对必要但又不是特别复杂或具有创造性的代码块加以补充。

它目前正被成千上万软件开发人员使用,在他们用十几种最流行的编程语言写下的代码中,最多有40%是用它来生成的。GitHub认为,五年内,开发人员就可以实现用Copilot编写多达80%的代码。这只是微软和GitHub最基本的目标。

微软管理人士告诉彭博新闻社,公司准备扩大Copilot技术的应用,把它推广到其他工作类别的类似程序中,如办公室工作、视频游戏设计、建筑和计算机安全等。

微软首席技术官凯文·斯科特(Kevin Scott)说:“我们确实认为可以将GitHub Copilot复制到数千种不同类别的知识型工作当中。”斯科特说,其中的一部分工具将由微软自己开发,还有一些将由合作伙伴、客户和竞争对手开发。人工智能初创公司Contenda的首席技术官卡西迪·威廉姆斯(Cassidy Williams)是GitHub Copilot的狂热粉丝,自从Copilot测试版发布以来,她就开始使用它,而且越来越得心应手。“我不认为它很快能取代我的工作,”威廉姆斯说,“话虽如此,但它对于辅助功能这类小事情尤其有帮助,甚至能帮我完成80%的任务。”

但它也会失误,有时还很搞笑。不到一年前,当她让Copilot评出最腐败的公司时,它给出的答案竟然是微软。

廉姆斯的经历说明了生成式人工智能的前景和风险。除了帮助补充代码之外,它生成的内容有时也会令人惊讶或恐惧。Copilot使用的人工智能工具被称为大型语言模型,它们会学习人类编写的代码。产品质量通常取决于它所获取的数据—这个问题引发了一系列新的伦理困境。有时候,人工智能会发表仇恨或种族主义言论。软件开发人员抱怨说,Copilot偶尔会批量复制他们编写的程序,引发了对所有权和版权保护的担忧。此外,该程序还能从不安全的代码中学习知识,这意味着它有可能复制出让黑客有机可乘的安全漏洞。

斯科特说,微软意识到了这种风险,并在该程序发布之前对其进行了安全审查。该公司创建了一个软件层,从其云端人工智能服务中过滤有害内容,并尝试训练这类程序,让其行为得体。如果失败则可能代价惨重。为Copilot创建伦理层的微软Azure人工智能部门主管“负责任的人工智能”事务的萨拉·伯德(Sarah Bird)表示,这类问题是这种新产品成败的关键。她说:“如果你做不好‘负责任的人工智能’这块工作,就不能真正将这些技术应用到实践中。”

GitHub Copilot由GitHub与YCombinator前总裁Sam Altman运营的知名初创公司OpenAI联合创建,得到了包括微软公司在内的投资者的支持。

当开发人员需要对简单的代码进行补充时,这个程序会大显身手—他们可以通过搜索GitHub的开放源代码库来解决这类问题。GitHub的产品副总裁瑞安·萨尔瓦(Ryan Salva)在做演示时展示了程序员选择一种编程语言并开始输入代码的过程,并表明了他们想要创建一个用于存储地址的系统。当他们按下回车键时,屏幕上出现了大约十几行灰色的斜体文本。这是Copilot提供的一个简单的地址簿存储程序。

我们的梦想是淘汰琐碎的工作。“你有多少百分比(的时间)花在这类机械性质的内容上,而不是用于实现愿景?你希望实现愿景所用的时间占多少?”OpenAI的总裁兼联合创始人格雷格·布罗克曼(Greg Brockman)说,“我希望能花90%的时间,剩下10%,但我可以保证,现在的情况正好相反。”

最终,这项技术的应用范围将扩大。斯科特举例说,电游开发商可以用这类程序为非玩家角色自动创建对话。游戏中那种经常让人觉得生硬或重复的对话—比如来自村民、士兵和其他背景人物的对话—会突然间变得有趣和敏捷。微软的安全副总裁瓦苏·雅卡尔(Vasu Jakkal)说,微软的网络安全产品团队也正处于探索人工智能如何帮助抵御黑客的早期阶段。

微软在开发Copilot等技术的其他用途的同时,也在帮助合作伙伴借助微软的AzureOpenAI服务创建自己的程序。2022年10月,微软CEO萨蒂亚·纳德拉(Satya Nadella)在一次会议上表示,微软已开始与欧特克(Autodesk)合作开发Maya三维动画和建模产品,可以为建筑师和工业设计增加辅助功能。

GitHub Copilot和类似程序的支持者认为,它可以让非专业人士也能读懂代码。除了借助Azure OpenAI之外,Copilot还使用一个名为Codex的OpenAI编程工具。通过Codex,程序员用简单的语言,无需键入代码,就能表达他们想要的东西。2022年5月,在斯科特的主题演讲期间,一位微软工程师演示了Codex如何按照简单的英语指令来编写代码,让电游《我的世界》中的角色做出行走、观察、制作火炬的动作并回答问题。同年10月,微软宣布在其Power系列工具中加入Copilot功能,无需编写代码就能创建应用程序。

微软还认为,Copilot可以为Word和Excel开发虚拟助手,或者为Microsoft Teams开发助手,执行对话的录音和归纳总结等任务。这让人想起了Clippy,微软的一款受人喜爱但也常被诟病的会说话的助手程序“大眼夹”。斯科特说,微软必须小心,不要被新技术冲昏头脑,或将其用于搞“公关噱头”。

斯科特说:“我们不想创建一堆多余的东西,虽然看起来有点可爱,但你用了一次就不再用了。我们必须打造出真正非常、非常有用的东西,不能又做一个‘大眼夹’出来。”

尽管很实用,但这类人工智能程序也存在风险。主要是因为它们汲取的数据比较杂乱。人工智能伦理研究员、一篇关于大型语言模型危险性的重要论文的合著者玛格丽特·米切尔(Margaret Mitchell)说:“大型语言模型存在的重大问题之一是用来训练它们的数据通常没有被妥善地记录。种族主义的内容可能会进来,存在安全问题的内容也可能进来。”在早期阶段,OpenAI和其他机构的研究人员意识到了这些威胁。

微软的伯德表示,生成长代码块时,人工智能程序有可能生成仇恨文字或爆出表达愤怒的粗口。这些程序还会模仿人类的行为,但又不像人类那样理解道德。伯德说,例如,语言模型已经学习到,当人们说话或写作时,通常会用引语来支持他们的论点,所以程序有时候也会这样—只是它们会编造引语和引语的主人是谁。

她说,即使是在用编程语言生成文本的Copilot中,也会悄然出现攻击性的言论。微软在Copilot和Azure OpenAI的基础上创建了一个内容过滤器,用于检查有害内容。还增加了掌握编程技能的人工审核员来进行监控。

另一个或许更棘手的问题是,Copilot有可能复制并传播安全漏洞。该程序使用大量编程代码进行训练,其中有些代码存在已知的安全漏洞。微软和GitHub正在努力消除Copilot生成不安全的代码的可能性—黑客也可能会想方设法教会Copilot在程序中设置漏洞。

分布式人工智能研究所(Distributed AI Research Institute)的研究负责人亚历克斯·汉娜(Alex Hanna)认为,这种攻击可能比偏激言论更难化解,因为微软已经有一些阻止偏激言论的经验。随着Copilot的成长,这个问题可能会进一步变得严重。汉娜说:“如果Copilot变成一种非常普遍的工具,并在生产系统中广泛使用,就更令人担忧了。”

但到目前为止,Copilot暴露出的最大伦理问题都与版权问题有关。一些程序员抱怨它所建议的代码看起来很像他们自己以前的成果。GitHub表示,在极少数情况下,Copilot会生成复制的代码。当前版本的Copilot会试图过滤和阻止与GitHub公共资料库中现有代码相匹配的建议内容。然而,一些程序员社区中仍然存在相当大的焦虑。

研究人员和程序员很有可能克服掉所有这些挑战,人工智能程序将得到大规模应用。当然,这会带来新的挑战:对人类劳动力造成影响。如果人工智能技术足够优秀,就有可能取代人类工人。但微软的斯科特认为,就算有影响也将是积极的—他看到了类似于工业革命的那种积极作用。■


相关内容
OR
+
读者评论
MORE +

热门排行榜
OR
+
微软百度暂别国内第一大桌面搜索引擎宝座,ChatGPT助推必应上位
2023-01-17 13:26
商业与经济

微软的AI编程工具 将会重塑数千种职业

GitHub认为,五年内,开发人员就可以实现用Copilot编写多达80%的代码;研究人员和程序员很有可能克服掉所有这些挑战,人工智能程序将得到大规模应用。
彭博

■如今,“生成式人工智能”可能是被宣传得最火的科技用语。它指的是一种人工智能技术,可以按照用户的提示生成艺术作品、文本或代码。2022年此概念因Dall-E程序而出名,该程序能够根据命令创建一系列奇妙的艺术图像。目前,微软公司希望借助其新的名为GitHub Copilot的人工智能编程工具,将这项轰动互联网的技术普及到广泛的应用领域。

早些时候,微软旗下的代码托管平台GitHub广泛发布了这款计算机程序员可以使用的人工智能编程工具。当他们输入内容的时候,Copilot会提示程序中接下来可能出现的代码片段,就像是经过训练的会用Python或JavaScript语言做交流的自动提示机器人。对于接近手工劳动的编程工作,它特别实用,可以对必要但又不是特别复杂或具有创造性的代码块加以补充。

它目前正被成千上万软件开发人员使用,在他们用十几种最流行的编程语言写下的代码中,最多有40%是用它来生成的。GitHub认为,五年内,开发人员就可以实现用Copilot编写多达80%的代码。这只是微软和GitHub最基本的目标。

微软管理人士告诉彭博新闻社,公司准备扩大Copilot技术的应用,把它推广到其他工作类别的类似程序中,如办公室工作、视频游戏设计、建筑和计算机安全等。

微软首席技术官凯文·斯科特(Kevin Scott)说:“我们确实认为可以将GitHub Copilot复制到数千种不同类别的知识型工作当中。”斯科特说,其中的一部分工具将由微软自己开发,还有一些将由合作伙伴、客户和竞争对手开发。人工智能初创公司Contenda的首席技术官卡西迪·威廉姆斯(Cassidy Williams)是GitHub Copilot的狂热粉丝,自从Copilot测试版发布以来,她就开始使用它,而且越来越得心应手。“我不认为它很快能取代我的工作,”威廉姆斯说,“话虽如此,但它对于辅助功能这类小事情尤其有帮助,甚至能帮我完成80%的任务。”

但它也会失误,有时还很搞笑。不到一年前,当她让Copilot评出最腐败的公司时,它给出的答案竟然是微软。

廉姆斯的经历说明了生成式人工智能的前景和风险。除了帮助补充代码之外,它生成的内容有时也会令人惊讶或恐惧。Copilot使用的人工智能工具被称为大型语言模型,它们会学习人类编写的代码。产品质量通常取决于它所获取的数据—这个问题引发了一系列新的伦理困境。有时候,人工智能会发表仇恨或种族主义言论。软件开发人员抱怨说,Copilot偶尔会批量复制他们编写的程序,引发了对所有权和版权保护的担忧。此外,该程序还能从不安全的代码中学习知识,这意味着它有可能复制出让黑客有机可乘的安全漏洞。

斯科特说,微软意识到了这种风险,并在该程序发布之前对其进行了安全审查。该公司创建了一个软件层,从其云端人工智能服务中过滤有害内容,并尝试训练这类程序,让其行为得体。如果失败则可能代价惨重。为Copilot创建伦理层的微软Azure人工智能部门主管“负责任的人工智能”事务的萨拉·伯德(Sarah Bird)表示,这类问题是这种新产品成败的关键。她说:“如果你做不好‘负责任的人工智能’这块工作,就不能真正将这些技术应用到实践中。”

GitHub Copilot由GitHub与YCombinator前总裁Sam Altman运营的知名初创公司OpenAI联合创建,得到了包括微软公司在内的投资者的支持。

当开发人员需要对简单的代码进行补充时,这个程序会大显身手—他们可以通过搜索GitHub的开放源代码库来解决这类问题。GitHub的产品副总裁瑞安·萨尔瓦(Ryan Salva)在做演示时展示了程序员选择一种编程语言并开始输入代码的过程,并表明了他们想要创建一个用于存储地址的系统。当他们按下回车键时,屏幕上出现了大约十几行灰色的斜体文本。这是Copilot提供的一个简单的地址簿存储程序。

我们的梦想是淘汰琐碎的工作。“你有多少百分比(的时间)花在这类机械性质的内容上,而不是用于实现愿景?你希望实现愿景所用的时间占多少?”OpenAI的总裁兼联合创始人格雷格·布罗克曼(Greg Brockman)说,“我希望能花90%的时间,剩下10%,但我可以保证,现在的情况正好相反。”

最终,这项技术的应用范围将扩大。斯科特举例说,电游开发商可以用这类程序为非玩家角色自动创建对话。游戏中那种经常让人觉得生硬或重复的对话—比如来自村民、士兵和其他背景人物的对话—会突然间变得有趣和敏捷。微软的安全副总裁瓦苏·雅卡尔(Vasu Jakkal)说,微软的网络安全产品团队也正处于探索人工智能如何帮助抵御黑客的早期阶段。

微软在开发Copilot等技术的其他用途的同时,也在帮助合作伙伴借助微软的AzureOpenAI服务创建自己的程序。2022年10月,微软CEO萨蒂亚·纳德拉(Satya Nadella)在一次会议上表示,微软已开始与欧特克(Autodesk)合作开发Maya三维动画和建模产品,可以为建筑师和工业设计增加辅助功能。

GitHub Copilot和类似程序的支持者认为,它可以让非专业人士也能读懂代码。除了借助Azure OpenAI之外,Copilot还使用一个名为Codex的OpenAI编程工具。通过Codex,程序员用简单的语言,无需键入代码,就能表达他们想要的东西。2022年5月,在斯科特的主题演讲期间,一位微软工程师演示了Codex如何按照简单的英语指令来编写代码,让电游《我的世界》中的角色做出行走、观察、制作火炬的动作并回答问题。同年10月,微软宣布在其Power系列工具中加入Copilot功能,无需编写代码就能创建应用程序。

微软还认为,Copilot可以为Word和Excel开发虚拟助手,或者为Microsoft Teams开发助手,执行对话的录音和归纳总结等任务。这让人想起了Clippy,微软的一款受人喜爱但也常被诟病的会说话的助手程序“大眼夹”。斯科特说,微软必须小心,不要被新技术冲昏头脑,或将其用于搞“公关噱头”。

斯科特说:“我们不想创建一堆多余的东西,虽然看起来有点可爱,但你用了一次就不再用了。我们必须打造出真正非常、非常有用的东西,不能又做一个‘大眼夹’出来。”

尽管很实用,但这类人工智能程序也存在风险。主要是因为它们汲取的数据比较杂乱。人工智能伦理研究员、一篇关于大型语言模型危险性的重要论文的合著者玛格丽特·米切尔(Margaret Mitchell)说:“大型语言模型存在的重大问题之一是用来训练它们的数据通常没有被妥善地记录。种族主义的内容可能会进来,存在安全问题的内容也可能进来。”在早期阶段,OpenAI和其他机构的研究人员意识到了这些威胁。

微软的伯德表示,生成长代码块时,人工智能程序有可能生成仇恨文字或爆出表达愤怒的粗口。这些程序还会模仿人类的行为,但又不像人类那样理解道德。伯德说,例如,语言模型已经学习到,当人们说话或写作时,通常会用引语来支持他们的论点,所以程序有时候也会这样—只是它们会编造引语和引语的主人是谁。

她说,即使是在用编程语言生成文本的Copilot中,也会悄然出现攻击性的言论。微软在Copilot和Azure OpenAI的基础上创建了一个内容过滤器,用于检查有害内容。还增加了掌握编程技能的人工审核员来进行监控。

另一个或许更棘手的问题是,Copilot有可能复制并传播安全漏洞。该程序使用大量编程代码进行训练,其中有些代码存在已知的安全漏洞。微软和GitHub正在努力消除Copilot生成不安全的代码的可能性—黑客也可能会想方设法教会Copilot在程序中设置漏洞。

分布式人工智能研究所(Distributed AI Research Institute)的研究负责人亚历克斯·汉娜(Alex Hanna)认为,这种攻击可能比偏激言论更难化解,因为微软已经有一些阻止偏激言论的经验。随着Copilot的成长,这个问题可能会进一步变得严重。汉娜说:“如果Copilot变成一种非常普遍的工具,并在生产系统中广泛使用,就更令人担忧了。”

但到目前为止,Copilot暴露出的最大伦理问题都与版权问题有关。一些程序员抱怨它所建议的代码看起来很像他们自己以前的成果。GitHub表示,在极少数情况下,Copilot会生成复制的代码。当前版本的Copilot会试图过滤和阻止与GitHub公共资料库中现有代码相匹配的建议内容。然而,一些程序员社区中仍然存在相当大的焦虑。

研究人员和程序员很有可能克服掉所有这些挑战,人工智能程序将得到大规模应用。当然,这会带来新的挑战:对人类劳动力造成影响。如果人工智能技术足够优秀,就有可能取代人类工人。但微软的斯科特认为,就算有影响也将是积极的—他看到了类似于工业革命的那种积极作用。■


相关内容
OR
+
 

读者评论
OR

 

分享:
每日头条
OR
+
最新资讯
OR
+
热门排行榜
OR
+
OR品牌理念
+

■ 或者,  留一段影像,回一曲挂牵。丝丝入扣、暖暖心灵 ,需飘过的醇厚与共。
■ 或者,热烈空雨伴芬芳泥土;绿绿生命缠锐意骄阳。
回望,回望,一马平川红酒飘散断归途。
■ 或者,灰蒙蒙空气重回道指一万四千点。滚动时光,照进现实,流逝过往,回归未来。

■ OR 新媒体是一个提供时政、经济、文化、科技等多领域资讯的平台,旨在为用户提供优质的阅读体验。网站的网址是oror.vip,用户可以通过浏览器在台式电脑 、笔记本电脑 、平板电脑 、手机访问。.......