OR 新媒|oror.vip跨平台阅读首选
2024-02-16 11:42
科技 视频

视频:OpenAI发布新工具Sora,可根据文字生成逼真AI视频

这款名为Sora的AI程序能够根据文字提示生成一段细节丰富的视频。
Sora大火背后,成败是这个原因

■OpenAI推出了一项新技术,利用人工智能(AI)可根据文字描述生成高质量视频。

该公司发布了几个生动、看似逼真的短视频,内容有几头长毛猛?象在雪地中前行;海浪拍打着悬崖边缘;人们的日常生活,比如正在读书或走在城市街道上。

OpenAI将这款新系统称为Sora。Sora会接收用户的文字提示,然后通过AI生成一段细节丰富的视频。Alphabet旗下谷歌(Google)以及Meta Platforms等许多公司都在寻求把握新的AI视频技术发展机会,OpenAI是其中之一。

背靠微软(Microsoft)的OpenAI开发了AI聊天机器人ChatGPT。OpenAI表示,正在把这项文字转视频技术分享给一批精选的研究人员和学者,他们将研究Sora,发现该AI程序被滥用的风险。Sora尚未向公众发布。



OpenAI此前发布了一款名为Dall-E 2的程序,可以根据文字描述生成静态图像。

OpenAI首席执行官阿尔特曼(Sam Altman)周四在X上让该平台用户把自己想给Sora的文字描述提交给他。然后,他分享了Sora根据这些描述生成的视频。

“我们想向你们展示Sora能做什么,”他在X上写道。“不用担心你的要求太细,或是难度太大!”

有人提出想要“一段海上自行车比赛的视频,让各种动物作为运动员骑自行车,采用无人机拍摄视角”。阿尔特曼在回复中发布了一段由Sora生成的视频,视频中有企鹅、海豚和其他水生生物骑自行车。

另一段视频显示,一位身穿围裙、面带微笑的白发女士邀请观众进入她的厨房。有人向阿尔特曼要一段“由一名祖母辈的网红主持的自制团子烹饪课程,背景是一个质朴的托斯卡纳乡村厨房,并配有电影级的灯光”,之后Sora生成了这段AI视频。

OpenAI表示,这项技术仍存在一些缺陷,包括一些空间问题。

该公司表示,它意识到Sora有可能制造错误信息和仇恨内容等。研究人员说,AI驱动的深度伪造已成为一种风险,可能会在2024年总统大选前给公众造成困惑。OpenAI曾表示,公司正在采取行动为大选做好准备,包括禁止将其工具用于政治造势活动。

布法罗大学(University at Buffalo)的Media Forensic Lab主任Siwei Lyu表示,在AI生成的视频和图像上加上水印可能会有所帮助,许多公司说它们会这样做。但他说,在很多情况下,水印是可以被移除或篡改的。

Lyu说,随着像Sora这样的AI程序不断涌现,除了由图像和音频深度伪造构成的现有挑战之外,这项技术将带来更多挑战。

OpenAI表示,被选来测试Sora可被滥用方式的专家组将就如何加强对该系统的保护提供反馈意见。

该公司表示:“我们也在开发有助于检测误导性内容的工具,比如检测分类器,它可以分辨视频是何时由Sora生成的。”

卡内基国际事务伦理委员会(Carnegie Council for Ethics in International Affairs)研究AI和监控技术的高级研究员Arthur Holland Michel说,使用图像分类器是积极的做法。该分类器在视频发布前对视频进行分析,以标记裸露或暴力等有问题的内容。不过,他表示,当像Sora这样的工具落入那些确实想利用新技术迭代造成伤害的老谋深算者手中时,事情会变得更加糟糕。

他说:“每当有功能更强大的新产品发布时,其可能被滥用的方式也会越多。”■ 
                                                                             
相关内容
+
读者评论
MORE +

热门排行榜
OR
+
Sora大火背后,成败是这个原因
2024-02-16 11:42
科技 视频

视频:OpenAI发布新工具Sora,可根据文字生成逼真AI视频

这款名为Sora的AI程序能够根据文字提示生成一段细节丰富的视频。

■OpenAI推出了一项新技术,利用人工智能(AI)可根据文字描述生成高质量视频。

该公司发布了几个生动、看似逼真的短视频,内容有几头长毛猛?象在雪地中前行;海浪拍打着悬崖边缘;人们的日常生活,比如正在读书或走在城市街道上。

OpenAI将这款新系统称为Sora。Sora会接收用户的文字提示,然后通过AI生成一段细节丰富的视频。Alphabet旗下谷歌(Google)以及Meta Platforms等许多公司都在寻求把握新的AI视频技术发展机会,OpenAI是其中之一。

背靠微软(Microsoft)的OpenAI开发了AI聊天机器人ChatGPT。OpenAI表示,正在把这项文字转视频技术分享给一批精选的研究人员和学者,他们将研究Sora,发现该AI程序被滥用的风险。Sora尚未向公众发布。



OpenAI此前发布了一款名为Dall-E 2的程序,可以根据文字描述生成静态图像。

OpenAI首席执行官阿尔特曼(Sam Altman)周四在X上让该平台用户把自己想给Sora的文字描述提交给他。然后,他分享了Sora根据这些描述生成的视频。

“我们想向你们展示Sora能做什么,”他在X上写道。“不用担心你的要求太细,或是难度太大!”

有人提出想要“一段海上自行车比赛的视频,让各种动物作为运动员骑自行车,采用无人机拍摄视角”。阿尔特曼在回复中发布了一段由Sora生成的视频,视频中有企鹅、海豚和其他水生生物骑自行车。

另一段视频显示,一位身穿围裙、面带微笑的白发女士邀请观众进入她的厨房。有人向阿尔特曼要一段“由一名祖母辈的网红主持的自制团子烹饪课程,背景是一个质朴的托斯卡纳乡村厨房,并配有电影级的灯光”,之后Sora生成了这段AI视频。

OpenAI表示,这项技术仍存在一些缺陷,包括一些空间问题。

该公司表示,它意识到Sora有可能制造错误信息和仇恨内容等。研究人员说,AI驱动的深度伪造已成为一种风险,可能会在2024年总统大选前给公众造成困惑。OpenAI曾表示,公司正在采取行动为大选做好准备,包括禁止将其工具用于政治造势活动。

布法罗大学(University at Buffalo)的Media Forensic Lab主任Siwei Lyu表示,在AI生成的视频和图像上加上水印可能会有所帮助,许多公司说它们会这样做。但他说,在很多情况下,水印是可以被移除或篡改的。

Lyu说,随着像Sora这样的AI程序不断涌现,除了由图像和音频深度伪造构成的现有挑战之外,这项技术将带来更多挑战。

OpenAI表示,被选来测试Sora可被滥用方式的专家组将就如何加强对该系统的保护提供反馈意见。

该公司表示:“我们也在开发有助于检测误导性内容的工具,比如检测分类器,它可以分辨视频是何时由Sora生成的。”

卡内基国际事务伦理委员会(Carnegie Council for Ethics in International Affairs)研究AI和监控技术的高级研究员Arthur Holland Michel说,使用图像分类器是积极的做法。该分类器在视频发布前对视频进行分析,以标记裸露或暴力等有问题的内容。不过,他表示,当像Sora这样的工具落入那些确实想利用新技术迭代造成伤害的老谋深算者手中时,事情会变得更加糟糕。

他说:“每当有功能更强大的新产品发布时,其可能被滥用的方式也会越多。”■ 
                                                                             
相关内容
+
 

读者评论
OR

 

分享:
每日头条
OR
+
最新资讯
OR
+
热门排行榜
OR
+
OR品牌理念
+

■ 或者,  留一段影像,回一曲挂牵。丝丝入扣、暖暖心灵 ,需飘过的醇厚与共。
■ 或者,热烈空雨伴芬芳泥土;绿绿生命缠锐意骄阳。
回望,回望,一马平川红酒飘散断归途。
■ 或者,灰蒙蒙空气重回道指一万四千点。滚动时光,照进现实,流逝过往,回归未来。

■ OR 新媒体是一个提供时政、经济、文化、科技等多领域资讯的平台,旨在为用户提供优质的阅读体验。网站的网址是oror.vip,用户可以通过浏览器在台式电脑 、笔记本电脑 、平板电脑 、手机访问。.......