先说句抱歉,原本想多展开写写Sora、元宇宙技术碰撞的结果,但近期个人时间有限,很多想写的及实验的部分还未附上,仅在此做个记录先!
伟大的发明,沉浸式体验,弱化虚拟与现实的壁垒,让沉浸式体验更加逼真,建立现实世界和孪生空间,将抽象世界具体化、形象化,open Ai刚出来的时候,就惊叹于他的创造力---【蘇小沐】
1
实验环境
Windows 11 专业工作站版,[23H2(22631.3085)] |
视侦通 ,[v4.2.1] |
MediaInfo ,[v23.10] |
1
(一)
Sora
1
Sora文生视频下载
2
视频大小
Sora 目前可以生成长达一分钟的视频,同时保持视觉质量并遵守用户的提示。
Sora 能够生成具有多个角色、特定类型的运动以及主题和背景的准确细节的复杂场景。该模型不仅了解用户在提示中要求的内容,还了解这些东西在物理世界中的存在方式。
Sora 还可以在单个生成的视频中创建多个镜头,以准确保留角色和视觉风格。
3
Sora模型
与 GPT 模型类似,Sora 使用 transformer 架构,释放出卓越的扩展性能。
Sora 是一种扩散模型,它从看起来像静态噪声的视频开始生成视频,然后通过多个步骤消除噪声来逐渐转换视频。Sora 能够一次生成整个视频或扩展生成的视频以使其更长。通过让模型一次看到许多帧,我们解决了一个具有挑战性的问题,即确保一个主题即使暂时离开视野也能保持不变。
与 GPT 模型类似,Sora 使用 transformer 架构,释放出卓越的扩展性能。我们将视频和图像表示为称为补丁的较小数据单元的集合,每个补丁都类似于 GPT 中的一个令牌。通过统一我们表示数据的方式,我们可以在比以前更广泛的视觉数据上训练扩散变压器,跨越不同的持续时间、分辨率和纵横比。Sora建立在DALL·E 和 GPT 模型。
它使用了 DALL·E 3,涉及为视觉训练数据生成高度描述性的标题。因此,该模型能够更忠实地遵循生成视频中用户的文本说明。Sora是能够理解和模拟现实世界的模型的基础,我们相信这一能力将是实现AGI的重要里程碑。
2
(二)
文生视频,让意象落地
[Sora (https://openai.com/sora)]
技术的迭代绝不是简单的1+1,而是呈指数甚至是爆发式增长。
1
化抽象为具体
Sora或许有望把我们天马行空的意象世界构造出来、将《春江花月夜》等古诗词中的极美意象灵动的展示出来,凭借高度细致的背景、复杂的多角度镜头,以及富有情感的多个角色变化来理解现实世界,还原现实世界,创造现实世界。
3
(三)
不足
技术落地,有反馈才更容易改进。想起以前领导和我说起一件事,以前有客户购买过某一款设备,但用的非常少,虽然单位也投入很多精力去改进,但少了一线用户方面的实际使用反馈,很难了解产品哪里不足,所以想到能改进的地方就不多。不怕客户反馈,就怕客户不反馈,让产品烂下去。
VR、AI换脸技术、元宇宙、ChatGPT、Sora等,科技总在不断进步,一切都会变的越来越便捷,但绝不是以牺牲,侵犯个人隐私来实现,历史的巨轮也在不断前行,不能也不会因为某些原因就停止不前。
书写片面,纯粹做个记录,有错漏之处欢迎指正。
公众号回复关键词【视频图像】自动获取资源合集。
【声明:欢迎转发收藏,个人创作不易,喜欢记得点点赞!!!转载引用请注明出处,著作所有权归 [蘇小沐] 所有】
【注:共享资源收集于官网或互联网公开材料,仅供学习研究,如有侵权请联系删除,谢谢!】
记录 |
开始编辑:2024年 02月 23日 |
|
END
原文始发于微信公众号(DFIR蘇小沐):【视频图像取证篇】视频模型Sora助力元宇宙,虚拟与现实的真正碰撞如此简单
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论