新京报客户端

好新闻 无止境

立即打开
发力视频生成!PixelDance将在本月底前上线即梦和豆包
新京报 记者 白金蕾 编辑 岳彩周
2024-11-14 22:00
有媒体报道称,字节跳动视频生成模型PixelDance将很快在即梦AI(人工智能)上线,面向公众开放使用,具体的上线时间将会早于Sora正式发布的时间。接近字节跳动的知情人士称,相关信息属实。

新京报贝壳财经讯(记者 白金蕾)11月14日,有媒体报道称,字节跳动视频生成模型PixelDance将很快在即梦AI(人工智能)上线,面向公众开放使用,具体的上线时间将会早于Sora正式发布的时间。接近字节跳动的知情人士称,相关信息属实。此外,记者从知情人士处了解到,豆包也将于本月底上线视频生成模型。


Runway联合创始人Cristóbal Valenzuela曾在11月9日称,OpenAI计划在大约两周内发布Sora。


11月8日,字节跳动旗下的AI内容平台即梦AI宣布,即日起,由字节跳动自研的视频生成模型Seaweed面向平台用户正式开放。用户登录后,在“视频生成”功能下,视频模型选择“视频S2.0”即可体验。当时即梦AI官方还透露,近期,Seaweed和Pixeldance两款视频生成模型的Pro版也将开放使用。


9月底,字节跳动宣布向AI视频领域进军,发布豆包模型家族的两款视频生成模型Seaweed和Pixeldance,并通过即梦AI、火山引擎分别面向创作者和企业客户小范围邀测。据介绍,该模型已经过剪映、即梦AI等业务场景的打磨和迭代,基于DiT(Diffusion Transformer,扩散模型的一种)架构的模型能实现大幅度运动画面流畅。


值得一提的是,本次开放使用的豆包视频生成模型Seaweed是该款模型的标准版,除具备上述能力,在生成效率方面有较明显的优势。测试显示,该模型仅需60秒就能生成时长5秒的高质量AI视频,大幅领先于国内业界3分钟至5分钟的前沿水平。


Seaweed和Pixeldance Pro版模型能实现自然连贯的多拍动作与多主体复杂交互,攻克了多镜头切换的一致性难题,在镜头切换时可同时保持主体、风格、氛围的一致性,适配电影、电视、电脑、手机等各种设备的比例,可以更好地服务于专业创作者和艺术家们。


编辑 岳彩周

校对 卢茜

相关推荐
“五一”期间,全市大型特种设备将实现智慧监管
北京
一张图和一段音频就能生成视频,即梦多模态视频生成功能内测在即
科技
新闻8点见丨事关休假、食品添加剂、育儿补贴等,六部门重磅发声
时事
豆包文生图能力升级 支持一键生成含指定文字的图片
科技
最新一周网信资讯来了!
新京号
“小作坊下药就是猛”,找不到工作的年轻人靠AI半年赚30万
新京号
中国AI大模型测评报告:公众及传媒行业大模型使用与满足研究
科技

新京报报料邮箱:67106710@bjnews.com.cn