“相信我,这是你能用到的最强大的视觉生成模型。”4月15日,快手高级副总裁、社区科学线负责人盖坤在可灵2.0模型发布会上说。
这是在可灵1.0发布10个月后,快手方面对可灵全系模型的一次重要升级,包括文生图视频“可图大模型2.0”,以及视频生成大模型“可灵大模型2.0”。盖坤介绍,可灵2.0模型在动态质量、语义响应、画面美学等维度,保持全球领先;可图2.0模型在指令遵循、电影质感及艺术风格表现等方面显著提升。
贝壳财经记者注意到,可灵2.0还上线了一种可以将文字、图片、短视频甚至MMW等不同格式文件结合起来一起编辑的新交互模式“MVL(Multi-modal Visual Language直译为多模态视觉语言)”。
据了解,当前视频生成主要分文生视频和图生视频两种,快手副总裁、可灵AI负责人张迪就披露,85%的视频创作通过图生视频完成。有AI创作者告诉记者,当前业界主流的视频制作方式是首先通过文字生成图片,再通过图片生成视频。
而在盖坤的演示中,通过MVL方式,用户能够结合图像参考、视频片段等多模态信息,将脑海中的多维度复杂创意传达给AI,而不仅仅是文字的提示语句。如下图所示,用户使用AI生成视频时,在提示词中也可以夹带图片或视频。

快手高级副总裁、社区科学线负责人盖坤演示多模态交互方式。新京报贝壳财经记者罗亦丹/摄
“我们的理念是致力于研发很强大的基础模型,同时致力于定义一个人和AI更完备的沟通方式,而这背后,我们的愿景是让每个人都能用AI讲出好故事,希望这个愿望早日成真。”盖坤说。
(文章来源:新京报)