可灵AI图生视频的基础功能实操 图生视频功能允许用户上传一张图片,可灵大模型会基于对图片的理解,生成 5 秒或 10 秒的动态视频;若同时输入图片和文本描述,模型将根据……
可灵AI图生视频的基础功能实操
图生视频功能允许用户上传一张图片,可灵大模型会基于对图片的理解,生成 5 秒或 10 秒的动态视频;若同时输入图片和文本描述,模型将根据文本内容把图片转化为一段视频。该功能同样支持 “标准” 与 “高品质” 两种生成模式,以及 16:9、9:16 与 1:1 三种画幅比例,为用户的视频创作提供了丰富选择。
从视频创作角度看,图生视频让创作者能够利用提前准备好的图片生成动态视频,大大降低了专业视频的创作成本和门槛,因此成为当前创作者使用频率较高的功能。从创意角度而言,可灵 AI 为用户提供了全新的创意空间,用户可以通过文本控制图片中主体的运动,实现诸如 “老照片复活”“与小时候的自己拥抱”“蘑菇变企鹅” 等创意效果,充分展现了其作为创意工具的无限潜力。
1、提示词公式
提示词 = 主体+运动,背景+运动 。。。。。。
主体:指图片中的人物、动物、物体等主要对象。
运动:是目标主体期望实现的运动轨迹。
背景:即图片中的背景部分。
该公式的核心在于主体和运动。与文生视频不同,图生视频已有现成场景,用户只需描述图像中的主体及其希望实现的运动即可。若涉及多个主体的不同运动,依次列举描述,可灵 AI 会依据用户表达和对图片的理解,扩写提示词,生成符合预期的视频。
例如,想要实现 “让画中的蒙娜丽莎戴上墨镜” 的效果,仅输入 “戴墨镜” 时,模型可能难以准确理解指令,更可能生成具有运镜效果的画幅展览视频(尤其是照片类图片,容易生成静止视频,因此不建议上传带有相框的图片)。而输入 “蒙娜丽莎用手戴上墨镜”,或者对于多主体情况,如 “蒙娜丽莎用手戴上墨镜,背景出现一道光”,模型就能更准确地响应指令。
2、操作流程
第一步:打开可灵AI官网:https://jimeng.jianying.com并登陆;
第二步:点击“AI视频”进入视频生成页面并选择“图生视频”;
第三步:上传首帧图、尾帧图(可使用文生图 AI 生成的图片作为首尾帧图),并在页面中输入图片创意描述,同时设置生成模式、生成时长、视频比例、生成数量等参数。
例:
首帧图、尾帧图:使用文生图AI生成;
图片创意描述:兔子在快乐的跳舞;
生成模式:高品质
生成时长:5s
视频比例16:9
生成数量:1条
第四步:生成视频
消耗相应灵感值生成视频。
3、使用小技巧
(1)与文生视频类似,尽量使用简单的词语和句子结构,便于模型理解。
(2)描述的运动应符合物理规律,优先选择图片中可能发生的运动进行描述。
(3)若描述内容与图片相差较大,可能会导致镜头切换。
(4)目前较难生成复杂的物理运动,如球类的弹跳、高空抛物等场景。
还没有评论呢,快来抢沙发~