Cutter - Web视频剪辑工具原理浅析
最近一直在开发 web视频剪辑工具(cutter),这个工具可以方便老师们编辑拍摄好的视频。
这是一个挺有意思的项目,预计分多章和大家分享介绍。
本期主要介绍下其大体流程,方便大家对其原理有一个简单认知
Cutter 剪辑工具效果演示:
web编辑器
导出效果
阅读完本文,预计可以收获的知识点:
-
了解web视频剪辑工具 基本原理
-
实战一个ffmpeg+wasm+offscreen canvas demo
技术链路
全链路可以简单分为
-
页面依赖的底层:vesdk
-
页面核心交互:web剪辑工具
-
后端:视频架构-视频合成
问题抛出
为了更好的理解全链路,这里我们抛出两个问题,带着问题来看整体链路,增强我们的理解:
Q1:视频是怎么在网页端实现编辑预览的效果?
Q2:怎么保证预览效果和合成效果一致性?
Q1:视频是怎么在网页端实现编辑预览的效果
目前web视频编辑主要有两个方向
-
一种是使用原生JS,基于浏览器提供的
-
多媒体前端技术入门指南 - TeqNG [1]
-
腾讯云剪 - web多媒体技术在视频编辑场景的应用 [2]
-
爱奇艺云剪辑Web端的技术实现 [3]
-
另一种是直接使用WebAssembly将现有基于C/C++等代码的视频编辑框架编译到浏览器上运行
-
《VESDK技术演进之Web音视频编辑技术》
二者的对比,可以参考如下:
图片来源 《VESDK技术演进之Web音视频编辑技术》
vesdk采用的是第二种方式(ffmpeg+wasm),大体流程转换图可参考如下:
调度逻辑:
解码、绘制时尽力出帧frame,将frame放入缓存池中,上屏时结合raf 自行根据fps计算下一帧渲染时间点
剪辑中 音频、文字 是怎么绘制的:
音频:在主线程中,基于Web Audio的OpenAL API来构建
文字、特效:基于webgl shader等直接绘制
为了更好的理解上面的流程图,介绍下里面的一些关键名词
YUV是一种颜色编码格式,能够通过公式计算还原为RGB,相比于RGB编码体积占用更小。
R = Y + 1.140*V
G = Y - 0.394 U - 0.581 V
B = Y + 2.032*U
“Y”表示明亮度(Luminance或Luma),也就是灰阶值
“U”和“V”表示的则是色度(Chrominance或Chroma),作用是描述影像色彩及饱和度,用于指定像素的颜色
例如:通过YUV预览工具,我们可以看到各个分量单独显示时的成像
-
媒体内容源文件都是比较大的,为了便于传输和存储,需要对原视频通过编码来压缩,再通过容器封装将压缩后的视频、音频、字幕等组合到一个容器内,这就是 编码 和 容器封装 的过程(例如可以用 压缩饼干 和 封袋包装 来理解,会出现很多不同的压缩工艺和包装规格)
-
在播放端进行播放时,进行相应的 解封装 和 解码 ,得到原文件数据
在上述过程中,FFmpeg就是这样一款领先的多媒体框架,几乎实现了当下所有常见的数据封装格式、多媒体传输协议、音视频编解码器。
FFmpeg提供了两种调用姿势,可以面向不同场景需求:
-
调用方法一:应用层可以调用 ffmpeg [4] \ffprobe等命令行 cli 工具 来读写媒体文件;
// 例如:
ffmpeg -i tempalte.mp4 -pix_fmt yuv420p tempalte.yuv
可以看到解封装后,原文件体积是远大于1.1MB的
-
调用方法二:c层面可以调用 FFmpeg 下层编解码器等外部库用来实现编解码,获取原生图像和音频数据
// 可以参考该文章Mp4读取yuv数据
http://www.jianshu.com/p/f4516e6df9f1
// 几个关键api
av_read_frame 读取视频流的h264帧数据
avcodec_send_packet 将h264帧数据发送给解码器
avcodec_receive_frame 从解码器中读出解码后的yuv数据
// demo
void decode() {
char *path = "/template.mp4";
...
while(true) {
av_read_frame(avformat_context, packet);//读取文件中的h264帧
if (packet->stream_index == videoStream) {
int ret = avcodec_send_packet(avcodec_context, packet);//将h264帧发送到解码器
if (ret < 0) {
break;
}
while (true) {
int ret = avcodec_receive_frame(avcodec_context, frame);//从解码器获取帧
sws_scale(sws_context,
(uint8_t const * const *) frame->data,
frame->linesize, 0, avcodec_context->height, pFrameYUV->data,
pFrameYUV->linesize);//将帧数据转为yuv420p
fwrite(pFrameYUV->data[0], sizeof( uint8_t ), avcodec_context->width * avcodec_context->height, pFile);//将y数据写入文件中
fwrite(pFrameYUV->data[1], sizeof( uint8_t ), avcodec_context->width * avcodec_context->height / 4, pFile);//将u数据写入文件中
fwrite(pFrameYUV->data[2], sizeof( uint8_t ), avcodec_context->width * avcodec_context->height / 4, pFile);//将v数据写入文件中
}
}
}
...
}
WebAssembly是一种安全、可移植、效率高、文件小的格式,其提供的命令行工具wasm可以将高级语言(如 C++)编写的代码转换为浏览器可理解的机器码,所以实现了在浏览器中直接运行。
例如c代码 经过如下步骤,可以被浏览器直接执行
加法 demo小例子:
step1、可利用在线工具(http://mbebenita.github.io/WasmExplorer/)编写一个加法例子,然后下载得到 编译好的 test.wasm 文件
step2、加载test.wasm
step3、浏览器中直接运行
OffscreenCanvas
OffscreenCanvas [5] 非常有意思,这是一个离前端开发人员比较近的概念,它是一个可以脱离屏幕渲染的canvas对象,在主线程环境和web worker环境均有效。
OffscreenCanvas 一般搭配worker使用,目前主要用于两种不同的使用场景:
流程 | 优点 | 劣势 | |
---|---|---|---|
模式一:同步显示offscrrenCanvas中的帧 | step1、在 Worker 线程创建一个 OffscreenCanvas 做后台渲染step2、再把渲染好的缓冲区 Transfer 回主线程显示 | 主线程可以直接控制渲染内容 | canvas渲染受主线程影响 |
模式二:异步显示offscrrenCanvas中的帧 | step1、将主线程中 Canvas 转换为 OffscreenCanvas,并发送给worker线程step2、worker线程获取到OffscreenCanvas后,进行绘制计算操作,最后把绘制结果直接 Commit 到浏览器的 Display Compositor (相当于在 Worker 线程直接更新 Canvas 元素的内容,不走常规的渲染流程)(参考表格下面的图) | canvas渲染不受主线程影响- 避免绘制过程中的大量的计算阻塞主线程- 避免主线程的耗时任务阻塞渲染 | 主线程无法控制绘制内容 |
模式一:
// 主线程 进行渲染
const ctx = renderCanvas.getContext( '2d' );
const worker = new Worker( 'worker.js' );
worker.onmessage = function ( msg ) {
if (msg.data.method === 'transfer' ) {
ctx.drawImage(msg.data.buffer, 0 , 0 );
}
};
// worker线程
onmessage = async (event) => {
const offscreenCanvas = new OffscreenCanvas( 480 , 270 );
const ctx = offscreenCanvas.getContext( "2d" );
// ctx绘制工作
...
const imageBitmap = await self.createImageBitmap( new Blob([data.buffer]));
ctx.drawImage(imageBitmap, 0 , 0 );
let imageBitmap = offscreenCanvas.transferToImageBitmap();
// bitmap发送给主线程
postMessage({ method : "transfer" , buffer : imageBitmap}, [imageBitmap])
}
备注:postMessage 常规传递是通过拷贝的方式;对此postMessage提供了第二个参数,可以传入实现了 Transferable [6] 接口的数据(例如 ImageBitmap),这些数据的控制权会被转移到子线程,转移后主线程无法使用这些数据(会抛错)
备注:postMessage 常规传递是通过拷贝的方式;对此postMessage提供了第二个参数,可以传入实现了 Transferable [7] 接口的数据(例如 ImageBitmap),这些数据的控制权会被转移到子线程,转移后主线程无法使用这些数据(会抛错)
模式二:
// 主线程
const worker = new Worker('worker.js');
const offscreenCanvas = canvas.transferControlToOffscreen();
worker.postMessage({
canvas: offscreenCanvas,
}, [offscreenCanvas])
// worker
onmessage = async (event) => {
const canvas = event.data.canvas;
const ctx = canvas.getContext("2d");
// ctx绘制工作 ...
const imageBitmap = await self.createImageBitmap(new Blob([data.buffer]));
// 开始渲染
ctx.drawImage(imageBitmap, 0, 0);
}
一个对照试验:
对照 | 主线程解码+主线程渲染(参考动图 1) | |
---|---|---|
实验组 | demo1:主线程解码 + 主线程渲染 - 解码被卡住 :x:- 渲染被卡住 :x:(参考动图 2) | demo2:work 线程 解码 + 主线程canvas渲染 - 解码不被卡住 :white_check_mark:- 渲染被卡住 :x:(参考动图 3) |
实验组 | demo3:worker 线程 解码 + offscreenCanvas(同步模式) - 解码不被卡住 :white_check_mark:- 渲染被卡住 :x:(参考动图 4) | demo4:worker 线程 解码 + offscreenCanvas( 异步模式 ) - 解码不被卡住 :white_check_mark:- 渲染不被卡住 :white_check_mark:(参考动图 5) |
动图 1
动图 2
动图 3
动图 4
动图 5
通过实验,我们可以发现:
解码任务放在worker线程,不会被主线程打断;渲染任务放在offscreenCanvas,不会被主线程打断
Q2:怎么保证预览效果和合成效果一致性?
这个问题比较容易理解,受限于浏览器自身的性能和限制,前端合成问题较多,稳定性和性能不足,所以是采用服务端合成的方式。
为了保证服务端导出和前端编辑预览一致,约定一个草稿协议,云端合成时基于草稿做类似前端合成操作即可
可以看到 ffmpeg + wasm + worker + offscreenCanvas搭配起来后,还是能做出一款性能不错的有意思的音视频小工具
我们进入一个小实战环节 :point_down:
小实战探索:搭建一个 web版gif字幕离线生成器
之所以做下面这个实战
-
一方面是因为之前在校弄过一个app,底层原理是在服务端做gif字幕的合成,合成时使用到了ffmpeg,和视频剪辑底层有些相似;
-
另一方面是刚好尝试改造为web版本,以便实战下 ffmpeg + wasm + worker + offscreenCanvas
:cookie: 想要达到的目标:一个 web版gif字幕离线生成器(支持离线合成,也支持播控合成后的gif)
之前效果:
合成链路改造方案:
之前的链路,存在的问题:
-
云端合成,流量大时服务器CPU容易被挤满,导致服务器不可用
-
生成的gif不支持预览播控
具体链路
实现效果
具体代码
为了使用ffmpeg,我们需要将其编译为wasm,这里我们直接使用一个编译好的三方库 ffmpeg.wasm [8]
step1、加载worker
index.jsx
useEffect(() => {
const gifWorker = new Worker('http://localhost:3000/gif_worker_offscreen.js');
gifWorker.onmessage = function (msg) {
if (msg.data.method === 'transfer') {
setGifSrc(msg.data.url);
}
};
setGifWorker(gifWorker);
}, []);
<>
<canvas id='gif-canvas' ref={gifCanvasRef}/>
<button onClick={() => {
if (!gifWorker) {
return;
}
// 定义一个离屏canvas
const offscreenCanvas = gifCanvasRef.current.transferControlToOffscreen();
gifWorker.postMessage({
method: 'init',
canvas: offscreenCanvas,
inputList: gifInputList,
}, [offscreen]);
}}>生成gif
</button>
</>
step2、worker初始化,引入ffmepg
gif_worker_offscreen.js
importScripts('/ffmpeg.dev.js');
const {createFFmpeg, fetchFile} = self.FFmpeg;
const ffmpeg = createFFmpeg({
corePath: 'http://localhost:3000/ffmpeg-core.js',
...
});
onmessage = async (event) => {
const method = event.data.method;
if (method === 'init') {
if (!canvas) {
canvas = event.data.canvas;
...
ctx = canvas.getContext("2d");
}
await decodeResource();
play();
await playCore(ctx);
} else if (method === 'pause') {
pause();
} else if (method === 'play') {
play();
} else if (method === 'replay') {
...
playIndex = 0;
await playCore(ctx);
}
}
step3、合成gif
gif_worker_offscreen.js
async function decodeResource() {
if (!ffmpeg.isLoaded()) {
await ffmpeg.load();
}
ffmpeg.FS('writeFile', 'template.mp4', await fetchFile('http://localhost:3000/1/template.mp4'));
ffmpeg.FS('writeFile', 'template.ass', await replaceAssTemplate(inputList));
ffmpeg.FS('writeFile', 'tmp/Yahei', await fetchFile('http://localhost:3000/1/yahei.ttf'));
await ffmpeg.run('-i', 'template.mp4', '-vf', "subtitles=template.ass:fontsdir=/tmp:force_style='Fontname=Microsoft YaHei'", 'export.gif');
const data = ffmpeg.FS('readFile', 'export.gif');
await ffmpeg.run('-i', 'export.gif', '-vf', 'fps=25', '-s', '480x270', 'image%d.jpg');
const url = URL.createObjectURL(new Blob([data.buffer], {type: 'image/gif'}));
postMessage({method: "transfer", url});
}
step4、播控gif
gif_worker_offscreen.js
async function playCore(ctx) {
const totalLength = Math.floor(duration / timeInterval);
clearInterval(playTimer);
playTimer = setInterval(async () => {
if (!canPlay) {
return;
}
playIndex++;
if (playIndex === totalLength) {
clearInterval(playTimer);
return;
}
const data = ffmpeg.FS('readFile', `image${playIndex}.jpg`);
const imageBitmap = await self.createImageBitmap(new Blob([data.buffer]));
ctx.drawImage(imageBitmap, 0, 0);
}, timeInterval);
}
总结
以上便是做剪辑工具过程中,发现的一些比较有意思的点,本篇文章属于抛砖引玉,每个方面大家都还可以继续深挖,发现更多有意思的点。
在后续的分享中,打算分享下 web剪辑编辑器 前端部分的具体实现(前端工程师会比较熟悉的领域)
:heart: 谢谢支持
以上便是本次分享的全部内容,希望对你有所帮助^_^
喜欢的话别忘了 分享、点赞、收藏 三连哦~。
欢迎关注公众号 ELab团队 收货大厂一手好文章~
我们来自字节跳动,是旗下大力教育前端部门,负责字节跳动教育全线产品前端开发工作。
我们围绕产品品质提升、开发效率、创意与前沿技术等方向沉淀与传播专业知识及案例,为业界贡献经验价值。包括但不限于性能监控、组件库、多端技术、Serverless、可视化搭建、音视频、人工智能、产品设计与营销等内容。
欢迎感兴趣的同学在评论区或使用内推码内推到作者部门拍砖哦
字节跳动校/社招投递链接: http://job.toutiao.com/s/2jML178
内推码: C4QC2V7
参考资料
多媒体前端技术入门指南 - TeqNG: http://www.teqng.com/2021/06/29/%E5%A4%9A%E5%AA%92%E4%BD%93%E5%89%8D%E7%AB%AF%E6%8A%80%E6%9C%AF%E5%85%A5%E9%97%A8%E6%8C%87%E5%8D%97/
腾讯云剪 - web多媒体技术在视频编辑场景的应用: http://cloud.tencent.com/developer/article/1694656
爱奇艺云剪辑Web端的技术实现: http://blog.51cto.com/u_15282126/3000742
ffmpeg: http://ffmpeg.org/ffmpeg.html
OffscreenCanvas: http://developer.mozilla.org/zh-CN/docs/Web/API/OffscreenCanvas
Transferable: http://developer.mozilla.org/zh-CN/docs/Web/API/Transferable
Transferable: http://developer.mozilla.org/zh-CN/docs/Web/API/Transferable
ffmpeg.wasm: http://ffmpegwasm.netlify.app/
asm.js 和 Emscripten 入门教程 - 阮一峰的网络日志: http://www.ruanyifeng.com/blog/2017/09/asmjs_emscripten.html
Serverless Wasm: http://www.zhihu.com/column/c_1311629555841826816
webassembly 基础: http://quickapp.vivo.com.cn/webassembly/#toc-8
OffscreenCanvas - 概念说明及使用解析: http://zhuanlan.zhihu.com/p/34698375
OffscreenCanvas-离屏canvas使用说明: http://blog.csdn.net/netcy/article/details/103781610
- END -
- 使用 WebAssembly 打造定制 JS Runtime
- 前端也要懂算法,不会算法也能微调一个 NLP 预训练模型
- 联机游戏原理入门即入土 -- 入门篇
- Plasmo Framework:次世代的浏览器插件开发框架
- 深入理解 Mocha 测试框架:从零实现一个 Mocha
- Single Source of Truth:XCode SwiftUI 的界面编辑的设计理念
- 深入理解 D3.js 可视化库之力导向图原理与实现
- 浅析神经网络 Neural Networks
- Cutter - Web视频剪辑工具原理浅析
- 你可能需要一个四舍五入的工具函数
- 浅析eslint原理
- 最小编译器the-super-tiny-compiler
- Git存储原理及部分实现
- 浅谈短链的设计
- Web组件构建库-Lit
- 使用Svelte开发Chrome Extension
- Web3.0开发入门
- vscode插件原理浅析与实战
- 深入浅出 Web Audio API
- 探秘HTTPS