短视频软件开发SDK 需要具备哪些知识?

2020 年要属什么最火,肯定是短视频和直播带货了。我自己基本上每天晚上睡觉之前都会刷一会儿 douyin 短视频,不得不承认 douyin 的推荐算法是真 nb ,推荐的都是我的最爱 ???? 。那么 douyin 短视频这么 nb 我们可不可以自己模仿着也做一个? 想想都觉得难啊,但是还是可以模仿着做一个的。我们先来看一下效果,这只是第一个版本,具备的功能有限。后面会一直持续迭代下去!

短视频软件开发SDK 需要具备哪些知识?_音视频

那么,作为一个音视频零基础的人来说, 开发一款短视频 SDK 到底需要具备哪些知识呢? 下面就由我为大家介绍一翻(​​ps:以下学习路径仅代表个人观点​​)。

接下来的日子我准备从 0-1 写一个如何开发一款音视频编辑的 SDK 系列文章,下面是我的计划。

短视频 SDK 开发 (一) 开发一款短视频 SDK 需要具备哪些知识?

[短视频 SDK 开发 (二) 短视频 SDK 架构设计]

[短视频 SDK 开发 (三) FFmpeg + OpenGL ES + OpenSL ES + soundtouch 实现音视频播放器]

[短视频 SDK 开发 (四) Camera + MediaCodec + OpenGL ES + OpenSL ES + FFmpeg MP4Muxer 实现音视频试试录制封装为 MP4]

[短视频 SDK 开发 (五) 滤镜、贴纸、水印实现]

[短视频 SDK 开发 (六) 美颜特效实现]

[短视频 SDK 开发 (七) 音视频剪辑实现]

基础知识

1、你必须要有 ​「C/C++」​ 开发语言基础,可以看我之前写的文章

  • 音视频学习 (一) C 语言入门

  • 音视频学习 (二) C++ 语言入门

2、接下来就需要掌握 ​「JNI」​ 基础了

  • 音视频学习 (三) JNI 从入门到掌握

3、有了 ​「C/C++/JNI」​ 基础,你还要学会如何交叉编译 ​「FFmpeg」​ 等 C/C++ 库

  • 音视频学习 (四) 交叉编译动态库、静态库的入门学习

  • 音视频学习 (五) Shell 脚本入门

  • 音视频学习 (六) FFmpeg 4.2.2 交叉编译

4、有了以上的基础,那么就可以开始了解 音视频 的基础知识了

  • 雷神-视音频编解码技术零基础学习方法

  • 雷神-视音频数据处理入门:RGB、YUV像素数据处理

  • 雷神-视音频数据处理入门:PCM音频采样数据处理

  • 雷神-视音频数据处理入门:H.264视频码流解析

  • 雷神-视音频数据处理入门:AAC音频码流解析

  • 音视频学习 (七) 掌握音频基础知识并使用 AudioTrack、OpenSL ES 渲染 PCM 数据

  • 音视频学习 (八) 掌握视频基础知识并使用 OpenGL ES 2.0 渲染 YUV 数据

5、现在可以入手音视频 AAC 、H264 软硬编解码了

  • Libfdkaac 音频编解码

  • Libx264 视频编码

  • Android MediaCodec AAC 硬编解码

  • Android MediaCodec H264 硬编解码

  • FFmpeg API 实现音频 AAC 软编解码

  • FFmpeg API 实现视频 H264 软编解码

  • MP3 编解码

  • ffmpeg 基于 h264,AAC 文件打包为 MP4

  • Java API 实现音视频播放(mp3/mp4/pcm/yuv)

  • Native 端实现音视频播放(PCM/YUV)

基础知识差不多就这些了,如果有落下的后面再补上

中级知识

1、FFmpeg + OpenGL ES + OpenSL ES + soundtouch 完成音视频播放

  • Google 官方的音视频播放库 -grafika

  • bilibili 官方开源的音视频播放库- ijkplayer

  • 当然也可以参考我自己的 AVEditor 音视频播放模块

2、OpenGL ES 渲染视频是必须要会的

  • NDK_OpenGLES_3_0

3、Camera + MediaCodec + OpenGL ES + OpenSL ES + FFmpeg MP4Muxer 实现音视频录制为 MP4 格式

  • camera_recorder

4、RTMP 推流实现

  • AVRtmpPushSDK

高级知识

1、音视频变速、变调录制

  • 音频-soundtouch

  • 视频修改时间戳即可达到变速录制

2、音视频录制实时滤镜实现

  • android-gpuimage

3、分段录制、水印、背景音

「分段录制:」​ 每次录制完成将录制的路径保存下来,最后将这些 MP4 的文件合并为一个 MP4 文件

「水印:」​ 拿着上一个视频处理的 纹理 ID ,在这基础上渲染一个 BItmap 即可

「背景音混音:」​ 可以参考如下实现代码

/**
* 参考地址:https://www.shangmayuan.com/a/6daeefedbecb463f9dfce318.html
* 归一算法:http://www.cppblog.com/jinq0123/archive/2007/10/31/35615.aspx
* 能量值实现:https://www.jianshu.com/p/d3745dd23056
* 实现原理:
* 其实音频混音的核心原理就是将两个音频的原始byte数据进行叠加,
* 很是简单的 + 起来,好比某个位置的数据是 1 而另外一个音频一样位置是 2 加起来就是3,
* 这样就完成了音频的混音,固然这是最基础也是最垃圾的混音算法,咱们这里会介绍其中的一种混音算法,
* 基本上能够达到商业使用的。那就是归一化混音算法。
*
* C = A + B - A * B / (数据类型的最大值);
* byte数据就是
* C = A + B - A * B / 127;
* short数据就是
* C = A + B - A * B / 32767;
* //vol的取值范围 一般是小于10,大于0的,若是是0的话,就没有声音了,若是太大了就会出现杂音
* C = A * vol;
*
*
* 混音算法总结:
* 总结一下我对混音算法的学习,大概有以下几种方式:
* 1. 直接加和
* 2. 加和后再除以混音通道数,防止溢出
* 3. 加和并箝位,如有溢出就设最大值
* 4. 饱和处理,接近最大值时进行扭曲(“软件混音的实现”一文算法就是这类)
* 5. 归一化处理,全部乘个系数,使幅值归一化。(只适用于文件)
* 6. 衰减因子法,用衰减因子限制幅值[1]。
*/

extern "C"
JNIEXPORT jbyteArray JNICALL
Java_org_doubango_ngn_media_mixer_MultiAudioMixer_audioMix2(JNIEnv *env, jobject instance,
jbyteArray sourceA_,
jbyteArray sourceB_,
jbyteArray dst_, jfloat firstVol,
jfloat secondVol) {
jbyte *sourceA = env->GetByteArrayElements(sourceA_, NULL);
jbyte *sourceB = env->GetByteArrayElements(sourceB_, NULL);
jbyte *dst = env->GetByteArrayElements(dst_, NULL);

//归一化混音
int aL = env->GetArrayLength(sourceA_);
int bL = env->GetArrayLength(sourceB_);
//除以通道数量
int row = aL / 2;

short sA[row];
for (int i = 0; i < row; ++i) {
sA[i] = (short) ((sourceA[i * 2] & 0xff) | (sourceA[i * 2 + 1] & 0xff) << 8);
}

short sB[row];
for (int i = 0; i < row; ++i) {
sB[i] = (short) ((sourceB[i * 2] & 0xff) | (sourceB[i * 2 + 1] & 0xff) << 8);
}

short result[row];
for (int i = 0; i < row; ++i) {
int a = (int) (sA[i] * firstVol);
int b = (int) (sB[i] * secondVol);
if (a < 0 && b < 0) {
int i1 = a + b - a * b / (-32768);
if (i1 > 32768) {
result[i] = 32767;
} else if (i1 < -32768) {
result[i] = -32768;
} else {
result[i] = (short) i1;
}
} else if (a > 0 && b > 0) {
int i1 = a + b - a * b / 32767;
if (i1 > 32767) {
result[i] = 32767;
} else if (i1 < -32768) {
result[i] = -32768;
} else {
result[i] = (short) i1;
}
} else {
int i1 = a + b;
if (i1 > 32767) {
result[i] = 32767;
} else if (i1 < -32768) {
result[i] = -32768;
} else {
result[i] = (short) i1;
}
}
}
for (int i = 0; i < row; ++i) {
dst[i * 2 + 1] = (jbyte) ((result[i] & 0xFF00) >> 8);
dst[i * 2] = (jbyte) (result[i] & 0x00FF);
}

jbyteArray result1 = env->NewByteArray(aL);
env->SetByteArrayRegion(result1, 0, aL, dst);

env->ReleaseByteArrayElements(sourceA_, sourceA, 0);
env->ReleaseByteArrayElements(sourceB_, sourceB, 0);
env->ReleaseByteArrayElements(dst_, dst, 0);
return result1;
}
复制代码

5、人脸识别-特效

  • 可以使用 OpenCV 来做人脸识别,拿到人脸特征点位,最后利用这些点位用 OpenGL 绘制绘制出来就行了。

6、音视频剪辑技术


总结

目前能想到的从 0-1 开发一款短视频 SDK 需要具备的知识大概就是这些。其实学习这些知识相对而言时间成本都比较高,因为每一个知识点基本上都是一个独立的,就拿 OpenGL 来说, 要学这门知识基本上肯定是要按 月 为单位来计算。当然不要看着学习成本高,就直接放弃了,一般来说高投入肯定会有高回报的。好了,短视频入门开发就介绍到这里了。下面推荐一个目前我自己开源的零基础音视频进阶路线项目, 有需要的可以关注 star 一波 AVSample

贴一张进阶路线图

短视频软件开发SDK 需要具备哪些知识?_数据_02