RTMP 概念
与 HTTP(超文本传输协议)同样是一个基于 TCP 的 Real Time Messaging Protocol(实时消息传输协议)。由 Adobe Systems 公司为 Flash 播放器和服务器之间音频、视频和数据传输开发的一种开放协议 。在国内被广泛的应用于直播 领域。HTTP 默认端口为 80,RTMP 则为 1935。 我们通过阅读 Adobe 的协议规范,通过与服务器建立 TCP 通信,根据协议格式生成与解析数据即可使用 RTMP 进行 直播。当然我们也可以借助一些实现了 RTMP 协议的开源库来完成这一过程。
RTMPDump
RTMPDump 是一个用来处理 RTMP 流媒体的开源工具包。它能够单独使用进行 RTMP 的通信,也可以集成到 FFmpeg 中通过 FFmpeg 接口来使用 RTMPDump。
交叉编译
在 Android 中可以直接借助 NDK 在 JNI 层调用 RTMPDump 来完成 RTMP 通信。但是首先必须得进行交叉编译。 RTMPDump 源码结构如下:
在根目录下提供了一个 Makefile 与一些 源文件。这里的源文件将会编译出一系列的可执行文件。然后我们需 要的并不是可执行文件,真正的对 RTMP 的实现都在 librtmp 子目录中。
在这个子目录中同样包含了一个 Makefile 文件。通过阅读 发现,它的源码并不多: OBJS=r log.o amf.o 。因此我们 不进行预编译,即直接放入 AS 中借助 cmakeLi 来进行编译。
这么做可以让我们方便的对库本身进行调试或 修改(实际上我们确实会稍微修改这个库的源码)。 在 AS 中复制 librtmp 置于: ,并为其编写 CMakeLi
# 预编译宏 set(CMAKE_C_FLAGS "${CMAKE_C_FLAGS} -DNO_CRYPTO" ) # 所有源文件放入 rtmp_source 变量 file(GLOB rtmp_source *.c) # 编译静态库 add_library(rtmp STATIC ${rtmp_source} )
在 中导入这个 CMakeLi
cmake_minimum_required(VERSION 3.4.1) # 导 入 其 他 目 录 cmakelist add_subdirectory(src/main/cpp/librtmp) add_library(XXX SHARED ...) #XXX需要链接rtmp库 target_link_libraries(XXX rtmp ...)
C++音视频开发学习资料:点击领取→音视频开发(资料文档+视频教程+面试题)(FFmpeg+WebRTC+RTMP+RTSP+HLS+RTP)
RTMP 视频数据
RTMP 视频流格式与 FLV 很相似,通过查看 FLV 的格式文档,就能够知道 RTMP 视频数据应该怎么拼接。
RTMP 中的数据就是由 FLV 的 TAG 中的数据区构成。
FLV tags 结构
如上图,第一个字节 0x09 表示此段数据为视频,数据大小为 0x00,0x00,0x2F 即 47,时间戳为 0x00,0x00,0x00,时间戳扩展也为 0x00。(第二行)流 ID:0x00,0x00,0x00。
接下来就是视频数据,通过此处的 数据大小字段得知,数据长为 47 字节。
则从 0x17 开始,一直到最后一行的 0xC0,就是数据区域,而最后的 0x00,0x00,0x00,0x3A 即 58,表示的是这个数据块除最后 4 个字节的总大小。
本处为视频数据,那么从 0x17 开始,数据内容则为下面的部分。
视频数据
AVCVIDEOPACKET
视频数据中 0x17 则表示了 1:关键帧与 7:高级视频编码 AVC,如果是普通帧,则此数据为 0x27。
而类型为: 0x00 表示这段数据为 AVC 序列头(avc sequence header)。
最后三个字节为合成时间。
而如果类型为 AVC 序列 头接下来的数据就是下面的内容:
C++音视频开发学习资料:点击领取→音视频开发(资料文档+视频教程+面试题)(FFmpeg+WebRTC+RTMP+RTSP+HLS+RTP)
AVC 序列头
在 AVCVIDEOPACKET 中如果类型为 0,则后续数据为:
0x01 为版本,后续数据按照上表记录,最后四字节上面说过:为这个数据块除最后 4 个字节的总大小。其中 SPS 与 PPS 是编码器在编码 H.264 视频时,在关键帧前会编码出的关于这个关键帧与需要参考该关键帧的 B/P 帧如何解码的内容,如:宽、高等信息。
其他
一般情况下,组装的 RTMPPacket(RTMPDump 中的结构体)为:
这里的 sps 与 pps 表示 AVC 序列头
所以对于视频的数据封装,AVC 序列头为:
H.264 数据
H.264 码流在网络中传输时实际是以 NALU 的形式进行传输的。 NALU 就是 NAL UNIT,NAL 单元。 NAL 全称 Network Abstract Layer, 即网络抽象层。在 H.264/AVC 视频编码标准中,整个系统框架被分为了两个层面:视频编码层面 (VCL)和网络抽象层面(NAL)。 其中,前者负责有效表示视频数据的内容,而后者则负责格式化数据并提供头 信息,以保证数据适合各种信道和存储介质上的传输。 我们平时的每帧数据就是一个 NAL 单元。 往 RTMP 包中填充的就是 NAL 数据,但不是直接将编码出来的数据填充进去。 一段包含了 N 个图像的 H.264 裸数据,每个 NAL 之间由: 00 00 00 01 或者 00 00 01 进行分割。 在分割符之后的第一个字节,就是表示这个 nal 的类型。
- 0x67:sps
- 0x68: pps
- 0x65: IDR 在将数据加入 RTMPPacket 的时候是需要去除分割符的。
所以完整的封包代码为:
NALU
NALU 就是 NAL UNIT,nal 单元。NAL 全称 Network Abstract Layer, 即网络抽象层,H.264 在网络上传输的结构。一 帧图片经过 H.264 编码器之后,就被编码为一个或多个片(slice),而装载着这些片(slice)的载体,就是 NALU 了 。
C++音视频开发学习资料:点击领取→音视频开发(资料文档+视频教程+面试题)(FFmpeg+WebRTC+RTMP+RTSP+HLS+RTP)
音频数据
RTMP 的音频数据相对视频比较简单,只需要根据是否为音频 audio specific config(记录音频的格式)。
如果为 audio specific config 拼接 0xAF,0x00,否则就只需要添加 0xAF,0x00。
0xAF 的由来:
我们的编码为:
- 10:AAC,3:44100 采样率
- 1:采样长度
- 1:声道。
- 按照位数表示数据就为:0xAF
而 audio specific config 只需要在发起推流时,发送音频数据之前发起一次即可。其数据为两字节:
第一个数据:AAC-LC 值为 2,占用 5 位,则数据为: 0001 0
第二个数据:采样率 44100 值为 4,占用 4 位,则数据为:0100
第三个数据:声道,双声道为 2,单声道为 1,则数据为:0010(双声道),0001(单声道) 最后三位为 0,这样组成的数据 5+4+4+3=16 位,两字节。
双声道:0x12 ,0x10
单声道:0x12 ,0x08
nginx-RTMP 服务器搭建
Linux 操作:
下载 nginx wget
解压
tar xvf nginx-1.15.3.
下载 nginx rtmp 模块
wget https://codeload.github.com/arut/nginx-rtmp-module//v1.2.1
解压
tar xvf v1.2.1
进入 nginx 目录
cd nginx-1.15.3
执行:
在这个过程中可能因为环境不同而出现不同错误,比如缺少 pcre、openssl 等,这时候就需要安装这些库。
编译完成后,安装在当前目录的 bin 目录下。
cd bin/conf
vim nginx.conf 修改为:
其实就是从 nginx-r 中拷贝
端口占用检查: lsof -i:8080
需要注意的是目录与端口是否被占用,比如 8080 端口被占用,可以改为了 8081,然后需要开放端口。
C++音视频开发学习资料:点击领取→音视频开发(资料文档+视频教程+面试题)(FFmpeg+WebRTC+RTMP+RTSP+HLS+RTP)
如果使用的阿里云服务器可以进入阿里云控制台开放
然后点击 配置规则 ,在新页面点击添加 安全组规则 ,开放 8081 端口,然后确定,就可以了。
配置完成后,就可以启动 nginx 了
在 nginx-1.15.3 目录 执行 bin/sbin/nginx 即可启动
bin/sbin/nginx -s stop 停止
一定要在 nginx-1.15.3 目录启动,因为上面的配置 error_log log debug; 会去执行命令的目录下查找 logs。
如果 error_log 改成一个绝对路径 那就没关系了。
在浏览器输入 【IP】:8081/stat ,能访问就表示配置完成了。
此时一旦有播放器或者推流器连接到搭建的服务器刷新 此界面就能够看到如下界面:(手机推流,ffplay、网页、potplayer 播放)