DecodeVedio.cpp 19 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179180181182183184185186187188189190191192193194195196197198199200201202203204205206207208209210211212213214215216217218219220221222223224225226227228229230231232233234235236237238239240241242243244245246247248249250251252253254255256257258259260261262263264265266267268269270271272273274275276277278279280281282283284285286287288289290291292293294295296297298299300301302303304305306307308309310311312313314315316317318319320321322323324325326327328329330331332333334335336337338339340341342343344345346347348349350351352353354355356357358359360361362363364365366367368369370371372373374375376377378379380381382383384385386387388389390391392393394395396397398399400401402403404405406407408409410411412413414415416417418419420421422423424425426427428429430431432433434435436437438439440441442443444445446447448449450451452453454455456457458459460461462463464465466467468469470471472473474475476477478479480481482483484485486487488489490491492493494495496497498499500501502503504505506507508509510511512513514515516517518519520521522523524525526527528529530531532533534535536537538539540541542543544545546547548549550551552553554555556557558559560561562563564565566567568569570571572573574575576577578579580581582583584585586587588589590591592593594595596597598599600601602603604605606607608
  1. #include "DecodeVedio.h"
  2. #include "spdlog/spdlog.h"
  3. #include <QImage>
  4. #include <QThread>
  5. extern "C"
  6. {
  7. #include <libavcodec/avcodec.h>
  8. #include <libavformat/avformat.h>
  9. #include <libswscale/swscale.h>
  10. #include <libavutil/imgutils.h>
  11. }
  12. DecodeVedio::DecodeVedio(QThread* thread, QObject* parent) : QObject(parent) , m_thread(thread)
  13. {
  14. /* 在连接之前调用,移动到新的线程 */
  15. this->moveToThread(thread);
  16. m_startThread.setSingleShot(true);
  17. connect(&m_startThread, &QTimer::timeout, this, &DecodeVedio::do_startDecodeVedio);
  18. thread->start();
  19. }
  20. DecodeVedio::~DecodeVedio()
  21. {
  22. exitThread();
  23. if(m_thread != nullptr)
  24. {
  25. if(m_thread->isRunning())
  26. {
  27. m_thread->quit();
  28. m_thread->wait();
  29. }
  30. }
  31. if(m_initFFmpeg)
  32. {
  33. freeFFmpeg();
  34. }
  35. if(!m_queueImage.isEmpty())
  36. {
  37. int size = m_queueImage.count();
  38. for(int i = 0; i < size; i++)
  39. {
  40. auto image = m_queueImage.dequeue();
  41. if (image)
  42. {
  43. delete image;
  44. }
  45. }
  46. }
  47. }
  48. /* 开始解码视频 */
  49. void DecodeVedio::startDecodeVedio()
  50. {
  51. if(m_isRunning)
  52. {
  53. return;
  54. }
  55. if(!m_initFFmpeg)
  56. {
  57. SPDLOG_WARN("未初始化FFMPEG...");
  58. return;
  59. }
  60. /* 开启定时器,进入槽函数,就进入了新的线程 */
  61. m_startThread.start(0);
  62. }
  63. /* 停止解码视频,退出工作函数,线程未停止 */
  64. void DecodeVedio::stopDecodeVedio()
  65. {
  66. if(!m_isRunning)
  67. {
  68. return;
  69. }
  70. m_isRunning = false;
  71. m_fileName = QString();
  72. // /* 等待线程执行结束 */
  73. // while(true)
  74. // {
  75. // if(m_threadStopped)
  76. // {
  77. // break;
  78. // }
  79. // /* 睡眠10ms */
  80. // std::this_thread::sleep_for(std::chrono::milliseconds(10));
  81. // }
  82. }
  83. /* 设置当前播放位置,单位是微秒 */
  84. void DecodeVedio::setCurrentPos(quint64 pos)
  85. {
  86. // AV_TIME_BASE
  87. qint64 target_pos = m_startPos + pos;
  88. SPDLOG_DEBUG("设置播放位置:{}",target_pos);
  89. /* 暂停解码 */
  90. m_pauseDecode = true;
  91. /* 第二个参数设置为-1,表示所有流都跳转 */
  92. int ret = av_seek_frame(m_pFormatContext, -1, target_pos, AVSEEK_FLAG_ANY);
  93. if(ret < 0)
  94. {
  95. SPDLOG_WARN("跳转失败...");
  96. }
  97. /* 清空队列 */
  98. m_mutexQueue.lock();
  99. int size = m_queueImage.count();
  100. for(int i = 0; i < size; i++)
  101. {
  102. auto image = m_queueImage.dequeue();
  103. if (image)
  104. {
  105. delete image;
  106. }
  107. }
  108. m_mutexQueue.unlock();
  109. SPDLOG_INFO("跳转完成 , queue {}", m_queueImage.count());
  110. /* 继续解码 */
  111. m_pauseDecode = false;
  112. }
  113. /* 获取当前播放位置 */
  114. qint64 DecodeVedio::getCurrentPos()
  115. {
  116. return m_currentPos - m_startPos;
  117. }
  118. /* 获取视频时长 */
  119. qint64 DecodeVedio::getDuration()
  120. {
  121. return m_duration;
  122. }
  123. /* 唤醒队列不满条件变量 */
  124. void DecodeVedio::wakeUpCondQueueNoEmpty()
  125. {
  126. m_condQueueNoFull.wakeAll();
  127. }
  128. /**
  129. * @brief 获取一帧图像,队列为空就返回nullptr,这个函数应该是运行在UI线程中的
  130. * @warning 传出这个指针后,队列就出队了,内存需要外面获取的实例释放
  131. * @return QImage* 一帧图像的指针
  132. */
  133. QImage* DecodeVedio::getOneImage()
  134. {
  135. if(m_queueImage.count() == 0)
  136. {
  137. // SPDLOG_TRACE("队列为空...");
  138. return nullptr;
  139. }
  140. // SPDLOG_TRACE("******************************** 队列中图片个数:{} ",m_queueImage.count());
  141. m_mutexQueue.lock();
  142. auto image = m_queueImage.dequeue();
  143. m_mutexQueue.unlock();
  144. /* 唤醒可能阻塞住的解码线程,队列中的图片低于20之后再唤醒 */
  145. if(m_queueImage.count() < 20)
  146. {
  147. m_condQueueNoFull.wakeAll();
  148. }
  149. return image;
  150. }
  151. /* 获取一帧图像,直到有图像为止 */
  152. QImage* DecodeVedio::getOneImageUntilHave()
  153. {
  154. QImage* image = nullptr;
  155. if(m_queueImage.count() == 0)
  156. {
  157. m_mutexQueue.lock();
  158. m_condQueueNoEmpty.wait(&m_mutexQueue);
  159. image = m_queueImage.dequeue();
  160. m_mutexQueue.unlock();
  161. }
  162. return image;
  163. }
  164. /**
  165. * @brief 获取每秒的帧数
  166. *
  167. * @return int 正值表示帧数,-1表示未知,-2表示HEVC
  168. */
  169. int DecodeVedio::getFrameCount()
  170. {
  171. AVFormatContext *pFormatCtx = NULL;
  172. avformat_open_input(&pFormatCtx, m_fileName.toStdString().c_str(), NULL, NULL);
  173. avformat_find_stream_info(pFormatCtx, NULL);
  174. /* 找到视频流 */
  175. int videoStreamIndex = -1;
  176. for (int i = 0; i < pFormatCtx->nb_streams; i++)
  177. {
  178. if (pFormatCtx->streams[i]->codecpar->codec_type == AVMEDIA_TYPE_VIDEO) {
  179. videoStreamIndex = i;
  180. break;
  181. }
  182. }
  183. int fps = 0;
  184. /* 获取视频格式是hevc还是h.264 */
  185. enum AVCodecID codecID = pFormatCtx->streams[videoStreamIndex]->codecpar->codec_id;
  186. if (codecID == AV_CODEC_ID_HEVC)
  187. {
  188. SPDLOG_DEBUG("视频格式是HEVC");
  189. fps = -2;
  190. // AVPacket packet;
  191. // int frameCount = 0;
  192. // double timeBase = av_q2d(pFormatCtx->streams[videoStreamIndex]->time_base);
  193. // double duration = 2.0; // Duration in seconds
  194. // while (av_read_frame(pFormatCtx, &packet) >= 0)
  195. // {
  196. // if (packet.stream_index == videoStreamIndex)
  197. // {
  198. // double packetTime = packet.pts * timeBase;
  199. // if (packetTime <= duration) {
  200. // frameCount++;
  201. // } else {
  202. // break;
  203. // }
  204. // }
  205. // av_packet_unref(&packet);
  206. // }
  207. // fps = frameCount / duration;
  208. }
  209. else if(codecID == AV_CODEC_ID_H264)
  210. {
  211. SPDLOG_DEBUG("视频格式是H.264");
  212. /* 获取到分子和分母,一除就是帧率 */
  213. AVRational frameRate = pFormatCtx->streams[videoStreamIndex]->avg_frame_rate;
  214. fps = frameRate.num*1.0 / frameRate.den;
  215. // SPDLOG_DEBUG("分子:{} 分母:{} 帧率:{}",frameRate.num, frameRate.den, fps);
  216. }else
  217. {
  218. fps = 30;
  219. }
  220. avformat_close_input(&pFormatCtx);
  221. return fps;
  222. }
  223. void DecodeVedio::setVideoSize(int width, int height)
  224. {
  225. m_width = width;
  226. m_height = height;
  227. /* 重新初始化缩放参数 */
  228. // sws_freeContext(m_sws_ctx);
  229. /* 初始化Sws Context,这是转换规则,转换成RGB */
  230. m_sws_ctx = sws_getContext( m_pCodecCtx->width, m_pCodecCtx->height, m_pCodecCtx->pix_fmt, /* 原图像大小和格式 */
  231. m_width, m_height, AV_PIX_FMT_RGB24, /* 目标图像的大小和格式 */
  232. SWS_BICUBIC,
  233. nullptr,
  234. nullptr,
  235. nullptr);
  236. }
  237. /* 初始化函数 */
  238. void DecodeVedio::initFFmpeg(const QString& fileName)
  239. {
  240. if(fileName != m_fileName)
  241. {
  242. m_fileName = fileName;
  243. if(m_initFFmpeg)
  244. {
  245. freeFFmpeg();
  246. }
  247. }else
  248. {
  249. /* 清空队列 */
  250. int size = m_queueImage.count();
  251. for(int i = 0; i < size; i++)
  252. {
  253. auto image = m_queueImage.dequeue();
  254. if (image)
  255. {
  256. delete image;
  257. }
  258. }
  259. m_queueImage.clear();
  260. return;
  261. }
  262. /* 清空队列 */
  263. int size = m_queueImage.count();
  264. for(int i = 0; i < size; i++)
  265. {
  266. auto image = m_queueImage.dequeue();
  267. if (image)
  268. {
  269. delete image;
  270. }
  271. }
  272. m_queueImage.clear();
  273. SPDLOG_DEBUG("开始初始化FFMPEG");
  274. /* 注册所有的解码器,从4.0开始就不需要这个初始化了 */
  275. // av_register_all();
  276. /* 存储文件格式信息 */
  277. /* 打开文件,读取视频文件的头信息,放在第一个参数的结构体中 */
  278. int ret = avformat_open_input(&m_pFormatContext, m_fileName.toStdString().c_str(), nullptr, nullptr);
  279. if(ret != 0)
  280. {
  281. SPDLOG_WARN("打开视频文件错误,错误代码:{}",ret);
  282. return;
  283. }
  284. ret = 0;
  285. /* 检查视频容器内部的流信息,将流存储到了pFormatContext->streams中
  286. * 这个会补充avformat_open_input()没有获取到的信息 */
  287. ret = avformat_find_stream_info(m_pFormatContext, nullptr);
  288. if(ret < 0)
  289. {
  290. SPDLOG_WARN("获取视频流错误,错误代码:{}",ret);
  291. return;
  292. }
  293. m_duration = m_pFormatContext->duration;
  294. m_currentPos = 0;
  295. m_startPos = m_pFormatContext->start_time;
  296. // SPDLOG_DEBUG("开始时间:{} 时长:{}",m_startPos, m_duration);
  297. /* 一个调试函数,将流信息输出到控制台 */
  298. av_dump_format(m_pFormatContext, 0, m_fileName.toStdString().c_str(), 0);
  299. /************ 找到视频流 ************/
  300. int i = 0;
  301. AVCodecParameters *pCodecCtxOrig = nullptr;
  302. for(i = 0;i < m_pFormatContext->nb_streams; i++)
  303. {
  304. if(m_pFormatContext->streams[i]->codecpar->codec_type == AVMEDIA_TYPE_VIDEO)
  305. {
  306. m_videoStream = i;
  307. break;
  308. }
  309. }
  310. if(m_videoStream == -1)
  311. {
  312. SPDLOG_WARN("没有找到视频流");
  313. return;
  314. }
  315. SPDLOG_INFO("找到视频流");
  316. pCodecCtxOrig = m_pFormatContext->streams[m_videoStream]->codecpar;
  317. SPDLOG_INFO("获取视频流参数成功!");
  318. /* 使用编码器指向流 */
  319. AVCodec *pCodec = nullptr;
  320. /* 找到解码器 */
  321. pCodec = avcodec_find_decoder(pCodecCtxOrig->codec_id);
  322. if(pCodec == nullptr)
  323. {
  324. SPDLOG_WARN("没有找到解码器");
  325. return;
  326. }
  327. SPDLOG_TRACE("找到解码器");
  328. /* 复制上下文,先分配空间,后面记得释放空间 */
  329. m_pCodecCtx = avcodec_alloc_context3(pCodec);
  330. SPDLOG_TRACE("分配空间成功!");
  331. /* 将视频流中的编码器参数拷贝下来,这个函数不是线程安全的 */
  332. if(avcodec_parameters_to_context(m_pCodecCtx, pCodecCtxOrig) != 0)
  333. {
  334. SPDLOG_WARN("复制上下文错误");
  335. return;
  336. }
  337. SPDLOG_INFO("复制上下文成功!");
  338. if(avcodec_open2(m_pCodecCtx, pCodec, nullptr) < 0)
  339. {
  340. SPDLOG_ERROR("打开解码器错误");
  341. return;
  342. }
  343. SPDLOG_TRACE("打开编码器成功!");
  344. /******** 读取数据(解码数据) ********/
  345. m_packet = av_packet_alloc();
  346. av_init_packet(m_packet);
  347. /********* 创建两个pFrame,一个存放原始数据,一个存放转换后的RGB数据 **********/
  348. m_pFrame = av_frame_alloc();
  349. if(m_pFrame == nullptr)
  350. {
  351. SPDLOG_ERROR("创建pFrame错误");
  352. return;
  353. }
  354. m_pFrameRGB = av_frame_alloc();
  355. if(m_pFrameRGB == nullptr)
  356. {
  357. SPDLOG_ERROR("创建pFrameRGB错误");
  358. return;
  359. }
  360. int numBytes = 0;
  361. /* 初始化pFrameRGB */
  362. numBytes = av_image_get_buffer_size(AV_PIX_FMT_RGB24, m_pCodecCtx->width, m_pCodecCtx->height, 1);
  363. m_buffer = (uint8_t *)av_malloc(numBytes * sizeof(uint8_t));
  364. /* 获取视频相关信息 */
  365. m_width = m_pCodecCtx->width;
  366. m_height = m_pCodecCtx->height;
  367. m_frameCount = m_pFormatContext->streams[m_videoStream]->nb_frames;
  368. /* 这个函数的实际作用是将buffer设置给pFrameRGB作为原始数据的内存区域 */
  369. av_image_fill_arrays(m_pFrameRGB->data, m_pFrameRGB->linesize, m_buffer, AV_PIX_FMT_RGB24, m_pCodecCtx->width, m_pCodecCtx->height, 1);
  370. /********** 创建一个SwsContext结构体,主要为了格式转化的时候使用 ***********/
  371. /* 初始化Sws Context,这是转换规则,转换成RGB */
  372. m_sws_ctx = sws_getContext( m_pCodecCtx->width, m_pCodecCtx->height, m_pCodecCtx->pix_fmt, /* 原图像大小和格式 */
  373. m_width, m_height, AV_PIX_FMT_RGB24, /* 目标图像的大小和格式 */
  374. SWS_BILINEAR, /* 双线性 */
  375. nullptr,
  376. nullptr,
  377. nullptr);
  378. m_initFFmpeg = true;
  379. SPDLOG_INFO("FFMPEG初始化完成!");
  380. /* 这里不能释放,否则会出问题 */
  381. // avcodec_parameters_free(&pCodecCtxOrig);
  382. }
  383. /* 取消ffmpeg初始化函数 */
  384. void DecodeVedio::freeFFmpeg()
  385. {
  386. /************** 清理缓冲区,释放空间 *********************/
  387. av_free(m_buffer);
  388. m_buffer = nullptr;
  389. av_free(m_pFrameRGB);
  390. m_pFrameRGB = nullptr;
  391. /* 释放pFrame */
  392. av_free(m_pFrame);
  393. m_pFrame = nullptr;
  394. av_packet_free(&m_packet);
  395. // sws_freeContext(m_sws_ctx);
  396. /* 关闭解码器 */
  397. avcodec_close(m_pCodecCtx);
  398. /* 关闭文件 */
  399. avformat_close_input(&m_pFormatContext);
  400. QString m_fileName = QString();
  401. int m_videoStream = -1; /* 记录视频流是第几个流 */
  402. bool m_initFFmpeg = false;
  403. }
  404. /**
  405. * @brief 进入之后就会一直解码,完成一个帧就会发送新一个信号
  406. *
  407. */
  408. void DecodeVedio::decodeVedio()
  409. {
  410. int ret = 0;
  411. int retFrame = 0;
  412. int retPacket = 0;
  413. while(m_isRunning)
  414. {
  415. /* 暂停解码 */
  416. while(m_pauseDecode)
  417. {
  418. std::this_thread::sleep_for(std::chrono::milliseconds(1));
  419. }
  420. std::chrono::steady_clock::time_point t1 = std::chrono::steady_clock::now();
  421. /* 读取一帧压缩码流,如果使用多线程解码,就从这里分发数据流的包 */
  422. retPacket = av_read_frame(m_pFormatContext, m_packet);
  423. std::chrono::steady_clock::time_point t2 = std::chrono::steady_clock::now();
  424. // SPDLOG_TRACE("======================================= 读取数据包耗时(us):{}",std::chrono::duration_cast<std::chrono::microseconds>(t2 - t1).count());
  425. if(retPacket == AVERROR_EOF)
  426. {
  427. SPDLOG_INFO("读取到文件末尾...");
  428. break;
  429. }
  430. if(retPacket < 0)
  431. {
  432. SPDLOG_WARN("读取帧错误...");
  433. break;
  434. }
  435. /* 判断是否是视频帧 */
  436. if(m_packet->stream_index == m_videoStream)
  437. {
  438. std::chrono::steady_clock::time_point t3 = std::chrono::steady_clock::now();
  439. /* 解码视频帧,现在使用新的API */
  440. ret = avcodec_send_packet(m_pCodecCtx, m_packet);
  441. std::chrono::steady_clock::time_point t4 = std::chrono::steady_clock::now();
  442. if(ret < 0)
  443. {
  444. SPDLOG_ERROR("发送数据包错误...");
  445. continue;
  446. }
  447. // SPDLOG_TRACE("======================================= 发送数据包耗时:{}",std::chrono::duration_cast<std::chrono::milliseconds>(t4 - t3).count());
  448. while (m_isRunning)
  449. {
  450. /* 从解码器接收解码后的帧的函数。*/
  451. retFrame = avcodec_receive_frame(m_pCodecCtx, m_pFrame);
  452. std::chrono::steady_clock::time_point t5 = std::chrono::steady_clock::now();
  453. // SPDLOG_TRACE("======================================= 接收帧耗时:{}",std::chrono::duration_cast<std::chrono::milliseconds>(t5 - t4).count());
  454. if(retFrame == AVERROR(EAGAIN) || retFrame == AVERROR_EOF)
  455. {
  456. // SPDLOG_TRACE("没有更多的帧可以输出,跳出循环。");
  457. break;
  458. }
  459. if(retFrame < 0)
  460. {
  461. SPDLOG_ERROR("解码错误...");
  462. break;
  463. }
  464. if (retFrame == 0)
  465. {
  466. /* 现在的位置,转换成时间,乘上AV_TIME_BASE后,单位是微秒 */
  467. m_currentPos = m_pFrame->pts * av_q2d(m_pFormatContext->streams[m_videoStream]->time_base) * AV_TIME_BASE;
  468. SPDLOG_DEBUG("======== 当前位置:{} ========",m_currentPos);
  469. /* 成功接收到一帧,处理解码后的帧 */
  470. std::chrono::steady_clock::time_point t6 = std::chrono::steady_clock::now();
  471. /* 将帧转换为RGB */
  472. sws_scale(m_sws_ctx, (uint8_t const * const *)m_pFrame->data, m_pFrame->linesize, 0, m_pCodecCtx->height,
  473. m_pFrameRGB->data, m_pFrameRGB->linesize);
  474. std::chrono::steady_clock::time_point t7 = std::chrono::steady_clock::now();
  475. // SPDLOG_TRACE("======================================= 转换RGB耗时:{}",std::chrono::duration_cast<std::chrono::milliseconds>(t7 - t6).count());
  476. /* 一帧图像入队 */
  477. auto image = new QImage(m_pFrameRGB->data[0], m_width, m_height, QImage::Format_RGB888);
  478. m_mutexQueue.lock();
  479. if(m_queueImage.count() >= m_queueMaxNum)
  480. {
  481. // SPDLOG_TRACE("队列满了...");
  482. m_condQueueNoFull.wait(&m_mutexQueue);
  483. }
  484. m_queueImage.enqueue(image);
  485. m_mutexQueue.unlock();
  486. /* 队列有数据,唤醒阻塞函数 */
  487. m_condQueueNoEmpty.wakeAll();
  488. /* 同时发送信号 */
  489. emit signal_oneImage();
  490. }
  491. else if (retFrame == AVERROR(EAGAIN) || ret == AVERROR_EOF)
  492. {
  493. // 没有更多的帧可以输出,跳出循环
  494. break;
  495. }
  496. else if (retFrame < 0)
  497. {
  498. SPDLOG_TRACE("解码错误...");
  499. av_packet_unref(m_packet);
  500. break;
  501. }
  502. av_frame_unref(m_pFrame);
  503. retFrame = -1;
  504. }
  505. }else
  506. {
  507. // SPDLOG_TRACE("不是视频帧...");
  508. }
  509. // av_free_packet(AVPacket *pkt)
  510. av_packet_unref(m_packet);
  511. }
  512. freeFFmpeg();
  513. /* 清空队列 */
  514. m_mutexQueue.lock();
  515. int count = m_queueImage.count();
  516. for (int i = 0; i < count; i++)
  517. {
  518. auto image = m_queueImage.dequeue();
  519. if (image)
  520. {
  521. delete image;
  522. image = nullptr;
  523. }
  524. }
  525. m_mutexQueue.unlock();
  526. /* 线程已停止 */
  527. m_threadStopped = true;
  528. }
  529. /* 退出线程,将所有可能暂停线程运行的条件全部唤醒 */
  530. void DecodeVedio::exitThread()
  531. {
  532. if(m_isRunning)
  533. {
  534. m_isRunning = false;
  535. }
  536. m_pauseDecode = false;
  537. m_condQueueNoFull.wakeAll();
  538. }
  539. /* 开启解码 */
  540. void DecodeVedio::do_startDecodeVedio()
  541. {
  542. SPDLOG_DEBUG("线程ID:{}",QThread::currentThreadId());
  543. // if(!m_initFFmpeg)
  544. // {
  545. // initFFmpeg();
  546. // }
  547. m_isRunning = true;
  548. m_threadStopped = false;
  549. m_pauseDecode = false;
  550. /* 进入解码,直到播放完成或者手动退出 */
  551. decodeVedio();
  552. SPDLOG_TRACE("播放完成...");
  553. }