#include "DecodeVedio.h"
#include "spdlog/spdlog.h"
// #include "FmtLog/fmtlog.h"

#include <QThread>

extern "C"
{
#include <libavcodec/avcodec.h>
#include <libavformat/avformat.h>
#include <libswscale/swscale.h>
#include <libavutil/imgutils.h>
}

/*=================================================================================================
* @brief  FFmpeg获取GPU硬件解码帧格式的回调函数
===================================================================================================*/
static enum AVPixelFormat g_hw_pix_fmt;

/**
 * @brief 回调函数,获取GPU硬件解码帧的格式
 * 
 * @param ctx 
 * @param pix_fmts 
 * @return AVPixelFormat 
 */
AVPixelFormat get_hw_format(AVCodecContext *ctx, const AVPixelFormat *pix_fmts)
{
    Q_UNUSED(ctx)
    const AVPixelFormat* p;
    for(p = pix_fmts; *p != -1; p++)
    {
        if(*p == g_hw_pix_fmt)
        {
            return *p;
        }
    }
    SPDLOG_WARN("无法获取硬件解码器表面格式。");
    return AV_PIX_FMT_NONE;
}


/**
 * @brief Construct a new Decode Vedio:: Decode Vedio object
 * 
 * @param thread 
 * @param parent 
 */
DecodeVedio::DecodeVedio(QThread* thread, QObject* parent) : QObject(parent) , m_thread(thread)
{
    /* 在连接之前调用,移动到新的线程 */
    this->moveToThread(thread);
    connect(this, &DecodeVedio::signal_startDecode, this, &DecodeVedio::do_startDecodeVedio);
    thread->start();
    findHWDecoder();
    // if(m_supportHWDecoder)
    // {
    //     SPDLOG_DEBUG("支持的硬件解码器:");
    //     for(auto it : m_listDecoderName)
    //     {
    //         SPDLOG_DEBUG("{}", it.toStdString());
    //     }
    // }else {
    //     SPDLOG_WARN("未找到可用的硬件解码器。");
    // }
}

DecodeVedio::~DecodeVedio()
{
    stopDecodeVedio();
    if(m_thread != nullptr)
    {
        if(m_thread->isRunning())
        {
            m_thread->quit();
            m_thread->wait();
        }
    }

}



/* 开始解码视频 */
void DecodeVedio::startDecodeVedio()
{
    if(m_threadRuning)
    {
        return;
    }
    if(!m_initFFmpeg)
    {
        SPDLOG_WARN("未初始化FFMPEG...");
        return;
    }
    m_threadRuning = true;
    // decodeUsingCPU();
    /* 发送信号,开启新线程 */
    emit signal_startDecode();
}

/* 停止解码视频,退出工作函数,线程未停止 */
void DecodeVedio::stopDecodeVedio()
{
    if(!m_threadRuning)
    {
        return;
    }
    exitThread();

    /* 唤醒阻塞住的解码线程 */
    // /* 等待线程执行结束 */
    while(m_decodeState.load() != DecodeState::DecodeExit)
    {
        std::this_thread::sleep_for(std::chrono::milliseconds(5));
    }
    freeAll();
    m_threadRuning = false;
}

/**
 * @brief 设置当前播放位置,单位是毫秒
 *        这里需要去掉队列中已有的图片数目对应的时长
 * 
 * @param pos 要跳转的位置,范围从0~duration
 */
void DecodeVedio::setCurrentPos(qint64 pos)
{
    if(!m_threadRuning)
    {
        return;
    }
    m_isSeek = true;
    /* 先暂停解码 */
    pauseDecode();
    
    SPDLOG_DEBUG("跳转到:{}ms",pos);
    /*在环形队列中有已解码的视频帧数,需要去掉已有的帧数所占的时间 */
    pos = pos - m_queueImage.QueueSize() * (1000 / m_fps);
    if(pos < 0) {
        pos = 0;
    }
    if(pos > m_duration) {
        pos = m_duration;
    }
    pos = pos + m_startPos;
    qint64 targetPos = qRound64((double)pos / (1000 * rationalToDouble(&m_pFormatContext->streams[m_videoStream]->time_base)));
    /* 开始跳转,这里设置标志为AVSEEK_FLAG_BACKWARD,跳转到目标位置的前一个关键帧中,然后开始解码,直到到达目标位置为止 */
    int ret = av_seek_frame(m_pFormatContext, m_videoStream, targetPos, AVSEEK_FLAG_BACKWARD);
    if(ret < 0)
    {
        SPDLOG_ERROR("跳转失败!");
    }
    m_targetPos = pos;
    /* 刷新解码器缓冲区 */
    m_flushDecoder.store(true);
    /* 清空环形队列中的视频 */
    SPDLOG_DEBUG("清空环形队列中的视频。");
    QImage* image = 0;
    while (m_queueImage.QueueSize() > 0)
    {
        image = nullptr;
        m_queueImage.front_pop_NoBlock(image);
        if(image != nullptr)
        {
            delete image;
        }
    }
    
    /* 继续解码 */
    continueDecode();
}

/* 获取当前播放位置,单位ms */
qint64 DecodeVedio::getCurrentPos()
{
    return m_pts.load() - m_startPos;
}

/* 获取视频时长 */
qint64 DecodeVedio::getDuration()
{
    return m_duration;
}

/**
 * @brief 获取一帧图像,队列为空就返回nullptr,这个函数应该是运行在UI线程中的
 * @warning 传出这个指针后,队列就出队了,内存需要外面获取的实例释放
 * @return QImage* 一帧图像的指针
 */
QImage* DecodeVedio::getOneImage()
{
    if(!m_threadRuning)
    {
        return nullptr;
    }
    QImage* image = nullptr;
    if(!m_queueImage.front_pop_NoBlock(image))
    {
        return nullptr;
    }
    return image;
}

/**
 * @brief 获取一帧图像,直到有图像为止
 * 
 * @param timeOut 设为-1是一直等待,设置正整数是等待的时间,单位ms
 * @return QImage* 
 */
QImage* DecodeVedio::getOneImageUntilHave(int timeOut)
{
    if(!m_threadRuning)
    {
        return nullptr;
    }
    if(timeOut < 0)
    {
        QImage* image = m_queueImage.front_pop();
        return image;
    }
    for(int i = 0; i < timeOut; i++)
    {
        QImage* image = nullptr;
        if(m_queueImage.front_pop_NoBlock(image))
        {
            return image;
        }
        std::this_thread::sleep_for(std::chrono::milliseconds(1));
    }
    return nullptr;
}


/* 查找硬件解码器 */
void DecodeVedio::findHWDecoder(QStringList& listDecoderName)
{
    AVHWDeviceType type = AV_HWDEVICE_TYPE_NONE;
    listDecoderName.clear();
    while( (type = av_hwdevice_iterate_types(type)) != AV_HWDEVICE_TYPE_NONE)
    {
        /* 获取硬件解码器的名称 */
        const char* typeName = av_hwdevice_get_type_name(type);
        if(typeName)
        {
            listDecoderName.append(QString(typeName));
        }
    }
}


/* 获取硬件解码器 */
void DecodeVedio::findHWDecoder()
{
    AVHWDeviceType type = AV_HWDEVICE_TYPE_NONE;
    // QStringList strTypes;
    m_listDecoderName.clear();
    while( (type = av_hwdevice_iterate_types(type)) != AV_HWDEVICE_TYPE_NONE)
    {
        m_listHWDeviceType.append(type);
        /* 获取硬件解码器的名称 */
        const char* typeName = av_hwdevice_get_type_name(type);
        if(typeName)
        {
            m_listDecoderName.append(QString(typeName));
        }
    }
    if(m_listHWDeviceType.isEmpty())
    {
        m_supportHWDecoder = false;
    }else {
        m_supportHWDecoder = true;
    }
}



/* 初始化硬件解码器 */
void DecodeVedio::initHWDecoder(const AVCodec* codec)
{
    if(codec == nullptr)
    {
        return;
    }
    for(int i = 0;;i++)
    {
        /* 获取编解码器支持的硬件配置 */
        const AVCodecHWConfig* hwConfig = avcodec_get_hw_config(codec, 0);
        if(hwConfig == nullptr)
        {
            SPDLOG_WARN("没有找到支持{}的硬件配置", codec->name);
            return;
        }
        /* 判断是否是设备类型 */
        if(hwConfig->methods & AV_CODEC_HW_CONFIG_METHOD_HW_DEVICE_CTX)
        {
            /* 在已有的解码器列表中查找 */
            for(auto i : m_listHWDeviceType)
            {
                if(hwConfig->device_type == AVHWDeviceType(i))
                {
                    /* 获取像素格式 */
                    g_hw_pix_fmt = hwConfig->pix_fmt;

                    /* 打开指定类型的设备,并为其创建AVHWDeviceContext */
                    int ret = av_hwdevice_ctx_create(&m_hw_device_ctx, hwConfig->device_type, nullptr, nullptr, 0);
                    if(ret < 0)
                    {
                        SPDLOG_ERROR("打开硬件解码器失败!");
                        return;
                    }
                    SPDLOG_INFO("打开硬件解码器:{}", av_hwdevice_get_type_name(hwConfig->device_type));
                    m_pCodecContext->hw_device_ctx = av_buffer_ref(m_hw_device_ctx);
                    m_pCodecContext->get_format = get_hw_format;
                    return;
                }
            }
        }
    }
    
}


/* 拷贝数据,从GPU显存拷贝到内存中 */
bool DecodeVedio::copyDataFromGPU(AVFrame* pFrameHW, AVFrame* pFrameSRC)
{
    if(m_pFrameSRC->format != g_hw_pix_fmt)
    {
        av_frame_unref(m_pFrameSRC);
        return false;
    }
    /* 这一步可能会耗费较长时间 */
    int ret = av_hwframe_transfer_data(pFrameHW, pFrameSRC, 0);
    if(ret < 0)
    {
        SPDLOG_ERROR("从GPU拷贝数据失败!");
        av_frame_unref(pFrameSRC);
        return false;
    }
    av_frame_copy_props(pFrameHW, pFrameSRC);
    return true;
}


/* 打开视频,同时初始化解码器) */
void DecodeVedio::openVedio(const QString& fileName)
{
    if(fileName.isEmpty())
    {
        SPDLOG_WARN("文件名为空...");
        return;
    }
    m_fileName = fileName;
    if(m_initFFmpeg)
    {
        freeAll();
    }

    /* 清空队列 */
    if(m_queueImage.QueueSize() > 0)
    {
        for(int i = 0; i < m_queueImage.QueueSize(); i++)
        {
            QImage* image = nullptr;
            if (m_queueImage.front_pop_NoBlock(image))
            {
                delete image;
            }
        }
        m_queueImage.clearQueue();
    }
    m_queueImage.setQueueCapacity(30);

    SPDLOG_DEBUG("开始初始化FFMPEG");
    /* 设置网络缓冲区大小和错误恢复选项 */
    AVDictionary *options = nullptr;
    /* 设置接收缓冲区 */
    av_dict_set(&options, "buffer_size", "1024000", 0);
    /* 设置最大复用或解复用延迟(以微秒为单位)。当通过【UDP】 接收数据时,解复用器尝试重新排序接收到的数据包
     * (因为它们可能无序到达,或者数据包可能完全丢失)。这可以通过将最大解复用延迟设置为零
     * (通过max_delayAVFormatContext 字段)来禁用。 */
    av_dict_set(&options, "max_delay", "500000", 0);
    /* 设置rtsp流使用tcp打开,如果打开失败错误信息为【Error number -135 occurred】可以切换(UDP、tcp、udp_multicast、http),比如vlc推流就需要使用udp打开 */
    av_dict_set(&options, "rtsp_transport", "tcp", 0);
    /* 以微秒为单位设置套接字 TCP I/O 超时,如果等待时间过短,也可能会还没连接就返回了。 */
    av_dict_set(&options, "stimeout", "20000000", 0);

    /************ 存储文件格式信息 ************/
    /* 打开文件,读取视频文件的头信息,放在第一个参数的结构体中 */
    int ret = avformat_open_input(  &m_pFormatContext,                  /* 解封装上下文 */
                                    m_fileName.toStdString().data(),    /* 打开视频地址 */
                                    nullptr,                            /* 这个参数强制使用特定的输入格式,可以设置为null */
                                    &options);                             /* 参数设置 */
    if(ret != 0)
    {
        SPDLOG_WARN("打开视频文件错误,错误代码:{}",ret);
        freeAll();
        return;
    }
    /* 释放参数 */
    if(options != nullptr)
    {
        av_dict_free(&options);
    }

    /************ 找到视频流 ************/
    /* 检查视频容器内部的流信息,将所有流存储到了pFormatContext->streams中
     * 查找到视频流,并获取视频时长相关的信息 */
    ret = 0;
    ret = avformat_find_stream_info(m_pFormatContext, nullptr);
    if(ret < 0)
    {
        SPDLOG_WARN("获取视频流错误,错误代码:{}",ret);
        freeAll();
        return;
    }
    m_duration = m_pFormatContext->duration / (AV_TIME_BASE / 1000);  /* 获取视频时长,单位是毫秒 */
    m_startPos = m_pFormatContext->start_time / (AV_TIME_BASE / 1000);  /* 获取视频开始时间,单位是毫秒 */
    // SPDLOG_DEBUG("开始时间:{} 时长:{}",m_startPos, m_duration);
    
    /* 一个调试函数,将流信息输出到控制台 */
    av_dump_format(m_pFormatContext, 0, m_fileName.toStdString().c_str(), 0);

    /* 找到视频流 */
    m_videoStream = av_find_best_stream(m_pFormatContext, AVMEDIA_TYPE_VIDEO, -1, -1, nullptr, 0);
    if(m_videoStream < 0)
    {
        SPDLOG_WARN("没有找到视频流");
        freeAll();
        return;
    }
    SPDLOG_DEBUG("找到视频流");
    /* 获取视频流的编解码信息,主要是分辨率等信息 */
    AVStream *pStream = m_pFormatContext->streams[m_videoStream];   /* 获取视频流 */
    AVCodecParameters* pCodecParams = pStream->codecpar;            /* 获取视频流的编解码信息 */
    SPDLOG_DEBUG("获取视频流参数成功!");
    /* 获取视频相关信息 */
    m_srcSize.setWidth(pCodecParams->width);
    m_srcSize.setHeight(pCodecParams->height);
    m_fps = rationalToDouble(&pStream->avg_frame_rate);
    m_totalFrame = m_pFormatContext->streams[m_videoStream]->nb_frames;
    m_pts.store(0);

    /************ 查找并设置解码器 ************/
    /* 找到解码器 */
    const AVCodec* pCodec = avcodec_find_decoder(pCodecParams->codec_id);
    if(pCodec == nullptr)
    {
        SPDLOG_WARN("没有找到解码器");
        freeAll();
        return;
    }
    m_decoderName = pCodec->name;
    // SPDLOG_INFO("找到解码器:{}",pCodec->name);
    /* 获取视频信息的上下文,先分配空间,后面记得释放空间 */
    m_pCodecContext = avcodec_alloc_context3(pCodec);
    /* 将视频流中的编码器参数拷贝下来,这个函数不是线程安全的 */
    if(avcodec_parameters_to_context(m_pCodecContext, pCodecParams) != 0)
    {
        SPDLOG_WARN("复制上下文错误");
        freeAll();
        return;
    }
    SPDLOG_DEBUG("设置解码器参数成功!");
    // m_pCodecContext->flags2 |= AV_CODEC_FLAG2_FAST;  /* 使用快速解码(允许使用不符合规范的解码) */
    m_pCodecContext->thread_count = 8;      /* 使用8线程解码 */

    /* 初始化硬件解码器 */
    if(m_supportHWDecoder)
    {
        initHWDecoder(pCodec);
    }

    /* 打开解码器,(初始化解码器上下文,如果调用了avcodec_alloc_context3,第二个参数可以设置为nullptr) */
    if(avcodec_open2(m_pCodecContext, nullptr, nullptr) < 0)
    {
        SPDLOG_ERROR("打开解码器错误");
        freeAll();
        return;
    }
    SPDLOG_DEBUG("打开解码器成功!");

    /************ 初始化数据包 ************/
    m_packet = av_packet_alloc();
    av_new_packet(m_packet, m_pCodecContext->width * m_pCodecContext->height);

    /* 创建两个pFrame,一个存放原始数据,一个存放转换后的RGB数据 */
    m_pFrameSRC = av_frame_alloc();
    if(m_pFrameSRC == nullptr)
    {
        SPDLOG_ERROR("创建pFrame错误");
        freeAll();
        return;
    }
    // m_pFrameRGB = av_frame_alloc();
    // if(m_pFrameRGB == nullptr)
    // {
    //     SPDLOG_ERROR("创建pFrameRGB错误");
    //     freeAll();
    //     return;
    // }
    m_pFrameHW = av_frame_alloc();
    if(m_pFrameHW == nullptr)
    {
        SPDLOG_ERROR("创建pFrameHW错误");
        freeAll();
        return;
    }

    if(m_buffer != nullptr)
    {
        av_free(m_buffer);
        m_buffer = nullptr;
    }
    
    /* 分配图像空间 */
    int numBytes = av_image_get_buffer_size(AV_PIX_FMT_RGBA, m_pCodecContext->width, m_pCodecContext->height, 1);
    /* 这里多分配了一些空间,防止某些视频图像在使用sws_scale()拷贝后超出数组长度 */
    m_buffer = (uint8_t *)av_malloc(numBytes + 1000);

    m_initFFmpeg = true;
    SPDLOG_INFO("FFMPEG初始化完成!");
    // SPDLOG_INFO("视频宽度:{} 高度:{} 帧率:{} 总时长:{} 总帧数:{}",m_srcSize.width(), m_srcSize.height(), m_fps, m_duration, m_totalFrame);
    /* 再次判断帧数是否正常,如果没读取到,就使用 总帧数 / 时长 */
    if(m_fps == 0)
    {
        if((m_duration > 0) && (m_totalFrame > 0))
        {
            m_fps = m_totalFrame / (m_duration / 1000.0);
        }
        /* 到这一步,无法确定帧数了,就按照25帧来计算了 */
        if(m_fps == 0)
        {
            m_fps = 25;
        }
    }
}


/**
 * @brief 软解码线程,使用CPU解码,使用环境队列存储解码的数据
 * 
 */
void DecodeVedio::threadDecodeUsingCPU()
{
    /******** 初始化局部变量 ********/
    bool isEnd = false;
    int ret = 0;
    int retFrame = 0;
    int retPacket = 0;
    m_pauseDecode = false;
    m_decodeStatus = true;
    m_decodeState.store(DecodeState::DecodeRun);

    /* 开始解码 */
    SPDLOG_DEBUG("开始解码...");
    while(m_threadRuning)
    {
        /******** 判断是否在暂停状态 ********/
        while(m_pauseDecode)
        {
            m_decodeState.store(DecodeState::DecodePause);
            std::this_thread::sleep_for(std::chrono::microseconds(100));
        }
        m_decodeState.store(DecodeState::DecodeRun);
        /* 刷新解码器缓冲区,清除掉里面残留的解码文件 */
        if(m_flushDecoder.load())
        {
            avcodec_flush_buffers(m_pCodecContext);
            m_flushDecoder.store(false);
        }
        /******** 读取数据包 av_read_frame ********/
        int retRead = av_read_frame(m_pFormatContext, m_packet);
        if(retRead == AVERROR_EOF)
        {
            /* 读取到末尾后,需要传入一个空的packet,才能读取到最后几帧 */
            avcodec_send_packet(m_pCodecContext, m_packet);
        }
        else if(retRead < 0)
        {
            SPDLOG_ERROR("读取帧错误...");
            break;
        }
        else
        {
            if(m_packet->stream_index == m_videoStream)
            {
                // SPDLOG_DEBUG("源pts:{}", m_packet->pts);
                /*  pts 表示显示时间戳(Presentation Timestamp),它指示解码后的帧应该在什么时候显示。pts 是用于同步音视频的关键时间戳。
                    dts 表示解码时间戳(Decoding Timestamp),它指示解码器应该在什么时候解码这个数据包。dts 用于确保解码器按照正确的顺序解码数据包。 */
            #if 1
                /* 计算当前帧时间,两种方法,第一种适用于所有场景,但是存在一定的误差 */
                m_packet->pts = qRound64(m_packet->pts * (1000 * rationalToDouble(&m_pFormatContext->streams[m_videoStream]->time_base)));
                m_packet->dts = qRound64(m_packet->dts * (1000 * rationalToDouble(&m_pFormatContext->streams[m_videoStream]->time_base)));
            #else
                /* 适用于本地视频,直接计算本地视频文件的每一帧时间 */
                m_currentFrame++;
                // m_packet->pts = qRound64(m_currentFrame * (qreal(m_duration) / m_totalFrame));
            #endif
                
                /* 将数据传给解码器 */
                int ret = avcodec_send_packet(m_pCodecContext, m_packet);
                if(ret < 0)
                {
                    SPDLOG_ERROR("发送数据包错误...");
                    av_packet_unref(m_packet);
                    continue;
                }
            }else {
                // SPDLOG_INFO("不是视频流。");
                av_packet_unref(m_packet);
                continue;
            }
        }

        // SPDLOG_DEBUG("读取到数据包packet,pts:{}",m_packet->pts);
        /* 解码packet包的内容,一个packet包内可能包含好多帧视频 */
        while(m_threadRuning)
        {
            /* 读取出解码器返回的帧 avcodec_receive_frame */
            int ret = avcodec_receive_frame(m_pCodecContext, m_pFrameSRC);
            if(ret == AVERROR_EOF)
            {
                SPDLOG_INFO("读取到视频流末尾。");
                isEnd = true;
                break;
            }
            else if (ret == AVERROR(EAGAIN))
            {
                /* packet中的内容无法解码成一帧,需要更多的输入包,可能已经取出了几帧,也肯能就不够一帧
                 * 这时候就需要往解码器送数据包了 */
                // SPDLOG_WARN("packet无法解码成一帧,需要更多的输入包");
                av_frame_unref(m_pFrameSRC);
                break;
            }
            else if(ret < 0)
            {
                av_frame_unref(m_pFrameSRC);
                if(retRead < 0)
                {
                    SPDLOG_ERROR("读取错误,错误值:{}",ret);
                    break;
                }
            }
            /* 解码成功,获取当前时间,现在已经是准的时间了
             * 如果在跳转状态,在这里判断是否到了目标位置 */
            m_pts = m_pFrameSRC->pts;
            if(m_isSeek.load())
            {
                if(m_pts < m_targetPos)
                {
                    SPDLOG_DEBUG("目标位置:{} 当前位置:{}",m_targetPos, m_pts.load());
                    av_frame_unref(m_pFrameSRC);
                    continue;
                }else {
                    m_isSeek = false;
                    m_targetPos = -1;
                    SPDLOG_DEBUG("跳转结束");
                }
            }
            // SPDLOG_DEBUG("当前帧的pts:{}", m_pts.load());

            /* 转换解码后的帧格式,转换成RGBA格式,Qt可以识别 */
            if(m_sws_ctx == nullptr)
            {
                /* 选择在这里创建,为了兼容硬件解码,硬件解码出来的格式可能和解码器传出的不一样 */
                m_sws_ctx = sws_getCachedContext(m_sws_ctx, 
                                                m_pFrameSRC->width, m_pFrameSRC->height,    /* 原图像大小和格式 */
                                                m_pCodecContext->pix_fmt,                   /* 输入图像的像素格式 */
                                                m_srcSize.width(), m_srcSize.height(),      /* 目标图像的大小 */
                                                AV_PIX_FMT_RGBA,                            /* 目标图像的格式 */
                                                SWS_BILINEAR,                               /* 图像缩放算法,双线性 */
                                                nullptr,                                    /* 输入图像的滤波器信息,不需要传NULL */
                                                nullptr,                                    /* 输出图像的滤波器信息,不需要传NULL */
                                                nullptr);                                   /* 特定缩放算法需要的参数,不需要传NULL */
                if(m_sws_ctx == nullptr)
                {
                    SPDLOG_ERROR("创建SwsContext错误...");
                    goto label_ThreadDecodeExit;
                }
                SPDLOG_INFO("创建SwsContext成功...");
            }
            /* 转换成RGBA格式 */
            // uint8_t* data[1] = { m_buffer };
            int lines[4];
            /* 使用像素格式pix_fmt和宽度填充图像的平面线条的大小(一行大小?) */
            av_image_fill_linesizes(lines, AV_PIX_FMT_RGBA, m_pFrameSRC->width);

            sws_scale(  m_sws_ctx,              /* 缩放的上下文 */
                        m_pFrameSRC->data,      /* 源图像数组 */
                        m_pFrameSRC->linesize,  /* 包含源图像每个平面步幅的数组 */
                        0,                      /* 开始位置 */
                        m_pFrameSRC->height,    /* 行数 */
                        &m_buffer,                   /* 目标图像数组 */
                        lines); /* 目标图像行数 */
            if(m_buffer != nullptr)
            {
                /* 将数据拷贝到QImage中 */
                auto image = new QImage(m_buffer, m_srcSize.width(), m_srcSize.height(), QImage::Format_RGBA8888);
                /* 如果队列满,线程会阻塞在这里 */
                m_queueImage.push(image);
                // av_frame_unref(m_pFrameRGB);
                // SPDLOG_DEBUG("一帧视频入队");
            }
            av_frame_unref(m_pFrameSRC);
            /* 如果在跳转过程中,直接退出,防止一个packet中有多个视频帧,再次阻塞在上面 */
            if(m_isSeek)
            {
                break;
            }
        }
        av_packet_unref(m_packet);    /* 释放数据包,引用计数-1,为0时释放空间 */
        if(isEnd)
        {
            emit signal_playCompleted();
            m_decodeState.store(DecodeState::DecodeStop);
            /* 读取到结尾,但是不退出解码线程,可能还会使用倒退功能,后退读取 */
            while(m_decodeState.load() != DecodeState::DecodeRun)
            {
                std::this_thread::sleep_for(std::chrono::milliseconds(2));
            }
            isEnd = false;
        }
    }
label_ThreadDecodeExit:
    /* 释放空间 */
    av_packet_free(&m_packet);
    m_decodeState.store(DecodeState::DecodeExit);
    m_threadRuning = false;
}

/* 退出线程,将所有可能暂停线程运行的条件全部唤醒 */
void DecodeVedio::exitThread()
{
    if(m_threadRuning)
    {
        m_threadRuning = false;
    }
    /* 设置成运行状态,唤醒可能阻塞在了解码结束的位置 */
    m_decodeState.store(DecodeState::DecodeRun);
    m_pauseDecode = false;
    /* 先退出可能阻塞住的解码线程 */
    m_queueImage.exit();
}

/**
 * @brief 硬件解码线程,使用GPU解码,使用环境队列存储解码的数据
 * 
 */
void DecodeVedio::threadDecodeUsingGPU()
{
    /******** 初始化局部变量 ********/
    bool isEnd = false;
    int ret = 0;
    int retFrame = 0;
    int retPacket = 0;
    m_pauseDecode = false;
    m_decodeStatus = true;
    m_decodeState.store(DecodeState::DecodeRun);

    /* 开始解码 */
    SPDLOG_DEBUG("开始解码...");
    while(m_threadRuning)
    {
        /******** 判断是否在暂停状态 ********/
        while(m_pauseDecode)
        {
            m_decodeState.store(DecodeState::DecodePause);
            std::this_thread::sleep_for(std::chrono::microseconds(100));
        }
        m_decodeState.store(DecodeState::DecodeRun);
        /* 刷新解码器缓冲区,清除掉里面残留的解码文件 */
        if(m_flushDecoder.load())
        {
            avcodec_flush_buffers(m_pCodecContext);
            m_flushDecoder.store(false);
        }
        /******** 读取数据包 av_read_frame ********/
        int retRead = av_read_frame(m_pFormatContext, m_packet);
        if(retRead == AVERROR_EOF)
        {
            /* 读取到末尾后,需要传入一个空的packet,才能读取到最后几帧 */
            avcodec_send_packet(m_pCodecContext, m_packet);
        }
        else if(retRead < 0)
        {
            SPDLOG_ERROR("读取帧错误...");
            break;
        }
        else
        {
            if(m_packet->stream_index == m_videoStream)
            {
                // SPDLOG_DEBUG("源pts:{}", m_packet->pts);
                /*  pts 表示显示时间戳(Presentation Timestamp),它指示解码后的帧应该在什么时候显示。pts 是用于同步音视频的关键时间戳。
                    dts 表示解码时间戳(Decoding Timestamp),它指示解码器应该在什么时候解码这个数据包。dts 用于确保解码器按照正确的顺序解码数据包。 */
            #if 1
                /* 计算当前帧时间,两种方法,第一种适用于所有场景,但是存在一定的误差 */
                m_packet->pts = qRound64(m_packet->pts * (1000 * rationalToDouble(&m_pFormatContext->streams[m_videoStream]->time_base)));
                m_packet->dts = qRound64(m_packet->dts * (1000 * rationalToDouble(&m_pFormatContext->streams[m_videoStream]->time_base)));
            #else
                /* 适用于本地视频,直接计算本地视频文件的每一帧时间 */
                m_currentFrame++;
                // m_packet->pts = qRound64(m_currentFrame * (qreal(m_duration) / m_totalFrame));
            #endif
                
                /* 将数据传给解码器 */
                int ret = avcodec_send_packet(m_pCodecContext, m_packet);
                if(ret < 0)
                {
                    SPDLOG_ERROR("发送数据包错误...");
                    av_packet_unref(m_packet);
                    continue;
                }
            }else {
                // SPDLOG_INFO("不是视频流。");
                av_packet_unref(m_packet);
                continue;
            }
        }

        // SPDLOG_DEBUG("读取到数据包packet,pts:{}",m_packet->pts);
        /* 解码packet包的内容,一个packet包内可能包含好多帧视频 */
        while(m_threadRuning)
        {
            /* 读取出解码器返回的帧 avcodec_receive_frame */
            int ret = avcodec_receive_frame(m_pCodecContext, m_pFrameSRC);
            if(ret == AVERROR_EOF)
            {
                SPDLOG_INFO("读取到视频流末尾。");
                isEnd = true;
                break;
            }
            else if (ret == AVERROR(EAGAIN))
            {
                /* packet中的内容无法解码成一帧,需要更多的输入包,可能已经取出了几帧,也肯能就不够一帧
                 * 这时候就需要往解码器送数据包了 */
                // SPDLOG_WARN("packet无法解码成一帧,需要更多的输入包");
                av_frame_unref(m_pFrameSRC);
                break;
            }
            else if(ret < 0)
            {
                av_frame_unref(m_pFrameSRC);
                if(retRead < 0)
                {
                    SPDLOG_ERROR("读取错误,错误值:{}",ret);
                    break;
                }
            }
            
            /* 硬件解码,上面读取到的帧m_pFrameSRC->data[0] = nullptr
             * 数据要从GPU中拷贝出来 */
            if(!copyDataFromGPU(m_pFrameHW, m_pFrameSRC))
            {
                continue;
            }

            /* 解码成功,获取当前时间,现在已经是准的时间了
             * 如果在跳转状态,在这里判断是否到了目标位置 */
            m_pts = m_pFrameHW->pts;
            if(m_isSeek.load())
            {
                if(m_pts < m_targetPos)
                {
                    SPDLOG_DEBUG("目标位置:{} 当前位置:{}",m_targetPos, m_pts.load());
                    av_frame_unref(m_pFrameHW);
                    continue;
                }else {
                    m_isSeek = false;
                    m_targetPos = -1;
                    SPDLOG_INFO("跳转结束。");
                }
            }
            // SPDLOG_DEBUG("当前帧的pts:{}", m_pts.load());

            /* 转换解码后的帧格式,转换成RGBA格式,Qt可以识别 */
            if(m_sws_ctx == nullptr)
            {
                /* 选择在这里创建,为了兼容硬件解码,硬件解码出来的格式可能和解码器传出的不一样 */
                m_sws_ctx = sws_getCachedContext(m_sws_ctx, 
                                                m_pFrameHW->width, m_pFrameHW->height,    /* 原图像大小和格式 */
                                                m_pCodecContext->pix_fmt,                   /* 输入图像的像素格式 */
                                                m_srcSize.width(), m_srcSize.height(),      /* 目标图像的大小 */
                                                AV_PIX_FMT_RGBA,                            /* 目标图像的格式 */
                                                SWS_BILINEAR,                               /* 图像缩放算法,双线性 */
                                                nullptr,                                    /* 输入图像的滤波器信息,不需要传NULL */
                                                nullptr,                                    /* 输出图像的滤波器信息,不需要传NULL */
                                                nullptr);                                   /* 特定缩放算法需要的参数,不需要传NULL */
                if(m_sws_ctx == nullptr)
                {
                    SPDLOG_ERROR("创建SwsContext错误...");
                    goto label_ThreadDecodeExit;
                }
                SPDLOG_INFO("创建SwsContext成功...");
            }
            /* 转换成RGBA格式 */
            // uint8_t* data[1] = { m_buffer };
            int lines[4];
            /* 使用像素格式pix_fmt和宽度填充图像的平面线条的大小(一行大小?) */
            av_image_fill_linesizes(lines, AV_PIX_FMT_RGBA, m_pFrameHW->width);

            sws_scale(  m_sws_ctx,              /* 缩放的上下文 */
                        m_pFrameHW->data,      /* 源图像数组 */
                        m_pFrameHW->linesize,  /* 包含源图像每个平面步幅的数组 */
                        0,                      /* 开始位置 */
                        m_pFrameHW->height,    /* 行数 */
                        &m_buffer,                   /* 目标图像数组 */
                        lines); /* 目标图像行数 */
            if(m_buffer != nullptr)
            {
                /* 将数据拷贝到QImage中 */
                auto image = new QImage(m_buffer, m_srcSize.width(), m_srcSize.height(), QImage::Format_RGBA8888);
                /* 如果队列满,线程会阻塞在这里 */
                m_queueImage.push(image);
                // av_frame_unref(m_pFrameRGB);
                // SPDLOG_DEBUG("一帧视频入队");
            }
            av_frame_unref(m_pFrameSRC);
            /* 如果在跳转过程中,直接退出,防止一个packet中有多个视频帧,再次阻塞在上面 */
            if(m_isSeek)
            {
                break;
            }
        }
        av_packet_unref(m_packet);    /* 释放数据包,引用计数-1,为0时释放空间 */
        if(isEnd)
        {
            emit signal_playCompleted();
            m_decodeState.store(DecodeState::DecodeStop);
            /* 读取到结尾,但是不退出解码线程,可能还会使用倒退功能,后退读取 */
            while(m_decodeState.load() != DecodeState::DecodeRun)
            {
                std::this_thread::sleep_for(std::chrono::milliseconds(2));
            }
            isEnd = false;
        }
    }
label_ThreadDecodeExit:
    /* 释放空间 */
    av_packet_free(&m_packet);
    m_decodeState.store(DecodeState::DecodeExit);
    m_threadRuning = false;
}

/* 暂停解码,会阻塞到线程暂停为止 */
void DecodeVedio::pauseDecode()
{
    if(!m_threadRuning)
    {
        return;
    }
    if( (m_decodeState.load() == DecodeState::DecodeExit) 
     || (m_decodeState.load() == DecodeState::DecodePause) )
    {
        return;
    }
    /* 设置成运行状态,唤醒可能阻塞在了解码结束的位置 */
    m_decodeState.store(DecodeState::DecodeRun);
    m_pauseDecode = true;
    /* 队列出队两张图片,防止解码线程阻塞到环形队列满上面 */
    QImage* image = nullptr;
    m_queueImage.front_pop_NoBlock(image);
    if(image != nullptr)
    {
        delete image;
        image = nullptr;
    }
    m_queueImage.front_pop_NoBlock(image);
    if(image != nullptr)
    {
        delete image;
        image = nullptr;
    }
    /* 等待线程状态变为暂停为止 */
    while (m_decodeState.load() != DecodeState::DecodePause)
    {
        std::this_thread::sleep_for(std::chrono::microseconds(100));
    }
}

/* 继续解码 */
void DecodeVedio::continueDecode()
{
    m_pauseDecode = false;
    m_decodeState.store(DecodeState::DecodeRun);
}

/**
 * @brief AVRational存储的是分子和分母,这里相除转换为double,用于计算帧率
 *        这个函数就等同于av_q2d()
 * @param rational
 * @return
 */
qreal DecodeVedio::rationalToDouble(AVRational* rational)
{
    return ( (rational->den == 0) ? 0 : (qreal(rational->num) / rational->den) );
}


/* 开启解码 */
void DecodeVedio::do_startDecodeVedio()
{
    SPDLOG_DEBUG("解码线程ID:{}",QThread::currentThreadId());
    // if(!m_initFFmpeg)
    // {
    //     initFFmpeg();
    // }
    m_threadRuning = true;
    m_pauseDecode = false;
    /* 进入解码,直到播放完成或者手动退出 */
    threadDecodeUsingCPU();
    SPDLOG_TRACE("Decode解码结束。");

}

/* 释放所有资源 */
void DecodeVedio::freeAll()
{
    if(m_sws_ctx)
    {
        sws_freeContext(m_sws_ctx);
        m_sws_ctx = nullptr;
    }
    // if(m_pFrameRGB)
    // {
    //     av_frame_free(&m_pFrameRGB);
    // }
    if(m_pFrameSRC)
    {
        av_frame_free(&m_pFrameSRC);
    }
    if(m_pFrameHW)
    {
        av_frame_free(&m_pFrameHW);
    }
    if(m_packet)
    {
        av_packet_free(&m_packet);
    }
    if(m_pCodecContext)
    {
        avcodec_free_context(&m_pCodecContext);
    }
    if(m_pFormatContext)
    {
        avformat_close_input(&m_pFormatContext);
    }
    if(m_buffer)
    {
        av_free(m_buffer);
        m_buffer = nullptr;
    }
    if(m_hw_device_ctx)
    {
        av_buffer_unref(&m_hw_device_ctx);
    }

    for(int i = 0; i < m_queueImage.QueueSize(); i++)
    {
        QImage* image = nullptr;
        if (m_queueImage.front_pop_NoBlock(image))
        {
            delete image;
        }
    }
    m_queueImage.clearQueue();
}