ffmpeg+SDL 实时 解码 播放 H264裸流,解码播放正常一段时间后出现断流、花屏问题! [问题点数:100分]

Bbs1
本版专家分:0
结帖率 50%
Bbs1
本版专家分:0
Bbs1
本版专家分:0
Bbs1
本版专家分:0
版主
Blank
红花 2012年7月 专题开发/技术/项目大版内专家分月排行榜第一
2012年5月 专题开发/技术/项目大版内专家分月排行榜第一
Blank
黄花 2012年4月 专题开发/技术/项目大版内专家分月排行榜第二
2012年3月 专题开发/技术/项目大版内专家分月排行榜第二
Bbs1
本版专家分:0
Bbs1
本版专家分:0
Bbs1
本版专家分:0
Bbs1
本版专家分:0
Blank
红花 2011年5月 专题开发/技术/项目大版内专家分月排行榜第一
2011年4月 专题开发/技术/项目大版内专家分月排行榜第一
2011年3月 专题开发/技术/项目大版内专家分月排行榜第一
2011年2月 专题开发/技术/项目大版内专家分月排行榜第一
2011年1月 专题开发/技术/项目大版内专家分月排行榜第一
2010年12月 专题开发/技术/项目大版内专家分月排行榜第一
Blank
黄花 2011年11月 专题开发/技术/项目大版内专家分月排行榜第二
2011年8月 专题开发/技术/项目大版内专家分月排行榜第二
FFmpeg 解码H264数据为BGR数据
封装成一个类 <em>ffmpeg</em> 库是3.4.1 FFmpegDecodeH264.h #pragma once // 此类设计输入H264码流,输出BGR buffer 数据 #include &amp;amp;amp;lt;stdio.h&amp;amp;amp;gt; extern &amp;amp;quot;C&amp;amp;quot; { #include &amp;amp;amp;lt;libavcodec/avcodec.h&amp;amp;amp;gt; #include &a
ffmpeg实战教程(一)Mp4,mkv等格式解码h264和yuv数据
<em>ffmpeg</em>实战教程(一)Mp4,mkv等格式<em>解码</em>为<em>h264</em>和yuv数据      https://blog.csdn.net/King1425/article/details/71160339 FFmpeg有非常强大的功能包括视频采集功能、视频格式转换、视频抓图、给视频加水印等。而网上对这些功能的使用大多是基于命令行的。这不利于我们深入学习定制化<em>ffmpeg</em>,今后我将写一系列的用代码实现...
ffmpeg(4.0.2)解码H264
接口变更: AVStream的codec参数被codecpar参数所替代 AVCodecContext *codec变为AVCodecParameters *codecpar av_register_all被弃用 添加av_demuxer_iterate() const AVInputFormat *av_demuxer_iterate(void **opaque); <em>解码</em>接口...
FFmpeg解码H264视频流
此文章主要包含<em>解码</em>H264视频流数据:Annex B格式、H264视频裸流、支持输出RGB24或YUV420格式;
ffmpeg和H264视频的编解码
https://zhuanlan.zhihu.com/p/36109778   <em>ffmpeg</em>和H264视频的编<em>解码</em> Gemfield A CivilNet Maintainer 背景 做CV的人经常面对的东西之一就是用<em>ffmpeg</em>处理视频,本文聚焦的就是<em>ffmpeg</em>和H264视频编码的一些概念和命令。因为实际使用的时候大多数的人都会遇到一些比较困惑的<em>问题</em>,比如<em>ffmpeg</em>截取视频为...
FFmpeg——视频解码——转YUV并输出——av_image函数介绍
视频<em>解码</em>一般步驺 1.准备上下文 AVFormatContext AVCodec AVCodecContext 2.准备上下文的原子对象 AVFrame AVPacket 3.配置<em>解码</em>器 一种是直接find decoder输入AVCodecID即可 另一种是按AVFormatContext-&amp;amp;gt;streams[st_index_video]-&amp;amp;gt;codecpa...
ffmpeg把H264数据流解码成YUV420P
转自http://blog.csdn.net/vheavens/article/details/7528463 在网上找了很久这方面的内容,发现网上的代码都太旧了,所使用的函数旧到连最新版本的<em>ffmpeg</em>都已经不包含了,所以对于我这个初学者来说太坑拉。不过经过多次查找<em>ffmpeg</em>的头文件和结合网上的内容,终于成功可以<em>解码</em>拉。现在贴出来。 首先是初始化一些参数 [cpp]
FFmpeg解码MP4文件为h264和YUV文件
#include &amp;amp;amp;lt;iostream&amp;amp;amp;gt; #ifdef __cplusplus extern &amp;amp;quot;C&amp;amp;quot; { #endif #include &amp;amp;amp;lt;libavcodec/avcodec.h&amp;amp;amp;gt; #include &amp;amp;amp;lt;libavformat/avformat.h&amp;amp;amp;gt; #include &amp;a
ffmpeg解码H264缺少帧的解决办法
最近用<em>ffmpeg</em><em>解码</em>H264裸码流文件,发现<em>解码</em>总是少几帧。上网查了些资料,解决了。
FFMPEG 实时解码网络H264码流,RTP封装
初学FFMPEG和H264,<em>解码</em>视频流时遇到了很多麻烦,记录一下研究成果。 我使用的FFMPEG 2.5.2版本,使用av_parser_parse2重组图像帧时遇到了一下麻烦! 下面是主要代码: RTP头定义, typedef struct { /**//* byte 0 */ unsigned char csrc_len:4; /**//* ex
ffmpeg 解码h264数据
转自http://blog.csdn.net/liushu1231/article/details/9203713 本文内容均为原创,转载请注明出处。 使用<em>ffmpeg</em><em>解码</em><em>h264</em>数据其实相对使用x264进行视频编码是简单了许多的,因为<em>ffmpeg</em>提供了一个decoding_encoding.c的文件,这个文件里面有简单的使用<em>ffmpeg</em>进行视频、音频编<em>解码</em>的例子,不过可能有的人也会找不到这个示例
FFmpeg解码H264流程分析
    简单介绍下FFmpeg<em>解码</em>的流程,具体可以参考雷神的博客:点击打开链接        声明变量:AVCodec *pCodec; AVCodecContext *pCodecCtx = NULL; AVPacket packet; AVFrame *pFrame; AVCodecID codec_id = AV_CODEC_ID_H264;    AVCodec是包含了编<em>解码</em>器信息的结构体...
在linux下用ffmpeg解码h264
首先,介绍一下,<em>h264</em>主要操作流程,见函数:#include &quot;API_H264Decode.hpp&quot; //----------------------------<em>ffmpeg</em>  <em>h264</em><em>解码</em>类 API::H264DecodeDev::H264DecodeDev(): m_pcodec(nullptr), m_pCodeCtx(nullptr), m_pFrame(nullptr),//m_pC...
live555+ffmpeg 如何处理h264流?
请问live555的是怎么实现的,比如testProgs中的openRTSP是经过source(rtsp://localhost/test.mp4)之后将video或者audio的数据存储到文件中,再进行<em>解码</em>吗,是如何<em>解码</em>呢,我想用<em>ffmpeg</em><em>解码</em>,如何实现呢? <em>问题</em>点数:20分 CSDN推荐 CSDN今日推荐 ⋅ Live555接收<em>h264</em>使用<em>ffmpeg</em><em>解码</em>为YUV420 ⋅ 基...
Android使用FFmpeg 解码H264并播放(三)
上一节记录了Android使用FFmpeg<em>解码</em>H264的过程。这一节记录在Android上<em>播放</em>的过程。<em>问题</em>描述在开发中使用某摄像头的SDK,只能获取到一帧帧的 H264 视频数据,不知道视频流地址,需要自己<em>解码</em>出图像并<em>播放</em>。<em>问题</em>解决Android <em>播放</em><em>解码</em>后的视频帧在Android上<em>播放</em>视频的总体思路是在Native层从 Surface 获取 到ANativeWindow,通过修改 ANativeW
Android FFMpeg(三)——使用FFMpeg解码h264、aac
前面博客记录了FFMpeg的编译,编译后我们可以拿到FFMpeg的动态库和静态库,拿到这些库文件后,通常我们需要做个简单的封装才能在Android上层愉快的使用。本篇博客的是从拿到FFMpeg静态库到使用FFMpeg<em>解码</em>视频的过程,记录尽可能的详尽,可能会让博客的篇幅略长。准备工作库文件本篇博客的示例是利用FFMPeg静态库进行<em>解码</em>的,所以首先我们需要得到FFMpeg的静态库,编译可以参照之前的两篇
ffmpeg--解码h264
H.264<em>解码</em>器(Decoder)在初始化的时候调用了ff_<em>h264</em>_decode_init(),ff_<em>h264</em>_decode_init()又调用了下面几个函数进行<em>解码</em>器汇编函数的初始化工作(仅举了几个例子): ff_<em>h264</em>dsp_init():初始化DSP相关的汇编函数。包含了IDCT、环路滤波函数等。 ff_<em>h264</em>qpel_init():初始化四分之一像素运动补偿相关的汇编函数。 f
FFmpeg接收H.264解码播放
       在前面一个博客(地址在这里 )中,我们做到了将采集的摄像头数据编码为H.264,接下来我么讨论下如何将H.264发送,在接收端接收<em>解码</em>并<em>播放</em>。和上一篇编码的博客一样,我们也是直接调用<em>ffmpeg</em>.exe和ffplay.exe文件,内部的具体操作需要抽时间去阅读。1.传输       UDP是一种无连接的传输层协议,不对传送数据包进行可靠性保证,适合一次性传输少量数据。       我...
FFmpeg解码H264裸流并转换成opencv Mat
感谢雷霄骅博士的在中文视频编<em>解码</em>的付出,http://blog.csdn.net/leixiaohua1020最近要搞一些视频推流的事情,要解析H264裸流并且获取opencv格式的Mat数据给算法工程师们跑算法.相关资源一直很难找到,经常都是太旧导致API版本都更新换代了,没办法让新人或者外行[比如我]快速验证代码是否可行.在参考多个博客,前人的代码东拼西凑总算是写出了这个H264<em>解码</em>器.算是尽我
FFMPEG实现RTSP中H264数据流解码 并且实时播放
主要过程和<em>ffmpeg</em>实现视频<em>播放</em>的过程差不多 可以参考:https://blog.csdn.net/yunge812/article/details/79342089 主要改动原始文件的读取 <em>播放</em>器是<em>播放</em>本地文件 而我们这里需要读取的是RTSP中H264数据流 char filepath[1024] = &amp;amp;amp;quot;rtsp://184.72.239.149/vod/mp4://Bi...
利用FFmpge进行视频解码(从H264视频流到图像)
class Ffmpeg_Decoder { public:     AVCodecParserContext *avParserContext;     AVPacket avpkt;            //数据包结构体     AVFrame *m_pRGBFrame;    //帧对象     AVFrame *m_pYUVFrame;    //帧对象     AVCod
ffmpeg解码播放H264解码播放的速度过快
-
关于ffmpeg解码rtsp实时流的问题
用<em>ffmpeg</em>库<em>解码</em>RTSP<em>实时</em>流,<em>播放</em>会<em>出现</em><em>花屏</em>,丢帧掉包的情况,控制台打印的信息如下: 程序是使用的这篇文章:最简单的基于FFMPEG+SDL的视频<em>播放</em>器 ver2 (采用SDL2.0) 程序如下
Qt基于FFmpeg播放本地 H.264(H264)文件
最近在弄H264的硬件编<em>解码</em>,基于DM3730,但是为了调试方便,在小红帽上用FFmpeg实现了H264的软件编<em>解码</em>。现在弄了一个Windows的例子,给需要的同学参考一下,如果大家觉得有帮助,可以小手一抖,帮我点个赞。 这个例子是Qt Mingw版本的,FFmpeg可以去官网下载,也可以自己编译,编译方法可以参考我的博文。 Windows 7(Win7)下MinGW+msys编译<em>ffmpeg</em>
ffmpeg如何从内存读取h264音视频流进行解码显示
由于项目组重组,自己有幸开始做音视频编<em>解码</em>方面的研发工作,现将自己近期的工作收获作为BOLG的方式记录起来,方便自己日后查阅和学习。说到H264编<em>解码</em>,不能不提到<em>ffmpeg</em>,据自己查证的资料显示,现大部分软件的H264编<em>解码</em>基本都是使用<em>ffmpeg</em>作为自己的三方库工具,关于<em>ffmpeg</em>有多牛,这里不作赘述。 按照之前查阅的资料,<em>ffmpeg</em>可以<em>解码</em>rtp网络流、从内存读取数据流来<em>解码</em>、读取文件
利用ffmpeg将H264解码为RGB
转自:http://blog.csdn.net/q339659207/article/details/23435761 由于公司买到了一个不提供<em>解码</em>器的设备,我不得已还要做<em>解码</em>的工作。在网上找了一圈,H264<em>解码</em>比较方便的也就是<em>ffmpeg</em>一系列的函数库了,原本设备中也是用这套函数库<em>解码</em>,但厂家不给提供,没办法,只得自己搞了。 利用H264<em>解码</em>分为几个步骤:  
Live555接收h264使用ffmpeg解码为YUV420
本文介绍了一种常用成熟的多媒体<em>解码</em>方案。使用live555作为流媒体数据源,建立rtsp会话请求<em>h264</em>数据流。后端使用<em>ffmpeg</em><em>解码</em><em>h264</em>流并保存为yuv420格式。该方案比较成熟,可行性高,但网络相关资料较少,给初学者带来了不小的入门难度。本文介绍了其中实现的几个关键步骤和容易<em>出现</em>错误的地方。希望能给从事该方向开发的朋友有一些启示。本文使用的开发环境Ubuntu12.04
使用ffmpeg的lib库解码H264/H265
<em>ffmpeg</em>的开源代码自行在<em>ffmpeg</em>的官方下载(http://<em>ffmpeg</em>.org/) 一、编译 编译之前需要先安装gcc编译器,本文使用的是arm-linux的交叉编译器,这里简称arm-linux-gcc 本文使用的版本是 <em>ffmpeg</em>-3.3.3,下载得到<em>ffmpeg</em>-3.3.3.tar.bz2 mkdir dist tar xvf <em>ffmpeg</em>-3.3.3.tar.bz2
ffmpeg支持h264解码--环境vs2005
1.1 FFMPEG FFmpeg是一个开源免费跨平台的视频和音频流方案,属于自由软件,采用LGPL或GPL许可证(依据你选择的组件)。它提供了录制、转换以及流化音视频的完整解决方案。它包含了非常先进的音频/视频编<em>解码</em>库libavcodec,为了保证高可移植性和编<em>解码</em>质量,libavcodec里很多codec 都是从头开发的。 1.1.1 编译FFmpeg库 网站上提供FFmpeg库都是v
FFmpeg的H.264解码器源代码简单分析:解析器(Parser)部分
本文继续分析FFmpeg中libavcodec的H.264<em>解码</em>器(H.264 Decoder)。上篇文章概述了FFmpeg中H.264<em>解码</em>器的结构;从这篇文章开始,具体研究H.264<em>解码</em>器的源代码。本文分析H.264<em>解码</em>器中解析器(Parser)部分的源代码。这部分的代码用于分割H.264的NALU,并且解析SPS、PPS、SEI等信息。解析H.264码流(对应AVCodecParser结构体中的函数)和<em>解码</em>H.264码流(对应AVCodec结构体中的函数)的时候都会调用该部分的代码完成相应的功能。
FFMPEG实现H264的解码(从源代码角度)
农历2014年底了,将前段时间工作中研究的FFMPEG<em>解码</em>H264流程在此做一下整理,也算作年终技术总结了! H264<em>解码</em>原理: H264分为NAL(网络抽象层)和VCL(视频编码层) <em>解码</em>器的总框架: <em>解码</em>器的流程为:将NAL数据位流输入到H264的<em>解码</em>器中,熵<em>解码</em>模块<em>解码</em>后输出量化系数X;系数经过反量化和反变换得到残差数据R;<em>解码</em>器使用从码流中<em>解码</em>的头信息生成预测块Pr
ffmpeg--h264帧内解码
宏块<em>解码</em>函数(Decode)通过帧内预测、帧间预测、DCT反变换等方法<em>解码</em>压缩数据。<em>解码</em>函数是ff_<em>h264</em>_hl_decode_mb()。其中跟宏块类型的不同,会调用几个不同的函数,最常见的就是调用hl_decode_mb_simple_8()。 hl_decode_mb_simple_8()的定义是无法在源代码中直接找到的,这是因为它实际代码的函数名称是使用宏的方式写的。hl_decode_
FFmpeg的H.264解码器源代码简单分析:解码器主干部分
本文分析FFmpeg的H.264<em>解码</em>器的主干部分。“主干部分”是相对于“熵<em>解码</em>”、“宏块<em>解码</em>”、“环路滤波”这些细节部分而言的。它包含了H.264<em>解码</em>器直到decode_slice()前面的函数调用关系(decode_slice()后面就是H.264<em>解码</em>器的细节部分,主要包含了“熵<em>解码</em>”、“宏块<em>解码</em>”、“环路滤波”3个部分)。
Android使用FFmpeg 解码H264并播放(一)
<em>问题</em>描述在开发中使用某摄像头的SDK,只能获取到一帧帧的 H264 视频数据,不知道视频流地址,需要自己<em>解码</em>出图像并<em>播放</em>。<em>问题</em>解决编译FFmpeg此处省略,这里有 编译好的库,上传到Github了。开发环境配置1、 配置 AndroidStudio 的 NDK 路径。 2、 配置 app 的 build.gradle ,添加 CMake 参数android { defaultConfig
利用ffmpeg解码h264流的代码
这里也直接给出代码: <em>h264</em>dec.h: #pragma once #include "tdll.h" #include "avcodec.h" #include "postprocess.h" //#include "EMVideoCodec.h" class <em>h264</em>dec /*: public IH264Decoder*/ { public: virtual bool InitH2
ffmpegh264编码的yuv格式进行解码
利用socket接收rtsp流,并用<em>ffmpeg</em>将h.264编码的yuv格式的视频数据进行<em>解码</em>
H264码流中SPS PPS详解
原文地址:https://zhuanlan.zhihu.com/p/27896239 1 SPS和PPS从何处而来? 2 SPS和PPS中的每个参数起什么作用? 3 如何解析SDP中包含的H.264的SPS和PPS串? 1 客户端抓包 在做客户端视频<em>解码</em>时,一般都会使用Wireshark抓包工具对接收的H264码流进行分析,如下所示: 在这里我们可以看到对<em>解码</em>视频起关键作用的SPS和...
关于vlc 播放器全屏实现的问题
event
VLC预览高分辨率视频导致视频花屏分析笔记
    根据vlc调试打印,是由于<em>解码</em>过慢导致视频画面过慢显示,程序丢弃画面帧;进而导致画面丢帧。     因为,vlc底层依赖于开源库<em>ffmpeg</em>的音视频的编<em>解码</em>库。所以,可以从<em>ffmpeg</em>方面入手分析。参考:点击我  这位朋友的帖子,有如下的解决办法     根据网上说法,<em>问题</em>应该在于<em>ffmpeg</em>源文件udp.c中 ,UDP_MAX_PKT_SIZE值设置小,将其增大10倍。 修改后重新编...
急!vlc花屏问题交流
急!急!!急!!! 用vlc<em>播放</em>在线视频,<em>出现</em>很多马赛克,大家有好的建议不?在线等,求解答。
用vlc播放rtsp视频,有时候黑屏,有时候连接正常,可能是什么原因?
因为最近在接触视频<em>播放</em>,用的rtsp协议,找到了非常强大的vlc,但集成后<em>播放</em>网络上的公测rtsp地址<em>正常</em>的,但是<em>播放</em>公司的就是经常黑屏,有时候会<em>正常</em>,这种情况<em>出现</em>的原因可能是什么...
移植ffmpeg和ffplay播放h264
环境说明: 我这里使用的是国产某桌面linux系统;有些系统可能缺少部分库! [root@localhost <em>ffmpeg</em>-4.1.3]# uname -a Linux localhost 4.4.13-200.nd7.3.x86_64 #1 SMP Sat Jul 8 23:22:12 CST 2017 x86_64 x86_64 x86_64 GNU/Linux 可以直接用命令clon...
FFMPEG系列之五:H264视频流直播
转载自:http://www.spirithy.com/2016/11/15/<em>ffmpeg</em>_fifth/ 这篇应该暂时是FFMPEG系统的收官之作了,要做的事情很简单:把编码得到的(置于MP4容器中的)H264视频流的AVPacket(见系列第3篇:http://www.spirithy.com/2016/11/13/<em>ffmpeg</em>_third/)通过网络发送到另一端,然后另一端通过<em>解码</em>器de
ffmpeg解码h264文件,opencv显示
H264.h#include #include #include #include #include typedef struct { int startcodeprefix_len; //! 4 for parameter sets and first slice in p
最简单的基于FFMPEG的视频编码器(YUV编码为H.264)
本文介绍一个最简单的基于FFMPEG的视频编码器。该编码器实现了YUV420P的像素数据编码为H.264的压缩编码数据。编码器代码十分简单,但是每一行代码都很重要,适合好好研究一下。弄清楚了本代码也就基本弄清楚了FFMPEG的编码流程。目前我虽然已经调通了程序,但是还是有些地方没有完全搞明白,需要下一步继续探究然后补充内容。 本程序使用最新版的类库(编译时间为2014.5.6),开发平台为VC2
FFmpeg 获取h264裸码流
原帖链接如下:http://blog.csdn.net/ren65432/article/details/43449391 有时候我们需要获取<em>h264</em>裸码流进行分析。本文介绍如何通过FFmpeg 获取<em>h264</em> 码流。获取到的<em>h264</em>码流文件 可以直接通过vlc 等<em>播放</em>器直接<em>播放</em>。 一、 .<em>h264</em>文件数据流 如下图 是通过WinHex工具 分析的一个.<em>h264</em>文件数据:
ffmpeg推流收流 1920*1080视频 花屏
自己用<em>ffmpeg</em>推流,然后再收流,小分辨率没有<em>问题</em>,当分辨率为1920*1080时,<em>出现</em><em>花屏</em>现象,尤其是码率高时,现象更加明显,尝试各种办法,最后用下面的办法解决: 在<em>ffmpeg</em>源码udp.c中: #define UDP_MAX_PKT_SIZE 65536 修改这个值,网上说扩大10呗 #define UDP_MAX_PKT_SIZE 655360 然后重新编译生成新的库文件,不要win...
PS流拖影花屏可能哪些原因导致
在丢包率不严重的情况下,对于GB28181要求的PS流,<em>出现</em>拖影,<em>花屏</em>的有哪些原因,谁从码流封装角度来指导下,急求大神指导
PS流的格式和解析总结
对于PS流,最近因为工作需要,所以MPEG2中的PS流格式和解包过程进行了学习。  首先我们需要知道PS包流格式是怎么样的: (来自http://blog.csdn.net/chen495810242/article/details/39207305) 针对H264 做如下PS 封装:每个IDR NALU 前一般都会包含SPS、PPS 等NALU,因此将SPS、PPS、IDR 的NALU 封...
ffmpeg播放rtsp视频流花屏解决办法
转载地址:http://blog.sina.com.cn/s/blog_9e7753030102vd5s.html <em>花屏</em>有四个原因: 其一是发送数据包太大,超过了<em>ffmpeg</em>默认最大值。解决方法为下面的步骤 1。 其二是网络情况较差时,因网络状况<em>出现</em>的丢包而导致<em>花屏</em>。我这里是将有丢包的帧过滤掉,从而避免<em>花屏</em>现象。解决方法为下面的步骤2,3。 其三是因为<em>解码</em>出错。解决方法为下面的2,4,5,...
ffmpeg处理hikvision平台PS流
    在多媒体指挥调度系统中,将监控平台的IPC音视频转发到视频会议、视频话机以及直播平台,是一个常见的需求。常见的监控平台在提供的SDK中通常以回调的方式将音视频媒体用复合流的方式送给应用程序。所谓的复合流,安防行业当然以PS流见多,hikvision平台也是如此。    既然是PS流,当然要仔细研究一下iso13818-1规范,本来想自己写PS流的解析代码,但考虑到已经有众多的PS流解析开...
FFmpeg解码高分辨率rtsp花屏
-
【FFmpeg】ffplay播放rtsp视频流花屏问题
<em>问题</em>描述:ffplay<em>播放</em>rtsp视频流时,<em>播放</em>过程中随机<em>出现</em><em>花屏</em>现象。 基本流程学习:阅读ffplay源码,熟悉其<em>播放</em>rtsp视频流的基本流程。 在ffplay源码阅读和分析的基础上,画出了其<em>播放</em>rtsp的函数调用关系,如下图所示: avformat_open_input函数根据输入的文件名,与rtsp_read_packet关联。 rtsp_read
8148 8168 中移植live55 出现except rtsp 中途莫名的断流
  在<em>解码</em>中,接了浙江宇视的ipc相机,<em>解码</em>一般就挂了,vlc 也是中途<em>断流</em>.费解? vlc异常信息如下: packetizer_<em>h264</em> warning: waiting for SPS/PPS packetizer_<em>h264</em> warning: waiting for SPS/PPS packetizer_<em>h264</em> warning: waiting for SPS/PPS packet...
从海康录像机取RTSP转发流,规律性的断流
  说出来没有人信,可是反复测试都是如此.大体规律是:30秒左右<em>正常</em>,然后断30秒左右,如此重复.   网上搜索了一下,没有看到相关的内容.不知道真么回事?或者要做什么设置? ...
vlc播放rtsp视频,由于公网udp传输丢包不显示,要改成tcp传输,应该如何修改呢?
实现vlc<em>播放</em>器后,<em>播放</em>局域网的rtsp视频<em>正常</em>,但一<em>播放</em>公网视频,界面是黑屏状态,怀疑是udp连接丢包的原因,想改成tcp传输,有没有人曾经接触或做过这个东西呢
RTSP详解
<em>实时</em>流协议(RTSP)是应用层协议,控制<em>实时</em>数据的传送 。RTSP提供了一个可扩展框架,使受控、按需传输<em>实时</em>数据(如音频与视频)成为可能。数据源包括现场数据与存储在剪辑中的数据。本协议旨在于控制多个数据发送会话,提供了一种选择传送途径(如UDP、组播UDP与TCP)的方法,并提供了一种选择基于RTP (RFC1889)的传送机制的方法。 1 介绍   1.1 目的       <em>实时</em>流协议
解码H264帧要注意的两个问题
  相信很多朋友,都要做<em>解码</em>的工作。以个人而言,做<em>解码</em>器,特别要注意两个事情:   关键帧是否完整。关键帧不完整,<em>解码</em>出来的画面就有这样那样的错误。如果发现关键帧不完整,建议抛弃关键帧及之后的帧,直到下一个关键帧。   <em>解码</em>时顺序是否正确。因为网络<em>问题</em>,有时帧的顺序会乱。这个时候做个简单的缓冲即可。   丢包重发<em>问题</em>。这个比较复杂,其他文章有分析,这里就不多说了。 ...
降低FFmpeg的解码延时
     不知大家有没有发现FFmpeg长时间<em>解码</em>会<em>出现</em>延时增大(特别是在丢包的情况下)?如果在<em>播放</em>本地文件,这个<em>问题</em>是没有影响的。但是如果<em>播放</em>的是<em>实时</em>流,则图像的延时就越来越大。本人是做安防监控的,很多招标项目对<em>解码</em>器的图像延时都有要求:不能高于250毫秒。所以,对<em>实时</em>性要求高的场合,要尽量降低图像的延时。     网络摄像头从采集图像到通过网络传输到客户端<em>解码</em>的过程中都会产生延时,一般延时有...
h264解码花屏问题
-
Android上用MediaCodec+SurfaceView的方式对H264裸流解码播放
    公司要实现在手机app上查看到摄像头的拍摄视频,使用了第三方的服务,但第三方最终只会底层透传一个视频的字节数组,并没有视频<em>播放</em>的功能,此功能需要自己实现。    由于第三方服务是基于native的,所以之前写的h5app不能用了,得重新用native实现,而我本人也是不懂安卓的,但没办法,还是得去琢磨。    一开始只知道我现在能拿到视频的字节数组,但压根不知道怎么把数组变成视频显示在手机...
.h264文件裸流制作与播放
授之以渔,再也不用费神了,自己动手轻松制作.<em>h264</em>文件裸流
ffplay 播放YY直播的流
ffplay <em>播放</em>YY直播的流 web端和移动端,都是flv流 flv里是使用的h265和aac,由于flv的格式默认是不支持h265的,所以在<em>解码</em><em>播放</em>时,需要强制指定<em>解码</em>器 ffprobe yy.flv Input #0, flv, from 'yy.flv': Metadata: displayWidth : 1280 displayHeight : 720 ...
Linux使用ffplay实时采集音频并实时播放
ffplay -f alsa -ac 2 -i hw:1,0 -ar 44100
关于ffplay播放RTSP视频流(如何指定使用TCP传输)
我下载了较新的<em>ffmpeg</em>编译好的库,在windows下通过ffplay.exe直接<em>播放</em>RTSP视频流。 从抓包的内容看,RTP默认都是通过UDP传输的, 我想让ffplay.exe通过TCP传输视频
FFMPEG进阶系列01-ffplay命令详解
文章目录概述命令格式主要选项高级选项<em>播放</em>控制应用范例<em>播放</em>媒体文件ffplay的数据可视化分析应用过滤器(filter)待续 尚未完成资源可用RTMP链接多种测试码流参考更多资料,更多分享 概述 ffplay是一个基于FFMPEG库和SDL库开发的多媒体<em>播放</em>器。它的主要目的是是用来测试FFMPEG的各种API,比如codec/format/filter等等库。 掌握ffplay的设计逻辑,对于<em>播放</em>...
ffplay和vlc播放rtmp流延迟不一致,如何消除延迟
-
ffmpeg ffplay播放延时大问题播放延时参数设置
使用ffplay<em>播放</em>视频源时,rtsp/rtmp等,会有一定的延时,这里我们可以通过设置ffplay<em>播放</em>参数将延时控制到最小。 ffplay.exe -i rtmp://xxxxxxx -fflags nobuffer 减少缓冲 也可以减少分析码流的时间 ffplay.exe -i rtmp://xxxxxxx -analyzeduration 1000000 码流分析时间设置,
ffmpeg编译,ffplay播放RTSP流,音频格式为AAC-ELD
rtspServer已经ready, 音频格式为AAC-ELD,encoder 为libfdk-aac。 发现VLC和ffplay不能<em>正常</em><em>解码</em>AAC-ELD。FFmpeg可以支持3钟AAC-LC编码器(aac、libfaac、libfdk_aac)和1种HE-AAC编码器(libfdk_aac)。因为libfaac和libfdk_aac的许可协议和GPL协议不兼容,因此GPL协议不允许发布包含这种...
求解ffmpeg 解码通过rtp接受的h264数据出现花屏/马赛克
求解<em>ffmpeg</em> <em>解码</em>通过rtp接受的<em>h264</em>数据<em>出现</em><em>花屏</em>/马赛克 求高手帮忙解答,下面列出rtp接受和<em>解码</em>关键代码: while ((pack = GetNextPacket()) != NULL)
ffmpeg h264解码, 屏蔽因为网络丢包等各种原因导致的花屏
<em>ffmpeg</em> <em>h264</em><em>解码</em>, 屏蔽因为网络丢包等各种原因导致的<em>花屏</em>帧  --看来<em>问题</em>只能这样解决了,现在还要多测测,防止产生新的<em>问题</em>。目前来看,对现有代码没有影响,<em>花屏</em>的帧直接屏蔽掉了。 思路: 问了下机顶盒方面<em>h264</em><em>解码</em>的,他们用的是硬件<em>解码</em>,他们做到不<em>花屏</em>的方法就是简单的设置了一个硬件<em>解码</em>提供的接口:设置了错误处理模式。 我想这个错误处理模式肯定对那些错误的帧直接屏
ffmpeg解码花屏
<em>问题</em>: <em>解码</em>为YUV420转为Bitmap后显示在屏幕上时,有三分之二为<em>花屏</em>:如图: 首先用<em>h264</em>Visa分析帧: 已经读出了sps等信息,这些信在<em>解码</em>第一帧时被写入环境变量中,所以下边的帧不需要sps了 而且在<em>解码</em>时必须为完整的一帧或者数帧。 只有IDR帧才需要带sps、pps信息。 <em>ffmpeg</em>中的av_read_frame()的作用是读取码流中的音频若干
利用ffmpeg解码H264,花屏
UINT CMP4File::VideoCap_Thread_Fun(void* pParam) { CMP4File *pMP4File=(CMP4File*)pParam; //初始化AVPac
【求助】MediaCodec解码H264部分机器花屏
通过TCP连接服务器取H264视频流,用MediaCodec<em>解码</em>在酷派5892上<em>播放</em>成功,但是在nexus 6p和小米4上<em>播放</em>时只有左上角有画面,求解 酷派5892系统Android 4.3; nex
视频编码花屏问题求助
-
FFmpeg4.1——H264裸流解码为YUV420P原像素
//
ffmpeg封装h264裸流为mp4文件,视频播放速度特别慢
大家好。我将<em>实时</em>采集的x264编码后的H264流直接封装到mp4文件(不是从<em>h264</em>文件读取的)后,视频可以<em>播放</em>,但是<em>播放</em>速度非常慢。录制的10秒钟的视频变成了75秒左右,参考了<em>ffmpeg</em>网站上面的
使用ffmpeg将多张图片生成H264裸流并获取帧图片
1.使用<em>ffmpeg</em>将多张图片生成H264文件; 2.从H264文件中获取一帧图片和一帧中的SLICE图片; 3.能够直接使用ffplay.exe<em>播放</em>H264文件; 4.完整工程,可直接运行(附带测试
FFmpeg实时封装海思H264裸流
这边第一次用<em>ffmpeg</em>封装海思3531a的裸流成AVI时,文件能生成,VLC<em>播放</em>提示文件索引损坏,但是能<em>播放</em>。还有右键文件属性看不到任何媒体信息,比如分辨率,码率,帧率以及编码器等等信息。代码已经手
H.264裸流保存为可使用ffplay播放的文件
RTP包封装的H.264,按照一定的方式,还原成H.264文件,是可以直接使用ffplay<em>播放</em>的。但要注意以下<em>问题</em>: 1. 需要了解使用RTP封装H.264的格式,可以参考该文章(着重推荐!!) 2. 每个完整的H.264帧(有时一个RTP包可能会传输多个NALU单元,如type为STAP-A,也有可能遇到一个NALU单元使用多个RTP包传输,如FU-A),都需要使用0x00 00 00 01
ffplay工具命令使用技巧浅析
1、前言  ffplay是<em>ffmpeg</em>的一个子工具,它具有强大的音视频<em>解码</em><em>播放</em>能力,目前它广泛被各种流行<em>播放</em>器(QQ影音、暴风影音……)集成应用。作为一款开源软件,ffplay囊括Linux、Windows、Ios、Android等众多主流系统平台,十分适合进行二次开发。这里有必要介绍一下它常用的技巧。首先下载<em>ffmpeg</em>代码包,里面有免编译版、源代码百、静态库版、动态库版,具体怎么下载安装请参考...
ffmpeg播放H264裸流 实现快进快退功能
大家好!我使用<em>ffmpeg</em>的<em>h264</em>标准对摄像头捕获的视频进行编码并保存,得到test.264裸码流文件,并实现对该码流进行<em>解码</em><em>播放</em>,我现在想要增加该视频<em>播放</em>器的快进快退功能,但没有思路陷于疑惑中,希
FFplay使用指南
1. ffplay 是什么? 简单的说,ffplay 是一个使用了 <em>ffmpeg</em> 和 <em>sdl</em> 库的、一个简单的可移植的媒体<em>播放</em>器。 2. ffplay 使用方式 命令行: ffplay [选项] ['输入文件'] 3. ffplay 可使用的选项 3.1 通用选项 view sourceprint? 01.'-L'    显示 lice
如何用ffmpeg播放网络实时流?100分!
我socket将h.264码流接收下来了,然后保存到内存中,如何使用<em>ffmpeg</em>来<em>解码</em>呢,av_open_input_stream这个函数到底要怎么用呢?我在网上找了很多天,都是用<em>ffmpeg</em><em>播放</em>本地
直接播放H264视频流的方法或工具
前几天在查找资料的时候发现一篇文章特别实用,链接如下:    http://blog.csdn.net/jasonhwang/article/details/7359095 抓取一个包含H.264 Payload RTP包的SIP会话或RTSP会话后,用Wireshark的Play功能只能<em>播放</em>声音,不能<em>播放</em>视频。把payload直接导出成文件后也是不能直接<em>播放</em>的,因为H.264 over RT
ffmpeg处理断网时,生成一个文件中遇到的问题
      由于网络环境不稳定,在实际的录像过程中常常会将录制的文件保存为多个视频文件,后期就需要更多的资源来进行视频合并,并且增加了额外的时间开销。为了解决这个<em>问题</em>,同时考虑到时间的开销以及资源占用率最小,就想出了这样的一个办法,在断网时,av_read_frame()会在达到超时后,返回一个负值,由于同一个摄像机里面的参数都一致,可以沿用前面设置的参数,后面只需要再次打开流,不停的检查是否能连...
解决ffmpeg 重采样中的bug。
最近公司的项目需要对ts流进行监控,于是我使用了<em>ffmpeg</em>的<em>解码</em>部分和音频重采样部分。 具体流程 ts流复合流--解复用模块-按照PID demux -<em>ffmpeg</em>接收-<em>解码</em>-通过PCM数据计算音量-选择一路监听。 实现过程比较简单,这里就不具体展开了,具体参考雷博士 <em>解码</em>部分。 由于要实现音频监听功能,而且需要多路切换,因为ts流里面的音频流在<em>解码</em>之后
设计模式chm 源码下载
Design Patterns: Elements of Reusable Object-Oriented Software. 英文版和英文版原汁原味 source code. mini 版本chm,含源代码. 相关下载链接:[url=//download.csdn.net/download/cbx_xx/2554839?utm_source=bbsseo]//download.csdn.net/download/cbx_xx/2554839?utm_source=bbsseo[/url]
单元测试指南.odf下载
此单元测试指南主要给单元测试人员提供一些基本的单元测试方法和技术,由于涉及的问题广泛,测试内容中的细节不一定准确和完整,还有待于各位的共同参与和不断完善,欢迎多交流! 相关下载链接:[url=//download.csdn.net/download/orchid0615/2661182?utm_source=bbsseo]//download.csdn.net/download/orchid0615/2661182?utm_source=bbsseo[/url]
VB最最最初级的计算器源码 给VB初学者提供思路下载
VB最最最初级的计算器源码 给VB初学者提供思路 相关下载链接:[url=//download.csdn.net/download/Banc2/2727084?utm_source=bbsseo]//download.csdn.net/download/Banc2/2727084?utm_source=bbsseo[/url]
相关热词 c# gdi 占用内存 c#中遍历字典 c#控制台模拟dos c# 斜率 最小二乘法 c#进程延迟 c# mysql完整项目 c# grid 总行数 c# web浏览器插件 c# xml 生成xsd c# 操作sql视图
我们是很有底线的