社区
Android
帖子详情
android端怎么使用G711格式封装rtp,发送音频流
A HandSome Man
2019-08-08 10:28:46
我现在要实现实时发送录音,我现在已经获取到了G711文件了,现在需要使用rtp发送实时的音频流,求大神告知怎么写
...全文
184
回复
打赏
收藏
android端怎么使用G711格式封装rtp,发送音频流
我现在要实现实时发送录音,我现在已经获取到了G711文件了,现在需要使用rtp发送实时的音频流,求大神告知怎么写
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
SipDroid客户
端
源码
1. sipdroid\src\org\zoolu 中是sip协议栈的实现 2. sipdroid\src\org\sipdroid 中是软电话的实现 3. sipdroid\src\com 中是stun相关的实现 4. sipdroid默认
使用
的编码
格式
为
G711
-A率。 5. 直接用ant debug的方法编译出的程序,只支持A率和U率两种
音频
编码
格式
,其他的都需要通过NDK的方法导入后,才能
使用
。 6. 如果对
端
终
端
支持视频的话(如linphone),菜单如下: 保持,静音, 转移
发送
视频 挂断 注意:只能
发送
视频,接收不到对
端
的视频。 7. 如果对
端
终
端
不支持视频的话(如yate),菜单如下: 保持,静音, 转移 挂断 8. sipdroid\src\org\sipdroid\sipua\ui 中的VideoCamera.java,有视频捕获,
发送
,接收的实现。 9. sipdroid\src\org\sipdroid\sipua\ui 中的CallScreen.java中的 VIDEO_MENU_ITEM 标识了 “
发送
视频” 10. Activity2.java 实现了跳转到InCallScreen.java 11. class InCallScreenextends CallScreen 12. sipdroid.java 中有“关于 退出 设置”菜单的实现。 在
Android
Manifest.xml中, 表明了哪个Activity先启动。 13. 网络传来的
音频
数据通过AudioTrack类进行播放。 14. 本地的
音频
数据通过AudioRecord类进行录制。 15. 在本地播放数据包中的视频
流
,可以先提取位图,再显示。由于系统没有提供直接播放的相关方法。 16. 线程同步的方法 – synchronized 17. F:\sipdroid\res\drawable 中的图标可以更换 18. sipdroid\res\values-zh-rCN 修改【关于】显示框的内容 19 在Sipdroid开源项目像服务器进行数据的
发送
统一是由SipProvider的sendMessage,因为首先得知道是什么连接 是UDP啊,还是TCP,然后就是message的
封装
20. 是无连接的包投递服务,为什么是无连接呢,客户
端
和服务器压根就没有建立连接,服务器只是开放了
端
口来接受数据,有了就接受,没有就悬挂阻塞. 21双边的视频观看,走的还是数据报包,有数据报包的ip和
端
口就行了 22 但是Sipdroid可以直接的从MediaRecord里面已经生成好的视频数据中提取出H264/H263的数据,这些数据已经经过了相应的编码 23如何观看视频: mVideoFrame.setVideoURI(Uri.parse("rtsp://"+Receiver.engine(mContext).getRemoteAddr()+"/"+ Receiver.engine(mContext).getRemoteVideo()+"/sipdroid")); 24 通过内置的videoview来通过RTSP来进行播放,那么也就是说服务器会将传递的
RTP
的视频数据
流
封装
成RTSP的
流
传递给手机的videoview来实现观看,同样也不需要解码库, 所以Sipdroid开源代码里只有声音的编码库,没有视频的编码库. 25 最好的实现该软件的方法是,借助
Android
的MediaRecorder实时提取出H263/H264数据,然后经过
RTP
封装
传给RTSP服务器,这种实现方式最理想,通过获取onPrewFrame来获取预览帧编码,无论怎么弄,不可避免的,延时,丢帧各种情况都会让你非常的棘手
C/C++音视频实战-gb28181系列-pjsip-sip栈-h264安防
流
媒体服务器
音视频技术涉及广泛。包括语音信号处理、数字图像处理、信息论、
封装
格式
、编解码、
流
媒体协议、网络传输、渲染、算法等方面。在现实生活中,音视频也扮演着越来越重要的角色,比如 视频会议、直播、短视频、播放器、语音聊天 等。接下来将从几个维度进行介绍:简单理解音视频原理、音视频理论基础、音视频学习路线、媒体协议和音视频发展方向。 一、C++音视频需要掌握哪些技术 1、搞音视频必须有扎实的C/C++开发语言基础、 JNI基础,学会如何交叉编译 FFmpeg 等 C/C++库; 2、其次,我们需要阅读大量的音视频规范/协议文档(如H264、MP4/FLV、
RTP
/RTCP等)。这些文档中的内容基本都以位为单位的,每个二进制位的变化都代表不同的含义,涉及到的东西很多。比如APK多渠道打包就要我们了解zip
格式
中字节数据的意义,这还只是字节,一个字节8位,去分析H.264要更细致到二进制位的数据,信息量就更大了。 3、然后我们就可以学习音视频的基础知识了:RGB、YUV像素数据处理、PCM
音频
采样、H.264音视频码
流
解析以及
Android
平台多媒体相关如:Camera、AudioTrack、Ope
FFmpeg4.3系列之24:
RTP
及j
rtp
lib
发送
H.264码
流
我将带领大家一起来学习:
RTP
及j
rtp
lib
发送
H.264码
流
实战;
RTP
协议的报文结构;
RTP
封装
H.264;开源库j
rtp
lib的源码编译及环境搭建;开源库j
rtp
lib的官方案例详解与剖析;开源库j
rtp
lib
发送
H264码
流
并用VLC播放; ...
Android
端
做
RTP
实时
发送
音频
数据实现
如果你也在
Android
端
做
RTP
发送
数据的话,通过网上查找资料,相信你不难发现,在
使用
RTP
/RTCP协议
发送
数据是有现成的库进行调用的,Jlib
rtp
这个库就是Java实现的,但是这个库是没有说明文档的,比较抠脚,而且百度谷歌找到例子又很少,基本上都没什么卵用;一般搜到都是J
rtp
lib库,这是C实现库,对我们没多大用,除非你愿意先研究这个库的
RTP
实现,在用JNI调用,明显更蛋...
RTP
将h264
流
封装
成ps
流
并
发送
(C语言代码)
【代码】
RTP
将h264
流
封装
成ps
流
并
发送
(C语言代码)
Android
80,351
社区成员
91,288
社区内容
发帖
与我相关
我的任务
Android
移动平台 Android
复制链接
扫一扫
分享
社区描述
移动平台 Android
android
android-studio
androidx
技术论坛(原bbs)
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章