我已经看到了很多关于如何将视频从服务器流到android设备的信息,但关于另一种方式(ala Qik)的信息却不多。谁能给我指点一下方向,或者给我一些建议?
当前回答
我构建了一个名为Kickflip的开源SDK,让Android上的流媒体视频成为一种无痛的体验。
SDK演示了如何使用Android 4.3的MediaCodec API将设备硬件编码器的数据包直接定向到FFmpeg,用于H.264 / AAC的RTMP(使用librtmp)或HLS流。它还演示了实时OpenGL效果(标题,色度键,淡出)和背景记录。
非常感谢,尤其是fadden。
其他回答
我可以将实时摄像机视频从手机发送到我的服务器。使用此链接 参见链接 参考上面的链接。该链接中有一个示例应用程序。你只需要在RecordActivity.class中设置你的服务url。
美国操作: ffmpeg_link =“rtmp / yourserveripaddress: 1935年- live /文卡特”;
我们可以使用该链接发送H263和H264类型的视频。
查看Yasea图书馆
Yasea是一个Android流媒体客户端。它对YUV和PCM数据进行编码 H.264/AAC,封装在FLV中进行传输 RTMP。
特点:
Android mini API 16。 H.264/AAC硬编码。 H.264软编码。 使用状态回调处理程序的RTMP流。 人像和景观动态方向。 前后摄像头热开关。 流媒体时录制到MP4。
这是完整的文章关于流媒体android摄像头视频到一个网页。
Android流媒体实时摄像头视频到网页
在android应用程序上使用libstreaming 服务器端使用Wowza Media Engine对视频流进行解码 最后使用jWplayer在网页上播放视频。
Took me some time, but I finally manage do make an app that does just that. Check out the google code page if you're interested: http://code.google.com/p/spydroid-ipcamera/ I added loads of comments in my code (mainly, look at CameraStreamer.java), so it should be pretty self-explanatory. The hard part was actually to understand the RFC 3984 and implement a proper algorithm for the packetization process. (This algorithm actually turns the mpeg4/h.264 stream produced by the MediaRecorder into a nice rtp stream, according to the rfc)
Bye
我主持了一个开源项目,使Android手机IP摄像头:
http://code.google.com/p/ipcamera-for-android
原始视频数据从LocalSocket获取,在流媒体之前首先检查MP4的MDAT MOOV。现场视频包装在FLV格式,并可以通过Flash视频播放器与内置的web服务器播放:)
推荐文章
- Manifest合并失败:uses-sdk:minSdkVersion 14
- 为什么Android工作室说“等待调试器”如果我不调试?
- 如何添加一个新的音频(不混合)到一个视频使用ffmpeg?
- 如何检查我的EditText字段是否为空?
- Android从图库中选择图像
- 后台任务,进度对话框,方向改变-有任何100%工作的解决方案吗?
- Android:垂直对齐多行EditText(文本区域)
- Android无尽列表
- Android room persistent: AppDatabase_Impl不存在
- 错误:执行失败的任务':app:compileDebugKotlin'。>编译错误。详细信息请参见日志
- 在Android中使用URI生成器或使用变量创建URL
- 缩放图像以填充ImageView宽度并保持纵横比
- 列表视图的自定义适配器
- 在Android中设置TextView span的颜色
- 如何以编程方式在RelativeLayout中布局视图?