web-dev-qa-db-ja.com

iOS(iPhone / iPad)からリモートPC /サーバーへのライブカメラビデオのストリーミング

私は、ビデオストリーミングの問題の解決策を探して、stackoverflowやWebでしばらく探していました。カメラからキャプチャされたライブビデオ(高品質は不要)をiOSデバイスからリモートPCに1つの方法でストリーミングする必要があります。つまり、iOSデバイスはサーバー/ PCにビデオストリームを送信しますが、その逆は行いません。 。

グーグルやドキュメントの閲覧後に表示されるのは、使用できる主な標準/プロトコルが2つあるということです。

  • AppleのHTTPライブストリーミング(HLS)
  • アドビのRTMP

繰り返しますが、私の要件は、iPhone/iPadがビデオをストリーミングすることです。 AppleのWebサイトに表示されるものから、サーバー側のエンコードの観点とiOS側のデコードの観点からHLSが使用されることを理解しています。 RTMPの時点で、iOSストリーミングを許可するほとんどのライブラリは、商用ライセンスとクローズドコードを持っているか、P2Pインフラストラクチャを通過する必要があります(たとえば angl.tv または tokbox.com/opentok/quick -start )。 HLSの時点では、iOS側にエンコーディングライブラリは存在しないようです。

だから私の質問は:

  • アプリ内からキャプチャしたビデオをストリーミングするために統合できる、できればオープンで無料のSDK/Libraryを知っていますか?
  • いいえの場合、カスタムライブラリの開発は危険なジャングル横断の試みになると思いますか?私の推測では、AVFoundationを通過してカメラフレームをキャプチャし、フレームごとに圧縮してHTTPで送信します。それはクレイジーなパフォーマンスと帯域幅の点で聞こえますか?その場合、どちらの方法でもHLSまたはRTMPエンコーダーが必要になることに注意してください。

親愛なる友人の皆さん、よろしくお願いします。

メディ。

45
Medi The Jedi

私はそのようなライブラリを開発しました、そしてあなたはそれを見つけることができます github.com/jgh-/VideoCore

Camera/Mic RTMPセッションを簡単にセットアップできる簡素化されたiOS APIを作成したため、この回答を更新しています。 https://github.com/jgh-/VideoCore/blob/master/api/iOS/VCSimpleSession.h で見つけることができます。

さらに、VideoCoreがCocoaPodsで利用可能になりました。

29
jgh