Swift

Wie es funktioniert

Fluss der Videobildverarbeitung

  1. Frame-Empfang: Das Vonage SDK ruft renderVideoFrame(_:) zu Ihrem CustomVideoRender Instanz für jedes Videobild
  2. Frame-Verarbeitung: Der Rahmen wird übergeben an CustomRenderViewder die Bilddaten verarbeitet und ein Bild erzeugt
  3. Anzeige: Die draw(_:) wird im Hauptthread aufgerufen, um das verarbeitete Bild auf dem Bildschirm darzustellen

Die Beispielimplementierung konvertiert Frames in Graustufen, aber Sie können die Verarbeitungslogik in renderVideoFrame(_:) um eine beliebige Transformation vorzunehmen.

Anpassungsoptionen

Sie können die Rahmenverarbeitung in CustomRenderView.renderVideoFrame(_:) um verschiedene Effekte oder Transformationen anzuwenden. Die Website OTVideoFrame Objekt ermöglicht den Zugriff auf die Rohdaten des Rahmens durch seine planes Eigenschaft, die Sie nach Belieben verarbeiten können.

Für eine weitergehende Bearbeitung können Sie auch Metal oder Core Image Frameworks verwenden, um Filter und Effekte auf die Videobilder anzuwenden.

Prüfung

Test im iOS-Simulator

  1. Führen Sie die Anwendung im iOS-Simulator aus.
  2. Der Simulator verwendet ein Demovideo (kein Zugang zur Kamera)
  3. Sie sollten den Graustufen-Video-Feed sehen

Test am physischen Gerät

  1. Ein iOS-Gerät anschließen
  2. Wählen Sie es als Laufziel aus
  3. Erteilen Sie die Kamerarechte, wenn Sie dazu aufgefordert werden
  4. Sie sollten Ihr Kamerabild in Graustufen sehen

Test mit mehreren Teilnehmern

  1. Führen Sie die Anwendung auf einem Gerät oder Simulator aus.
  2. Verwenden Sie die Vonage Video Spielplatz der gleichen Sitzung beizutreten
  3. Sie sollten sowohl Ihren benutzerdefinierten Stream als auch den Standard-Abonnenten-Stream sehen