Cloud-Aufnahme von Live-Videos
Published on 25 Jul 2022
Im letzten Jahrzehnt haben sich Anbieter von öffentlicher Cloud-Infrastruktur als allgemeine Computerplattform für eine große Bandbreite von Anwendungen positioniert, darunter auch Medien. Die Vorteile sind vielfältig, darunter ein flexibleres Kostenmodell sowie ein höheres Maß an Wiederverwendbarkeit und Robustheit. Um die Vorteile der Cloud-Netzwerktechnologie zu nutzen , verlassen Medienfunktionen bei den meisten allgemeinen Vorgängen FPGA- und ASIC-Designs, sodass die Cloud auch für High-End-Medienanwendungen zur Ausführungsumgebung wird. Aufgrund der engen Beschränkungen der Live-Produktion liegt der offensichtliche Ausgangspunkt für Rundfunkveranstalter, um diese Vorteile voll auszunutzen, in dateibasierten Workflows, da sie die meisten Live-Vorgänge der speziellen Medienausrüstung vor Ort überlassen haben.
Gleichzeitig verlagern sich Mediennetzwerke in Richtung IP und Ethernet. Obwohl die Erfüllung dieser strengen Anforderungen für Live-Medien in lokalen Netzwerken (LAN) absolut machbar ist, ist die Erfüllung derselben Anforderungen in einem Wide Area Network (WAN)-Szenario und insbesondere in gemeinsam genutzten WAN-Netzwerken weitaus problematischer.
Um viele dieser Schwierigkeiten zu bewältigen, beschreibt die ST 2110-Suite von SMPTE, wie IP-Netzwerke für Mediendienste eingerichtet werden. Die Standardisierung von IP als Trägerprotokoll für High-End-Medien beginnt im Studio und ist durch das Versprechen geringerer Kosten und höherer Flexibilität motiviert. Sie bedeutet auch eine verbesserte Kompatibilität mit Rechenzentren und öffentlichen Cloud-Einstellungen. Folglich gibt es jetzt eine neue Herausforderung, die eine Lösung in Bezug auf High-End-Mediendienste über WANs erfordert.
Während sich die SMPTE jedoch ganz auf die Bewältigung der Herausforderungen im Studio für Live-Produktionen der Stufe 1 konzentriert, sind als direkte Folge des Kostendrucks alternative Lösungen für Material der unteren Stufe entstanden.
Die Entwicklung der oft als Retransmission-Technologie oder Adaptive Repeat reQuest (ARQ) bezeichneten Technologie dauerte zehn Jahre, sie hat sich vielfach bewährt und ist mittlerweile ein fester Bestandteil der Produktionsumgebung der Stufen 2 und 3.
Ursprünglich wurde die Weiterübertragung als Methode eingeführt, um verlustbehaftete Infrastrukturen in Sendequalität kostengünstig zu nutzen. Heute erweitert sie den Funktionsumfang von einfachen Punkt-zu-Punkt-Verbindungen bis hin zu Punkt-zu-Mehrpunkt-Verbindungen, Lastausgleich zwischen Internetdienstanbietern (ISPs), nahtlosem Switching und vielem mehr.
Während die Einführung der IP-Technologie in den Studios relativ langsam verlief, da es von Natur aus schwierig ist, Anbieter und Rundfunkveranstalter zu einer Einigung auf einen gemeinsamen Rahmen zu bewegen, griffen die Märkte der Stufen 2 und 3 stattdessen auf proprietäre Lösungen zurück, was in der Folge zu mehreren parallelen Protokollen und Ökosystemen führte.
Und selbst wenn sich in den letzten Jahren Alternativen mit einem „standardorientierten Ansatz“ wie die Video Services Forums (VSFs) entwickelt haben, wird sich die Akzeptanz aufgrund der Investitionen, die die Rundfunkveranstalter bereits in bestehende proprietäre Ökosysteme getätigt haben, mit Sicherheit verzögern.
Cloud-Ressourcen für Live-Medien
Obwohl es erhebliche Unterschiede gibt, sind Genauigkeit und Dynamik aus technischer Sicht zwei der wichtigsten. Genauigkeit bedeutet, dass sichergestellt werden kann, dass eine Aufgabe zu einem präzisen und genauen Zeitpunkt erledigt wird. Für viele Anwendungen ist das vielleicht kein Problem, für andere, wie etwa bei der Synchronisierung und Überwachung, kann es jedoch schwierig sein.
Laden Sie das Whitepaper von Net Insight herunter, um mehr über die Cloud-Aufnahme von Live-Videos ausschließlich bei Whitepapers Online zu erfahren.