Media Blocks SDK .NETModulare Medienpipelines in C# erstellen
Erstellen Sie leistungsstarke Multimedia-Anwendungen einfach und flexibel mit Media Blocks SDK .NET — ein modularer Werkzeugkasten, der es Ihnen ermöglicht, komplexe Video-Workflows wie einen visuellen Konstruktor (Kamera → Codec → Ausgang) zu erstellen. Es unterstützt das Aufzeichnen in MP4, MKV und AVI sowie das Streaming über HLS, RTMP und RTSP und bietet eine reiche Auswahl an Effekten, einschließlich Farbkorrektur, Deinterlacing, Wasserzeichen, Bildschirmaufnahme und Audiobearbeitung. Mit eingebauten Funktionen für Computer Vision, QR-Code-Erkennung, Gesichtserkennung und voller Unterstützung für Blackmagic- und ONVIF-Geräte bringt es professionelle Funktionen in jedes Projekt. Das SDK arbeitet nahtlos mit WinForms, WPF, MAUI, Uno Platform, Xamarin und Avalonia und macht es einfach, fortschrittliche Medienfunktionen in Desktop- und mobilen Apps zu integrieren.
Installation
Schnelle Installation mit NuGet
Installieren Sie das SDK direkt in Ihrem Projekt über die Package Manager-Konsole:
Install-Package VisioForge.DotNet.MediaBlocksOder suchen Sie nach VisioForge.DotNet.MediaBlocks im NuGet Package Manager von Visual Studio. Installationsanleitung anzeigen →
Hauptvorteile
Modulare Architektur
200+ Verarbeitungsblöcke, die sich wie Bausteine verbinden lassen, um individuelle Medien-Pipelines zu erstellen
Plattformübergreifend
Funktioniert unter Windows, macOS, Linux, Android und iOS mit allen wichtigen .NET UI-Frameworks
Hardware-Beschleunigung
GPU-beschleunigtes Encoding/Decoding mit NVIDIA-, Intel- und AMD-Unterstützung für maximale Leistung
Pipeline-Beispiele
// Create MediaBlocks pipeline
_pipeline = new MediaBlocksPipeline();
// Add file source
var fileSourceSettings = await UniversalSourceSettings.CreateAsync("video.mp4");
var videoStreamAvailable = fileSourceSettings.GetInfo().VideoStreams.Count > 0;
var audioStreamAvailable = fileSourceSettings.GetInfo().AudioStreams.Count > 0;
var fileSource = new UniversalSourceBlock(fileSourceSettings);
// Add video renderer
if (videoStreamAvailable)
{
var videoRenderer = new VideoRendererBlock(_pipeline, VideoView1);
_pipeline.Connect(fileSource, videoRenderer);
}
// Add audio output
if (audioStreamAvailable)
{
var audioOutputDevice = (await DeviceEnumerator.Shared.AudioOutputsAsync(
AudioOutputDeviceAPI.DirectSound))[0];
var audioOutput = new AudioRendererBlock(
new AudioRendererSettings(audioOutputDevice));
_pipeline.Connect(fileSource, audioOutput);
}
// Start playback
await _pipeline.StartAsync();EINFACHER PLAYER
Die einfache Player-Pipeline verwendet den UniversalSourceBlock zum Lesen und Dekodieren der Quelldatei, den VideoRendererBlock zur Anzeige von Video und den AudioRendererBlock zur Wiedergabe von Audio.
Interaktive Pipeline-Visualisierung
Loading pipeline diagram...
ERWEITERTER PLAYER
Die erweiterte Player-Pipeline umfasst den UniversalSourceBlock zum Dekodieren von Dateien oder Streams, Video- und Audio-Renderer sowie Effektverarbeitungsblöcke.
// Create MediaBlocks pipeline
_pipeline = new MediaBlocksPipeline();
// Add file source
var fileSourceSettings = await UniversalSourceSettings.CreateAsync(edFilename.Text);
var videoStreamAvailable = fileSourceSettings.GetInfo().VideoStreams.Count > 0;
var audioStreamAvailable = fileSourceSettings.GetInfo().AudioStreams.Count > 0;
var fileSource = new UniversalSourceBlock(fileSourceSettings);
// Add video renderer, text overlay and image overlay
if (videoStreamAvailable)
{
var videoRenderer = new VideoRendererBlock(_pipeline, VideoView1);
var textOverlay = new TextOverlayBlock(new TextOverlaySettings("Hello world!"));
var imageOverlay = new ImageOverlayBlock(new ImageOverlaySettings("logo.png"));
_pipeline.Connect(fileSource, textOverlay);
_pipeline.Connect(textOverlay, imageOverlay);
_pipeline.Connect(imageOverlay, videoRenderer);
}
// Add audio output and equalizer
if (audioStreamAvailable)
{
var audioOutputDevice = (await DeviceEnumerator.Shared.AudioOutputsAsync(AudioOutputDeviceAPI.DirectSound))[0];
var audioOutput = new AudioRendererBlock(new AudioRendererSettings(audioOutputDevice));
var equalizer = new EqualizerParametricBlock();
// set some equalizer settings
_pipeline.Connect(fileSource, equalizer);
_pipeline.Connect(equalizer, audioOutput);
}
// Start playback
await _pipeline.StartAsync();Erweiterte Player-Pipeline mit Effekten
Loading pipeline diagram...
// Create MediaBlocksPipeline object
_pipeline = new MediaBlocksPipeline();
// Add default video and audio sources
var videoSources = (await DeviceEnumerator.Shared.VideoSourcesAsync()).ToList();
var videoSource = new SystemVideoSourceBlock(new VideoCaptureDeviceSourceSettings(
videoSources.Find(x => x.Name.Contains("920"))));
var audioSources = (await DeviceEnumerator.Shared.AudioSourcesAsync()).ToList();
var audioSource = new SystemAudioSourceBlock(audioSources[0].CreateSourceSettings());
// Add video renderer
var videoRenderer = new VideoRendererBlock(_pipeline, videoView: VideoView1);
// Add audio renderer
var audioRenderers = (await DeviceEnumerator.Shared.AudioOutputsAsync()).ToList();
var audioRenderer = new AudioRendererBlock(new AudioRendererSettings(audioRenderers[0]));
// Connect everything
_pipeline.Connect(videoSource, videoRenderer);
_pipeline.Connect(audioSource, audioRenderer);
// Start preview
await _pipeline.StartAsync();KAMERA-VORSCHAU
Die einfache Kamera-/Mikrofon-Vorschau-Pipeline enthält Gerätequellenblöcke und Video-/Audio-Renderer-Blöcke.
Standardgeräte werden verwendet.
Kamera-Vorschau-Pipeline
Loading pipeline diagram...
RTSP-VORSCHAU
Die RTSP-Vorschau-Pipeline, die den RTSP-Quellblock (mit internen Decodern), Video- und Audio-Renderer umfasst.
// Create Media Blocks pipeline
_pipeline = new MediaBlocksPipeline();
// Create video renderer
var videoRenderer = new VideoRendererBlock(_pipeline, VideoView1);
// Add RTSP camera source
var rtsp = await RTSPSourceSettings.CreateAsync(new Uri(edURL.Text),
edLogin.Text, edPassword.Text, audioEnabled: cbAudioStream.Checked);
var rtspSource = new RTSPSourceBlock(rtsp);
_pipeline.Connect(rtspSource, videoRenderer);
// Add audio output (if required)
if (cbAudioStream.Checked && rtsp.IsAudioAvailable())
{
var audioOutputDevice = (await DeviceEnumerator.Shared.AudioOutputsAsync(
AudioOutputDeviceAPI.DirectSound))[0];
var audioOutput = new AudioRendererBlock(new AudioRendererSettings(audioOutputDevice));
_pipeline.Connect(rtspSource, audioOutput);
}
// Start IP camera preview
await _pipeline.StartAsync();RTSP-Stream-Pipeline
Loading pipeline diagram...
// Create the pipeline
_pipeline = new MediaBlocksPipeline();
// Add video and audio sources
var videoSources = (await DeviceEnumerator.Shared.VideoSourcesAsync()).ToList();
var videoSource = new SystemVideoSourceBlock(new VideoCaptureDeviceSourceSettings(videoSources[0]));
var audioSources = (await DeviceEnumerator.Shared.AudioSourcesAsync()).ToList();
var audioSource = new SystemAudioSourceBlock(audioSources[0].CreateSourceSettings());
// Add video renderer and specify VideoView control
var videoRenderer = new VideoRendererBlock(_pipeline, videoView: VideoView1);
// Add audio renderer
var audioRenderers = (await DeviceEnumerator.Shared.AudioOutputsAsync()).ToList();
var audioRenderer = new AudioRendererBlock(new AudioRendererSettings(audioRenderers[0]));
// Configure MP4 output
var output = new MP4OutputBlock(Path.Combine(
Environment.GetFolderPath(Environment.SpecialFolder.MyVideos), "output.mp4"));
// Add video and audio tees
var videoTee = new TeeBlock(2, MediaBlockPadMediaType.Video);
var audioTee = new TeeBlock(2, MediaBlockPadMediaType.Audio);
// Connect everything
_pipeline.Connect(videoSource, videoTee);
_pipeline.Connect(audioSource, audioTee);
_pipeline.Connect(videoTee, videoRenderer);
_pipeline.Connect(audioTee, audioRenderer);
_pipeline.Connect(videoTee, output);
_pipeline.Connect(audioTee, output);
// Start MP4 recording
await _pipeline.StartAsync();AUFNAHME MIT VORSCHAU
Die Aufnahme-Pipeline hat zwei Tee-Blöcke, die verwendet werden, um Video- und Audioströme zu teilen, wodurch Video-/Audio-Vorschau zusammen mit Videoaufnahme ermöglicht wird.
Aufnahme mit Vorschau-Pipeline
Loading pipeline diagram...
Live Video Compositor
Entwickeln Sie OBS-ähnliche Live-Videoproduktionssoftware mit dem Live Video Compositor — einer Echtzeit-Videokompositions-Engine mit mehreren Ein- und Ausgängen, basierend auf dem Media Blocks SDK .NET. Fügen Sie dynamisch Kameras, Bildschirmaufnahmen, Mediendateien, RTSP/IP-Kamera-Feeds und NDI-Quellen als geschichtete Eingänge hinzu oder entfernen Sie diese, mischen Sie sie mit GPU-beschleunigtem Rendering und geben Sie gleichzeitig in Aufnahmedateien und auf Live-Streaming-Plattformen aus. Konzipiert für Multi-Kamera-Umschaltung, Bild-in-Bild-Layouts, Live-Overlays und Audiomischung in Sendequalität — vollständig steuerbar aus C#-Code zur Laufzeit.
Dynamische Ein- & Ausgänge
Fügen Sie Video- und Audioquellen sowie Ausgabeziele jederzeit hinzu oder entfernen Sie diese — auch während der Compositor läuft. Jeder Eingang arbeitet in seiner eigenen isolierten Pipeline, sodass eine fehlerhafte Quelle niemals die gesamte Komposition beeinträchtigt.
GPU-beschleunigtes Mischen
Kombinieren Sie mehrere Videoebenen in Echtzeit mit plattformübergreifendem GPU-beschleunigtem Rendering (OpenGL) oder CPU-Fallback. Positionieren Sie jede Quelle mit pixelgenauen Rechtecken, steuern Sie die Z-order-Stapelreihenfolge und wählen Sie zwischen Letterbox-, Stretch- oder Füllmodus.
Aufnahme + Streaming + Vorschau
Ausgabe an mehrere Ziele gleichzeitig — Aufnahme in MP4 oder WebM, Live-Streaming zu YouTube und Facebook, Videosignal an Decklink-Hardware senden und Bildschirmvorschau anzeigen — alles von einer einzigen Compositor-Instanz in Echtzeit.
Live-Overlays & Effekte
Wenden Sie Texteinblendungen, Bild-Wasserzeichen und Post-Kompositions-Videoeffekte dynamisch an — kein Pipeline-Neuaufbau erforderlich. Echtzeit-Audio-VU-Metering bietet professionelle Pegelüberwachung während der Live-Produktion.
Live Video Compositor-Einrichtung in C#
C#// Create the Live Video Compositor (cross-platform, GPU-accelerated)
var settings = new LiveVideoCompositorSettings(1920, 1080, new VideoFrameRate(25));
var compositor = new LiveVideoCompositor(settings);
// Add a camera source (full-screen background layer)
var cameraInput = new LVCVideoAudioInput(
"Camera", compositor,
new SystemVideoSourceBlock(cameraSettings),
videoInfo, audioInfo, new Rect(0, 0, 1920, 1080),
autostart: true);
await compositor.Input_AddAsync(cameraInput);
// Start compositing — sources and outputs can be added/removed at any time
await compositor.StartAsync();
// Dynamically add screen capture as picture-in-picture overlay
var screenInput = new LVCVideoInput(
"Screen", compositor,
new ScreenSourceBlock(screenSettings), screenInfo,
new Rect(1400, 50, 500, 300), autostart: true);
screenInput.ZOrder = 1;
await compositor.Input_AddAsync(screenInput);
// Dynamically add MP4 recording output while compositing is running
var mp4Output = new LVCVideoAudioOutput(
"Recording", compositor,
new MP4OutputBlock(mp4Settings), autostart: true);
await compositor.Output_AddAsync(mp4Output);
// Dynamically remove the screen overlay
await compositor.Input_RemoveAsync(screenInput.ID);
// Dynamically remove the recording output
await compositor.Output_RemoveAsync(mp4Output.ID);Der Live Video Compositor funktioniert mit allen Eingangsquellen und Ausgabeformaten, die vom Media Blocks SDK .NET unterstützt werden, einschließlich Kameras, Bildschirmaufnahme, Mediendateien, RTSP/IP-Kameras, NDI, Decklink sowie allen Aufnahme- und Streaming-Ausgängen.
Die wichtigsten Funktionen von VisioForge Media Blocks SDK .Net umfassen:
Kernfunktionen
- • Audio-/Video-Vorschau
- • Video- und Audioaufnahme in einer Vielzahl von Formaten
- • Frame-Erfassung in Bitmap-Klasse, BMP-, JPEG- und PNG-Dateien
- • Videoverarbeitung und Effekte (CPU/GPU)
- • Steuerung von Videoaufnahmegeräten
- • Netzwerk-Streaming
- • Bewegungserkennung
- • Unterstützung benutzerdefinierter Schnittstellen
- • Computer Vision API
- • PIP (Bild-in-Bild)
- • Bildschirmaufnahme/Fensteraufnahme
- • Gesichtserkennung und Objektverfolgung
- • Unterstützung mehrerer Ausgabebildschirme
- • Audioaufnahme von Lautsprechern
- • Unterstützung für das Lesen und Schreiben von Audio-/Video-Datei-Tags
Unterstützte Eingabegeräte
- • USB-Webcams und Capture-Geräte (inkl. 4K)
- • JPEG/MJPEG, MPEG-4 und H.264 HTTP/RTSP/RTMP IP-Kameras/Server
- • DV und HDV MPEG-2 Camcorder
- • PCI Capture-Karten
- • TV-Tuner (mit/ohne internem MPEG-Encoder)
- • HD-Format unterstützt für IP-Kameras
- • ONVIF IP-Kameras mit PTZ-Unterstützung
- • Blackmagic Decklink Geräte
- • Audioaufnahmegeräte und Soundkarten
- • ASIO-Geräte
Professionelle Hardware
- • Blackmagic Decklink Ein-/Ausgabe-Unterstützung
- • FLIR/Teledyne Kameras (USB3Vision/GigE)
- • Basler Kameras (USB3Vision/GigE)
- • DV und HDV MPEG-2 Camcorder
- • PCI Capture-Karten
- • TV-Tuner (mit/ohne MPEG-Encoder)
- • ONVIF IP-Kameras mit PTZ-Unterstützung
- • ASIO-Geräte
Quellen
- • Allied Vision Kameras
- • Animiertes GIF
- • Basler Kameras (USB3Vision/GigE)
- • CDG Karaoke
- • Fallback-Schalter
- • GenICam (Industriekameras)
- • HTTP
- • HTTP MJPEG
- • Bildsequenz
- • Lokale Datei
- • Speicherpuffer
- • NDI
- • PulseAudio
- • Raspberry Pi Kamera
- • RTMP
- • RTSP
- • RTSP RAW
- • Bildschirmaufnahme
- • SRT
- • System-Audio
- • System-Video
- • Testsignal
- • UDP/RTP
- • URI (Datei/Netzwerk)
Audio-Verarbeitung
- • Verstärken
- • Balance
- • Sample-Format-Konverter
- • Last-Normalisierer
- • Mixer
- • Resampler
- • Sample Grabber
- • Zeitstempel-Korrektur
- • Chebyshev Band Pass Reject
- • Chebyshev Limit
- • Kompressor/Expander
- • Csound Filter
- • EBU R128 Level
- • Echo
- • Equalizer (10-Band)
- • Equalizer (Parametrisch)
- • HRTF Render
- • Karaoke
- • Stille Entfernen
- • Hall
- • Skalierung/Tempo
- • Lautstärke
- • VU Meter
- • Breites Stereo
Barcode-Leser
- • QR Code
- • UPC-A, UPC-E
- • EAN-8, EAN-13
- • Code 39
- • Code 93
- • Code 128
- • Codabar
- • ITF
- • RSS-14
- • Data Matrix
- • Aztec
- • PDF-417
Audio-Encoder
- • AAC
- • ADPCM
- • ALAW
- • AptX
- • FLAC
- • MP2
- • MP3
- • OPUS
- • Speex
- • Vorbis
- • WAV
- • Wavpack
- • WMA (Windows Media Audio)
Video-Encoder (CPU/GPU)
- • AV1
- • DV
- • GIF
- • H.264
- • H.265/HEVC
- • MJPEG
- • MPEG-2
- • MPEG-4
- • PNG
- • Theora
- • VP8/VP9 (VPX)
- • WMV (Windows Media Video)
- • NVENC, AMD, Intel Hardware-Encoder-Unterstützung
- • iOS/macOS/Android Hardware-Encoder-Unterstützung
Video-Verarbeitung
- • Alterung
- • Alpha-Kombination
- • Auto-Deinterlace
- • Bayer zu RGB
- • Chroma Key
- • Codec Alpha Demux
- • Farbeffekte
- • Deinterlace
- • Würfel
- • Kantenerkennung
- • Fischauge
- • Spiegeln/Drehen
- • Gamma
- • Gaußsche Unschärfe
- • Graustufen
- • Bildüberlagerung
- • Bildüberlagerung Cairo
- • Interlace
- • Keyframe-Detektor
- • LUT-Prozessor
- • Spiegel
- • Bewegungsunschärfe
- • Bewegungs-Echo
- • Bewegungs-Zoom-Echo
- • Optische Animation S/W
- • Overlay-Manager
- • Perspektive
- • Kneifen
- • Pseudo-3D
- • QR-Code-Overlay
- • Größe Ändern
- • Sample Grabber
- • Sobel-Kante
- • Kugel
- • Quadrat
- • Dehnen
- • Textüberlagerung
- • Tunnel
- • Wirbel
- • Video-Balance
- • Pixelformat-Konverter
- • Video-Mixer
- • Gewellter Spiegel
- • Wasserwellen
- • Zoom-Box
Datei-Ausgaben
- • ASF
- • AVI
- • DASH
- • HLS
- • HTTP MJPEG Live
- • MKV (Matroska)
- • MOV (QuickTime)
- • MP4
- • MPEG-PS
- • MPEG-TS
- • MXF
- • OGG
- • WAV
- • WebM
Netzwerk-Streaming
- • Facebook Live
- • HLS
- • NDI
- • RTMP
- • RTSP
- • Shoutcast
- • SRT
- • YouTube Live
Blackmagic Decklink
- • Audio-Senke
- • Audio-Quelle
- • Video-Senke
- • Video-Quelle
Audio-Visualisierer
- • Bumpscope
- • Corona
- • Infinite
- • Jakdaw
- • Jess
- • LV Analyzer
- • LV Scope
- • Oinksie
- • Spacescope
- • Spectrascope
- • Synaescope
- • Wavescope
Video-Decoder
- • AV1 Decoder
- • H.264 Decoder
- • HEVC Decoder
- • JPEG Decoder
- • VP8 Decoder
- • VP9 Decoder
- • NVIDIA, Intel und AMD beschleunigte Decoder
- • Android Hardware-Decoder
- • iOS Hardware-Decoder
Spezielle Blöcke
- • Barcode-Detektor
- • Datenprozessor
- • Daten-Sample-Grabber
- • Debug-Zeitstempel
- • Entschlüsseler
- • Verschlüsseler
- • Multi-Queue
- • Null-Renderer
- • Queue
- • SRTP-Entschlüsseler
- • SRTP-Verschlüsseler
- • Tee (Splitter)
Preise
Wählen Sie zwischen Jahresabonnement oder lebenslanger Lizenz
Reguläre Lizenz
- Kostenlose kleinere und größere Updates für ein Jahr
- SDK funktioniert weiter nach Ablauf des Abonnements
- Prioritäts-Support
- Automatische jährliche Verlängerung (jederzeit kündbar)
- Alle 200+ Verarbeitungsblöcke enthalten
Lebenslange Lizenz
- Unbegrenzte Updates für immer
- Prioritäts-Support und Fehlerbehebungen
- Einmalzahlung
- Alle zukünftigen Funktionen enthalten
- Alle 200+ Verarbeitungsblöcke enthalten
Kostenlos für nicht-kommerzielle Nutzung. Bitte kontaktieren Sie uns für eine kostenlose Lizenz.
Alle Lizenzen beinhalten lizenzfreie Vertriebsrechte.
Quellcode-Lizenz
Die Quellcode-Lizenzierung ist auf Anfrage für dieses SDK verfügbar. Kontaktieren Sie unser Vertriebsteam, um Preise und Lizenzbedingungen zu besprechen.
Quellcode-Lizenz anfragen💰 Sparen Sie mehr mit Bundle-Paketen
Dieses Produkt ist in unseren kostengünstigen Bundle-Paketen enthalten. Holen Sie sich mehr Produkte und sparen Sie bis zu 71%!
.NET Bundle Professional
Sparen Sie bis zu 71%
Beinhaltet:
- •Video Capture SDK .NET (Professional)
- •Media Player SDK .NET (Professional)
- •Video Edit SDK .NET (Professional)
- •Video Edit SDK FFMPEG .NET (Professional)
- •Media Blocks SDK .NET
.NET Bundle Premium
Sparen Sie bis zu 70%
Beinhaltet:
- •Video Capture SDK .NET (Premium)
- •Media Player SDK .NET (Premium)
- •Video Edit SDK .NET (Premium)
- •Video Edit SDK FFMPEG .NET (Premium)
- •Media Blocks SDK .NET
Systemanforderungen
Mindestanforderungen für Entwicklung und Bereitstellung auf allen Plattformen
| Betriebssysteme |
|
| .NET Framework |
|
| Hardware |
|
| UI-Frameworks |
|
Dokumentation & Ressourcen
Alles, was Sie zum Einstieg in Media Blocks SDK benötigen
Media-Pipelines schneller erstellen mit KI und MCP
Geben Sie Ihrem KI-Codierungsassistenten Einblick in die Media Blocks Pipeline-Architektur. Verbinden Sie sich mit dem VisioForge MCP Server und erhalten Sie kontextbezogene Hilfe bei der Block-Auswahl, Pipeline-Verkabelung, Quell-/Senken-Konfiguration und plattformübergreifenden Bereitstellung — direkt in Claude Code, VS Code oder Cursor.
Claude Code
claude mcp add --transport http visioforge-sdk https://mcp.visioforge.com/mcpVS Code (.vscode/mcp.json)
{
"servers": {
"visioforge-sdk": {
"type": "http",
"url": "https://mcp.visioforge.com/mcp"
}
}
}Bereit loszulegen?
Laden Sie die kostenlose Testversion herunter und beginnen Sie noch heute mit dem Aufbau Ihrer Medien-Pipeline
Häufig gestellte Fragen
Was ist Media Blocks SDK und wie unterscheidet es sich von anderen VisioForge SDKs?
Media Blocks SDK verwendet eine modulare Pipeline-Architektur, bei der Sie einzelne Verarbeitungsblöcke (Quellen, Encoder, Effekte, Ausgaben) wie Bausteine verbinden. Im Gegensatz zu Video Capture oder Media Player SDKs, die fertige Workflows bieten, gibt Ihnen Media Blocks die volle Kontrolle über jede Stufe der Medienpipeline — ideal für individuelle oder komplexe Szenarien.
Wie erstelle ich eine Medienpipeline in C#?
Erstellen Sie eine MediaBlocksPipeline-Instanz, fügen Sie Quellblöcke hinzu (Datei, Kamera, RTSP, Bildschirmaufnahme), verbinden Sie Verarbeitungsblöcke (Encoder, Effekte, Overlays) und hängen Sie Ausgabeblöcke an (Dateiausgabe, Renderer, Netzwerk-Stream). Rufen Sie StartAsync() auf, um die Pipeline zu starten. Das SDK übernimmt automatisch Threading, Synchronisierung und Hardwarebeschleunigung.
Funktioniert Media Blocks SDK auf macOS, Linux und mobilen Plattformen?
Ja. Media Blocks SDK unterstützt Windows, macOS 12+, Ubuntu 22.04/24.04, Android 8+ und iOS 12+. Es funktioniert mit WinForms, WPF, MAUI, Uno Platform, Avalonia und Xamarin. Derselbe Pipeline-Code läuft plattformübergreifend mit plattformspezifischem Rendering und Hardwarebeschleunigung.
Kann ich Video über RTMP, RTSP oder HLS streamen?
Ja. Das SDK enthält dedizierte Streaming-Ausgabeblöcke für RTMP (YouTube Live, Facebook Live), RTSP-Server, HLS, SRT, NDI und Shoutcast. Sie können Streaming mit lokaler Aufnahme und Vorschau kombinieren, indem Sie Tee-Blöcke verwenden, um die Pipeline in mehrere Ausgaben aufzuteilen.
Wird GPU-beschleunigte Kodierung und Dekodierung unterstützt?
Ja. Media Blocks SDK unterstützt hardwarebeschleunigte Kodierung über NVIDIA NVENC, Intel Quick Sync und AMD AMF sowie Hardware-Dekodierung. Auf mobilen Plattformen werden iOS- und Android-Hardware-Codecs automatisch verwendet. Dies ermöglicht Echtzeit-4K-Verarbeitung bei minimaler CPU-Auslastung.
Kann ich Industriekameras (GigE Vision, USB3 Vision) und Blackmagic Decklink verwenden?
Ja. Das SDK enthält Quellblöcke für GenICam-kompatible Industriekameras (Basler, Allied Vision, FLIR/Teledyne) über GigE Vision und USB3 Vision. Blackmagic Decklink-Geräte werden mit dedizierten Quell- und Ausgabeblöcken für professionelle Videoaufnahme und -ausgabe unterstützt.
Was ist der Live Video Compositor und wie unterscheidet er sich vom manuellen Aufbau von Pipelines?
Der Live Video Compositor ist eine hochentwickelte Echtzeit-Videokompositions-Engine, die auf dem Media Blocks SDK aufbaut. Während Sie benutzerdefinierte Misch-Pipelines manuell mit einzelnen Blöcken zusammenstellen können, bietet der Compositor eine vollständige Architektur für OBS-ähnliche Anwendungen — einschließlich Bridge-basierter Eingangsisolierung, GPU-beschleunigtem Compositing, dynamischer Quellen- und Ausgabeverwaltung zur Laufzeit, Z-order-Ebenensteuerung, Live-Text- und Bild-Overlays, Post-Kompositionseffekten und Audio-VU-Metering. Er ist ideal für den Aufbau von Multi-Kamera-Umschaltsystemen, Live-Streaming-Software oder Broadcast-Produktionstools in C# und .NET.
