MJPEG Codecs sind nicht standardisiert. Bis zur Einführung von digitalen Video-Schnittstellen (wie etwa IEEE1394) und dem DV-Standard waren MJPEG-Codecs im Bereich des Videoschnittes am Weitesten verbreitet. Jeder Videokarten-Hersteller verwendet eigene Kompressionsvarianten und unterschiedliche Einstellmöglichkeiten für Qualität und Kompressionsfaktor. Vor allem die Art der Synchronisation von Bild und Ton wird unterschiedlich durchgeführt. Dadurch sind Videodateien mit MJPEG-Kompression nicht zwingend kompatibel zu anderen Systemen und können nur mit Hilfe der jeweiligen Video-Hardware abgespielt werden. Einige Hersteller bieten zusätzlich zur Hardware auch Software-Codecs an, die es ermöglichen, die Videodaten auch auf Systemen ohne entsprechender Hardware abzupielen und zu bearbeiten.
Durch die große Verbreitung der Firewire-Schnittstellen und DV-Geräte spielen MJPEG-Codecs im Consumer-Bereich kaum noch eine Rolle. Im professionellen Bereich werden aufgrund der hohen erzielbaren Qualität nach wie vor Video-Karten mit MJPEG-Kompression angeboten und verwendet, die meist mit dem sogenannten Hybrid-Coding arbeiten. Oft bieten diese Karten auch die Möglichkeit, mehrere unterschiedliche Codecs gleichzeitig zu verwenden, um höchstmögliche Kompatibilität zu gewährleisten.
Die MJPEG Kompression ist ein Intraframe-Verfahren. Es werden also im Gegensatz zu MPEG nur einzelne Bilder komprimiert und nicht frameübergreifend. Dadurch eignen sich MJPEG-Codecs besonders gut für Schnittsysteme, da auf jeden einzelnen Frame eines Filmes ohne Probleme zugegriffen werden kann.
M-JPEG Codecs basieren, wie der Name schon zeigt, auf der Jpeg-Komprimierung. ( Jpeg: Abk.für: Joint Photographic Experts Group, das M steht für Motion).
Jpeg-Komprimierung ist grundsätzlich verlustbehaftet (engl.: lossy). Die Grundlage für die verwendeten Methoden bildet das eingeschränkte Wahrnehmungsvermögen des menschlichen Auges. Dabei werden Farbinformationen, die für unsere Wahrnehmung nicht wesentlich sind, reduziert (perceptual coding).
Die verlustbehaftete Jpeg Kompression besteht aus mehreren Einzelschritten:
An erster Stelle steht die Farbraumumwandlung von RGB nach YUV, dieser Vorgang wird bei Videodaten schon im Signalprozess durchgeführt (Grundlagen: Videosignal). Dieser Vorgang ist aber nicht Teil des JPEG-Standards.
Der nächste Schritt ist die DCT und die Quantisierung (siehe Grundlage DCT).
Es folgen zwei verlustfreie Schritte, die sogenannte Entropie-Kodierung, die sich aus der Huffmann-Kodierung und einer arithmetischen Kodierung zusammensetzt.
(Im progressiven JPEG-Modus wird nach der Quantisierung ein Abbild gespeichert, dieses durchläuft dann die Entropie-Kodierung in mehreren Scans, was zu einem feineren Bildaufbau führt. Dieser Modus wird vorwiegend für Einzelbilder verwendet und ist nicht standardisiert.)
Die verlustfreie JPEG-Komprimierung (lossless JPEG) funktioniert ohne DCT und Quantisierung. Hier werden die Daten mit einem sogenannten Prädikator verarbeitet. Dabei werden die Pixelwerte anhand der angrenzenden Pixel geschätzt und dann von den tatsächlichen Pixelwerten subtrahiert. In einem weiteren Schritt folgt wiederum die verlustfreie Entropie-Kodierung.
Einer der wichtigsten Vorteile der Lossy-Jpeg-Codecs ist die enorme Skalierbarkeit. Das bedeutet, der Nutzer kann auswählen, in welchem Verhältnis Kompressions-Geschwindigkeit und Datenreduktion zur Bildqualität stehen.
Dabei gilt: Geringe Datenmengen bedeuten schlechtere Bildqualität und umgekehrt.
Diese Funktion ermöglicht z.B. die Bearbeitung von umfangreichen Projekten in schlechter Bildqualität bei gleichzeitig sehr geringen Datenmengen und hoher Verarbeitungsgeschwindigkeit (Offline-Editing). In der Endproduktion werden dann die tatsächlich benötigten Videodaten in höchster Qualität eingespielt und mit Hilfe von EDLs (Edit Decision List) gegen die sogenannten Offline-Daten ausgetauscht. Dadurch können im Produktionsablauf die hohen Kosten für Speicherplatz und High-End-Schnittplätze eingespart werden.