¿Cuál es la tecnología central detrás del software de edición de video como Movie Maker y Final Cut?

OK, parece que está buscando una descripción de alto nivel aquí, y mencionó un producto de MS y uno de Apple, que utilizan métodos algo diferentes bajo el capó. En lugar de llegar a eso, intentaré analizar las cosas que son iguales, en lugar de las diferencias.

Hay 2 elementos básicos con los que está lidiando: sonido y color.
Para lidiar con esto a través de computadoras digitales, debe ‘codificarlas’ en formatos binarios, generalmente se denominan ‘códecs’. La codificación y la decodificación pueden realizarse de muchas maneras diferentes utilizando muchos métodos diferentes, algunos de los cuales ha oído hablar: h.264 es un códec de video, mp3 un códec de audio.

La unidad básica del video es un ‘marco’. Piense en las cámaras de cine originales y en las imágenes en movimiento: un marco es una imagen y necesita una serie de ellas para que sea un video. La unidad básica de audio suele ser una muestra.

Los fotogramas de video generalmente se mueven entre 24 y 120 fotogramas por segundo: la película es de 24 fps, EU PAL TV es de 25, EE. UU. NTSC TV es de 29.97 fps, 720p HD es generalmente de 60 fps, cámaras de alta velocidad utilizadas en juegos de la NFL y lo que no puede funcionar hasta 120.

Las muestras de audio pasan mucho más rápido, 41,000 o 48,000 muestras por segundo son tasas estándar (41k para audio ‘CD’, 48k se considera ‘Calidad de transmisión’)

Entonces, tenemos 2 entidades diferentes, fundamentalmente moviéndose a 2 velocidades diferentes, que queremos mantener sincronizadas entre sí durante un período de tiempo. Esto generalmente se hace con lo que se llama un ‘contenedor’ o un tipo de archivo. .mov, .avi, .wmv, .flv, .mxf todos estos son formatos ‘envolventes’ que proporcionan una estructura basada en pistas para almacenar audio y video uno al lado del otro y administrar su reproducción síncrona (o grabación). Los formatos pueden admitir una amplia variedad de combinaciones de códecs de audio y video.

Cuando desea editar en una aplicación como FCP, primero lee el contenedor para obtener información básica: los códecs en uso, la velocidad de cuadros y la frecuencia de muestreo de audio, tal vez incluso anotaciones, etc. Luego muestra esta información en su propia interfaz de usuario basada en pistas y gestiona la decodificación del audio y el video a medida que se reproduce. También le permite colocar archivos multimedia adicionales en la misma línea de tiempo, mezclando múltiples formatos y códecs en las últimas versiones, en máquinas agradables y rápidas.

Puede decir que una línea de tiempo en una aplicación de edición ‘se parece’ a los datos almacenados en un archivo mov o wmv: hay pistas para cada capa de medios que se reproducen sincrónicamente.

Cuando exporta su línea de tiempo, está solicitando que la aplicación cree un nuevo archivo contenedor y asigne la disposición de los medios en su línea de tiempo a una disposición equivalente al lado del contenedor. La mayoría de las veces, también le está pidiendo a la aplicación que ‘transcodifique’ o convierta todos sus activos de audio y video en un códec consistente dentro del archivo contenedor.

Lo que esto significa es que todos sus elementos visuales se han convertido a su códec de destino, y donde una vez tuvo múltiples elementos de códecs posiblemente diferentes, ahora tiene una ‘pista’ de video que es lo mismo. Un proceso similar ocurre con el audio.

Para la mayoría de los formatos de envoltura, eso es todo.
Eche un vistazo a esta captura de pantalla del Diálogo de propiedades de Quicktime 7 Pro:

Es como un sándwich: reproducirlo es como morder, obtienes un poco de cada capa en cada momento, pero como una rebanada de pavo y un poco de queso suizo, estos elementos no se mezclan entre sí tanto como se consumen sincrónicamente

¡Espero que ayude!