Quienes somos editores conocemos lo complejas y caras que son las herramientas de edición de vídeo. No sólo éso es un primer “problema” sino que la edición de vídeo requiere que la aplicación sea compatible con un amplia gama de tecnologías, lo que permite integrarlo a un “WORKFLOW” (flujo de trabajo, en el sentido de flujo de información por procesos) que para ser eficiente debe hacer mucho a un precio reducido.
Me han escuchado hablar hasta el hartazgo sobre herramientas libres como OpenShot, o Kdenlive que por definición, son eficientes puesto que se pueden usar de forma gratuita pero sólo existen para linux y el poco soporte de Hardware las mantiene como excelentes herramientas para estudiantes o para el editor ocasional (aunque en más de una ocasión, cuando Premiere Pro no puede hacer algo, es bueno contar con una de éstas herramientas).Estamos en plena NAB, donde se presentan las nuevas tecnologías y muchos cambios han aparecido en los workflows de edición.
![]() |
Penoso workflow DV |
Apple no tiene stand en la NAB desde hace 2 o 3 años, y ha descontinuado las MACPROs (como ellos los llamaban “Camiones” de la informática de la era post PC).
Por ello muchos creyeron que Apple se enfrascaría en el mercado del consumidor final con el Iphone y el Ipad, eliminando a la computadora de sus planes.
Esta semana, Apple hizo una conferencia que rápidamente llenó su cupo porque se trataba de una nueva versión de Final Cut Pro llamada “X”. Quienes sabemos leer entre líneas (y quienes me han escuchado) entendimos que el IPAD2 con la aplicación IMOVIE sólo necesitaba un doble procesador A4 llamado A5, aunque no deja de ser un mugroso procesador ARM, no es una bestia X86 de intel o AMD con múltiples núcleos, y con sólo 256 megas de ram podían editar Avc/Mpeg4, cosa que hace pocos años en un curso de Adobe Premiere Pro CS3 yo dije como broma: “¿Se imaginan una porqueria con un procesador ARM cortando un MOV, imagínense si tuviera que tocar un mpeg4. Necesitaría varios gigas de RAM, más de 4 por ello habría que ir a un micro de 64 bits si o si”. Recuerdo las risas por aquella broma, y el argumento sigue siendo válido pero Apple lo logró, y nos puso a más de uno en ridículo. No es que me queje, sino que me sorprende (gratamente) y cambiará mi opinión en cuanto a cómo puede optimizarse un motor de edición.
![]() |
imovie en el Ipad2, riéndose de nosotros |
Ingesta de material
importar vídeos al proyecto desde una tarjeta SDXC o SDHC (videos Mpeg4, AVCHD, etc) por lo que entendí del vídeo de forma automática, permitiendo al editor tirar los clips a la línea de tiempo antes que se comience el indexado que en archivos AVC suele ser como clavarse un lápiz en el ojo y hercharse limón. Apple Promete que no sólo harán todo éso de forma independiente y transparente al usuario sino que además finalCut “en el fondo” (usando los otros CPUs y GPUs libres) hará varias operaciones con todo el crudo:Media detection: Detección de medios, o sea que no caliente que formato ocodec sea, Apple los paga todos para que ele editor los tenga disponibles (y así te la cobra cuando pagás su hard).
Image Stabilization: Genera la estabilización de la imagen, imagino que parte de los algoritmos que usa el iphone están presentes así ya que estabilizar vídeo suele tomar mucho tiempo de análisis y transformación… se me hace difícil pensar que éso puede hacerlo mientras yo edito.
People detection: Detección de GENTE (sola o en grupos), sin dudas la detección de caras está disponible en Iphoto, o sea que vos le indicás una etiqueta de alguien y el programa busca esa cara en toda la galería de fotos. Que un software de edición lo haga en todo el vídeo es brillante porque por ejemplo un socialero puede indicar a “la nona” (que siempre está muerta a la hora de editar el vídeo de 15 de la nena) y ponerla en cierto momento donde la música es más emotiva, y el software SABE, y te organiza en el panel de clips todos aquellos donde la mujer aparezca, simplemente BRILLANTE.
Shot detection: Detección de toma/disparo, existe en DV siempre y cuando nos acordemos de indicarle al soft de captura que tome esas marcas y haga clips individuales, pero tener detección de tomas de un clip largo presenta una solución impecable a un problema que todavía no he visto (los fabricantes de cámaras de foto y celulares hacen un clip por toma, pero me imagino que no va a faltar un forro que se le ocurra hacer un clip por sesión para evitar fragmentar la memoria SD o el chip flash, y termines con un clip que tiene 127 cortes y debas separarlo a manopla).
Color Balance: ¿Por que joraca los editores tenemos que enroscarnos TANTO cuando un camarógrafo la caga? TODO software de edición debería tener ésa función, y no me sorprende que sea un cálculo rápido, ya un celular de medio pelo lo hace en tiempo real, supongo que uno de ésos algoritmos ha viajado del iphone o ipad a éste análisis de clip.
Audio Clean UP: Limpieza de audio… bien eso significa que elimina el ruido ambiente, sea lo que eso fuere, espero escucharlo para creerlo. Sin embargo el iphone usa un segundo MIC para sumar la onda de sonido ambiente a la onda del mic con la voz, dejando sólo la voz (se cancelan las ondas), y no me sorprendería que detecte partes del clip “silentes” o con un “audio ambiente” y tenga un algoritmo para limpiar ésas frecuencias.
Finalcut promete hacer todo éso al importar, además podremos TAGUEAR clips como por ejemplo llamar a una parte de un clip “puesta de sol” o “tío borracho”, para volver más adelante y encontrar fácilmente como una búsqueda de texto, todo muy inteligente y práctico, un excelente manejo de la metadata en los clips.
Estas son algunas cosas que me hicieron MAL cuando las ví en los videos y las explicaré una a una.
Image Stabilization: Genera la estabilización de la imagen, imagino que parte de los algoritmos que usa el iphone están presentes así ya que estabilizar vídeo suele tomar mucho tiempo de análisis y transformación… se me hace difícil pensar que éso puede hacerlo mientras yo edito.
People detection: Detección de GENTE (sola o en grupos), sin dudas la detección de caras está disponible en Iphoto, o sea que vos le indicás una etiqueta de alguien y el programa busca esa cara en toda la galería de fotos. Que un software de edición lo haga en todo el vídeo es brillante porque por ejemplo un socialero puede indicar a “la nona” (que siempre está muerta a la hora de editar el vídeo de 15 de la nena) y ponerla en cierto momento donde la música es más emotiva, y el software SABE, y te organiza en el panel de clips todos aquellos donde la mujer aparezca, simplemente BRILLANTE.
Shot detection: Detección de toma/disparo, existe en DV siempre y cuando nos acordemos de indicarle al soft de captura que tome esas marcas y haga clips individuales, pero tener detección de tomas de un clip largo presenta una solución impecable a un problema que todavía no he visto (los fabricantes de cámaras de foto y celulares hacen un clip por toma, pero me imagino que no va a faltar un forro que se le ocurra hacer un clip por sesión para evitar fragmentar la memoria SD o el chip flash, y termines con un clip que tiene 127 cortes y debas separarlo a manopla).
Color Balance: ¿Por que joraca los editores tenemos que enroscarnos TANTO cuando un camarógrafo la caga? TODO software de edición debería tener ésa función, y no me sorprende que sea un cálculo rápido, ya un celular de medio pelo lo hace en tiempo real, supongo que uno de ésos algoritmos ha viajado del iphone o ipad a éste análisis de clip.
Audio Clean UP: Limpieza de audio… bien eso significa que elimina el ruido ambiente, sea lo que eso fuere, espero escucharlo para creerlo. Sin embargo el iphone usa un segundo MIC para sumar la onda de sonido ambiente a la onda del mic con la voz, dejando sólo la voz (se cancelan las ondas), y no me sorprendería que detecte partes del clip “silentes” o con un “audio ambiente” y tenga un algoritmo para limpiar ésas frecuencias.
Finalcut promete hacer todo éso al importar, además podremos TAGUEAR clips como por ejemplo llamar a una parte de un clip “puesta de sol” o “tío borracho”, para volver más adelante y encontrar fácilmente como una búsqueda de texto, todo muy inteligente y práctico, un excelente manejo de la metadata en los clips.
Estas son algunas cosas que me hicieron MAL cuando las ví en los videos y las explicaré una a una.

Acá aparece la línea de tiempo MAGNETICA que es un concepto sencillo ya que si se han eliminado las pistas se puede jugar con el espacio vertical. En el ejemplo, se agrupan los clips (cada clip con la pista extra de sonido, lo que aparece como una rayita vertical verde). Luego mueve el clip, y en vez de que el excedente de la banda sonora agurpada al clip 1 se morfe el audio de la segunda, el otro LA ESQUIVA y ambos clips están intactos superponiéndose (arreglen ese cagadón después, para un corte en L está barbaro pero para otra cosa… ponganle un FADE OUT please).
Finalcut fué uno de los primeros editores de video en usar SECUENCIAS o sea líneas de tiempo independiente, de ésa manera se ANIDABAN una dentro de otras. En Premiere Pro o After Effects hacíamos lo contrario, PRECOMPONEMOS, o sea que tomamos el bardo de nuestras pistas y las convertimos en secuencia/compo. El efecto que tiene es que esa secuencia al accederse está fuera de nuestro alcance visual, editar DENTRO y FUERA de la misma se hace imposible, apple decidió que el precomponer CLIPS en vez de líneas de tiempo es mejor.
Entre dos clips se puede editar con precisión el corte y cuanto se superponen de forma más precisa, está bueno, especialmente para quienes recién empiezan a editar.
Clip Auditioning es una función muy loca, ponele que tenés varias tomas pero no sabés cual quedaría mejor en ésa parte. Probás una, luego llamás al diálogo y probás la otra y así hasta que decidís cual es mejor para esa parte, los clips de atrás se acomodan a la duración del mismo, nunca quedan espacios en blanco (o negro mejor dicho).
La igualación de color, aparentemente es algo tan simple como ir a un menú e indicarle con cual toma vas a empatar los colores, genial. Lo más interesante que mientras estamos editando el Finalcut X está haciendo render y éso no afecta la edición...quiero verlo para creerlo, pero Cinelerra (para linux) tenía algo así en el año 2005 y uno podía hacer un cluster de PCs para chupar procesamiento de otros equipos, pero cada vez que se activaba la opción surgían mil problemas.

Incluí ésta foto porque la aplicación es EXCELENTE (por lo poco que se sabe), y el precio de 299 es la mitad de lo que cobra Adobe por Premiere Pro, así que ésto sólo va a generar más ventas de mac, bien por Apple. Ahora queda esperar que hacen los competidores con ésta movida, sea como sea, es bueno para los usuarios.
Apple una vez más revolucionando la industria de la multimedia, algunos dirán que no les gusta, pero ignorar cambios como éste sería muy tonto. Por el momento lo que escribí en el post es sobre los videos que he visto en la red, seguro en junio cuando ya esté disponible para descargar veremos opiniones a favor, en contra, y como no funciona en Macs como la mía :( pero bueno.
Apple tapó el agujero del hormiguero, ahora hay que ver que pasa.
UPDATE: En éste Post la gente de Twit Networks analiza las repercusiones del anuncio, y lo que significa para los prefesionales de la edición (el vídeo está doblado al español).
19 de mayo de 2011, 11:15
Exelente articulo.
Y tienes alguna novedad de como va el desarrollo de Lightworks opensource?
16 de junio de 2011, 7:00
Lightworks terminará siendo una aplicación WINE, o sea que no será nativa aunque usará los codecs de Matrox lo cual es mas o menos interesante.