OpenIA da la noticia más esperada: a finales de año podremos disfrutar de su IA para vídeos
Hace poco más de un mes, OpenIA sorprendía a todos con su última Inteligencia Artificial: Sora. Una herramienta que nos permite crear vídeos a partir de texto con una calidad nunca vista hasta entonces. Su lanzamiento, sin embargo, había sido muy restringido para un selecto número de usuarios. Ahora, por fin, sabremos cuando llegará la versión final de manera generalizada.
Sora ha sido una de las novedades más destacadas en materia de Inteligencia Artificial de este inicio de 2024. Una nueva tecnología que nos permite, a través de instrucciones de texto, crear vídeos de un máximo de 60 segundos con una calidad sorprendente. Presentada hace apenas un mes, en un principio su lanzamiento se limitaba a un selecto grupo de usuarios. Encargados de detectar las oportunidades de mejora existentes en el modelo y de llevarla al límite hasta saber de qué iba a ser capaz. Sin embargo, OpenIA todavía no había dado más datos acerca de cuándo se planteaba su aterrizaje de manera generalizada para todos los usuarios. Durante el día de ayer, se despejó definitivamente la duda.
2024, el año de Sora
Mira Murati, CTO de OpenIA, ha aprovechado la entrevista concedida para el medio The Wall Street Journal, para dar a conocer la hoja de ruta que recorrerá durante los próximos meses Sora. Murati anunció que está previsto que Sora llegue “definitivamente este año”, concretando, todavía más, “en unos meses”. Sin embargo, no se ha aventurado a dar ninguna posible fecha exacta que nos pueda dar indicaciones de lo próximos que podemos estar al respecto. Sin embargo, todo parece indicar que tendremos que esperar, como poco, al ecuador del presente año para comenzar a disfrutar de todas sus posibilidades.
Murati también nos ofrece más información sobre el funcionamiento que podremos esperar de Sora. Indicando que, de momento, los vídeos no podrán incorporar pistas de audio, por lo que todos los vídeos tendrán que ser mudos y, a continuación, montar el audio por separado. Editando el mismo en el caso de que estemos interesados en esta posibilidad.
Sin embargo, el aspecto que realmente sorprende es que los usuarios, una vez Sora haya creado el vídeo final, podremos proceder a su edición a través de comandos de texto. Sin embargo, en este caso no especificó si esta posibilidad llegaría más adelante, como se espera que sí que lo haga la función de audio, o si la tendremos disponible desde el primer momento.
El entrenamiento de Sora
La entrevista también se centró en uno de los aspectos más controvertidos que han rodeado a los modelos de lenguaje de IA desde su creación: los datos que han servido para realizar entrenamiento. Sin embargo, en este caso, Murati afirmó que para poder entrenar a Sora hasta conseguir los resultados actuales, únicamente se han utilizado vídeos que actualmente están disponibles de manera pública, así como videos con licencia de Shuttershock.
No obstante, algunas cuestiones que pueden tener una gran relevancia para entender los resultados finales, como si se ha utilizado YouTube para entrenar el modelo, quedaron sin respuesta. Por lo que, al menos de momento, tendremos que seguir esperando para conocer un poco más la trayectoria de Sora hasta alcanzar el punto en el que se encuentra en la actualidad.