Cierra ‘Sora’, la IA de que llenó Internet de vídeos falsos, y OpenAI rompe su acuerdo con Disney
«Nos despedimos de la app ‘Sora’. A todos aquellos que crearon con ‘sora‘, que lo compartieron y que construyeron una comunidad a su alrededor… gracias. Lo que hiciste con ‘Sora’ fue importante y lo sabemos esta noticia es decepcionante«: con estas palabras, ‘Sora’, la inteligencia artificial OpenAI que transformar vídeo en texto y que no ha estado libre de polémica, anunció su cierre, apenas dos años después de su lanzamiento.
Según ha podido saber la BBC, OpenAI también ha finalizado su colaboración con Disney en términos de contenido. Este miércoles, la compañía anunció el cierre de ‘Sora’ para centrarse en otros proyectos, como el de robótica, que podrían «ayudar a las personas a resolver tareas físicas en el mundo real». Un portavoz de Disney ha asegurado que respetan la decisión de OpenAI de abandonar el negocio de generación de vídeo y «reorientar sus prioridades», aunque buscarán otras plataformas de inteligencia artificial para encontrar formas de utilizar esta tecnología. responsablemente, sin infringir derechos de propiedad intelectual.
El objetivo de OpenAI es crear otras formas de inteligencia artificial que permitan completar tareas de forma autónoma con una mínima intervención humana. Según la BBC, OpenAI planea utilizar la misma tecnología para enseñar a la IA a producir vídeos realistas al entrenar robots. A pesar del cierre de ‘Sora’, las herramientas de imágenes de ChatGPT no se verán afectadas.
Tras el nacimiento de ‘Sora’ surgieron muchos problemas: aunque muchos vídeos generados con esta IA son obvia y rápidamente reconocibles como situaciones falsasmuchos otros han generado muchas dudas entre la población, al tratarse de vídeos de situaciones reales, hiperrealistas, que confunden a los consumidores. Esto ha causado en muchas personas un sentimiento de miedo a no saber distinguir lo que es verdad y que no.
Según explica a laSexta Toni Sánchez, catedrático de Derecho de la UIC, los mayores riesgos de este tipo de IA giran en torno a las ‘noticias falsas’ y también a la posibilidad de que se suplante la identidad de las personas. Los ‘deepfakes’, vídeos manipulados que parecen reales, se volvieron mucho más convincentes gracias a ‘Sora’. Tanto es así que el propio CEO de OpenAI llegó a afirmar que la empresa tenía miedo de la posible mal uso por parte de los usuarios de las imágenes y vídeos generados artificialmente a través de ‘Sora’.
*Sigue laSexta en Google: las últimas novedades y el mejor contenido aquí.
Puedes consultar la fuente de este artículo aquí