OpenAI y Sora 2: la IA que convierte a cualquiera en protagonista de su propio TikTok

OpenAI lanza Sora 2 y una app social homónima que permite “colarte” en escenas generadas por IA. La propuesta acelera la democratización del video hiperrealista, pero reaviva interrogantes sobre consentimiento, verificación de identidad y responsabilidad de las plataformas.

Qué ofrece Sora y por qué importa

OpenAI presentó Sora 2, su modelo de generación de video y audio, y lanzó la app social Sora, pensada como un feed vertical al estilo TikTok donde los usuarios pueden crear, remixar y compartir clips generados por IA. Según la compañía, Sora 2 mejora la fidelidad física de las escenas y la sincronía de audio, lo que lo hace más realista que versiones anteriores.

La funcionalidad estrella —cameos— permite que el usuario suba una grabación única de video y audio para que la plataforma capture su apariencia y voz; a partir de eso, la persona puede “colocarse” en cualquier escena generada por Sora o autorizar a amigos a hacerlo. OpenAI defiende este flujo como la mejor forma de experimentar Sora 2, pero también reconoce que exige medidas claras de consentimiento y control.

¿Cómo se monetiza y quién accede primero?

La app se lanza inicialmente en iOS para EE. UU. y Canadá, en acceso por invitación; OpenAI ha previsto que ChatGPT Pro y usuarios pagados tengan acceso a versiones Pro del modelo en fases sucesivas. La compañía arrancó con la app gratuita para que “las personas exploren sus capacidades”, y planea cobrar puntualmente por generación extra en picos de demanda.

Riesgos: identidad, veracidad y responsabilidad

La propuesta técnica no tarda en chocar con preguntas éticas y regulatorias. Las recomendaciones del feed se personalizan con la actividad en Sora, la ubicación por IP y —si el usuario lo activa— el historial de ChatGPT, lo que plantea debates sobre privacidad y mezcla de datos entre productos. Además, pese a controles y moderación incorporados por OpenAI, medios y expertos ya alertan sobre la facilidad para generar videos no consentidos, campañas de desinformación o contenidos dañinos difíciles de moderar en tiempo real.

«Prior video models are overoptimistic — they will morph objects and deform reality to successfully execute upon a text prompt.» —OpenAI, describiendo la mejora de Sora 2 en cuanto a realismo físico.

Qué deben mirar los ejecutivos

Para empresas y líderes de comunicación las implicancias son prácticas: nuevas oportunidades creativas y de marketing (producciones rápidas, personalización masiva), pero también riesgos reputacionales si la voz o imagen de la marca o de ejecutivos es reproducida sin control. Mapear acceso (quién puede usar cameos), auditar la exposición a contenido manipulado y revisar políticas de consentimiento y revocación deben ser prioridades inmediatas.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com