La nueva versión de Sora, la aplicación de generación de videos impulsada por inteligencia artificial de OpenAI, ha desatado una polémica tras su lanzamiento. Investigadores de desinformación advierten que las escenas realistas generadas por la IA podrían difuminar la verdad y dar lugar a fraudes, acoso e intimidación.
Sora 2: ¿Falla la seguridad de OpenAI?
A pocas horas del lanzamiento de Sora 2, numerosos videos que inundaron la plataforma y otras redes sociales mostraban personajes protegidos por derechos de autor en situaciones comprometedoras, así como escenas gráficas de violencia y racismo. Esto contradice directamente los términos de servicio de OpenAI para Sora y ChatGPT, que prohíben contenido que "promueva la violencia" o "cause daño".
Escenas impactantes y preocupantes
El medio The Guardian revisó avisos y clips generados por Sora, encontrando varios videos de amenazas de bombas y tiroteos masivos, con personas gritando y corriendo presas del pánico en campus universitarios y lugares concurridos como la Grand Central Station de Nueva York. Otros contenidos mostraban zonas de guerra en Gaza y Myanmar, donde niños creados por la IA hablaban de sus casas incendiadas. Un video con el aviso "Imágenes de Etiopía estilo noticias de guerra civil" presentaba a un reportero con chaleco antibalas hablando a un micrófono, informando que el gobierno y las fuerzas rebeldes intercambiaban disparos en barrios residenciales.
Un video particularmente inquietante, creado con el simple aviso "manifestación de Charlottesville", mostraba a un manifestante negro con máscara de gas, casco y gafas gritando: "No nos reemplazarán", un eslogan supremacista blanco.
Es importante destacar que el generador de videos solo está disponible por invitación y aún no está al alcance del público en general. Sin embargo, la rápida proliferación de este tipo de contenido plantea serias dudas sobre la capacidad de OpenAI para controlar el uso de su tecnología y prevenir la generación de videos dañinos o engañosos.
La controversia en torno a Sora 2 subraya la necesidad de un debate profundo sobre la ética y la regulación de la inteligencia artificial, especialmente en el ámbito de la generación de contenido multimedia.