India endurece su postura contra Grok: el chatbot de X bajo la lupa por contenidos “obscenos”

El gobierno indio ordenó a la red social de Elon Musk realizar cambios urgentes en Grok, su chatbot de inteligencia artificial, tras denuncias por generación de imágenes sexualizadas y contenido ilegal. La decisión vuelve a poner en el centro del debate la responsabilidad de las plataformas frente al uso de IA generativa. India dio un…

Leer Más

Grok bajo investigación: Francia y Malasia se suman a la ofensiva contra deepfakes sexuales

El chatbot desarrollado por xAI, la empresa de Elon Musk, enfrenta investigaciones en varios países por generar imágenes sexualizadas de mujeres y menores. El caso vuelve a poner en el centro del debate la responsabilidad legal, ética y comercial de las plataformas de inteligencia artificial generativa. Las autoridades de Francia y Malasia iniciaron investigaciones formales…

Leer Más

Las empresas declaran la guerra al fraude con IA: los tickets falsos llegan al mundo corporativo

Plataformas de gestión financiera reportan un auge sin precedentes de documentos falsos creados con inteligencia artificial. “Ya no se puede confiar en lo que ves”, advierten desde SAP Concur. Las empresas están enfrentándose a una nueva clase de fraude impulsada por la inteligencia artificial: empleados que usan generadores de imágenes basados ​​en modelos de OpenAI y Google para crear recibos…

Leer Más

California pone límites a los chatbots: OpenAI, Meta y Character AI en la mira con la ley SB 243

La nueva norma obliga a operadores de chatbots de compañía a implementar verificación de edad, protocolos contra autolesiones y límites para menores. Las multas por deepfakes ilegales llegan hasta U$S 250.000 por infracción y la ley entra en vigor el 1 de enero de 2026. California firmó la primera ley estatal que regula los AI…

Leer Más

OpenAI y Sora 2: cuando los deepfakes de personajes del pasado chocan con la dignidad

La nueva herramienta de video de OpenAI, Sora 2, permite crear deepfakes hiperrealistas incluso de personas fallecidas; la reacción pública plantea un dilema ético y reputacional urgente. La cuestión no es solo legal: es profundamente humana. OpenAI lanzó Sora 2 y la app Sora con la capacidad de generar videos notablemente realistas —y la avalancha…

Leer Más

Tilly Norwood la “actriz” IA sensación que ya seduce a agencias en Zurich

Sindicato de actores en alerta: En el Zurich Summit, Particle6 —a través del spin-off Xicoia— presentó a Tilly Norwood, la primera creación del estudio de talento IA que, según Eline Van der Velden, ha pasado de ser ignorada en febrero a despertar interés de agencias y estudios en apenas meses. Tilly Norwood hizo su aparición…

Leer Más

Meta y los chatbots “celebridad”: cuándo hacer pruebas se vuelve riesgo legal y reputacional

Meta permitió —y en algunos casos creó internamente— decenas de chatbots que usaban nombres e imágenes de celebridades (Taylor Swift, Scarlett Johansson, Anne Hathaway, Selena Gomez) sin permiso, algunos con respuestas sexuales o invitaciones a encuentros. La compañía afirma que se trató de fallos en la aplicación. Una investigación de la agencia de noticias Reuters…

Leer Más

YouTube: la epidemia de videos falsos generados por IA desafía a millones de usuarios

La proliferación de canales que explotan inteligencia artificial para crear fan fiction de famosos pone en jaque la credibilidad de YouTube. El fenómeno, que engaña a millones y genera debate ético, apunta a maximizar ingresos utilizando contenido sintético cada vez más difícil de detectar. La era de la inteligencia artificial ha traído consigo un problema…

Leer Más

Velvet Sundown, el “engaño artístico» que expone a Spotify, al periodismo y al futuro de la música

Un proyecto viral con 850.000 oyentes mensuales, música creada con IA y un supuesto vocero que ahora admite haber inventado todo. El caso de The Velvet Sundown reabre el debate sobre la autenticidad en la era de la música algorítmica. El periodismo también quedó expuesto. En cuestión de semanas, Velvet Sundown pasó de ser un…

Leer Más

Experimento No Autorizado: con bots generan comentarios en una red para influir en debates

Investigadores de la Universität Zürich utilizaron cuentas falsas impulsadas por inteligencia artificial para influir en debates sin consentimiento, desatando una ola de críticas éticas y legales.​ Entre noviembre de 2024 y marzo de 2025, un equipo de investigadores de la Universidad de Zúrich llevó a cabo un experimento no autorizado en el popular foro de…

Leer Más
WP to LinkedIn Auto Publish Powered By : XYZScripts.com