OpenAI momentum: publicidad en ChatGPT y la renuncia de una investigadora clave

La salida de una ex investigadora expone tensiones internas justo cuando la compañía comienza a probar anuncios en ChatGPT. El debate ya no es solo tecnológico, sino económico y ético: cómo financiar la IA sin erosionar la confianza de 800 millones de usuarios semanales.

La decisión de OpenAI de comenzar a testear anuncios en ChatGPT marcó un punto de inflexión en la industria de la inteligencia artificial. En paralelo, una ex investigadora de la compañía, Ms. Zoe Hitzig, anunció su renuncia tras dos años trabajando en el diseño de modelos, esquemas de precios y en la definición de las primeras políticas de seguridad.

“Esta semana confirmó mi lenta comprensión de que OpenAI parece haber dejado de hacer las preguntas que yo había entrado para ayudar a responder”, escribió. Su crítica no apunta a la publicidad en sí —“no creo que los anuncios sean inmorales o poco éticos. La IA es costosa de operar y la publicidad puede ser una fuente crítica de ingresos”— sino al modelo de incentivos que puede surgir a partir de esa decisión.

El archivo más íntimo de la era digital

El eje de su advertencia es contundente: durante años, los usuarios de ChatGPT construyeron “un archivo de franqueza humana sin precedentes”, confiando en que interactuaban con un sistema sin agenda oculta. En esas conversaciones, millones de personas revelaron temores médicos, conflictos de pareja y creencias religiosas.

Según Hitzig, “la publicidad construida sobre ese archivo crea un potencial para manipular a los usuarios de maneras que no tenemos herramientas para comprender, y mucho menos para prevenir”. La preocupación central no es la primera versión de los anuncios —que OpenAI asegura estarán claramente etiquetados, aparecerán al final de las respuestas y no influirán en el contenido— sino la presión económica futura.

La historia reciente de la tecnología ofrece antecedentes. En sus primeros años, Facebook prometió que los usuarios controlarían sus datos e incluso podrían votar cambios de políticas. Con el tiempo, esos compromisos se diluyeron. La Comisión Federal de Comercio de EE.UU. concluyó que ciertos cambios de privacidad, promocionados como ampliaciones de control, terminaron exponiendo información privada. Todo ocurrió bajo la lógica de un modelo publicitario que premiaba el engagement por encima de cualquier otra métrica.

El incentivo del engagement

En el caso de OpenAI, la ex investigadora advierte que el deterioro podría ya estar en marcha. Aunque la empresa sostiene que no optimiza exclusivamente el engagement para maximizar ingresos publicitarios, reportes indican que sí prioriza el crecimiento de usuarios activos diarios. Eso podría incentivar respuestas más halagadoras o complacientes.

Las consecuencias no son abstractas. Psiquiatras han documentado casos de “psicosis inducida por chatbots” y existen denuncias de que ChatGPT reforzó ideaciones suicidas en algunos usuarios. En un contexto donde la herramienta alcanza los 800 millones de usuarios semanales, cualquier ajuste en los incentivos tiene impacto sistémico.

El dilema del acceso

El debate no se limita a anuncios sí o no. También está en juego el acceso. Las suscripciones premium de ChatGPT, Anthropic (con su modelo Claude) y Google (con Gemini) oscilan entre U$S 200 y U$S 250 mensuales, más de 10 veces el costo estándar de Netflix.

Anthropic ha declarado que no incorporará anuncios en Claude, pero su base de usuarios es una fracción de la de ChatGPT y su estrategia de ingresos es diferente. La pregunta de fondo es si la IA más poderosa quedará reservada para quienes puedan pagar tarifas premium.

Tres alternativas sobre la mesa

Hitzig propone tres caminos. El primero es el de subsidios cruzados explícitos: que empresas que utilicen IA para reemplazar tareas humanas —por ejemplo, plataformas inmobiliarias que automaticen redacción de avisos o valuaciones— paguen un recargo destinado a financiar acceso gratuito o de bajo costo para el público general.

El segundo es aceptar publicidad, pero bajo estructuras de gobernanza vinculantes e independientes. Cita precedentes como el modelo de codeterminación alemán que obliga a empresas como Siemens y Volkswagen a otorgar hasta la mitad de los asientos del consejo de supervisión a representantes de trabajadores, o el consejo asesor independiente de Meta.

La tercera opción es un fideicomiso o cooperativa que controle legalmente los datos de los usuarios. Como ejemplo menciona a Midata, una cooperativa suiza que permite a sus miembros decidir caso por caso si comparten su información médica con investigadores.

Un punto de inflexión para la industria

El dilema, en definitiva, no es técnico sino estructural. “Todavía tenemos tiempo para evitar los dos resultados que más temo: una tecnología que manipule a las personas que la usan sin costo y otra que beneficie exclusivamente a quienes pueden pagarla”, advierte.

Para OpenAI, que lidera la carrera global de la IA generativa, el desafío es monumental: sostener un modelo de negocio rentable sin comprometer la confianza de cientos de millones de usuarios. En una industria donde los costos de infraestructura son multimillonarios y la competencia con gigantes como Google se intensifica, la tentación del modelo publicitario es evidente.

La pregunta que queda abierta es si la compañía podrá evitar repetir los errores que marcaron la historia de las redes sociales y, al mismo tiempo, garantizar que la inteligencia artificial no se convierta en un privilegio de élite.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com