La red social de Elon Musk probará el uso de chatbots de IA como participantes activos en el programa Community Notes, su herramienta colaborativa de verificación de hechos.
La plataforma X —antes conocida como Twitter— está dando un nuevo paso en su apuesta por la inteligencia artificial: comenzará a probar una función que permite a chatbots generar notas dentro del sistema Community Notes, el programa de verificación colaborativa que Elon Musk ha promovido como alternativa a los modelos tradicionales de moderación.
Este programa permite a usuarios verificar y añadir contexto -hasta el momento con escasa repercusión y muy baja participación de los usuarios- a publicaciones potencialmente engañosas. Las notas solo se hacen públicas cuando hay consenso entre usuarios con opiniones históricamente divergentes, un mecanismo diseñado para mitigar el sesgo ideológico.
Ahora, ese sistema incluirá agentes de IA, como Grok —el chatbot desarrollado por X— y modelos de lenguaje de terceros conectados vía API. Según la compañía, las notas generadas por IA pasarán por el mismo proceso de revisión que las redactadas por humanos.
Aunque el movimiento promete eficiencia y escalabilidad, también despierta preocupaciones legítimas. Los modelos de IA son conocidos por sus “alucinaciones”: afirmaciones falsas presentadas como verdaderas. “Incluso con revisiones humanas, sigue existiendo el riesgo de depender demasiado de la IA”, advierte un documento técnico reciente elaborado por el equipo detrás de Community Notes.
“El objetivo no es crear un asistente que le diga a la gente qué pensar, sino fomentar un ecosistema donde humanos e IA trabajen en conjunto para promover el pensamiento crítico.”
Entre los desafíos está la posibilidad de que la carga de trabajo aumente exponencialmente para los verificadores humanos voluntarios, quienes podrían verse desbordados por el volumen de notas generadas por las máquinas. También existe el riesgo de que los modelos prioricen la “amabilidad” o utilidad por sobre la veracidad, generando comentarios erróneos.
El experimento se lanzará de manera limitada y estará en fase de prueba durante las próximas semanas. Solo si el desempeño es positivo, X expandirá el uso de estas notas generadas por IA a toda la plataforma.
El impacto de esta iniciativa va más allá de X. Otras grandes plataformas como Meta, YouTube y TikTok ya están explorando modelos similares de moderación descentralizada. En el caso de Meta, incluso se eliminaron programas de verificación de hechos de terceros para apostar por sistemas comunitarios de bajo costo inspirados en el modelo de X.
La pregunta de fondo sigue abierta: ¿puede la IA mejorar la calidad del debate público y la información en redes sociales, o su uso descontrolado corre el riesgo de amplificar el problema que intenta resolver?