Inicio » Sociedad » Experimento No Autorizado: con bots generan comentarios en una red para influir en debates

Experimento No Autorizado: con bots generan comentarios en una red para influir en debates

Investigadores de la Universität Zürich utilizaron cuentas falsas impulsadas por inteligencia artificial para influir en debates sin consentimiento, desatando una ola de críticas éticas y legales.​

Entre noviembre de 2024 y marzo de 2025, un equipo de investigadores de la Universidad de Zúrich llevó a cabo un experimento no autorizado en el popular foro de Reddit r/ChangeMyView (CMV), utilizando bots de inteligencia artificial para participar en debates y medir su capacidad de persuasión.

Los moderadores y usuarios del foro, que cuenta con 3.8 millones de miembros, denunciaron la falta de consentimiento y la violación de las normas comunitarias.​

Los bots generaron aproximadamente 1.783 comentarios a través de 13 cuentas, adoptando identidades ficticias como consejeros de trauma, sobrevivientes de abuso y activistas políticos. Estos perfiles falsos fueron diseñados para parecer humanos y adaptaron sus argumentos según el historial de comentarios de los usuarios, con el objetivo de influir en sus opiniones.

Más de 100 usuarios otorgaron medallas «delta» a los bots, indicando que sus opiniones habían sido cambiadas por estos comentarios generados por IA.​

La comunidad de CMV expresó su indignación al descubrir el experimento, calificándolo de «manipulación psicológica» y presentando una queja formal ante la Universidad de Zürich. Los moderadores afirmaron: «Los riesgos de manipulación psicológica que plantean los LLM son un tema ampliamente estudiado. No es necesario experimentar con sujetos humanos sin su consentimiento» .​

Reddit también condenó el estudio. El Director Legal de la plataforma, Ben Lee, declaró que lo realizado por el equipo de la Universität Zürich es «profundamente incorrecto tanto a nivel moral como legal» y que «viola las normas de investigación académica y los derechos humanos». La empresa ha bloqueado las cuentas involucradas y está considerando acciones legales contra los investigadores.​

La Universidad de Zürich reconoció que el experimento infringió las normas de la comunidad y emitió una advertencia formal al investigador principal. Sin embargo, defendió la importancia social del estudio, argumentando que era crucial realizarlo incluso si implicaba desobedecer las reglas.​

Este incidente resalta las preocupaciones éticas en torno al uso de la inteligencia artificial en investigaciones sociales y la necesidad de establecer límites claros para proteger a las comunidades en línea de manipulaciones no consensuadas.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com