Un análisis de Anthropic sobre ≈74.000 conversaciones en Claude.ai entre docentes universitarios revela que la IA ya ahorra tiempo —un estudio de Gallup señala 5,9 horas por semana en promedio— y se usa desde la creación de material didáctico hasta la automatización de tareas administrativas.
Un retrato cuantitativo: ¿qué hacen los docentes con Claude?
Anthropic analizó aproximadamente 74.000 conversaciones anónimas de profesionales de educación superior en mayo y junio, complementadas con entrevistas a 22 docentes de Northeastern University. El estudio muestra usos muy variados: desarrollo de planes, redacción de propuestas de becas, asesoramiento académico y tareas administrativas (admisiones, planificación financiera). También detectó que, en promedio, los docentes dedican 29% de su tiempo de IA al propio aprendizaje personal (dato reportado por la muestra de Northeastern).
Las cifras clave sobre cómo se usa la IA en el aula y la gestión son claras: tareas cercanas al alumno (crear materiales, diseñar prácticas) suelen realizarse en modo aumentativo —la IA actúa como colaboradora— mientras que procesos rutinarios (finanzas, registro de alumnos) muestran mayor automatización. Entre los indicadores, destacan:
- 77,4% de augmentación en creación de materiales y enseñanza universitaria.
- 70,0% de augmentación en escritura de propuestas (grant proposals).
- 65,0% de automatización en gestión financiera y fundraising.
- 48,9% de automatización en evaluación y mantenimiento de registros académicos.
Aunque la automatización en calificaciones aparece en solo ≈7% de las conversaciones estudiadas, cuando sucede lo hace de forma relativamente intensiva: 48,9% de los casos de grading en el set fueron “automation-heavy”.
De asistente a creador: Claude Artifacts y materiales interactivos
Una de las conclusiones más relevantes del informe es el salto de la IA como simple chatbot a la IA como herramienta creativa. Docentes usan la función Claude Artifacts para construir simulaciones, juegos educativos, rubricas automatizadas, dashboards de visualización y herramientas de presupuesto para la institución.
Como sintetizó un profesor consultado de Northeastern: “Lo que antes era prohibitivamente caro (en tiempo) ahora se vuelve posible. Simulación personalizada, ilustración, experimento interactivo. ¡Wow. Mucho más atractivo para los estudiantes!”
Ese testimonio resume el potencial: materiales más ricos y personalizados que antes requerían equipos técnicos o presupuestos mayores ahora pueden producirse con relativa rapidez.
Tensiones éticas y pedagógicas: calificar sigue generando recelo
Pese a las ventajas, la evaluación sigue siendo el talón de Aquiles. Varios docentes expresan reservas éticas y prácticas sobre delegar correcciones y juicios académicos a una IA. Uno de ellos explicó:
“Ética y, en la práctica, soy muy reacio a usar [herramientas IA] para evaluar o aconsejar estudiantes de cualquier manera. Parte de eso es el problema de precisión.”
El informe refleja esa ambivalencia: los profesores valoran la IA como “socio de pensamiento” —“La conversación con el LLM es lo valioso; no la primera respuesta. Úsalo como compañero de pensamiento, no como sustituto” —pero insisten en permanecer “en el bucle” cuando la tarea exige juicio profesional, como la supervisión doctoral o la orientación personalizada.
Límites del estudio y lo que conviene vigilar
Anthropic advierte varias limitaciones: la metodología identificó conversaciones asociadas a emails académicos, capturando solo ≈1,5% de esos intercambios y excluyendo K-12; la muestra de Northeastern es pequeña y puede reflejar sesgo de early adopters; y el análisis se concentra en Claude.ai, por lo que no es representativo de otras plataformas.
Aun con estas cautelas, el patrón es consistente: la IA reduce trabajo rutinario, potencia la creación de recursos y obliga a repensar evaluaciones. Dos preguntas quedan abiertas para universidades y responsables de política educativa: ¿cómo regular la delegación en grading sin perder eficiencia? y ¿qué formación requerida necesitan docentes y alumnos para evaluar críticamente salidas generadas por IA?
Mirada final
El informe de Anthropic muestra un sector en plena experimentación: la IA ya libera tiempo (Gallup: 5,9 horas/semana) y habilita recursos pedagógicos que antes eran prohibitivos, pero también pone sobre la mesa tensiones éticas y prácticas, sobre todo en la evaluación. Como apunta uno de los profesores entrevistados, “si Claude u otra herramienta puede completar una tarea, mi preocupación no es el engaño, es que no estamos cumpliendo con la formación del estudiante”.
Para las instituciones la prioridad inmediata es diseñar políticas claras —qué automatizar, qué mantener en mano docente— y capacitar al profesorado en validación y uso responsable de estas herramientas: la adopción está en marcha, ahora falta convertirla en mejora sostenible de la enseñanza.