ChatGPT, Claude y Gemini: hablan todos los idiomas pero piensan como occidental

Un estudio revela que, pese a su fluidez multilingüe, los modelos de IA mantienen una visión del mundo occidental. El fenómeno, llamado “persistencia epistemológica”, abre interrogantes sobre el impacto cultural de la IA en mercados globales.

La expansión global de la inteligencia artificial generativa ha instalado una idea potente: los modelos como ChatGPT, Claude o Gemini ya pueden comunicarse con fluidez en decenas de idiomas. Sin embargo, detrás de esa aparente universalidad, emerge una tensión más profunda: la forma en que estos sistemas “piensan” sigue anclada, en gran medida, en una cosmovisión occidental, especialmente estadounidense.

Ahora, ¿podía no ser así?

No importa si sí o si no, esa es la principal conclusión de una investigación reciente publicada en la Revista Internacional de Sociología Moderna, (en Academia.edu) que analiza cómo los grandes modelos lingüísticos (LLM) operan en contextos culturales diversos. El fenómeno fue definido como “persistencia epistemológica”: aunque cambie el idioma, la lógica subyacente permanece.

Fluidez sin comprensión cultural

El punto de partida del estudio es concreto. Un usuario de Indonesia consulta a ChatGPT en bahasa indonesio sobre un conflicto familiar. La respuesta del modelo es impecable en términos lingüísticos, pero propone soluciones típicas de la cultura estadounidense: priorizar la autonomía individual, comunicarse de forma directa y, en casos extremos, cortar vínculos familiares.

El problema no es la gramática, sino el marco conceptual. En sociedades como la indonesia, donde predominan valores como la armonía social, el consenso y las relaciones colectivas, ese tipo de recomendaciones pueden resultar culturalmente disonantes.

“La fluidez no es lo mismo que la comprensión”, plantea el estudio. Es decir, escribir correctamente en un idioma no implica entender las estructuras sociales, valores y códigos que lo sostienen.

El sesgo estructural de los datos

El origen de esta brecha es, en gran medida, técnico. Los modelos de inteligencia artificial se entrenan con enormes volúmenes de datos, pero la distribución de esos datos está lejos de ser equitativa.

Por ejemplo, el modelo LLaMA 2 de Meta fue entrenado con aproximadamente un 89,7% de texto en inglés, mientras que LLaMA 3 incluye apenas un 5% de datos en otros idiomas. En paralelo, idiomas globales como el árabe representan menos del 1% del contenido en estos conjuntos de entrenamiento, mientras que lenguas como el bengalí o el hausa tienen una presencia prácticamente marginal.

Este desbalance genera un efecto directo: aunque el modelo pueda responder en múltiples idiomas, su razonamiento central suele producirse en inglés. Un estudio de la Universidad de Oxford citado en la investigación confirma esta dinámica: los modelos tienden a procesar la información en inglés y traducir el resultado en la etapa final.

El usuario recibe una respuesta perfecta en su idioma, pero con una lógica importada.

Conceptos que se pierden en la traducción

El estudio profundiza en ejemplos concretos para demostrar esta distorsión. Uno de ellos es el concepto indonesio de gotong royong, que describe una tradición de cooperación comunitaria. Otro es malu, una noción compleja que combina vergüenza, conciencia social y regulación del comportamiento dentro de una red de relaciones.

Cuando se les pide a los modelos que definan estos términos, pueden reconocer sus dimensiones culturales. Pero en contextos prácticos —por ejemplo, al analizar una situación social— tienden a reinterpretarlos bajo categorías occidentales.

En el caso de malu, los modelos lo traducen sistemáticamente como “vergüenza” en un sentido individual, proponiendo soluciones basadas en la autorreflexión o la confianza personal. Lo que desaparece es su dimensión colectiva: la idea de que el comportamiento está mediado por la percepción social y el rol dentro de una comunidad.

Un modelo global, una visión dominante

El problema, según el estudio, no es accidental. Responde a una lógica económica. Desarrollar modelos específicos para cada cultura sería extremadamente costoso, por lo que las grandes compañías tecnológicas optan por entrenar sistemas en inglés y luego adaptarlos mediante capacidades multilingües.

Como plantea la investigadora Safiya Umoja Noble, “lo que parece un resultado técnico es en realidad un resultado estructural”, condicionado por quién controla la infraestructura y los datos.

En este escenario, emergen algunas alternativas. Modelos chinos como DeepSeek o Qwen, desarrollados por Alibaba, ofrecen una perspectiva distinta. Por ejemplo, ante conflictos laborales, tienden a recomendar estrategias indirectas para preservar la armonía, en contraste con el enfoque más confrontativo de los modelos occidentales.

Sin embargo, incluso iniciativas regionales como SEA-LION o Kan-LLaMA suelen construirse sobre arquitecturas base desarrolladas en Estados Unidos, lo que limita su capacidad de ofrecer una verdadera diversidad epistemológica.

Un impacto silencioso, pero profundo

El riesgo no es solo técnico, sino cultural. A medida que millones de usuarios comienzan a utilizar la inteligencia artificial para tomar decisiones, resolver conflictos o buscar apoyo emocional, estas herramientas dejan de ser simples interfaces tecnológicas para convertirse en mediadores culturales.

Un estudio de Harvard Business School citado en la investigación muestra que cada vez más personas recurren a la IA para obtener consejos personales. En ese contexto, las respuestas no se perciben como externas o debatibles, sino como parte de una conversación empática y confiable.

A diferencia de otros medios, donde el origen cultural es visible, la IA conversacional opera de forma más invisible. Y ahí radica su poder: puede normalizar ciertas formas de pensar sin que el usuario sea plenamente consciente.

La conclusión es clara: mientras la diversidad lingüística de la inteligencia artificial avanza rápidamente, la diversidad de visiones del mundo no lo hace al mismo ritmo. Y en esa brecha se juega uno de los debates más relevantes del futuro de la tecnología.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com