¿Sabías que las inteligencias artificiales generativas como ChatGPT, Gemini o Copilot dan ideas, ayudan a escribir o traducir de manera diferente según el idioma en el que les preguntes o la cultura de la región en la que estés? Este fenómeno, conocido como cultural frame switching (CFS), se había observado tradicionalmente en personas multilingües que adaptan su forma de ser según el contexto cultural. Lo sorprendente es que ahora se ha detectado también en los grandes modelos de lenguaje (LLM), que adoptan distintos estilos y matices en función del idioma o la región, mostrando una capacidad de adaptación más humana de lo que imaginábamos.
Un equipo de investigadores de la Universitat Oberta de Catalunya (UOC) ha explorado esta cuestión en el estudio ‘Exploring the Impact of Language Switching on Personality Traits in LLMs’; un trabajo que corrobora que ChatGPT (en su versión GPT-4o) no solo adapta sus respuestas en función del idioma, sino que tiende a reflejar estereotipos culturales asociados a cada lengua o país, incluso cuando responde en inglés simulando ser hablante de diferentes regiones.
«Queríamos saber si podíamos evaluar la personalidad de los sistemas de inteligencia artificial como ChatGPT utilizando instrumentos de evaluación psicológica tradicionales, y observar si la personalidad de sistemas como GPT variaba en función del idioma de los cuestionarios, lo que replicaría algunas diferencias encontradas en la población real», explica Rubén Nieto, catedrático de los Estudios de Psicología y Ciencias de la Educación de la UOC.
Inteligencia artificial y estereotipos culturales
Los responsables de esta investigación aplicaron a ChatGPT el EPQR-A, un cuestionario de personalidad que se emplea habitualmente en psicología para medir diversos rasgos como la extraversión, el neuroticismo, el psicoticismo y la sinceridad. Lo hicieron en seis idiomas —inglés, hebreo, portugués brasileño, eslovaco, español y turco— y también solicitaron a esta IA que respondiese como si fuera un hablante nativo de inglés de Reino Unido, Estados Unidos, Canadá, Australia e Irlanda. Eso sí, advierten que estas pruebas no deben interpretarse como medidas exactas ni directamente comparables con los datos humanos sin una validación adicional.
Detectaron variaciones notables que iban más allá de simples diferencias de traducción y que estaban directamente relacionadas con factores culturales ligados a la lengua o al lugar de origen. “GPT-4o recurre a estereotipos culturales cuando se le pide simular a una persona de un país concreto, y estos sesgos podrían amplificarse en traducciones automáticas o generación de texto multilingüe’, advierte Andreas Kaltenbrunner, coordinador del grupo Artificial Intelligence and Data for Society (AID4So) de la UOC e investigador de la ISI Foundation de Turín.
Para reducir estos sesgos, los investigadores proponen varias medidas: realizar revisiones humanas durante el proceso de traducción, utilizar diferentes traductores automáticos y comparar los resultados obtenidos —en este estudio concreto se empleó Google Translate—, así como desarrollar modelos de IA que no solo tengan en cuenta el idioma, sino el contexto cultural y social asociado.
El estudio llevado a cabo por la UOC pone de manifiesto, por otro lado, la diferencia que existe entre los modelos de traducción neuronal (NMT) y los LLM como ChatGPT, que generan textos en contextos mucho más amplios. «Los traductores automáticos suelen ser más precisos, pero los grandes modelos de lenguaje pueden reproducir más estereotipos porque manejan información cultural de manera más compleja», justifica Antoni Oliver, experto en traducción automática de la UOC.
Hacia una IA más consciente del contexto cultural
El equipo de la UOC ya trabaja en ampliar este estudio incluyendo más idiomas, otros modelos de IA (como Claude, LLaMA o DeepSeek) y distintos cuestionarios de personalidad. El objetivo es entender mejor hasta qué punto los sesgos culturales se filtran en las respuestas de la IA y cómo pueden mitigarse, por ejemplo, usando más de un sistema de traducción y revisiones humanas. «Necesitamos seguir investigando cómo se generan estos sesgos para desarrollar modelos más respetuosos y conscientes del contexto cultural y social», concluye Nieto.
Como alumna de la UVEG y maestra de informática con 15 años de experiencia, considero que el blog presenta un análisis muy relevante y oportuno sobre los desafíos actuales que enfrentamos con el uso de inteligencia artificial, particularmente en lo que respecta a los estereotipos culturales que pueden surgir al utilizar modelos como ChatGPT en diferentes idiomas y contextos.
Desde mi perspectiva, el contenido es muy valioso porque visibiliza una problemática que muchas veces pasa desapercibida: la tendencia de los modelos de IA a replicar, e incluso amplificar, estereotipos culturales al generar contenido o al simular personalidades. Este punto me parece especialmente interesante porque, como docentes y profesionales de la tecnología, tenemos la responsabilidad de promover el uso ético y consciente de estas herramientas, y eso implica reconocer y mitigar los sesgos que puedan contener.
Me pareció muy acertado que el estudio hiciera uso de un instrumento psicológico como el EPQR-A para medir los rasgos proyectados por la IA, así como el hecho de que se llevara a cabo en varios idiomas. Esto resalta la importancia de considerar no solo las capacidades lingüísticas de los modelos, sino también los marcos culturales desde los que se comunican.
En cuanto al blog, lo encontré claro, bien estructurado y con una argumentación sólida. Me gustó que no solo se limitaran a identificar el problema, sino que también propusieran soluciones concretas, como el uso combinado de traductores automáticos, revisiones humanas y la incorporación de una mayor conciencia cultural en el diseño de los modelos de IA.
Como profesional, considero urgente que más investigaciones como esta se difundan y se tomen en cuenta en el desarrollo de tecnologías emergentes. No podemos perder de vista que la inteligencia artificial está cada vez más presente en nuestras aulas, trabajos y vida cotidiana, y debe ser una herramienta que sume al respeto, la equidad y la inclusión.
En resumen, el blog me pareció una excelente aportación para reflexionar sobre el impacto cultural de la IA y la necesidad de seguir desarrollándola desde una perspectiva crítica y humana.
Como UOC por un poquito de na, de amor al territorio, podrían haber ampliado el estudio a la lengua de su universidad.