¿Sabías que las inteligencias artificiales generativas como ChatGPT, Gemini o Copilot dan ideas, ayudan a escribir o traducir de manera diferente según el idioma en el que les preguntes o la cultura de la región en la que estés? Este fenómeno, conocido como cultural frame switching (CFS), se había observado tradicionalmente en personas multilingües que adaptan su forma de ser según el contexto cultural. Lo sorprendente es que ahora se ha detectado también en los grandes modelos de lenguaje (LLM), que adoptan distintos estilos y matices en función del idioma o la región, mostrando una capacidad de adaptación más humana de lo que imaginábamos.

Un equipo de investigadores de la Universitat Oberta de Catalunya (UOC) ha explorado esta cuestión en el estudio ‘Exploring the Impact of Language Switching on Personality Traits in LLMs’; un trabajo que corrobora que ChatGPT (en su versión GPT-4o) no solo adapta sus respuestas en función del idioma, sino que tiende a reflejar estereotipos culturales asociados a cada lengua o país, incluso cuando responde en inglés simulando ser hablante de diferentes regiones. 

personalidades de chatgpt

"Queríamos saber si podíamos evaluar la personalidad de los sistemas de inteligencia artificial como ChatGPT utilizando instrumentos de evaluación psicológica tradicionales, y observar si la personalidad de sistemas como GPT variaba en función del idioma de los cuestionarios, lo que replicaría algunas diferencias encontradas en la población real", explica Rubén Nieto, catedrático de los Estudios de Psicología y Ciencias de la Educación de la UOC.

Inteligencia artificial y estereotipos culturales

Los responsables de esta investigación aplicaron a ChatGPT el EPQR-A, un cuestionario de personalidad que se emplea habitualmente en psicología para medir diversos rasgos como la extraversión, el neuroticismo, el psicoticismo y la sinceridad. Lo hicieron en seis idiomas —inglés, hebreo, portugués brasileño, eslovaco, español y turco— y también solicitaron a esta IA que respondiese como si fuera un hablante nativo de inglés de Reino Unido, Estados Unidos, Canadá, Australia e Irlanda. Eso sí, advierten que estas pruebas no deben interpretarse como medidas exactas ni directamente comparables con los datos humanos sin una validación adicional. 

Detectaron variaciones notables que iban más allá de simples diferencias de traducción y que estaban directamente relacionadas con factores culturales ligados a la lengua o al lugar de origen. “GPT-4o recurre a estereotipos culturales cuando se le pide simular a una persona de un país concreto, y estos sesgos podrían amplificarse en traducciones automáticas o generación de texto multilingüe’, advierte Andreas Kaltenbrunner, coordinador del grupo Artificial Intelligence and Data for Society (AID4So) de la UOC e investigador de la ISI Foundation de Turín. 

personalidades de chatgpt

Para reducir estos sesgos, los investigadores proponen varias medidas: realizar revisiones humanas durante el proceso de traducción, utilizar diferentes traductores automáticos y comparar los resultados obtenidos —en este estudio concreto se empleó Google Translate—, así como desarrollar modelos de IA que no solo tengan en cuenta el idioma, sino el contexto cultural y social asociado.

El estudio llevado a cabo por la UOC pone de manifiesto, por otro lado, la diferencia que existe entre los modelos de traducción neuronal (NMT) y los LLM como ChatGPT, que generan textos en contextos mucho más amplios. "Los traductores automáticos suelen ser más precisos, pero los grandes modelos de lenguaje pueden reproducir más estereotipos porque manejan información cultural de manera más compleja", justifica Antoni Oliver, experto en traducción automática de la UOC.

Hacia una IA más consciente del contexto cultural

El equipo de la UOC ya trabaja en ampliar este estudio incluyendo más idiomas, otros modelos de IA (como Claude, LLaMA o DeepSeek) y distintos cuestionarios de personalidad. El objetivo es entender mejor hasta qué punto los sesgos culturales se filtran en las respuestas de la IA y cómo pueden mitigarse, por ejemplo, usando más de un sistema de traducción y revisiones humanas. "Necesitamos seguir investigando cómo se generan estos sesgos para desarrollar modelos más respetuosos y conscientes del contexto cultural y social", concluye Nieto.