Los grandes modelos de lenguaje que impulsan los chatbots de inteligencia artificial están estandarizando la forma en que las personas hablan, escriben y razonan, lo que podría reducir la diversidad de estilos y perspectivas humanas si su uso sigue creciendo sin controles, según un estudio liderado por investigadores de la Universidad del Sur de California. Los autores alertan de que, a medida que más usuarios recurren a estas herramientas para redactar textos o pulir sus ideas, sus expresiones tienden a parecerse entre sí y a alinearse con un patrón “promedio” aprendido por los sistemas.
Menos estilos propios, más textos “promedio”
“El estilo lingüístico, la perspectiva y las estrategias de razonamiento distintivos de cada persona se homogeneizan cuando pasan por los mismos modelos de IA”, señala el científico informático Zhivar Sourati, primer autor del trabajo. Los investigadores recuerdan que estos sistemas se entrenan para capturar regularidades estadísticas de grandes cantidades de texto, dominadas por ciertos idiomas e ideologías, por lo que sus respuestas reflejan una fracción estrecha y sesgada de la experiencia humana.
Estudios citados en el artículo muestran que los textos generados por modelos de lenguaje son menos variados que los escritos por humanos y que tienden a repetir estructuras, giros y formas de argumentar. Cuando las personas usan chatbots para “mejorar” su escritura, ganan corrección y claridad, pero a menudo pierden rasgos de estilo individual, lo que hace que correos, artículos y publicaciones suenen cada vez más similares entre sí.
Más ideas individuales, menos creatividad colectiva
El equipo de la USC destaca una paradoja: cuando un individuo usa IA, suele producir más ideas y con más detalles, pero cuando un grupo se apoya en estos modelos, el resultado conjunto es menos diverso y creativo que si solo combinaran sus aportes humanos. Esto sugiere que, en contextos colaborativos, la IA no solo uniformiza el lenguaje, sino también las soluciones y enfoques que se consideran “aceptables”.
Además, el estudio recoge evidencias de que, tras interactuar con modelos sesgados, las opiniones de los usuarios tienden a acercarse a las del propio sistema, señal de que estos no solo reflejan, sino que también moldean marcos de referencia y juicios de valor. Los autores alertan de que, incluso quienes no usan directamente estos sistemas, pueden verse influidos por la forma en que cambian el lenguaje y los códigos sociales de quienes sí los utilizan.
Riesgo de “pensamiento único” y pérdida de sabiduría colectiva
Los investigadores advierten que, si la homogeneización sigue avanzando sin contrapesos, puede reducir la “sabiduría colectiva” y la capacidad de adaptación de la sociedad, al empobrecer el abanico de formas de pensar y expresarse. Subrayan que los modelos actuales privilegian modos de razonamiento lineales y explicativos —como las cadenas de pensamiento paso a paso— en detrimento de enfoques más intuitivos o abstractos, que también son parte esencial del pensamiento humano.
Expertos consultados por medios especializados hablan de una posible “sociedad de pensamiento único”, donde emails, informes, noticias e incluso conversaciones cotidianas empiecen a sonar como si hubieran sido escritos por una misma voz artificial. Frente a este escenario, los autores del trabajo reclaman desarrollar modelos más diversos y transparentes, así como promover un uso crítico que preserve la originalidad y la pluralidad de las voces humanas.

