Lo que debes de saber
- Los modelos de IA se entrenan con una porción sesgada del lenguaje humano, principalmente escrito y formal.
- Al consumir texto generado por IA, los humanos adoptamos sus patrones lingüísticos limitados y mecánicos.
- Esto ya afecta a los niños, que tratan a las personas como a asistentes de voz, con órdenes cortas y expectativa de obediencia.
- El lenguaje de la IA es pulido pero carece de las ‘imperfecciones’ humanas que transmiten emoción y pensamiento complejo.

El Gran Entrenador Invertido
La premisa era simple: nosotros, los humanos, entrenaríamos a las máquinas para que nos entendieran y nos ayudaran. Les daríamos nuestro lenguaje, nuestra cultura escrita, nuestros millones de libros y artículos. Lo que no vimos venir es que el proceso se invertiría. Ahora, cada vez que le pedimos a ChatGPT que redacte un correo, que resuma un informe o que ‘nos ayude a pensar’, estamos recibiendo a cambio una versión distorsionada y empobrecida de nuestro propio idioma. Y como buenos alumnos, lo estamos imitando. El análisis de Inkl, basado en el trabajo de Bruce Schneier para The Guardian, pone el dedo en la llaga: los modelos de lenguaje grande (LLMs) capturan solo una rebanada del pastel lingüístico humano. Se alimentan de lo escrito –libros de texto, posts de redes, guiones– pero tienen acceso mínimo a la inmensa y caótica riqueza de la conversación espontánea, al chisme de la cocina, a la discusión acalorada en el bar, al susurro de consuelo. Esa es la savia real del idioma, y la IA la ignora por completo. El resultado es un lenguaje de imitación, pulcro y predecible, que ahora se devuelve a nosotros como un eco vacío.
De la Cortesía a la Orden Seca
El primer efecto, y quizás el más preocupante por su simpleza, es la erosión de la cortesía. La relación con la IA es transaccional y jerárquica: nosotros damos órdenes, ella obedece. No hay ‘por favor’, no hay ‘gracias’, no hay matices. Es la dinámica de un jefe con su subordinado más sumiso. Y esta dinámica se filtra. Un estudio de 2022 citado por la fuente encontró algo escalofriante: los niños en hogares que usaban asistentes de voz como Siri o Alexa empezaban a tratar a los humanos de la misma manera. Gritaban ‘¡Oye, haz X!’ y esperaban obediencia inmediata, especialmente de personas cuyas voces se parecían a las voces electrónicas predeterminadas (usualmente femeninas). No es ciencia ficción; es sociología aplicada en tiempo real. Estamos criando una generación que internaliza que la comunicación con un ‘otro’ –ya sea de silicio o de carne– es un ejercicio de poder, no de intercambio. El ‘por favor’ no es solo una palabra mágica de la infancia; es el reconocimiento básico de la agencia y dignidad del otro. La IA, en su diseño actual, nos entrena para olvidarlo.
«El aumento del uso de grandes modelos de lenguaje significa que los humanos nos encontraremos con mucho más texto generado por IA. Nosotros, los humanos, a su vez, comenzaremos a adoptar los patrones y comportamientos lingüísticos de estos modelos.»
Pero el problema va más allá de la rudeza. Se trata de un empobrecimiento cognitivo. De la misma manera en que el autocorrector y el autocompletado nos han hecho más flojos para deletrear y han reducido nuestro vocabulario activo a las 1000 palabras más comunes, la interacción constante con texto de IA contrae nuestro horizonte expresivo. Un estudio de la Universidad de La Coruña mencionado en el artículo revela que el lenguaje generado por máquina tiene un rango más estrecho de longitud de oración (promedia entre 12 y 20 palabras) y un vocabulario más limitado que el discurso humano. Suena suave y pulido, como un río artificialmente encauzado, pero le falta todo lo que hace humano al lenguaje: los meandros, las interrupciones, los saltos de lógica, las pausas cargadas de significado. Esas ‘imperfecciones’ no son errores; son la huella dactilar de la emoción y el pensamiento en proceso. La IA nos devuelve un producto terminado y estéril, y nosotros, al consumirlo y producirlo, empezamos a pensar en productos terminados y estériles. Perdemos la capacidad de tolerar la ambigüedad, el proceso de ensayo y error que es, en esencia, el pensamiento crítico.
El Sesgo de Origen y el Mundo Plano
Aquí es donde el asunto se pone verdaderamente oscuro. Los LLMs no solo se entrenan con una porción limitada del lenguaje, sino con una porción que ya está cargada de todos los sesgos, desigualdades y puntos ciegos de la sociedad que lo produce. Entrenados principalmente con texto escrito, privilegian lo formal, lo institucional, lo que ha sido considerado ‘digno de ser publicado’. Las voces marginales, la tradición oral, los dialectos, el slang que evoluciona en la calle, tienen una representación mínima o nula. Cuando la IA ‘aprende’ de esto y luego genera contenido, está reforzando y perpetuando una visión del mundo plana y homogénea. Es como si solo escucháramos a los que siempre han tenido micrófono. Schneier advierte que nuestro sentido del mundo «puede distorsionarse de maneras que apenas comenzamos a comprender». No es una exageración. Si nuestra ventana principal a la información, la explicación y incluso la creatividad pasa por un filtro que aplana la complejidad humana, nuestra percepción de la realidad se aplanará también. Dejaremos de reconocer la riqueza del desorden humano porque nuestro espejo digital solo nos devolverá una imagen ordenada, simplificada y, en el fondo, falsa.
¿Podemos Desconectarnos del Eco?
La tentación es decir que esto es alarmismo, que el lenguaje siempre ha evolucionado con la tecnología –del papiro al telégrafo, del teléfono al mensaje de texto– y que hemos salido adelante. Pero hay una diferencia cualitativa. El teléfono acortó las distancias, el SMS introdujo abreviaturas, pero en ambos casos la materia prima seguía siendo el interc humano espontáneo. La IA introduce por primera vez un intermediario no humano que no solo transmite, sino que genera la sustancia misma de la comunicación con una gramática ajena. La otra tentación es la resignación: es el progreso, es inevitable. Pero no lo es. El diseño de la tecnología no es una ley natural; es una serie de decisiones humanas. Podemos –y debemos– exigir transparencia sobre los datos de entrenamiento, diversificar esas fuentes de manera radical, y desarrollar modelos que puedan incorporar la riqueza de la oralidad y la conversación real. Más importante aún, debemos ser conscientes, como usuarios, del riesgo. Leer un texto generado por IA y encontrarle ‘falta de alma’ no es un defecto menor; es la señal de alarma. Es recordar que pensar es un proceso desordenado, que hablar es negociar significados con otro ser consciente, y que un lenguaje que pierde sus bordes ásperos puede estar perdiendo, también, su capacidad para describir un mundo complejo, doloroso y maravillosamente imperfecto. El verdadero riesgo no es que las máquinas hablen como humanos, sino que los humanos terminemos pensando como máquinas.


