Lo que debes de saber
- El 97% de estudiantes de Gen Z admite usar herramientas de IA como ChatGPT para trabajos escolares.
- Un exalumno de Columbia usó IA para el 80% de sus ensayos y fue suspendido por crear una herramienta para hacer trampa en entrevistas de trabajo.
- Mientras los estudiantes ‘apilan’ hasta seis apps para no hacer nada, algunas escuelas apenas forman alianzas para entender el fenómeno.
- El debate ya no es sobre hacer trampa, sino sobre qué valor tiene un título obtenido con ayuda de robots.

El ‘Ctrl+C, Ctrl+V’ se volvió inteligente y la escuela no supo qué hacer
La cifra es tan abrumadora que parece un error de tipeo: 97%. Según una encuesta de ScholarshipOwl a más de 12,000 estudiantes de preparatoria y universidad, citada por el New York Post, prácticamente toda una generación está usando inteligencia artificial para navegar la escuela. No es para «investigar» o «organizar ideas», como quizá quieren venderlo algunas apps. El 35% la usa para obtener respuestas de tareas, el 31% para escribir ensayos completos y más de uno de cada cinco la usó para redactar sus solicitudes de ingreso a la universidad o becas. Lo que antes era esconder una chuleta bajo el pupitre hoy es abrir una pestaña en el navegador. La trampa se democratizó, se hizo eficiente y, sobre todo, se normalizó hasta el punto de que un estudiante suspendido de Columbia por crear una herramienta para hacer trampa en entrevistas de trabajo puede fundar una startup llamada Cluely que promete ayudar a los usuarios a «hacer trampa en todo». El mensaje es claro: las reglas del juego académico están rotas, y los alumnos son los primeros en darse cuenta.
Mientras esto ocurre en los dormitorios y bibliotecas, el mundo educativo institucional parece moverse en cámara lenta. Edsurge reporta que algunas escuelas están «uniéndose» para hacer un mejor uso de la IA en la educación. Suena loable, como un esfuerzo colaborativo y visionario. Pero cuando lo contrastas con la realidad de los datos, la iniciativa parece más un intento desesperado por ponerse al día que un liderazgo genuino. Los estudiantes ya están ahí, usando hasta seis herramientas simultáneamente –ChatGPT, Grammarly, Gemini, Brainly– en una cadena de producción académica que minimiza su esfuerzo al máximo. Las instituciones, en cambio, aún están en la fase de «formar alianzas» y «discutir mejores prácticas». Es la clásica brecha entre la velocidad de la tecnología y la lentitud burocrática, pero esta vez el costo no es perder una oportunidad de mercado, sino la relevancia misma de lo que se enseña y cómo se evalúa.
«Honestly, I’ve never met a student who doesn’t use AI or has never used AI to cheat on an assignment,» dijo Roy Lee, el exalumno de Columbia, al New York Post. «AI is just part of the student workflow now.»
La declaración de Lee no es la de un rebelde aislado; es la crónica de una normalización. Cuando la IA es «parte del flujo de trabajo», la pregunta deja de ser «¿está mal usarla?» y se convierte en «¿qué demonios estamos midiendo realmente?» El experto en integridad académica Dr. Thomas Lancaster lo pone en términos simples para el New York Post: usar IA para ser más eficiente y aprender conceptos está bien, pero «if using AI means you’re not learning anything during the process, it’s probably unfair». Ahí está el meollo del asunto: la línea entre herramienta y muleta es increíblemente delgada, y la presión por las calificaciones, los créditos y el título suele empujar a los estudiantes hacia el lado de la muleta. El sistema, basado en tareas repetitivas, ensayos genéricos y exámenes memorísticos, se vuelve fácilmente hackeable por una máquina. Y si el sistema es hackeable, ¿no es el sistema el primer problema?
El título inflado y la fuga hacia adelante
El síntoma más grotesco de esta crisis de credibilidad fue el video viral de un graduado de UCLA que, durante la ceremonia, mostró en su laptop la ventana de ChatGPT. La imagen, que acumuló cerca de 90 millones de vistas, es el meme perfecto para una generación: el triunfo académico coronado por el logo del atajo. Los comentarios de «nuestra generación de doctores está condenada» reflejan un pánico moral, pero también una pregunta incómoda: si un título se puede obtener delegando el trabajo intelectual a una IA, ¿qué valor intrínseco tiene ese cartón? La ansiedad que esto genera podría estar alimentando otro fenómeno paralelo, reportado por medios como CNBC: algunos jóvenes, asustados por un mercado laboral donde la IA amenaza empleos básicos, «se refugian» en estudios de posgrado. Es una fuga hacia adelante. Usan IA para sacar la licenciatura y luego se meten a una maestría para postergar el momento de la verdad, creando un ciclo perverso de credenciales infladas y aprendizaje dudoso.
El panorama que pintan estas dos fuentes es el de un divorcio total entre la práctica estudiantil y la respuesta institucional. Por un lado, 12,000 estudiantes admitiendo un uso masivo y, en muchos casos, sustitutivo de la IA. Por el otro, reportes de escuelas tratando de coordinar esfuerzos para «integrarla» de manera positiva. No hay señales de un replanteamiento radical de la evaluación, del tipo de tareas que se asignan o del valor de la creación humana original. Se percibe más bien un intento de domesticar la tecnología para que no rompa el modelo existente, un modelo que, claramente, ya está quebrado. La trampa siempre ha existido, pero su escala y sofisticación actuales la convierten en un síntoma de una enfermedad mayor: la desconexión entre la educación formal y las habilidades (y tentaciones) del mundo real. Cuando 80% de los estudiantes prefiere ChatGPT a hojear un libro o pensar por sí mismos, el problema no es la herramienta, es la motivación. Y cuando el sistema no ofrece una motivación mejor que la de sacar una A como sea, el resultado es predecible. Al final, la IA no está matando la educación; solo está revelando, de la manera más cruda y con datos duros, lo frágil que era desde hace mucho tiempo.


