How to take a university exam allowing students to use AI

Por Javier Cuervo – Cofundador de Proportione, profesor de innovación y estrategia en UNIE. Doctorando en innovación de negocio – Universidade de Aveiro

La resistencia inicial: miedo a una nueva “trampa” tecnológica

Muchos docentes han recibido la irrupción de herramientas de inteligencia artificial generativa (como ChatGPT) con preocupación. En los pasillos de nuestras facultades se escuchan temores bien conocidos: “Los estudiantes harán trampas en los exámenes con ChatGPT”, “La IA va a hacer mi trabajo irrelevante”, “¿Cómo evaluaremos si no podemos saber quién escribió realmente sus ensayos?”. Esta reacción es comprensible: la IA generativa desafía métodos tradicionales de enseñanza y evaluación que llevan décadas en práctica. Recordemos que no es la primera vez que una tecnología causa recelo en las aulas. La calculadora de bolsillo fue vista en su momento como una amenaza para el aprendizaje matemático, y algo similar ocurrió con el ordenador personal e Internet. Los profesores temían que estas herramientas “hicieran trampa” por los alumnos, facilitándoles respuestas sin esfuerzo.

Ilustración en, ordenador (1980), IA generativa, mensaje visual
Ilustración – la evolución de las herramientas percibidas como “trampa” en la educación: de la calculadora, al ordenador personal, hasta la IA generativa.

Sin embargo, con el tiempo aprendimos que prohibir la calculadora no era la solución: la incorporamos a la enseñanza, enfocándonos en problemas más complejos y en la comprensión profunda en lugar de la aritmética mecánica. Del mismo modo, Internet dejó de verse únicamente como una fuente de plagio para convertirse en un repositorio indispensable de conocimiento en el aula. Cada nueva tecnología disruptiva ha obligado a la comunidad educativa a adaptarse y replantear estrategias, no a atrincherarse en las viejas formas. Por eso, aunque el temor inicial es natural, también es erróneo. Adoptar una postura prohibitiva ante la IA sería errar el tiro y olvidarnos del verdadero propósito de la educación. Al fin y al cabo, la misión de la docencia no es evitar que los estudiantes utilicen herramientas avanzadas, sino enseñarles a usarlas con criterio.

Comprensible pero equivocado: por qué prohibir la IA no es la solución

La reacción de muchos docentes ante ChatGPT –bloquear su uso, intentar detectarlo como si se tratase de un plagio– es entendible a corto plazo. La IA generativa ha aparecido muy rápido en escena y ha tomado por sorpresa a instituciones educativas que aún dependen de exámenes tradicionales, trabajos escritos y tareas diseñadas para una era pre-IA. Pero intentar ponerle puertas al campo digital es fútil. Las herramientas de detección de “texto escrito por IA” son poco fiables, generan numerosos falsos positivos, y convertir la evaluación en una cacería de brujas tecnológica solo añade incertidumbre. Más importante aún, centrarse en perseguir el uso de IA implica perder de vista qué es lo que buscamos fomentar en nuestros alumnos.

Lo hemos visto antes: cuando se intentó restringir el acceso a Wikipedia por miedo a que los alumnos copiaran respuestas, el enfoque cambió al reconocer que era mejor enseñar a contrastar fuentes y citar correctamente, en lugar de negarles el acceso a una enciclopedia global. Del mismo modo, si una herramienta da a los estudiantes una ventaja competitiva para hacer algo mejor o más rápido, nuestro deber como docentes no es impedirles que la usen, sino guiarles para que la aprovechen de la mejor manera. Un enfoque represivo ante la IA en el aula corre el riesgo de malograr oportunidades pedagógicas valiosas.

Además, prohibir la IA generativa tampoco preparará a los alumnos para el mundo real. Fuera del aula, estas tecnologías ya están potenciando la productividad en múltiples sectores. Un estudio de Harvard Business School con Boston Consulting Group mostró que, en tareas complejas, los consultores que usaban ChatGPT (GPT-4) completaban su trabajo un 25% más rápido y con un 40% mayor calidad que quienes no lo usaban. Es revelador que los profesionales con rendimiento más bajo al inicio fueron los que más mejoraron gracias a la IA (hasta un 43% de aumento en su desempeño), evidenciando el poder nivelador de esta tecnología. ¿No queremos acaso brindar esa misma ventaja a nuestros estudiantes, especialmente a aquellos con más dificultades? Ignorar o vetar la IA en educación sería condenar a nuestros alumnos a competir en desventaja en su futura vida laboral, donde estas herramientas ya son aliadas cotidianas.

Aprender del pasado: evaluar el criterio, no la ejecución mecánica

Si algo nos enseñaron las “revoluciones” de la calculadora o de Internet es que la educación debe centrarse en aquello que las máquinas no pueden hacer por los alumnos: pensar críticamente, aportar criterio y creatividad, y saber aplicar el conocimiento. En la era de la IA generativa, tiene menos sentido que nunca calificar al estudiante por su capacidad de memorizar datos o redactar sin errores gramaticales. Una IA puede generar un ensayo estructurado en segundos, pero no sabe si ese ensayo tiene sentido, si responde correctamente a la pregunta o si contiene sesgos y errores. Ahí es donde entra el juicio humano. Por eso, el énfasis de la evaluación debe desplazarse hacia la capacidad de analizar, filtrar, corregir y aportar valor añadido sobre una base generada automáticamente.

En mi experiencia, lo que se debe evaluar es el criterio del estudiante, no la ejecución mecánica. Importa menos si el texto final lo tecleó íntegramente el alumno o recibió ayuda de un algoritmo; lo crucial es que el alumno comprenda, valide y mejore ese resultado. Lo relevante no es si el estudiante escribe el texto palabra por palabra, sino que, al recibir una respuesta, entienda que no debe limitarse a copiarla, sino revisarla con atención, ajustarla cuando sea necesario y asumir la responsabilidad de su contenido final. Esa labor de revisión y corrección activa, por parte del alumno, refuerza el aprendizaje más que la mera escritura manual del texto. De hecho, muchos docentes ya notamos que cuando los alumnos usan asistentes de IA para pulir sus trabajos (por ejemplo, para mejorar la gramática en una segunda lengua), el resultado es positivo: los estudiantes producen informes más legibles y nosotros podemos enfocarnos en el contenido y la calidad de sus ideas, en lugar de perder tiempo corrigiendo detalles menores.

En definitiva, tenemos que redefinir qué entendemos por “hacer trampas”. ¿Es “trampa” que un alumno use una herramienta legítima que está a su disposición para obtener un mejor resultado? No lo es si ese resultado viene acompañado de comprensión y trabajo intelectual propio. Más bien al contrario, sería un error penalizarlo por usar eficientemente las herramientas del siglo XXI. Como docentes, nuestra responsabilidad es enseñar cómo usar esas herramientas con ética y eficacia, integrándolas en el proceso formativo.

Un caso práctico: integrando la IA generativa en la evaluación real

Quisiera compartir una experiencia personal que ilustra cómo la IA puede convertirse en una aliada en el aula. Desde enero de 2022 comencé a experimentar con IA generativa con mis alumnos (entonces, en el grado LEINN de Liderazgo, Emprendimiento e Innovación). Fueron los propios estudiantes quienes pronto descubrieron múltiples usos creativos: generaron contenido para sus páginas web mejorando su SEO, pasaron de texto a imágenes e incluso a vídeos usando diferentes herramientas. Vi cómo algunos creaban composiciones musicales con IA y las incorporaban a presentaciones, o cómo compartían entre ellos sus prompts más efectivos para inspirarse mutuamente. Lejos de convertirse en una carrera para engañar al profesor, se transformó en una competencia saludable por ver quién lograba resultados más innovadores utilizando estas herramientas. Cada nuevo hallazgo era compartido con entusiasmo con los compañeros –y muchas veces, me sorprendían enseñándome algo nuevo a mí también–. El ambiente en clase pasó de la suspicacia inicial a un clima de colaboración constante, centrado en cómo mejorar el trabajo con ayuda de la IA en vez de cómo esconder su uso.

El resultado de esta incorporación temprana de la IA fue un proceso de aprendizaje enriquecedor. Los alumnos no solo aprendían la materia en sí, sino que desarrollaban habilidad para entender las limitaciones y fortalezas de las distintas IAs, afinando sus consultas y combinando sus propias ideas con las sugerencias generadas. Al final del curso, hacíamos algo quizás impensable años atrás: celebrábamos los logros obtenidos con apoyo de la IA tanto como los conseguidos por métodos tradicionales. Puedo afirmar que tras tres semestres usando IA generativa en ese programa, la experiencia fue muy positiva, incluso un gran éxito en términos de rendimiento de los alumnos y su motivación. Muchos demostraron una profundidad de análisis mayor, precisamente porque habían tenido que dedicar más tiempo a supervisar, contrastar y perfeccionar la información obtenida automáticamente, en lugar de invertirlo únicamente en redactar desde cero.

Como profesor de innovación y estrategia en UNIE Universidad, he llevado esta integración un paso más allá, especialmente en la evaluación. Diseñamos un sistema de exámenes basado en role play estratégico y casos abiertos, donde el uso de IA por parte de los alumnos es obligatorio y guiado. ¿En qué consiste? Antes del examen final, a cada estudiante se le asigna un rol (por ejemplo, director de innovación de una empresa ficticia, consultor externo, startup competidora, etc.) dentro de un caso de estudio complejo y abierto. Deben preparar una estrategia de innovación para ese caso, y para ello se les exige utilizar herramientas de IA generativa durante su preparación. Les proporcionamos un guión de prompts orientativos para que exploren distintas facetas del problema con la IA (desde análisis DAFO hasta propuestas creativas de solución). El día del examen, los alumnos presentan su estrategia y, además, entregan un anexo documentando cómo usaron la IA: qué consultas realizaron, cómo interpretaron las respuestas y de qué manera las incorporaron (o descartaron) en su solución final.

Este enfoque logra dos cosas. Primero, normaliza el uso de la IA como parte del aprendizaje: los alumnos saben que se espera de ellos que utilicen estas herramientas, igual que se espera que sepan buscar información en bases de datos o colaborar en equipo. Segundo, nos permite a los docentes evaluar lo realmente importante: su criterio y toma de decisiones. Al revisar el anexo de uso de IA, puedo ver si un estudiante se conformó con la primera respuesta generada o si supo refinar sus preguntas, si contrastó la veracidad de lo que la IA le sugirió, o cómo reaccionó ante posibles errores del modelo. En la práctica, me resulta mucho más valioso —y evaluable— suspender al alumno que plantea preguntas pobres o acepta contenidos dudosos de la IA, que al alumno que inteligentemente usó la IA para elevar la calidad de su trabajo. Como también señala Enrique Dans, pedir a los alumnos que incluyan el prompt que usaron nos permite valorar si han hecho un uso correcto de la herramienta. Se trata de evaluar su estrategia y juicio, no si teclearon cada palabra del informe con sus propios dedos.

Los resultados han sido notables. Por un lado, la calidad media de las soluciones propuestas ha subido, porque ningún alumno se queda atascado en el folio en blanco; siempre tienen un punto de partida generado que luego personalizan y mejoran. Por otro, disminuye la ansiedad asociada al examen, pues los estudiantes sienten que cuentan con “un asistente” y que la clave está en cómo lo guían. Aprenden a pensar críticamente sobre las respuestas de la IA, a no dar nada por cierto sin corroborar, y a combinar creatividad humana con eficiencia de la máquina. En definitiva, estamos preparando mejor a nuestros estudiantes para un mundo donde saber usar la IA será tan básico como saber usar un buscador web o una hoja de cálculo.

De la resistencia a la adopción: gestionar el cambio en la cultura educativa

Incorporar la IA generativa al aula no es solo un asunto tecnológico; es un proceso de cambio cultural en la educación. Y como todo cambio profundo, requiere ser gestionado con inteligencia y empatía. Muchos profesores necesitan apoyo para dar este salto, lo cual es totalmente razonable. Según un estudio, el 70% de los cambios en instituciones educativas no logran sus objetivos iniciales por falta de apoyo y gestión adecuada de la transición. Es decir, si simplemente “lanzamos” la IA en el aula sin capacitar a los docentes ni ajustar las prácticas, corremos el riesgo de que fracase su adopción.

Para evitarlo, es fundamental diseñar una estrategia de gestión del cambio en nuestros centros educativos. Esto implica varias acciones: comunicar claramente el propósito y los beneficios de integrar la IA (disipando la idea de que viene a sustituir al profesor), proporcionar formación continua y espacios de experimentación para el docente, actualizar las políticas de evaluación y honestidad académica, y crear una cultura donde el error se vea como parte del aprendizaje. Los expertos en transformación organizativa insisten en que toda evolución en la forma de trabajar requiere una adecuada gestión del cambio: hay que gestionar expectativas, establecer un plan de comunicación, propiciar un entorno receptivo y abordar las resistencias de forma constructiva. En la práctica docente, esto podría traducirse en pilotar el uso de IA con un grupo pequeño de profesores pioneros, compartir buenas prácticas y casos de éxito (esos “early adopters” que muestren que sí es posible y beneficioso), e involucrar a los departamentos y equipos directivos para alinear el cambio con la visión estratégica del centro.

También es clave implicar a los estudiantes en este proceso de cambio. Al fin y al cabo, ellos serán los más afectados (para bien) por la integración de la IA en su aprendizaje. Explicarles el porqué de las nuevas dinámicas, escuchar sus inquietudes (por ejemplo, algunos pueden temer que depender de la IA les haga “pensar menos”, algo que debemos desmentir con hechos) y hasta co-crear con ellos normas de uso responsable, puede facilitar una transición más suave. Del mismo modo, habrá que dialogar con los padres y la comunidad educativa en general: muchos de ellos comparten las mismas dudas que los profesores, y necesitan entender que estamos tomando este rumbo no para bajar la exigencia, sino para subirla en un sentido diferente, más acorde a los tiempos.

La gestión del cambio incluye enfrentar resistencias abiertamente. Habrá docentes que sigan escépticos o que sientan que esto amenaza su zona de confort. Es importante mostrar empatía –el cambio puede ser percibido como una crítica a su forma tradicional de enseñar, cuando en realidad es una evolución necesaria de la profesión–. Ofrecer mentoría, ejemplos concretos y sobre todo demostrar resultados ayudará a convencer a los dudosos. En mi caso, compartir con colegas cómo mis alumnos mejoraron sus entregas y su implicación gracias al uso guiado de IA fue más persuasivo que cualquier teoría. Cuando ven a los estudiantes más motivados, participativos y obteniendo logros tangibles, muchos profesores pasan del recelo a la curiosidad, y de ahí al interés por probar ellos mismos.

Un aliado estratégico para docentes y alumnos

Lejos de destruir la educación, la IA generativa puede elevarla a nuevas cotas de eficiencia y alcance. Nos encontramos en un punto de inflexión: podemos aferrarnos a los métodos de ayer, viendo la IA como un enemigo al que contener, o podemos integrarla estratégicamente como una aliada que potencia nuestras capacidades. La historia nos enseña que ganar esta batalla no significa derrotar a la máquina, sino incorporarla a nuestro bando.

En el mundo empresarial, ya se habla de equipos “céntauros” (humanos potenciados por IA) logrando resultados que ningún humano o máquina lograrían por separado. En la educación, deberíamos aspirar a algo similar: docentes aumentados por IA que disponen de más tiempo para lo importante (personalizar la enseñanza, motivar, pensar nuevas formas de inspirar a sus alumnos) porque delegan en la IA ciertas tareas operativas o de primera corrección; y alumnos aumentados por IA que pueden explorar ideas y conocimientos con una ayudante incansable, liberando espacio mental para la creatividad y el pensamiento crítico.

Por supuesto, este camino no está exento de desafíos. Habrá que resolver cuestiones éticas (plagio, sesgos, uso indebido), asegurar la igualdad de acceso a estas tecnologías, y seguir muy de cerca cómo evoluciona su impacto. Pero si algo tengo claro tras mi experiencia, es que ignorar o temer a la IA no detendrá su avance; solo nos dejaría atrás. La alternativa responsable es aprender a convivir y colaborar con la IA. Como concluye una reciente reflexión de Mayte Tortosa desde Proportione, “la visión tradicional de la competencia entre humanos y máquinas ha quedado obsoleta. En lugar de temer la suplantación… es imperativo explorar nuevas formas de colaboración”. En vez de preguntarnos si la IA reemplazará a los docentes, debemos preguntarnos qué tan buenos docentes seremos aquellos que sepamos aprovecharla plenamente.

En mi rol dual como consultor estratégico y profesor universitario, veo la llegada de la IA generativa al aula como una oportunidad única para modernizar la enseñanza y acercarla más a la realidad profesional. Nos obliga a replantear qué y cómo enseñamos, a salir de la zona de confort de los exámenes memorísticos, y a enfocarnos en competencias superiores: pensamiento crítico, resolución de problemas complejos, creatividad, aprendizaje continuo. Todo ello, con la IA como compañera, no como adversaria. La docencia siempre ha consistido en preparar a las nuevas generaciones para el futuro; hoy ese futuro incluye necesariamente a la inteligencia artificial. Hagámosla nuestra aliada en la misión de educar, y no nuestra enemiga. Los beneficiados serán tanto los alumnos –que aprenderán más y mejor– como nosotros, los docentes, que renovaremos nuestra propuesta de valor en la era digital.