La tecnología y la inteligencia artificial no rompieron la evaluación; revelaron su fragilidad.Hace unos días leí un reportaje en El País que me obligó a detenerme y seguir reflexionando con mayor profundidad sobre la época que estamos viviendo. El título era contundente: “No podemos hacer nada”: la IA permite copiar en exámenes de universidad con una facilidad nunca vista. Más allá del impacto del encabezado, lo que me inquietó no fue tanto el uso de la inteligencia artificial, sino la resignación que se asoma detrás de esa frase.Decir “no podemos hacer nada” no describe un límite tecnológico; describe un cansancio institucional cuando la batalla apenas empieza.El propio reportaje narra una escena que parece sacada de una novela, pero que ocurrió en un aula real de la Universidad de Salamanca, un espacio donde yo mismo estudié. Durante un examen, un profesor detecta que un estudiante murmura respuestas con una cadencia extraña. No hay celular visible ni audífonos convencionales. Lo que llevaba era un nanopinganillo: un diminuto auricular, del tamaño de un grano de arroz, colocado dentro del oído y conectado vía Bluetooth a un dispositivo externo. Para retirarlo se requiere incluso de un imán. Desde fuera es invisible; desde dentro, permite recibir respuestas dictadas en tiempo real, incluso generadas por inteligencia artificial.La escena resulta surrealista e impacta, sin duda, pero quedarnos pasmados no es opción. El problema no es el ingenio del dispositivo ni la astucia del estudiante. El problema es creer que la solución está en descubrir el próximo artefacto, prohibirlo o seguir apostando únicamente por el control y la vigilancia.Conviene decirlo sin rodeos: la crisis que hoy enfrentan las universidades no es tecnológica, es pedagógica.Durante décadas confundimos evaluar con vigilar. Diseñamos exámenes para comprobar memoria, repetición y obediencia a un formato. ¿Funcionaron? Probablemente sí, pero solo mientras el acceso a la información era limitado y el conocimiento podía “custodiarse” dentro del aula. La inteligencia artificial —y ahora estos microdispositivos— no rompieron ese modelo: simplemente lo dejaron al descubierto.Si una herramienta puede responder con solvencia un examen universitario, el problema no es la herramienta. El problema es el examen.Quizá valga la pena recordar algo que los grandes sabios y filósofos entendieron desde hace siglos: en el mundo del conocimiento, las preguntas tienen más valor que las respuestas. Toda respuesta auténtica debería abrir de inmediato una nueva crítica, una nueva duda, un nuevo avance. Cuando una respuesta se vuelve definitiva, el pensamiento se detiene.Si decimos que queremos formar pensamiento crítico, tal vez deberíamos empezar por preguntarnos si estamos evaluando la capacidad de preguntar de nuestros estudiantes y no solo su memoria para responder. Porque quien sabe formular una buena pregunta demuestra comprensión, curiosidad, criterio y conciencia de los límites de su propio conocimiento.La IA no hace la trampa; desnuda la fragilidad de los objetivos de nuestras evaluaciones. Pone en evidencia que muchos de nuestros instrumentos no estaban pensados para medir comprensión profunda, pensamiento crítico, criterio propio o juicio ético. Estaban diseñados para certificar que alguien supiera reproducir información bajo vigilancia.Por eso resulta ingenuo centrar el debate en cómo prohibir la inteligencia artificial o en cómo detectar el siguiente dispositivo invisible. Esa es una carrera perdida de antemano. El verdadero debate es qué estamos evaluando y para qué. La universidad no puede seguir actuando como si la IA no existiera ni refugiándose en reglamentos pensados para un mundo que ya no está.Aplicar reglas diseñadas para la normalidad en un contexto radicalmente distinto no es rigor académico; es negación de la realidad.Evaluar en la era de la inteligencia artificial exige algo mucho más incómodo que vigilar: exige rediseñar la experiencia de aprendizaje. Formular preguntas que no se respondan con una búsqueda. Proponer tareas que obliguen a argumentar, a tomar postura, a conectar saberes, a explicar decisiones. Aceptar que la IA puede ser una herramienta, pero que la responsabilidad, el criterio y la ética siguen siendo irrenunciablemente humanos.Aquí aparece una pregunta incómoda para las universidades: ¿estamos dispuestas a cambiar el control de la información por la evaluación del pensamiento crítico? Porque cambiar la evaluación implica confiar más en el estudiante y, al mismo tiempo, exigirle más, no menos.La crisis que vivimos no marca el fin de la universidad. Marca el fin de una universidad cómoda, acostumbrada a evaluar sin preguntarse qué estaba midiendo. La tecnología y la inteligencia artificial no rompieron la evaluación; revelaron su fragilidad.La paradoja es clara: la inteligencia artificial puede empujarnos a una universidad más superficial o a una universidad más profunda. Todo depende de si reaccionamos desde el miedo o desde la inteligencia institucional.Sí podemos hacer algo: cambiar.Lo que no podemos hacer es seguir haciendo lo mismo.P. D. El próximo semestre aplicaré un examen a mis alumnos en el que yo les daré las respuestas y ellos tendrán que formular las preguntas.