El uso indebido de herramientas de IA en exámenes y pruebas amenaza la validez de decisiones clave en la educación y el trabajo
Las evaluaciones, tradicionalmente vistas como instrumentos para medir conocimiento y habilidades, enfrentan una nueva amenaza: el uso indiscriminado de inteligencia artificial para resolver exámenes, sin comprensión real de los contenidos. La firma especializada en desarrollo de talento Lexium advirtió que, de no tomarse medidas urgentes, el sistema de evaluación podría perder su función formativa y ética.
“El problema no es solo copiar, sino que estamos desvalorizando el conocimiento”, señala Laura Elizondo Williams, socia directora en Lexium. “Si las personas ya no necesitan pensar por sí mismas, ¿para qué aprender?”, cuestiona.
Según un análisis reciente de Lexium, en evaluaciones sin supervisión —como las que se realizan en línea— es cada vez más frecuente que estudiantes y empleados recurran a herramientas de IA para responder. Aunque muchos usuarios son conscientes de que están cruzando una línea ética, lo hacen por su fácil acceso, por la rapidez de las respuestas y, sobre todo, porque perciben que no serán detectados.
Esta tendencia no sólo afecta al ámbito académico. También pone en riesgo procesos clave en empresas e instituciones, como contrataciones, promociones o certificaciones. Si no se puede saber quién realmente domina un tema, se compromete la calidad de decisiones futuras.
Las propuestas
Ante este panorama, Lexium sugiere una serie de acciones para preservar la integridad de las evaluaciones:
- Uso de plataformas seguras que limiten la navegación durante las pruebas.
- Videovigilancia activa para monitorear la realización de exámenes en línea.
- Sistemas que detecten comportamientos anómalos o sospechosos.
- Replanteamiento del diseño de las pruebas, favoreciendo evaluaciones más estratégicas.
- Y, si es necesario, volver a evaluaciones presenciales bajo control riguroso.
Estas medidas, afirman, no buscan obstaculizar el avance tecnológico, sino asegurar que la IA no sustituya el pensamiento crítico, la comprensión profunda y la responsabilidad personal.
No es solo un tema académico
En el entorno laboral, las consecuencias pueden ser igual de graves. Empresas que utilizan pruebas para contratar o promover talento corren el riesgo de basar sus decisiones en información poco confiable. Esto afecta no sólo la eficiencia operativa, sino también la reputación y credibilidad institucional.
Una decisión colectiva
“Evaluar no es llenar un formulario”, advierte Lexium. “Es afirmar que el conocimiento, el esfuerzo y la honestidad siguen siendo valores fundamentales”.
La firma concluye que, si bien la inteligencia artificial puede ser una aliada poderosa, el desafío es usarla de forma ética y consciente. La responsabilidad de mantener la integridad de las evaluaciones recae en instituciones, docentes, empresas y, sobre todo, en los propios usuarios.
Minerva Multimedios Noticias, opinión, reportajes, videos, Guadalajara informada