La Agencia Española de Protección de Datos (AEPD) ha emitido una resolución que prohíbe el uso de tecnologías de reconocimiento facial para la vigilancia de exámenes en línea. Esta decisión se fundamenta en que el tratamiento de datos biométricos, considerados de categoría especial, solo puede realizarse en circunstancias excepcionales con garantías adecuadas. La resolución surge tras una denuncia contra una universidad que impuso un sistema obligatorio de vigilancia con reconocimiento facial y doble cámara a su alumnado, sin ofrecer alternativas. Este sistema utilizaba inteligencia artificial para verificar en tiempo real la identidad del estudiante, así como para monitorizar su escritorio y entorno, lo que representaba altos riesgos para los derechos individuales. A pesar de que la universidad afirmó que los datos eran seudonimizados y eliminados rápidamente, la AEPD determinó que no se justifica su uso en el marco actual. La AEPD no descarta su uso futuro, pero exige una normativa específica que regule su aplicación bajo condiciones estrictas.
El empleo de herramientas de identificación facial en evaluaciones en línea se volvió común durante la pandemia, ya que numerosas universidades implementaron sistemas de supervisión a distancia para impedir trampas académicas. No obstante, la AEPD ya había señalado en 2021 que procesar datos biométricos en este ámbito carecía de justificación y sugirió a las academias que aplicaran acciones correctivas. Varias universidades han decidido dejar de lado estas herramientas, mientras que otras han recibido penalizaciones por su mal uso.
La AEPD ha enfatizado que el consentimiento de los estudiantes para implementar tecnologías de identificación facial es válido únicamente si se les presenta una opción alternativa equivalente en términos de duración y complejidad. Asimismo, si se decide fundamentar el reconocimiento facial en el interés general, sería necesaria una normativa de rango legal que lo autorice y proporcione garantías concretas para estos tratamientos. En este momento, no se dispone en el marco legal español de una normativa de estas características que autorice el uso de técnicas de identificación facial en los procedimientos de evaluación.
El tratamiento de datos biométricos puede poner en riesgo los derechos fundamentales de las personas y facilitar la obtención de otros datos personales y la suplantación de identidad. La mala gestión de estos sistemas puede tener implicaciones negativas, como la filtración de datos biométricos a criminales, lo que podría restringir derechos como la libertad de circulación o de expresión. Además, el uso incorrecto de estos datos puede implicar nuevas formas de discriminación, ya que permiten la categorización automática de las personas, con los consiguientes sesgos.