Michael Nevradakis.- Los padres y estudiantes están cada vez más preocupados por el uso de tecnologías de inteligencia artificial (IA) en el aula, especialmente la tecnología de reconocimiento facial, según una encuesta del Centro para la Democracia y la Tecnología (CDT).
El informe CDT, publicado el 12 de diciembre, encontró que más de la mitad de los padres y estudiantes encuestados estaban preocupados por el uso del reconocimiento facial y otras tecnologías de inteligencia artificial , incluidos los sistemas de seguimiento de ubicación, en las escuelas.
Los docentes, que también fueron encuestados, mostraron un mayor grado de aceptación de las tecnologías.
Según el informe, un número creciente de escuelas han implementado este tipo de herramientas.
Los defensores de las tecnologías argumentan que pueden ayudar a proteger los entornos escolares de amenazas violentas, como los tiradores escolares.
Los defensores de la privacidad argumentan que no se ha demostrado que las tecnologías que representan un riesgo para la privacidad y los datos personales de los estudiantes aumenten la seguridad escolar .
‘Profunda desconexión entre escuelas, padres y estudiantes’
Según CDT, “se están utilizando herramientas de seguridad experimentales y potencialmente dañinas independientemente de las preocupaciones de los estudiantes y los padres”, incluidas tecnologías que “anteriormente pensábamos que eran ‘demasiado extravagantes’”.
Estos incluyen análisis predictivos , supervisión remota , reconocimiento facial , intercambio de datos policiales , sistemas de detección de armas y seguimiento de la ubicación de los estudiantes .
Impulsadas por la IA, estas tecnologías “se están expandiendo en las escuelas para responder a los tiroteos masivos, la crisis de salud mental de los jóvenes y otras amenazas a la seguridad siempre presentes para el personal y los estudiantes”, dijo CDT, una tendencia “alarmante” que las escuelas continúan implementando. de tales tecnologías a pesar de los “altos niveles de preocupación” de padres y estudiantes.
Estos “altos niveles de preocupación” fueron evidentes en los resultados de la encuesta que mostraron:
– El 58% de los padres y el 55% de los estudiantes (y el 33% de los profesores) estaban preocupados por el uso de cámaras de reconocimiento facial para comprobar a quién se le debe permitir entrar en un edificio escolar o quién está autorizado a estar allí.
– El 71% de los padres y el 74% de los estudiantes (y el 36% de los profesores) expresaron su preocupación por el uso de este tipo de tecnologías para rastrear la ubicación física de los estudiantes.
– El 60% de los padres y el 58% de los estudiantes (y el 31% de los profesores) estaban preocupados por el uso de cámaras de IA “para notar movimientos físicos inusuales o irregulares”.
– El 55% de los padres y el 45% de los estudiantes (y el 27% de los profesores) expresaron su preocupación por el uso de este tipo de tecnologías para detectar disparos en los terrenos escolares.
– Al 69% de los estudiantes y padres (y al 36% de los maestros) les preocupaba que los datos de los estudiantes se estuvieran analizando para predecir qué estudiantes individuales tendrían más probabilidades de cometer un delito, un acto violento o un acto de autolesión.
– El 66% de los padres y el 65% de los estudiantes (y el 38% de los maestros) expresaron su preocupación por la posibilidad de que la información académica de los estudiantes, como sus calificaciones y registros de asistencia, pueda compartirse con las autoridades.
– El 68% de los padres y el 71% de los estudiantes (y el 37% de los profesores) estaban preocupados por el uso de dichas tecnologías para monitorear las cuentas de redes sociales de los estudiantes.
Estos resultados muestran “una profunda desconexión entre las escuelas, los padres y los estudiantes en sus prioridades cuando se trata de decisiones de adquisición de tecnología educativa [datos y tecnología educativos]”, escribió CDT.
Escuelas que utilizan fondos de recuperación de COVID para comprar tecnologías de vigilancia
La encuesta se basa en un informe CDT , publicado en septiembre, sobre herramientas de tecnología educativa que realizan filtrado y bloqueo de contenidos, seguimiento de la actividad de los estudiantes o que utilizan IA generativa.
Según ese informe, la pandemia de COVID-19 ayudó a acelerar la adopción de este tipo de tecnologías en los entornos escolares, un avance que CDT considera críticamente.
“El uso de software de seguimiento de la actividad de los estudiantes se expandió rápidamente durante el aprendizaje remoto y ha mantenido una presencia significativa en la vida de los estudiantes. Desafortunadamente,o continúa perjudicando a los estudiantes a los que pretende ayudar”, dice el informe.
Según el informe, esos daños van desde acciones disciplinarias hasta sacar a los estudiantes a la calle sin su consentimiento e iniciar contacto con las autoridades.
El informe también incluyó datos que indican que el 88% de los maestros informaron que sus escuelas usan software de monitoreo de la actividad estudiantil, el 40% de los maestros reportaron que sus escuelas monitorean los dispositivos personales de los estudiantes y el 38% de los maestros reportaron que su escuela monitorea a los estudiantes fuera del horario escolar, aunque En particular, hubo una disminución de 9 puntos porcentuales en esta métrica con respecto al año escolar 2021-22.
Kenneth Trump, presidente de los Servicios Nacionales de Seguridad Escolar, dijo a Education Week en octubre: “Las escuelas han estado utilizando los fondos de recuperación de COVID para comprar equipos y hardware de seguridad”.
Las empresas de tecnología han “amplificado” la comercialización de estos productos en los distritos escolares en los últimos años, según Trump, quien dijo que las compras “se han utilizado para resolver problemas de relaciones políticas y comunitarias, no tanto problemas de seguridad escolar”.
“Cuando hay uso o confiscación de armas en el campus, vemos a las juntas escolares y a los superintendentes tomar decisiones instintivas y aprovechar las necesidades de seguridad emocional de los padres y el personal”, añadió Trump .
En un ejemplo del Reino Unido, Sky News informó en octubre de 2021 que 27 escuelas habían comenzado a utilizar un sistema de reconocimiento facial para servir el almuerzo a los estudiantes y 15 más estaban listas para implementar la tecnología, una medida supuestamente destinada a reducir el riesgo de COVID-19. 19 transmisión.
Sky News informó que los padres y activistas “advirtieron que esto normalizaba la exposición de los niños a la vigilancia biométrica y se quejaron de que no estaban seguros de que los estudiantes estuvieran adecuadamente informados sobre el riesgo a la privacidad”.
Y a pesar de los altos niveles de consentimiento de los padres, Sky News informó en ese momento que los defensores de la privacidad de los niños Jen Persson y Pippa King dijeron al Comisionado de la Infancia de Escocia: “Una alta aceptación no debe confundirse con consentimiento”, señalando que los formularios de consentimiento proporcionados a los padres hacían aceptación. parece obligatorio.
Tales quejas llevaron a la Oficina del Comisionado de Información , el organismo de control de datos del Reino Unido, a investigar. El Consejo de North Ayrshire de Escocia detuvo el lanzamiento de la tecnología, mientras que la Cámara de los Lores británica debatió la cuestión en noviembre de 2021.
Greg Glaser , un litigante con sede en California para las iniciativas de privacidad de Children Health Defense, dijo a The Defender que “Durante la era Covidiana de máscaras y encierros, los padres presenciaron una normalización forzada de las aulas de Zoom, pero Zoom no fue la única tecnología que se normalizó entre los jóvenes. .”
Glaser añadió:
“Esto no es sorprendente para las escuelas públicas. La burocracia no está organizada para remediar los problemas de raíz de la sociedad, sino para tratar los síntomas. Nada mejorará realmente en las escuelas públicas hasta que la sociedad decida aprender la lección más profunda: por qué los niños fracasan en un sistema diseñado para fracasar. ¿Por qué el sistema fue diseñado para dañar a los niños?
“Mientras tanto, la industria educativa multimillonaria que se beneficia de ‘luchar’ contra el fracaso seguirá ofreciendo sus supuestas soluciones. Es todo tan aburrido: puedes detectar el problema a un kilómetro de distancia”.
Preocupaciones por los ‘efectos escalofriantes’ de las tecnologías de reconocimiento facial en las escuelas
Según CDT , las tecnologías utilizadas “en nombre de la seguridad de los estudiantes” plantean capacidades por las que los líderes educativos y los formuladores de políticas deberían preocuparse.
Estos incluyen una falta de eficacia y precisión, como limitaciones técnicas, “falsos positivos” que podrían dar lugar a “medidas disciplinarias sin fundamento” dirigidas a los estudiantes y dificultades para auditar dichos sistemas.
Otro conjunto de preocupaciones, dijo CDT, son los “efectos paralizadores”. Según CDT, “Tener varias herramientas de tecnología de seguridad invasiva como parte habitual del entorno de aprendizaje de un estudiante puede hacer que los estudiantes se sientan menos seguros en el aula.
“Un seguimiento y vigilancia excesivos pueden paralizar el discurso, las asociaciones, el movimiento y el acceso a recursos vitales”, dijo CDT.
Estas preocupaciones se reflejaron en un artículo de 2020 publicado en Learning, Media and Technology por Mark Andrejevic, Ph.D. y Neil Selwyn, Ph.D. de la Universidad de Monash en Australia, según la cual dicha tecnología puede alterar “la naturaleza de las escuelas y la escolarización siguiendo líneas divisorias, autoritarias y opresivas”.
“El desafío clave que enfrentan ahora los educadores es si existe o no una perspectiva futura realista de remodelar de alguna manera estas tecnologías para propósitos más beneficiosos y/o benignos. Alternativamente, ¿es esta una forma de tecnología digital que no debería aplicarse ‘educativamente’ de ninguna forma? escribieron los autores.
Tim Hinchliffe , editor de The Sociable, dijo a The Defender: “El reconocimiento facial en las escuelas consiste en manipular el comportamiento y normaliza la vigilancia total desde una edad temprana”.
“En el aula, el reconocimiento facial les enseña a los niños que no tienen privacidad y que cualquier cosa que digan o hagan puede usarse y será usado en su contra. ¡Esto hace que sea más fácil para los gobiernos y las corporaciones controlar a las generaciones futuras porque se les está educando con la noción de que la privacidad no existe y que es mejor que hagan lo que les dicen o si no! añadió.
Hinchliffe citó un informe de “Good Morning America” de 2020 que mostraba un vídeo de una clase en línea de la escuela primaria Parkland en Texas. Cuando se cortó la conexión Zoom de un maestro de segundo grado, los estudiantes se portaron mal al principio, antes de darse cuenta de que la llamada todavía se estaba grabando.
“Los niños empezaron a portarse mal al principio, pero cuando un estudiante se dio cuenta de que todavía los estaban grabando, todos se conformaron por temor a tener problemas con el director. Es ese miedo lo que lo hace tan poderoso y hace que los niños se adapten”, dijo.
Chapa Lean Lau, Ph.D. , de la Facultad de Derecho Brunel de Londres, contó una conversación con su hija, quien, cuando se le preguntó si le preocuparía el uso de la tecnología de reconocimiento facial en la cafetería de su escuela, dijo: “En realidad, no. Sin embargo, haría las cosas mucho más rápidas en el proceso de pago”.
Según Lau, “sus palabras validan la preocupación de que los niños son mucho menos conscientes de sus derechos sobre los datos en comparación con los adultos”.
“A escala macro, una población que sabe que está siendo vigilada cambiará su comportamiento para ajustarse a las normas, y sus ciudadanos se controlarán a sí mismos”, dijo Hinchliffe.
El informe del CDT también abordó el impacto potencialmente desproporcionado de estas tecnologías contra categorías protegidas de estudiantes, la falta de recursos que muchas escuelas tienen para mantener y actualizar dichas tecnologías, mecanismos de gobernanza poco claros que supervisan el uso de estas tecnologías y riesgos de privacidad como las violaciones de datos.
Un hack de 2021 que afectó a Verkada , un desarrollador de tecnologías de seguridad basadas en la nube ampliamente utilizadas en las escuelas, expuso públicamente transmisiones en vivo de cámaras de vigilancia.
Irene Knapp, directora de tecnología de Internet Safety Labs, una organización sin fines de lucro , dijo a Education Week que las escuelas deben considerar cuidadosamente si desean asumir la responsabilidad de manejar y proteger los datos biométricos de los estudiantes .
Knapp dijo que es difícil saber si los datos recopilados por dichas tecnologías se comparten con terceros.
Según Education Week, “también existe el riesgo real de que la misión se desvíe”, ya que resulta “tentador” para las escuelas utilizar tecnología de vigilancia como el reconocimiento facial en formas para las que no estaba prevista originalmente, “como rastrear y multar a los padres que llegan tarde”. recoger a sus hijos de la escuela”.
Molly Kleinman, Ph.D. , director gerente del programa de Ciencia, Tecnología y Políticas Públicas de la Universidad de Michigan, dijo a Route Fifty en septiembre que sin regulaciones vigentes, las escuelas pueden usar dichas tecnologías para “tareas rutinarias” o pueden requerir reconocimiento facial para que los estudiantes inicien sesión. a computadoras y tabletas propiedad de la escuela.
Según Hinchliffe, “Incluso si el reconocimiento facial comienza en la entrada de las escuelas para verificar quién ingresa por las llamadas ‘razones de seguridad’, es sólo cuestión de tiempo antes de que ingrese al aula, y cuando lo haga, robará estudiantes de otra parte de su infancia, y a los niños ya no se les permitirá ser niños”.
“Desde el punto de vista de la ley de privacidad, las escuelas de vigilancia del gobierno se están exponiendo a responsabilidad en muchos niveles potenciales, ya que sus procedimientos de aceptación, si los hay, rutinariamente no cubrirán la realidad de lo que ellos y sus socios corporativos están haciendo”, dijo Glaser. dicho.
“Sólo se necesita una filtración de datos para activar los requisitos de notificación a los padres”, dijo Glaser. “Y cuando los procedimientos de seguridad no se siguen debidamente, eso significa demandas. Al menos, así es como fracasará el sistema diseñado para fallar”.
Estas preocupaciones no son nuevas. Ya en 2019, la revista Wired abordó la “ética delicada” de implementar tecnologías de inteligencia artificial en el aula.
Nueva York implementó prohibición de tecnologías de reconocimiento facial en las aulas
Fueron “preocupaciones tan serias en torno al uso de la tecnología de reconocimiento facial” que “no superan los supuestos beneficios” las que llevaron al estado de Nueva York a promulgar una prohibición de tales tecnologías en septiembre, prohibiendo a las escuelas “comprar o utilizar tecnología de reconocimiento facial”.
Esta determinación se tomó luego de la finalización de un análisis realizado por la Oficina de Servicios de Tecnología de la Información y en base a una investigación derivada de datos recopilados por la organización sin fines de lucro The Violence Prevention Project , que encontró que el 70% de los tiradores escolares entre 1980 y 2019 eran estudiantes actuales.
Un estudio de 2020 de la Universidad de Michigan sobre la tecnología de reconocimiento facial y sus impactos en el aula también influyó potencialmente en la decisión de Nueva York de imponer una prohibición.
Según el estudio, la tecnología de reconocimiento facial “probablemente tendrá cinco tipos de implicaciones: exacerbar el racismo, normalizar la vigilancia y erosionar la privacidad, reducir la definición de estudiante ‘aceptable’, mercantilizar los datos e institucionalizar la inexactitud”.
“Debido a que el FR [reconocimiento facial] está automatizado, extenderá estos efectos a más estudiantes que cualquier sistema manual”, añade el estudio. “Sobre la base de este análisis, recomendamos encarecidamente que se prohíba el uso de FR en las escuelas”.
El estudio también emitió una amplia gama de recomendaciones nacionales y locales para las escuelas que continuarían utilizando dichas tecnologías. CDT hizo recomendaciones similares junto con su informe del 12 de diciembre.
Y en 2019, Vox señaló que las escuelas estaban “utilizando cada vez más el reconocimiento facial para intentar detener los tiroteos ”, pero argumentó que “deberían pensárselo dos veces” sobre esta práctica.Su apoyo ayuda a financiar este trabajo y la promoción, educación e investigación científica relacionadas de CHD.
Los distritos escolares aún pueden optar por utilizar otros tipos de tecnologías biométricas, como las huellas digitales, según la nueva política de Nueva York.
Esto se produce a pesar de la “inmensa presión” que enfrentan los administradores escolares para proteger sus escuelas de la violencia armada y la amenaza de un tiroteo, según Education Week, que señaló que las tecnologías de reconocimiento facial y de armas impulsadas por IA “pueden ser una solución atractiva para las juntas escolares y superintendentes que buscan tranquilizar a los padres”.
Nueva York implementó una moratoria sobre el reconocimiento facial después de que los padres impugnaran legalmente la adopción de esta tecnología por parte del Distrito Escolar Central de Lockport en enero de 2020, según la revista Time .
“El distrito occidental de Nueva York fue uno de los primeros del país en incorporar la tecnología después de los mortales tiroteos masivos en escuelas que han llevado a los administradores de todo el país a adoptar medidas de seguridad que van desde vidrios a prueba de balas hasta guardias armados”, informó Time.
En 2020, dos escuelas secundarias de Francia que experimentaron con tecnología de reconocimiento facial fueron demandadas, lo que llevó a una decisión de un tribunal administrativo que prohibía la práctica.
Según la decisión , la implementación de la tecnología “no fue proporcionada ni necesaria”, el consentimiento de los estudiantes no se había obtenido libremente y, en su lugar, se podrían haber implementado medidas menos intrusivas en la privacidad.
Sin embargo, en otros lugares continúa el despliegue de este tipo de tecnologías. En agosto, Filadelfia anunció que introduciría drones propiedad del distrito “para patrullar áreas propensas a la violencia sin necesidad de policía sobre el terreno”.
Biometric Update informó en octubre de 2022 que las escuelas de Montana están utilizando tecnología de reconocimiento facial de Verkada “en un intento de mejorar la seguridad “. El distrito escolar de Sun River Valley, por ejemplo, alimenta su sistema de reconocimiento facial con “una lista de vigilancia del Departamento del Sheriff local, así como fotografías de los estudiantes del anuario”.
Según Hinchliffe, China está ampliando las capacidades de reconocimiento facial en sus escuelas “con IA y dispositivos portátiles, para incluir el reconocimiento de emociones y otros aspectos de comportamiento, para que puedan saber cuando un niño está molesto o cuando no está prestando atención”.
“Una vez más, el reconocimiento facial en las escuelas tiene que ver con manipular y controlar el comportamiento infundiendo miedo en el niño”, dijo Hinchliffe.
El abogado Richard Jaffe dijo a The Defender que hay espacio para el reconocimiento facial en las escuelas.
“La privacidad, como todos los derechos, no es absoluta y tiene que ceder el paso al… derecho de los estudiantes a estar seguros”.
“Especulo que la mayoría de los padres y casi todos los maestros y el personal aceptarán algunas infracciones relativamente menores a la privacidad para aumentar la seguridad de las escuelas. A falta de encerrar todas las escuelas vigiladas por un pelotón de policías SWAT armados con M16, la solución tiene que involucrar tecnología, y cada vez más involucrará inteligencia artificial y reconocimiento facial”, dijo.
“La mayoría aceptará esa compensación, y dudo mucho que los tribunales cuestionen los distritos escolares que emplean las medidas actualmente disponibles”, añadió Jaffe.
Forbes, en un artículo de febrero de 2023, también vio un lugar para las tecnologías de reconocimiento facial en las escuelas, calificándolas de “tecnología inteligente”, pero señalando su “ mala, mala, mala implementación ” y argumentando que hay “obstáculos que superar antes de que se pueda implementar el reconocimiento facial”. usado.”
Estos obstáculos incluyen “la investigación sobre los impactos en el bienestar y la ética del uso de la biometría en las escuelas”, garantizar que dichos sistemas “operativamente cumplan con los niveles más altos de protección de derechos” y garantizar que su uso sea “totalmente legal” sin “consecuencias no deseadas”.