DOJ advierte que el uso indebido de herramientas de contratación algorítmica puede violar las leyes de accesibilidad - TechCrunch


Las herramientas de inteligencia artificial para el proceso de contratación se han convertido en una categoría candente, pero el Departamento de Justicia advierte que el uso descuidado de estos procesos podría resultar en violaciones de las leyes estadounidenses que protegen la igualdad de acceso para las personas con discapacidades. Si su empresa utiliza la clasificación algorítmica, el seguimiento facial u otros métodos de alta tecnología para clasificar y calificar a los solicitantes, debe observar más de cerca lo que están haciendo.

La Comisión de Igualdad de Oportunidades del departamento, que supervisa y asesora sobre tendencias y políticas de la industria sobre temas homónimos, ha emitido una guía sobre cómo las empresas pueden usar de manera segura herramientas basadas en algoritmos sin correr el riesgo de la exclusión sistemática de personas con discapacidades.

“Las nuevas tecnologías no deben convertirse en nuevas formas de discriminación. Cuando los empleadores saben cómo la IA y otras tecnologías pueden discriminar a las personas con discapacidades, pueden tomar medidas para prevenirlo”, dijo la presidenta de la EEOC, Charlotte A. Burrows, en el comunicado de prensa que anuncia la guía.

El punto general de la guía es pensar detenidamente (y obtener la opinión de los grupos afectados) sobre si estos filtros, pruebas, métricas, etc. miden cualidades o cantidades que son relevantes para realizar el trabajo. Ofrecen algunos ejemplos:

  • Un solicitante con una discapacidad visual debe completar una prueba o tarea con un componente visual para calificar para una entrevista, p. B. un juego para calificar. Si el trabajo no tiene un componente visual, los solicitantes ciegos serán injustamente excluidos.
  • Un evaluador de chatbot hace preguntas mal redactadas o mal diseñadas, p. B. si una persona puede permanecer de pie durante varias horas a la vez, con respuestas "No" que descalifican al solicitante. Una persona en silla de ruedas sin duda podría hacer muchos de los trabajos que algunos harían simplemente sentado.
  • Un servicio de análisis de currículum basado en inteligencia artificial degrada una solicitud en función de una brecha laboral, pero esa brecha puede deberse a una discapacidad o condición que no es razonable penalizar.
  • Un evaluador automatizado basado en la voz requiere que los solicitantes respondan preguntas o problemas de prueba. Por supuesto, las personas sordas y con problemas de audición, así como las personas con trastornos del habla están excluidas de esto. Si el trabajo no involucra mucho discurso, entonces esto es inapropiado.
  • Un algoritmo de reconocimiento facial evalúa las emociones de una persona durante una entrevista en video. Pero la persona es neurodivergente o tiene parálisis facial a causa de un derrame cerebral; Tus valores serán atípicos.

Esto no quiere decir que ninguna de estas herramientas o métodos sean incorrectos o inherentemente discriminatorios de una manera que viole la ley. Sin embargo, las empresas que los utilizan deben reconocer sus limitaciones y tomar precauciones razonables en caso de que un algoritmo, un modelo de aprendizaje automático u otro proceso automatizado no sea adecuado para su uso con un candidato en particular.

Tener alternativas accesibles es parte de ello, pero también hacer que el proceso de contratación sea transparente y explicar con anticipación qué habilidades se evaluarán y cómo. Las personas con discapacidades son las más indicadas para evaluar cuáles son sus necesidades y qué adaptaciones, si las hubiere, solicitar.

Si una empresa falla o no proporciona adaptaciones razonables para estos procesos, y sí, eso incluye procesos diseñados y operados por terceros, puede ser demandada o responsabilizarse por esa falla.

Como de costumbre, cuanto antes se plantee algo así, mejor; Si su empresa aún no ha consultado a un experto en accesibilidad sobre temas como contratación, acceso a sitios web y aplicaciones, y herramientas y políticas internas, entonces debería hacerlo.

Mientras tanto, puede leer la guía completa del DOJ aquí, con una versión resumida dirigida a los trabajadores que pueden sentirse discriminados aquí y, por alguna razón, aquí hay otra versión resumida de la guía.

Si quieres conocer otros artículos parecidos a DOJ advierte que el uso indebido de herramientas de contratación algorítmica puede violar las leyes de accesibilidad - TechCrunch puedes visitar la categoría Noticias.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir