fbpx
Get In Touch
1201 3rd Avenue Seattle, WA 98101, US
(HQ) Av. Punto Sur 31, Tlajomulco de Zúñiga, Jal 45050, MX
Carrera 11B # 99 - 25, Btá, 110221, CO
Let's talk
hello@inmediatum.com
Ph: +1 (650) 603 0883
Sales attention M - F 9am - 5pm (CT)
Get support
Careers
Endless inspiration and meaningful work
See open positions
Back

Diseño de aplicaciones con inteligencia artificial para personas con discapacidades

Las aplicaciones con inteligencia artificial deben tener en cuenta a todos. A medida que la inteligencia artificial se vuelve omnipresente, han surgido casos de prejuicio racial o de género de alto perfil. La discriminación contra las personas con discapacidad es un problema de larga data en la sociedad. La tecnología podría reducirlo o exacerbarlo.

Los desarrolladores tenemos la responsabilidad, como creadores de tecnología, de garantizar que nuestras tecnologías reflejen nuestros valores y den forma a la vida y la sociedad para mejor. Participamos en el Grupo de expertos de alto nivel de la Comisión Europea sobre IA y su Lista de evaluación para IA fiable (ALTAI). La ALTAI proporciona una lista de verificación de preguntas para que las organizaciones las consideren al desarrollar e implementar sistemas de inteligencia artificial, y enfatiza la importancia del acceso y el trato justo, independientemente de las habilidades o formas de interacción de una persona.

A menudo, los desafíos a la equidad para las personas con discapacidades provienen de la incapacidad humana para considerar completamente la diversidad al diseñar, probar e implementar sistemas. Los procesos estandarizados como el sistema de preselección de reclutamiento Para abordar este riesgo, debemos ofrecer formas de desarrollar aplicaciones con inteligencia artificial que traten a las personas con discapacidades de manera justa, incorporando la ética en el desarrollo de la inteligencia artificial desde el principio en nuestros “Seis pasos para la equidad”. Finalmente, presentamos consideraciones para los legisladores sobre el equilibrio de la innovación, la inclusión y la equidad en presencia de tecnologías basadas en IA que avanzan rápidamente.

¿CÓMO HACER JUSTICIA?

Identificar riesgos. ¿Quiénes podrían verse afectados por la aplicación propuesta?

¿Es esta un área en la que las personas con discapacidad históricamente han experimentado discriminación? Si es así, ¿puede el proyecto mejorar el pasado? Identifique qué resultados específicos debería haber, de modo que se puedan verificar a medida que avanza el proyecto.

¿Qué grupos de personas podrían no ser capaces de proporcionar los datos de entrada esperados (por ejemplo, un discurso claro) o tener datos que se ven diferentes (por ejemplo, usar lenguaje de señas, usar una silla de ruedas)? ¿Cómo serían acomodados?

Considere si algunos datos de entrada pueden ser sustitutos de la discapacidad.
Involucrar a las partes interesadas. Una vez identificados los grupos potencialmente afectados, involúcrelos en el proceso de diseño. Los enfoques para desarrollar aplicaciones con inteligencia artificial éticas para personas con discapacidad incluyen buscar activamente la participación continua de un conjunto diverso de partes interesadas AI) y una diversidad de datos con los que trabajar. Puede resultar útil definir un conjunto de individuos “atípicos” e incluirlos en el equipo, siguiendo un método de diseño inclusivo. Estos “valores atípicos” son personas cuyos datos pueden verse muy diferentes de los datos de la persona promedio. Lo que define un valor atípico depende de la aplicación. Por ejemplo, en el reconocimiento de voz, podría ser una persona con tartamudeo o una persona con habla lenta y arrastrada. Los valores atípicos también son personas que pertenecen a un grupo, pero cuyos datos se ven diferentes.

Defina lo que significa que esta aplicación sea “justa”. En muchas jurisdicciones, el trato justo significa que el proceso que utiliza la aplicación permite a las personas con discapacidades competir por sus méritos, con adaptaciones razonables. Decida cómo se medirá la imparcialidad para la aplicación en sí, y también para cualquier modelo de IA utilizado en la aplicación. Si se identifican diferentes grupos de habilidades en los datos, se pueden aplicar pruebas de equidad de grupo al modelo. Estas pruebas miden la equidad comparando resultados entre grupos. Si la diferencia entre los grupos está por debajo de un umbral, la aplicación se considera justa. Si no se conoce la pertenencia a un grupo, se pueden utilizar métricas de equidad individual para probar si las personas “similares” reciben resultados similares. Con las partes interesadas clave, defina la métrica para el proyecto en su conjunto, incluidas las adaptaciones, y utilice personas diversas para las pruebas.
x

Pruebe el sesgo del modelo y mitíguelo.

Desarrollar un plan para abordar el sesgo en la fuente de datos a fin de evitar que se perpetúe el trato discriminatorio previo. Esto podría incluir aumentar la representación de las personas con discapacidades, ajustar el sesgo contra grupos específicos de discapacidades o señalar las brechas en la cobertura de datos para que los límites del modelo resultante sean explícitos.

El sesgo puede aparecer en cualquier etapa del proceso de aprendizaje automático. Siempre que sea posible, utilice herramientas para detectar y mitigar el sesgo durante el desarrollo. Ofrecer muchos métodos estadísticos diferentes para evaluar la equidad. Estos métodos requieren que los atributos protegidos, como el estado de discapacidad, estén bien definidos en los datos. Esto podría aplicarse dentro de las grandes organizaciones cuando se examinan las prácticas de promoción en busca de equidad, por ejemplo.

Pruebe con valores atípicos, utilizando los aportes de las partes interesadas clave.

En la contratación y otros contextos en los que no se dispone de información sobre la discapacidad de los candidatos, los enfoques estadísticos de la equidad son menos aplicables. Las pruebas son esenciales para comprender qué tan sólida es la solución para las personas atípicas. Mida en función de las métricas de equidad definidas anteriormente para garantizar que la solución general sea aceptable.

Cree soluciones accesibles.

Diseñe, cree y pruebe las aplicaciones con inteligencia artificial para que la puedan utilizar personas con capacidades diversas y para respaldar las adaptaciones de las personas.

Este artículo puede interesarle Gestión de procesos empresariales: ¿Qué es y cuáles tipos hay?

Carla Serrato
Carla Serrato
Especialista en ciencias sociales y de comportamiento. Carla no solo asesora a nuestro departamento de UX en INMEDIATUM sino que su investigación permite optimizar nuestros algoritmos de inteligencia artificial como para la prevención de riesgo crediticio, genera mejor adherencia a tratamientos médicos, reconocimiento facial para identificar rasgos de la personalidad entre otros.

We use cookies to give you the best experience. Cookie Policy