Los 3 principios de la construcción de una IA anti-sesgo Por qué su empresa necesita aplicar las mejores prácticas para eliminar el sesgo discriminatorio en sus sistemas de inteligencia artificial, y principios clave para aplicarlos.
Por Salil Pande Editado por Matt Scanlon
Este artículo fue traducido de nuestra edición en inglés.
Las opiniones expresadas por los colaboradores de Entrepreneur son personales
En abril de 2021, la Comisión Federal de Comercio de EE. UU., En su informe "Apuntando a la verdad, la justicia y la equidad en el uso de la IA por parte de su empresa" , emitió una advertencia clara a los actores de la industria tecnológica que emplean inteligencia artificial: "Hágase responsable o sea listo para que la FTC lo haga por usted ". Asimismo, la Comisión Europea ha propuesto nuevas reglas de IA para proteger a los ciudadanos de la discriminación basada en la IA. Estas advertencias y regulaciones inminentes están garantizadas.
El aprendizaje automático (ML), un tipo común de IA, imita patrones, actitudes y comportamientos que existen en nuestro mundo imperfecto y, como resultado, a menudo codifica sesgos inherentes y racismo sistémico. Los prejuicios inconscientes son particularmente difíciles de superar porque, por definición, existen sin la conciencia humana. Sin embargo, la IA también tiene el poder de hacer precisamente lo contrario: eliminar los prejuicios humanos inherentes e introducir una mayor justicia, equidad y oportunidades económicas para las personas a escala mundial. En pocas palabras, la IA tiene el potencial de democratizar verdaderamente el mundo.
La reputación de la IA por reflejar los prejuicios humanos
Así como un niño observa los alrededores, ve patrones y comportamientos y los imita, la IA es susceptible de reflejar los prejuicios humanos. Por lo tanto, las empresas de tecnología, como los padres, tienen la gran responsabilidad de garantizar que el pensamiento racista, sexista y prejuicioso no se perpetúe a través de las aplicaciones de inteligencia artificial.
Desafortunadamente, la reputación desagradable de AI a ese respecto se ha ganado con razón. Por ejemplo, en enero de 2021, todo el gobierno holandés renunció después de que se reveló que usaba un algoritmo sesgado para predecir qué ciudadanos serían más propensos a reclamar erróneamente beneficios por hijos, lo que obligó a 26,000 padres (muchos seleccionados debido a su doble nacionalidad) devolver los beneficios a la autoridad fiscal sin derecho a apelar.
Otra investigación, realizada por el Gender Shades Project (una organización sin fines de lucro centrada en la discriminación de género), encontró que el aprendizaje automático de reconocimiento facial es notoriamente malo para identificar con precisión a las personas de color. Algunos de los impactos de las aplicaciones asociadas han sido catastróficos, como identificar a una persona inocente como criminal en una fila virtual. En el verano de 2020, el jefe de policía de Detroit confesó que la tecnología de reconocimiento facial que usó su departamento identificó erróneamente a aproximadamente el 96% de los sospechosos, lo que llevó a que personas inocentes fueran identificadas como posibles delincuentes. Más recientemente, Amazon extendió su prohibición sobre el uso de su software de reconocimiento facial en la vigilancia debido a preocupaciones sobre la identificación racial errónea.
Relacionado: Estos emprendedores están asumiendo sesgos en la inteligencia artificial
Principios de la construcción de IA anti-sesgo
Pero no tiene por qué ser así. La IA se puede crear no solo para que sea imparcial, sino también para luchar contra las desigualdades relacionadas con la raza, el género, etc., e irónicamente, la única solución verdadera a los prejuicios en la IA es la intervención humana. Para ayudar a informar esta práctica, es clave tener un circuito de retroalimentación constante de críticas y comentarios de usuarios con diversos antecedentes, experiencias y demografía. Este método proporciona un efecto similar a una red, lo que permite a los desarrolladores ofrecer actualizaciones continuas a los algoritmos y las prácticas. Los desarrolladores que emplean principios y prácticas diligentes pueden garantizar que su tecnología sea imparcial y se pueda aplicar a una amplia gama de escenarios.
Algunos valores rectores hacia ese fin:
1. Diseñar procesos para desarrollar sistemas de IA / ML con la eliminación de sesgos en mente
Las empresas y los equipos que desarrollan sistemas de IA / ML deben comenzar por considerar el sesgo a lo largo del proceso de desarrollo y prueba de algoritmos, para asegurarse de que se minimice o elimine. Hay múltiples etapas en el desarrollo de sistemas de IA / ML, y el sesgo no debe ser una ocurrencia tardía; Los equipos deben comenzar por pensar en todos los posibles sesgos que podrían existir en lo que están construyendo y luego resolver el problema en cuanto a cómo se abordarán durante cada etapa del proceso. Para esto, es fundamental asegurarse de que dichos equipos sean diversos en su proceso de pensamiento, lo que ayuda a garantizar que la IA sea una colaboración de diferentes orígenes.
Relacionado: El caso de la IA transparente
2. Asegúrese de que los conjuntos de datos utilizados para enseñar algoritmos reflejen la verdadera diversidad (global) y no introduzcan sesgos involuntariamente
Al igual que con la importancia de tener un equipo diverso, garantizar que los datos y las entradas para la IA reflejen verdaderamente nuestro mundo diverso reprime los posibles sesgos contra los grupos individuales. La IA está diseñada para seguir las reglas establecidas para ella, por lo que debe entrenarse con datos no sesgados. Sin las consideraciones adecuadas durante la recopilación de datos y las etapas de preparación, los sesgos involuntarios pueden infiltrarse en los algoritmos, que luego pueden resultar costosos de eliminar, tanto desde la perspectiva del tiempo como del costo. Los datos de prueba de presión y la revisión de patrones ayudarán a los equipos a ver las consecuencias aparentes y no deseadas de los conjuntos de datos.
3. Garantizar un enfoque riguroso para eliminar los sesgos a lo largo del ciclo de vida del desarrollo.
No importa cuán cuidadoso o diverso sea su equipo o sus datos, los sesgos humanos aún pueden escaparse por las grietas, por lo que la siguiente tarea crítica es utilizar principios anti-sesgos para evitar que los sesgos humanos ingresen a la tecnología. Esto incluye asegurarse de que el ciclo de aprendizaje automático (preentrenamiento, entrenamiento y poscapacitación) sea monitoreado activamente para detectarlos. Esto se puede hacer generando alarmas para parámetros sensibles y creando expulsiones e inclusiones repetidas en los resultados. Otro aspecto importante para minimizar el sesgo a través de dichos procesos es definir métricas de equidad relevantes; no existe una definición universal de equidad, y hay muchas definiciones, cada una de las cuales ofrece una compensación diferente entre equidad y otros objetivos.
Relacionado: Descubra cómo el aprendizaje automático puede ayudar a su empresa
Frontera final
Finalmente, la investigación en curso sobre el problema del sesgo de proxy, es decir, la explicabilidad en los sistemas de IA, puede en última instancia llevar a la comunidad de IA / ML a construir sistemas libres de sesgos, o más bien, sistemas que pueden ser probados y responsabilizados por las decisiones que toman. Crear un mundo más equitativo no se trata solo de inteligencia artificial o innovación tecnológica. Si bien desempeñan un papel, el verdadero cambio puede y debe comenzar con cada uno de nosotros.