Q:
¿Por qué el sesgo automático es un problema en el aprendizaje automático?
UN:Esta pregunta se puede responder de dos maneras diferentes. Primero, ¿por qué es un problema de sesgo de máquina, como en, por qué existe en los procesos de aprendizaje automático?
El aprendizaje automático, aunque sofisticado y complejo, está limitado en cierta medida según los conjuntos de datos que utiliza. La construcción de los conjuntos de datos implica un sesgo inherente. Al igual que en los medios, donde las omisiones y las elecciones deliberadas de inclusión pueden mostrar un sesgo particular, en el aprendizaje automático, los conjuntos de datos que se utilizan deben examinarse para determinar qué tipo de sesgo existe.
Descarga gratuita: Aprendizaje automático y por qué es importante |
Por ejemplo, es un problema común que las pruebas de tecnología y los procesos de diseño muestren una preferencia por un tipo de usuario sobre otro. Un gran ejemplo es la disparidad de género en el mundo tecnológico.
¿Por qué esto hace una diferencia y por qué se aplica al aprendizaje automático?
Porque la falta de hembras existentes en un entorno de prueba puede conducir a una tecnología producida que sea menos fácil de usar para una audiencia femenina. La forma en que algunos expertos describen esto es que sin las pruebas femeninas existentes, el producto final puede no reconocer la entrada de las usuarias, puede que no tenga las herramientas para reconocer las identidades femeninas o tratar adecuadamente con las aportaciones de las mujeres.
Lo mismo es válido para diversas etnias, personas de diferentes religiones o cualquier otro tipo de demografía. Sin los datos correctos, los algoritmos de aprendizaje automático no funcionarán correctamente para un conjunto de usuarios determinado, por lo que los datos de inclusión deben agregarse deliberadamente a la tecnología. En lugar de simplemente tomar conjuntos de datos primarios y reforzar el sesgo inherente, los manipuladores humanos deben analizar realmente el problema.
Otro ejemplo es un motor de aprendizaje automático que toma información de trabajo y salario y arroja resultados. Si ese conjunto de datos inherentes no se analiza, la máquina reforzará el sesgo. Si percibe que los hombres ocupan la gran mayoría de los trabajos ejecutivos, y el proceso de aprendizaje automático implica filtrar a través del conjunto de datos sin procesar y devolver los resultados correspondientes, devolverá resultados que muestran un sesgo masculino.
La segunda parte de la pregunta implica por qué este sesgo es tan perjudicial. Sin una supervisión y pruebas adecuadas, las nuevas tecnologías pueden dañar, no ayudar, nuestro sentido de inclusión e igualdad. Si se lanza un nuevo producto tecnológico que reconoce rostros con piel más clara, pero no con piel más oscura, puede generar tensiones étnicas intensificadas y la sensación de que la empresa en cuestión no es sensible a la diversidad. Si un algoritmo de aprendizaje automático reproduce y aumenta el sesgo en los conjuntos de datos, esa inteligencia artificial agregará su voz a las voces y tendencias humanas que ya existen en el sistema social que favorecen a un grupo de personas sobre otro.
La mejor manera de lidiar con esto es observar de cerca los conjuntos de datos subyacentes, usar la selección de características, agregar entradas variables y manipular los conjuntos de datos sin procesar, y aumentar el poder real del aprendizaje automático con la elaboración deliberada de datos humanos, para obtener un resultado que ofrece un gran poder analítico, pero también algunas de esas ideas humanas que las computadoras aún no pueden replicar.