Jajajajaja supongo que esa IA sería fulminantemente despedida! Lo cierto es que eso ocurre por los datos de entrenamiento y por correlación de atributos no pq exista un sesgo real. En resumen la IA no estaba entrenada para dar esa respuesta y tiró de probabilidad y asociación para "interpretarla"
#4 lo del sesgo es una asunción nuestra. Un científico de datos que sólo dispone de un set de varias empresas occidentales en más que la mayoría de empleados son blancos va a producir esos datos,sobretodo si su target es otro.
Si su objetivo es construir imágenes de CV automatizadas por ejemplo tratará de conseguir datos con la suficiente variabilidad racial para que la IA lo pueda interpretar como un factor que no debe modificarse, pero sí su vestuario ambiente y gesto. No es fácil explicar un ejemplo pero espero se entienda.
#4 Todos los datos que produce el ser humano expresan sesgos, en base ha ello no hay ninguna en el mundo que pueda hacerlo sin sesgos. Define un poco más , que quieres decir con esa frase? Crees que la empresa era racista?
#3 la corrección profesional de fotografías se ha de hacer con mucho cuidado, entre otras cosas para no cambiarle el color de la piel al/la modelo, y está claro que esta IA no lo sabe hacer.
*
*
Si su objetivo es construir imágenes de CV automatizadas por ejemplo tratará de conseguir datos con la suficiente variabilidad racial para que la IA lo pueda interpretar como un factor que no debe modificarse, pero sí su vestuario ambiente y gesto. No es fácil explicar un ejemplo pero espero se entienda.
*
*