Carlos Guadián
Your Partner

CluPad

Rechazado por una Inteligencia Artificial

Rechazado por una Inteligencia Artificial

Los procesos en los que se utiliza una inteligencia artificial son cada vez más habituales. Es omnipresente, a menudo incrustada de manera invisible en nuestras vidas. Desde la concesión de un crédito o una ayuda por parte de la administración, a un proceso de selección laboral.

CluPad es una publicación que cuenta con el respaldo de los lectores. Para recibir nuevos posts y apoyar mi trabajo, considera convertirte en un suscriptor gratis o de pago.

Suscríbete a CluPad

Hay diferentes tipos de inteligencia artificial. Hay IA’s no supervisadas, es decir, que trabajan de forma autónoma y también aquellas que necesitan la aprobación humana para tirar adelante una decisión. Los procesos de automatización suelen utilizar la primera. Es una manera fácil de descargar flujos de trabajo burocratizados. Pero estos algoritmos pueden tomar decisiones erróneas, decisiones que tengan un sesgo.

Los sesgos en la inteligencia artificial dependen de muchos factores:

  • Desde los datos que se utilicen en el entrenamiento. Estos pueden no ser representativos. Tanto a la hora de tomar a un solo grupo como un total. Hombres respecto de mujeres, blancos respecto de otras razas. Si solo entrenamos al algoritmo con uno de los grupos y no con el conjunto, seguro que sus decisiones serán discriminatorias.

  • Desde el lado de la programación. Cada equipo, cada programador tiene su propia perspectiva de las cosas, tiene su nivel de preferencias y en definitiva pueden imprimir un sesgo no voluntario en el código que están programando.

  • También desde el lado de su propia evolución. Esto quiere decir que una IA perfectamente programada, y con unos datos adecuados para su aprendizaje inicial, seguramente al aprender basándose en sus interacciones, acabaría adoptando algún sesgo de comportamiento.

Si tenemos en cuenta los sesgos más habituales, la inteligencia artificial puede ser discriminatoria en cuanto a género, perjudicar a las mujeres. Un caso constatado es la que utilizaba Amazon para la selección de personal y se descubrió que favorecía a los hombres a la hora de dar un puesto. Aquí uno de los factores que influyeron en la creación del sesgo fue la base de datos disponible.

La diversidad tampoco es su fuerte. Los casos en los que la población negra ha sido discriminada se pueden encontrar sin ningún problema. Aquí los problemas pueden venir desde el lado programación, al factor datos de entrenamiento. El caso es que, en muchas ocasiones, las inteligencias artificiales que emulan nuestro comportamiento acaban asumiendo alguno de los prejuicios que todo el mundo tiene.

Volvamos a su uso en los procesos de selección de personal. Ya hemos comentado el caso de Amazon que generaba discriminación de género. Hay que tener en cuenta que en determinado tipo de empresas ya es habitual que los procesos de selección tengan como protagonista una IA. El problema puede llegar si la decisión recae en el algoritmo y que esta sea inapelable, ya que lo que dice el asistente “va a misa”. Además si el algoritmo utilizado es de caja negra, es decir, que no es auditable el proceso de decisión llevado a cabo, peor todavía, porque no se puede saber exactamente el porqué de la decisión.

Pero saberse rechazado por una Inteligencia Artificial y no poder hacer nada puede suponer una sensación de impotencia que sería bueno evitar. Creo que la importancia del ser humano, de su contacto es imprescindible. Y no solo en procesos de selección de personal, en cualquier otro tipo de decisión que pueda afectarnos la vida. Ya que un algoritmo puede tomar una decisión, pero en ningún caso entenderla.

La pregunta que nos podemos hacer es ¿quién define la Inteligencia Artificial? La respuesta es compleja. La cultura de cada país puede influir claramente en como se moldea un algoritmo. Por ejemplo en Japón el cuto sintoísta siempre ha visto las máquinas como una ayuda, mientras que en Europa tenemos una clara influencia del mito Frankenstein. También son las empresas y los gobiernos los que acaban configurando como deben ser estos algoritmos, por lo tanto, tener una buena salud democrática debería garantizar una Inteligencia Artificial adecuada para todos.

El problema clave son las consecuencias éticas que se derivan de la toma de decisiones de una Inteligencia Artificial. Es la confianza que se genera en un ente que no es transparente, que no sabemos como toma las decisiones. Es la continuación de los sesgos que tenemos como sociedad y su intensificación.

La ciudadanía debe estar vigilante, la sociedad debe ser proactiva en la definición de la visión conjunta de la Inteligencia Artificial. El conocimiento necesario para entender todo lo que implica el uso de la IA debe estar al alcance de políticos y ciudadanos.

5 noticias que no debes dejar escapar

TE PUEDE INTERESAR:  Prepárate para la lucha contra los algoritmos
Taggs: