Carlos Guadián

Comunicación Digital

Formación

Data Analysis

Análisis de Redes Sociales (ARS)

Creación de contenidos

Desarrollo Web (Wordpress)

Transformación Digital

Carlos Guadián

Comunicación Digital

Formación

Data Analysis

Análisis de Redes Sociales (ARS)

Creación de contenidos

Desarrollo Web (Wordpress)

Transformación Digital

CluPad

La IA no es artificial ni inteligente

La IA no es artificial ni inteligente

La Inteligencia Artificial para muchos es el Grial de la tecnología que todo lo puede. Decir que un producto o un servicio están basados en IA es un hype – está de moda – que en muchas ocasiones es un fake, pero un fake que vende. Los que me leéis ya sabéis que soy un entusiasta de la tecnología, que trasteo lo que puedo para estar al día, pero también que mantengo mis reticencias a dejarlo todo en manos de unos algoritmos.

Suscríbete a CluPad

Hoy os traigo un extracto de una entrevista realizada por The Guardian a Kate Crawford. Kate es una escritora, compositora, productora, académica y la investigadora principal en Microsoft Research.

Crawford estudia las implicaciones sociales y políticas de la inteligencia artificial y en su nuevo libro, Atlas of AI, analiza esta tecnología y lo que está en juego a medida que se transforma nuestro mundo gracias a ella.

¿Qué debería saber la gente sobre cómo se fabrican los productos de IA?

No estamos acostumbrados a pensar en estos sistemas en términos de costes medioambientales. Pero decir: “Oye, Alexa, pídeme unos rollos de papel higiénico” invoca una cadena de extracción, que recorre todo el planeta…

Tenemos un largo camino por recorrer antes de que sea una tecnología verde. Además, los sistemas pueden parecer automatizados, pero cuando retiramos la cortina vemos grandes cantidades de mano de obra mal pagada, desde el trabajo en masa que categoriza los datos hasta el interminable trabajo de gestionar las cajas de Amazon.

La IA no es artificial ni inteligente. Está hecha de recursos naturales y son las personas las que realizan las tareas para que los sistemas parezcan autónomos.

Los problemas de sesgo han sido bien documentados en la IA. ¿Pueden solucionarse con más datos?

Sesgo es un término demasiado estrecho para el tipo de problema del que hablamos. Una y otra vez, vemos que estos sistemas cometen errores -los algoritmos que ofrecen menos crédito a las mujeres, los rostros negros mal etiquetados- y la respuesta ha sido: “Necesitamos más datos, solo necesitamos más datos”.

TE PUEDE INTERESAR:  Artificial Intelligence, Strategic Communicators and Activism

Pero he analizado estas lógicas de clasificación y se empiezan a ver formas de discriminación, no solo cuando se aplican los sistemas, sino en cómo se construyen y se entrenan para ver el mundo.

Los conjuntos de datos de entrenamiento utilizados para el software de aprendizaje automático que casualmente clasifican a las personas en uno de los dos géneros; que etiquetan a las personas según su color de piel en una de las cinco categorías raciales, y que intentan, basándose en el aspecto de las personas, asignarles un carácter moral o ético.

La idea de que se pueden hacer estas determinaciones basándose en la apariencia tiene un pasado oscuro y, por desgracia, la política de clasificación se ha incorporado a los sustratos de la IA.

¿A qué se refiere cuando dice que debemos centrarnos menos en la ética de la IA y más en el poder?

La ética es necesaria, pero no suficiente. Son más útiles preguntas como ¿quién se beneficia y quién se perjudica con este sistema de IA? ¿Pone el poder en manos de los ya poderosos? Lo que vemos una y otra vez, desde el reconocimiento facial hasta el seguimiento y la vigilancia en los lugares de trabajo, es que estos sistemas están dando poder a instituciones ya poderosas: corporaciones, militares y policías.

¿Qué se necesita para mejorar las cosas?

Unos regímenes reguladores mucho más fuertes y un mayor rigor y responsabilidad en torno a cómo se construyen los conjuntos de datos de formación. También necesitamos voces diferentes en estos debates, que incluyan a personas que ven y viven las desventajas de estos sistemas. Y necesitamos una política renovada de rechazo que ponga en tela de juicio la idea de que solo porque se pueda construir una tecnología se debe desplegar.

No dejéis de leer el resto de la entrevista, vale la pena. Y por su puesto apuntaros el libro que promete…

Taggs: