Carlos Guadián
Your Partner

CluPad

Qué no es Inteligencia Artificial y qué debería ser

febrero 28, 2020 CluPad, Tecnopolítica
Qué no es Inteligencia Artificial y qué debería ser

El artículo «What Artificial Intelligence Is Not» de Kate Klonick, explora varias ideas sobre lo que realmente es la inteligencia artificial y lo que no es. El artículo «What Artificial Intelligence Is Not» de Kate Klonick explora varias ideas sobre lo que no es Inteligencia Artificial y lo que es realmente.

CluPad es una publicación que cuenta con el respaldo de los lectores. Para recibir nuevos posts y apoyar mi trabajo, considera convertirte en un suscriptor gratis o de pago.

Suscríbete a CluPad

¿Qué no es Inteligencia Artificial?

Empecemos por lo que no es Inteligencia Artificial:

  1. La IA no es una cosa única: Klonick comienza desafiando la noción de que la IA es una entidad única y distinta. En lugar de ello, argumenta que la IA es un término que abarca una amplia gama de conceptos y tecnologías.
  2. La IA no es un algoritmo: Se destaca que los algoritmos son solo una parte de la IA. Aunque los algoritmos son fundamentales para muchos sistemas de IA, la IA abarca mucho más que solo algoritmos.
  3. La IA no es un modelo: Se explica que los modelos de IA, aunque son importantes para la creación de predicciones y conclusiones basadas en datos, no constituyen toda la IA. Se emplea el ejemplo del aprendizaje automático para ilustrar cómo los modelos pueden ser considerados como cajas negras, ya que pueden producir resultados sin proporcionar explicaciones claras sobre cómo se llegó a ellos.
  4. La IA no es solo robots: Si bien los robots son una manifestación física de la IA, la IA no se limita a los robots. Los robots son máquinas que realizan tareas automáticamente, pero la IA también puede existir en sistemas de software sin una forma física específica.
  5. La IA no es neutral: Se argumenta que la IA no es neutral, ya que está influenciada por los sesgos y las limitaciones de los humanos que la desarrollan. Los algoritmos de IA pueden reflejar los prejuicios de quienes los crean, lo que puede dar lugar a resultados injustos o discriminatorios.
  6. La IA no es la singularidad: Se menciona que la singularidad, un concepto futurista en el que la inteligencia de las máquinas supera a la humana, no es necesariamente un aspecto de la IA actual. Se sugiere que es más importante centrarse en los problemas actuales de la IA en lugar de preocuparse por eventos hipotéticos futuros.
  7. La IA no necesariamente importa: Se plantea la pregunta de si la distinción entre inteligencia artificial y natural realmente importa. Se cuestiona si el origen de una creación de IA afecta su valor o significado, y se sugiere que lo más relevante es cómo las personas interactúan con la IA y cómo la IA puede impactar en la sociedad.

¿Qué es Inteligencia Artificial?

Pero ¿Qué debería ser? A través del artículo se puede adivinar lo que es:

  1. Un campo multidisciplinario: La IA abarca una amplia gama de disciplinas, incluyendo la informática, las matemáticas, la ingeniería y la psicología, entre otras.
  2. Un conjunto de tecnologías y métodos: Incluye algoritmos, modelos de aprendizaje automático, procesamiento de lenguaje natural, visión por computadora y otros enfoques para simular la inteligencia humana en las máquinas.
  3. Capacidad para aprender y adaptarse: La IA tiene la capacidad de aprender de datos y experiencias pasadas para mejorar su desempeño en tareas específicas.
  4. Automatización de tareas: La IA se utiliza para automatizar tareas que de otro modo requerirían la intervención humana, como el análisis de datos, la toma de decisiones y la interacción con los usuarios.
  5. Potencial para influir en la sociedad: La IA tiene un impacto significativo en la sociedad, desde la automatización de empleos hasta el desarrollo de sistemas de recomendación y la toma de decisiones en campos como la medicina y el derecho.
TE PUEDE INTERESAR:  El futuro es el prompting automático: ¿Adiós a los "ingenieros de prompts"?

En resumen, la inteligencia artificial es un campo multidisciplinario que abarca una variedad de tecnologías y métodos para simular la inteligencia humana en las máquinas, con la capacidad de aprender, adaptarse y automatizar tareas, y con un impacto relevante en la sociedad.

¿Qué debería ser Inteligencia Artificial?

La verdadera pregunta no es sobre lo que es o no es inteligencia artificial, sino sobre lo que debería ser. En este sentido, Linda Kinstler en Protocol hace una interesante reflexión. Según ella, con la definición de qué ética se debería aplicar a la Inteligencia Artificial, tenemos un problema geopolítico:

«Cada nación quiere que su código de ética de la IA sea el que gane. Todos son escritos para apoyar una visión del mundo particular, y una idea particular de lo que es bueno»

Por ejemplo, los principios publicados por el Pentágono para el uso ético de IA en la guerra se adhieren a los siguientes principios:

  1. Responsable
  2. Equitativa
  3. Rastreable
  4. Fiable
  5. La #IA necesita la capacidad de detectar y evitar daños no intencionales

Lo que sí que queda claro es que los sesgos en Inteligencia Artificial son un problema. Tal como exponen en un artículo Karma Peiró y Ricardo Baeza-Yates:

«Los sistemas automatizados tienen sesgos que pueden convertir nuestra realidad en una burbuja de felicidad. Si no hacemos algo para cambiarlo, un día descubriremos que no sabremos distinguir la realidad de la ficción»

La solución que aportan para acabar con el sesgo de los algoritmos en su segundo artículo:

«Tener gente más formada y educada, con fundamentos para tomar decisiones»

Pero como dice en una entrevista Nerea Luis, hecha por Carlos del Castillo en eldiario.es por parte de las administraciones también se va a tener que adoptar un papel proactivo:

«Como usuarios tenemos que exigir que los sistemas de #IA que toman de decisiones críticas, expliquen cómo toma esa decisión su algoritmo. Se va a tener que legislar para proteger al usuario»

Desafíos éticos y geopolíticos en la IA

En última instancia, la discusión sobre la inteligencia artificial no se centra en definir lo que es o no es, sino en definir lo que debería ser. Esto plantea un desafío geopolítico, ya que cada nación busca establecer sus propios estándares éticos en este ámbito. Los principios éticos, como los establecidos por el Pentágono, son fundamentales para guiar el desarrollo y uso responsable de la inteligencia artificial, especialmente en contextos críticos como la guerra. Sin embargo, uno de los mayores desafíos es abordar los sesgos inherentes en los algoritmos de inteligencia artificial, que pueden distorsionar nuestra percepción de la realidad. Para combatir esto, se necesita una combinación de educación y conciencia por parte de los usuarios, así como regulaciones gubernamentales que protejan los derechos y la transparencia en el uso de la IA en la toma de decisiones críticas. En última instancia, el camino hacia una IA ética y equitativa requiere un esfuerzo conjunto tanto de los individuos como de las instituciones.

Taggs: