La ética en relación con la IA

La Inteligencia Artificial tiene un enorme potencial de aplicación en multitud de sectores, y para realizar las tareas más variopintas. No hablamos de inteligencia generalista, sino de inteligencia específica para tareas muy concretas.

La IA tiene la capacidad de mejorar los procesos industriales hasta límites insospechados, contribuye a diseñar nuevos medicamentos o realizar evaluaciones de solvencia, por ejemplo, en los bancos. Pero queda mucho camino que recorrer para llegar a conocer máquinas con inteligencia generalista, si es que llegamos a verlas algún día.

Una área crítica relacionada con la inteligencia artificial tiene que ver con la ética. En concreto, pueden darse casos en los que los sistemas de IA acaben teniendo comportamientos incorrectos desde el punto de vista ético, por ejemplo por un uso inapropiado en relación con la privacidad de los usuarios o por la utilización sin supervisión de ciertas aplicaciones.

Un caso relativamente famoso lo tenemos con el bot de Twitter que lanzó Microsoft en 2016. Este software, Tay, fue diseñado para mantener conversaciones informales y divertidas en las redes sociales. A las pocas horas de funcionamiento en abierto, Tay emitía comentarios xenófobos y racistas, sexistas, homófobos e incluso afines a Hitler (defendiendo el Holocausto).

Duró apenas dos días online. El bot estaba programado para mantener conversaciones personalizadas con los demás usuarios y responder basándose en la información que recopilaba a medida que interactuaban. Posiblemente, eso influyó en los resultados y algunos usuarios de la red social pudieron influir en los comentarios del bot.

¿Cuáles son los debates éticos relacionados con la IA?

Un artículo titulado «Ética de la inteligencia artificial y la robótica», de Vincent Müller, de la Universidad de Standford, señala los principales debates éticos de la inteligencia artificial. Son los siguientes:

  1. Vigilancia y seguridad. Es necesario definir los límites de la privacidad, quiénes son responsables de las acciones y proteger el derecho a la intimidad de las personas.
  2. Manipulación del comportamiento, por ejemplo, la creación de vídeos e imágenes falsas (deepfake) para manipular al público.
  3. Sesgos en la toma de decisiones. Es imprescindible garantizar que los algoritmos son entrenados sin ningún tipo de sesgo.
  4. Opacidad de los sistemas. Cuanta más transparencia, mejor se evitan los sesgos en los patrones de comportamiento de la IA.
  5. Interacción entre humanos y máquinas. Es un punto caliente porque la propia interacción plantea multitud de dudas. Por ejemplo, la IA puede utilizarse para manipular a los humanos para que crean y hagan cosas.
  6. Empleo y automatización. Se refiere al hecho de que la IA va a destruir muchos empleos, a la vez que creará otros nuevos.
  7. Grados de autonomía de la IA. Se refiere a cuánta autonomía estamos dispuestos a otorgar a las máquinas: ¿qué decisiones queremos que tomen? ¿Quién se hará responsable de ellas?

La ética con respecto a la IA tiene cuatro componentes principales, que son la privacidad; el sesgo; la transparencia; y el impacto en la organización. Son verdaderos retos que para los humanos son sencillos de entender y de aplicar, pero que implementarlos en una IA es de una complejidad asombrosa.

Para un sistema de IA, ¿qué es la transparencia? ¿Qué le «importa» la privacidad? ¿Cómo asume un sesgo? Todos estos conceptos son humanos y traducirlos en instrucciones entendibles por un software es extremadamente complejo. De hecho, examinemos el caso del sesgo. Detectamos el sesgo con los resultados (la salida del robot), pero el origen del problema está en los datos con los que se entrena a la IA. ¡O antes!

A menudo se responsabiliza a los datos de entrenamiento como los responsables del sesgo algorítmico, pero este puede aparecer mucho antes de que los datos se recopilen, así como en otras etapas del proceso. Esto es así porque los datos producen sesgos por dos vías: o bien los datos recopilados no son representativos; o bien reflejan prejuicios ya existentes.

El problema de la ética y la IA es complejo, y si no se tienen en cuenta los cuatro pilares que comentamos, la credibilidad y la confiabilidad en los sistemas de IA en la organización quedan en entredicho. Ética e IA, una relación necesaria. Veremos los retos éticos de los sistemas de IA y su razón de ser.

La copia de seguridad que necesitas para tus dispositivos, tus proyectos y tus datos
Accede a tus archivos desde cualquier dispositivo y lugar de forma segura
pack
10 GB
GRATIS
Consigue tu backup ahora