Cada vez se usa más inteligencia artificial, pero no toda es responsable

Innovación

La inteligencia artificial (IA) es una de las tecnologías más importantes del presente siglo, y no cabe duda de que va a transformar la sociedad. Para que este cambio social sea a mejor, es necesaria una inteligencia artificial responsable. Sin sesgos, útil para la ciudadanía y justa, entre otros factores clave.

¿Qué es la inteligencia artificial responsable?

La inteligencia artificial responsable es un tipo de IA que potencia valores deseados para la sociedad, tales como la equidad, la confiabilidad, la privacidad, la seguridad, la inclusión, la transparencia y la responsabilidad, entre otros. Estos son los factores que recoge Microsoft y, en líneas generales, la mayoría de los tratados por una IA responsable, aunque hay diferentes formas de ponderar.

Por ejemplo, mientras que para la Unión Europea la privacidad personal es una prioridad de la IA responsable, para Estados Unidos el crecimiento económico puntúa incluso más alto. Para China, la seguridad es lo más relevante. Al igual que no hay un único modelo de ‘ética’, tampoco existe uno de ‘responsabilidad’. Aunque el grueso de los factores mencionados en el anterior párrafo son comunes.

Además, la IA responsable varía según el sector en que se aplica. El nivel de transparencia, seguridad o rendición de cuentas no suele coincidir en ámbitos como educación, sanidad o defensa. Las pautas para la IA responsable del departamento de defensa de Estados Unidos no tienen por qué coincidir con los que se tomarán en el sistema sanitario del mismo país.

El origen de la inteligencia artificial responsable

Toda tecnología, desde el diseño del lapicero hasta la aplicación de la mecánica cuántica, tiene un impacto en la sociedad. Muchas de las tecnologías del pasado se desarrollaron sin ningún control sobre su ética o falta de la misma, y  el siglo XXI se caracteriza por una revisión de toda esta técnica. Por ejemplo, hoy se sabe que la tecnología de combustión ha de ser reducida tan pronto como se pueda.

Por su elevado potencial transformador, la inteligencia artificial es una de las tecnologías que más impacto tienen en la sociedad, tanto de forma positiva como negativa. La inteligencia artificial responsable nace como un mecanismo que evite los peores efectos y mejore las probabilidades de que estos sean positivos.

Cómo se diseña la inteligencia artificial responsable

Como la IA responsable no es un destino fijo y consensuado, tampoco existe una única hoja de ruta para su construcción. Dicho esto, sí hay algunos consensos y fases aceptados por la mayoría de los expertos.

  1. Idear con un propósito positivo de cara a la sociedad

Al diseñar la IA, esta ha de tener como objetivo un impacto positivo para la sociedad de base. Esto implica que ha de ser la solución a un problema de las personas sin convertirse en una dificultad para otras. Por ejemplo, esto ocurre en el modelo de ‘Arma de Destrucción Matemática’ del que habla Cathy O’Neil y que ha convertido inteligencias artificiales en apariencia útiles en instrumentos de discriminación.

  1. Datos fiables que no incluyan sesgos

Para evitar sesgos, la IA ha de entrenarse con datos no sesgados. Se trata de una de las mayores dificultades a las que se enfrenta el proceso.  A menudo, esta ‘inclinación’ aparece o se confirma durante la fase de implantación. E incluso con datos fiables y certeros no sesgados, es importante que el resultado no induzca injusticias.

  1. ¿De dónde salen los datos?

Según la región del mundo, el origen de esos datos es también motivo de preocupación y puede convertir una IA responsable en poco ética. En Europa, la tendencia hacia dar el poder de los datos al ciudadano ha sido incipiente. Estados Unidos está copiando parte del proceso, mientras que China se basa en esto: si beneficia al conjunto, el dato no requiere el permiso del ciudadano, en líneas generales.

  1. Generar mecanismos de auditoría

Otra de las complejidades de la IA, tal y como está planteada, es la dificultad para trazar con exactitud cómo o por qué ha llegado a una solución. Incluso si esta es válida, positiva y justa, diseñar mecanismos de auditoría en el proceso resulta un punto imprescindible para la transparencia o la rendición de cuentas.

  1. Mecanismos de evaluación y control

Para que la inteligencia artificial sea responsable resulta también imprescindible que sus resultados sean auditados a medida que pasa el tiempo. Es necesario instalar mecanismos de control que eviten que la IA se salga de los parámetros fijados como éticos o positivos. Esto exige una buena gobernanza y posibilidad de retroalimentación del sistema.

Redactado por M. Martínez Euklidiadas

Imágenes |metamorworks/Shutterstock, Victor/Unsplash

Archivado en
Subir