Los retos de evaluar una inteligencia artificial

Innovación

Un coche autónomo toma la decisión de salvar a sus ocupantes a costa de no evitar el atropello de un grupo de niños. ¿O debería haber sido al revés? Más allá de los dilemas éticos clásicos que rodean las decisiones de una inteligencia artificial autónoma, existen multitud de retos a la hora de evaluar los algoritmos.

Desde el punto de vista ético, la inteligencia artificial (IA) tiene muchos desafíos que resolver. Si buscamos una imagen genérica de líderes mundiales en Google, ¿el resultado serán hombres, mujeres o un grupo mixto? Si dejamos que una IA resuelva un juicio sencillo, ¿mostrará algún tipo de sesgo hacia los grupos que reflejan, estadísticamente, mayores tasas de criminalidad? ¿O será capaz de mostrar empatía y analizar las zonas grises de cada situación concreta?

La ética y la inteligencia artificial

“La inteligencia artificial (IA) y la robótica son tecnologías que tendrán un impacto significativo en el desarrollo de la humanidad en un futuro cercano. Han planteado dudas fundamentales sobre qué deberíamos hacer con estos sistemas, qué deberían hacer los propios sistemas, qué riesgos implican y cómo podemos controlarlos”, explica Vincent Müller, de la Universidad de Standford, en el artículo ‘Ethics of Artificial Intelligence and Robotics’.

Asumiendo que las tecnologías siempre van a tener impactos positivos y negativos, el autor hace hincapié en la necesidad de fomentar no solo un uso responsable de la IA, sino un diseño también responsable. Partiendo de esta base, Müller señala los principales debates éticos que, hoy por hoy, rodean el uso de la inteligencia artificial:

Los retos de evaluar y auditar un algoritmo

Volviendo al día a día del desarrollo de la inteligencia artificial, los ingenieros detrás de los algoritmos se enfrentan a múltiples retos a la hora de auditar una IA. Por un lado, están los aspectos técnicos, más fácilmente evaluables. Por otro, están todos los aspectos éticos, los impactos de la tecnología en los individuos y en la sociedad.

Con la intención de desarrollar un método de control de los algoritmos desde el principio, los investigadores de Google AI y Partnership on AI han propuesto un sistema de auditorías internas. En el artículo ’Closing the AI Accountability Gap’, sostienen que es necesario desarrollar procedimientos internos para controlar el desarrollo de la IA.

Las empresas suelen ser reacias a divulgar todos sus datos para que sean evaluados externamente. Sin embargo, un sistema interno, estandarizado y transparente puede reforzar el control, mejorando la capacidad de corregir los algoritmos desde el inicio de su desarrollo y no reaccionando a los problemas éticos a posteriori.

SMACTR: la propuesta de Google

El método de auditoría interna propuesto por Google AI y la Partnership on AI no es muy diferente a los utilizados en otras industrias. Se estructura en una serie de documentos denominados artefactos; y se divide en cinco pasos, que se resumen en las siglas SMACTR, del inglés objetivos, mapeo, recolección de artefactos, pruebas y reflexión.

Tal como reconocen los propios autores de este marco de trabajo, las auditorías internas nunca son independientes. Los auditores deben ser conscientes de sus propios sesgos y de la importancia de su trabajo para la organización. Además, deben contar con el apoyo de los líderes de la compañía. Si una auditoría ética recomienda paralizar el desarrollo de una IA, la decisión no debe cuestionarse.

Por Juan F. Samaniego

Imágenes | Unsplash/Brett Jordan, Possessed Photography, Fitore F.

Archivado en
Subir