¿Quién elige la ética tras el internet de las cosas?

Innovación

Un coche autónomo avanza sin frenos hacia un cruce y debe tomar una decisión: ¿qué vidas ‘valen’ más? Este es, básicamente, el dilema del tranvía adaptado a la ética tras el internet de las cosas (IoT). Fríamente, plantea la descorazonadora pregunta de a quién se deja morir. Abstenerse es decantarse por una de las dos opciones de forma aleatoria. Obviamente, este es un dilema extremo y hasta cruel.

La mayoría de las disyuntivas éticas derivadas del IoT no tendrán consecuencias tan catastróficas, pero sí implicaciones serias que deben ser consideradas. Aprovechando que el MIT ha publicado sus conclusiones sobre el experimento moral machine (el problema que encabeza este artículo) y que la Unesco ha hecho público su deseo de homogeneizar la ética de las máquinas, toca hablar sobre la ética tras el internet de las cosas.

Aquello fue un homicidio involuntario

Teniendo en cuenta que los coches autónomos aún no están disponibles salvo en localidades puntuales (Singapur, Phoenix en Estados Unidos, Shanghái en China y París en Francia) y circuitos cortos aún en pruebas, cabe preguntarse si plantear la ética IoT de un problema imaginario tiene sentido. En realidad, lo tiene, porque el problema ya está aquí.

Apenas un par de días antes de que la Unesco hiciera públicas sus intenciones, la justicia estadounidense declaraba culpable de homicidio involuntario a la mujer que, en marzo de 2018, conducía un vehículo de Uber con funciones automáticas de conducción. El conocido resultado de aquella colisión fue la muerte en el acto de Elaine Herzberg como resultado del atropello.

El dilema del tranvía está más cerca de lo que se piensa. En este caso particular, la ética aplicada por defecto fue hacer responsable a la conductora. El motivo que alude la justicia de Arizona (Estados Unidos) es que los automatismos del vehículo aún no permiten que el conductor se despreocupe de la conducción. Pero lo harán en algún momento y, hasta la fecha, no tenemos ‘una’ ética global.

El IoT presenta numerosos dilemas éticos

Como se adelantaba, la ética tras el IoT no descansa únicamente en cuestiones de vida o muerte. Existen numerosos ejemplos de cómo decisiones aparentemente bienintencionadas de los programadores han dado lugar a situaciones que obligan a replantearse la ética elegida, si es que se eligió una.

Un ejemplo de uso frecuente podría ser qué se hace con los datos recopilados por el IoT (una cámara de seguridad, un altavoz inteligente, un robot aspirador que mapea la casa y conoce los horarios de sus dueños), cómo se almacenan, quién los custodia o por qué objetivos se rigen estas elecciones.

¿Qué es más ético: guardar los datos en el dispositivo, delegando la seguridad al usuario, o hacerse cargo de ella aún a riesgo de que un pirateo masivo exponga una cantidad ingente de información? Y, más importante: ¿qué aspectos de la seguridad y privacidad personal se busca potenciar? Son preguntas que requieren respuestas, y estas no son universales.

¿Es más grave vulnerar la privacidad de los usuarios si con ello se minimiza la delincuencia o el mero hecho de que exista un canal de monitorización supone ya un agravio que justifica que la haya en otro lugar? Son dilemas que no tienen una respuesta única, como bien ha demostrado moral machine, pero cuyas leyes éticas siguen en mano de los programadores, que se apoyan en órdenes obsoletas.

La ética del IoT, ¿dependiente de la geografía?

En 2018 el MIT publicó los resultados de su experimento moral machine, donde se pedía al usuario decidir quién vivía y quién moría basándose en diferentes dilemas (escenarios):

  1. Priorizar humanos frente a mascotas.
  2. Priorizar a los pasajeros del vehículo antes que a los peatones.
  3. Priorizar el número de vidas salvadas en total.
  4. Salvar a más mujeres que a hombres.
  5. Salvar a personas jóvenes antes que a las de mayor edad.
  6. Priorizar a la gente sana frente a la enferma.
  7. Salvar a personas de estatus social alto frente a otras de nivel más bajo.
  8. Priorizar a la gente que respeta la ley antes que a los delincuentes.
  9. Decidir si el vehículo debe seguir su camino (no actuar de ninguna manera) o cambiar de dirección (actuar).

A mediados de 2020 volvía a publicar más datos, esta vez aún más interesantes. Resulta que no todas las culturas toman las mismas decisiones morales, ni se rigen por la misma ética. Esto hace muy difícil determinar ‘una’ ética para todos los vehículos autónomos.

En la gráfica se muestra la predisposición de las poblaciones de varios países a salvar peatones frente a salvar a los ocupantes del vehículo (dilema 2). La diferencia entre Japón y China es obvia, y plantea un grave problema: ¿alguna de las dos éticas está equivocada?

Evidentemente, es una pregunta con trampa. El embrollo radica en que la ética depende del contexto. Como el contexto chino es muy diferente al japonés, sus reglas de decisión no tienen por qué coincidir. Pero incluso entre países próximos, como Francia y Alemania, se pueden observar dos reglas éticas marcadamente diferentes. ¿Debe cambiar el coche de programación en la frontera?

“El código es la ley”, de momento

A falta de un marco normativo legal que indique las directrices a seguir, se seguirá implantando la ética que se programe. Esto deja en manos de los programadores definir cómo se comportarán las máquinas, y acerca la ética del IoT a la ética de la cultura libre que Lawrence Lessig sintetizó en su frase “el código es la ley”.

Si las máquinas deciden en caso de dilema ético, lo hacen basándose en normas escritas por humanos y grabadas en el silicio a través de algoritmos. En el caso del IoT, los humanos que programaron estos objetos. Estos no pueden salir de la ecuación y dejar de lado la ética porque, hay que recordar el dilema del tranvía: abstenerse es elegir una opción ética por defecto.

Esto significa que si un equipo de programadores diseña un vehículo totalmente autónomo, y no hay marco legal que les obligue a elegir ética, serán ellos los que podrán elegir qué ética consideran más coherente porque será la que se aplique y se tenga en cuenta. Incluida alguna opción por defecto como la actual en el caso de Uber, en  la que se permite automatizar la conducción pero bajo la responsabilidad del ocupante del vehículo.

Esto es, precisamente, lo que pretende evitar la Unesco. El internet de las cosas es un campo de aplicación de la ética que dará mucho que hablar en los años venideros, ya que hay muchas aplicaciones diferentes que regular. Suponiendo que se pueda alcanzar un consenso, claro.

Por Marcos Martínez

Imágenes | iStock/Andrey Suslov, iStock/Tetiana Soares

Archivado en
Subir