Hace poco Google anunciaba que sus coches autónomos ya habían recorrido más de un millón de kilómetros mientras que Morgan Stanley opinaba que los coches autónomos serán algo normal en nuestra sociedad para el año 2025. El coche autónomo plantea cuestiones morales y filosóficas que abren un interesante debate.
Las leyes de la robótica
En el año 1942, Isaac Asimov escribió tres leyes de la robótica en su relato "Runaround" en las que se establecían lo siguiente:
Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.
Más tarde añadiría una cuarta ley, conocida como la ley cero:
- Un robot no hará daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño.
A pesar de que estas leyes son ficción, son una buena base filosófica sobre cómo podrían convivir la inteligencia artificial y nuestra sociedad. Si los coches autónomos se atuvieran a estas normas, no habría motivos para preocuparse, ¿verdad? (dejando a un lado el argumento de que los coches autónomos van a suponer desempleo para los taxistas y camioneros o que no deberían existir de acuerdo a las leyes 0 y 1ª).
El dilema del tranvía
Sin embargo, hay un problema que las leyes de la robótica no pueden resolver. El famoso experimento en filosofía del dilema del tranvía que plantea lo siguiente:
Un tranvía se dirige a cinco personas que están atadas a las vías y no pueden moverse. El tranvía va directo y las matará, pero tú te encuentras al lado de un botón. Si le das al botón, el tranvía cambia a otra vía donde solo hay atada una persona. Tienes dos opciones:
No hacer nada, lo que supondría que cinco personas morirían en la vía principal.
Darle al botón, haciendo que el tranvía cambie de vía y mate a la otra persona.
¿Qué deberías hacer?
Es fácil imaginarse una situación en un mundo con coches autónomos donde el coche tenga que enfrentarse a una decisión similar.
Por ejemplo, un coche conducido por una persona se salta un semáforo en rojo, dándole al coche autónomo dos opciones:
Puede seguir su curso y chocar contra el coche en el que hay una familia de cinco personas.
Puede girar a la derecha y chocar contra otro coche en el que solo hay una persona, matándola.
¿Qué debería hacer el coche?
Desde un punto de vista utilitario, la respuesta es obvia: debería girar a la derecha (o "darle al botón") matando solo a una persona en vez de a cinco.
De hecho, en una encuesta a filósofos profesionales sobre el dilema del tranvía, un 68,2 % estaba de acuerdo en que hay que darle al botón. Puede que en realidad no sea un "problema" y que la respuesta sea simplemente decidirse por la idea utilitaria de "cuantos más se salven, mejor".
¿Pero podrías imaginarte un mundo en el que tu vida pudiera ser sacrificada en cualquier momento para salvar las vidas de otros sin haber hecho nada malo?
Imagínate una versión del dilema del tranvía con un hombre gordo:
Al igual que antes, un tranvía se dirige hacia cinco personas. Tú estás sobre un puente y puedes pararlo poniendo algo muy pesado delante. Pues bien, hay un hombre muy gordo a tu lado y la única forma que tienes de parar el tranvía es tirarlo por el puente a la vía, matándolo para salvar a cinco personas. ¿Deberías hacerlo?
La mayoría de la gente que opta por la opción utilitaria en el problema inicial no mataría al hombre gordo. Pero desde un punto de vista utilitario, no hay diferencia entre estos dos problemas, entonces ¿por qué la gente cambia de opinión? ¿Acaso la opción correcta es "no hacer nada"?
El imperativo categórico de Kant intenta explicarlo:
Obra sólo de forma que puedas desear que la máxima de tu acción se convierta en una ley universal.
En otras palabras, dice que no se justifica que usemos a seres humanos como medios para alcanzar algo. De ahí que no esté bien matar por el mero hecho de salvar a otros, algo que nunca sería una opción según el imperativo categórico de Kant.
Otro problema que supone el utilitarismo es que es un poco vago, al menos por definición. El mundo es complejo, por lo que rara vez la respuesta es simplemente hacer aquello que salve más vidas. Pongamos que en el ejemplo del coche en vez de una familia de cinco personas hubiera cinco delincuentes que acaban de robar un banco y en el otro coche hubiera un científico con un futuro prometedor que acaba de hacer un descubrimiento para la cura del cáncer. ¿Seguirías queriendo salvar al mayor número de personas?
Podemos cambiar la definición de utilitarismo y hacerla más compleja dándole un valor a la vida de cada individuo. En cuyo caso la respuesta correcta podría ser matar a los cinco ladrones si consideramos que la vida del científico vale más que la vida de los cinco ladrones.
¿Pero puedes imaginarte un mundo en el que, por ejemplo, Google o Apple pongan un valor determinado a nuestras vidas y que sea un referente en cualquier momento para matarnos y poder salvar a otras personas? ¿Te parecería bien?
He ahí la cuestión. Si bien el problema parece sencillo, en realidad es bastante complejo e interesante. Es un dilema que seguirá apareciendo una y otra vez a medida que los coches autónomos sean una realidad en el día a día. Google, Apple, Uber, etc. tendrán que pensar en una respuesta para este problema. ¿Darle al botón o no darle al botón?
Por último, quiero plantear otra pregunta que también necesitará respuesta: la propiedad del coche. Digamos que un coche autónomo con un pasajero, su dueño, patina bajo la lluvia y va a chocar con otro coche, tirándolo por un precipicio. Puede dar un volantazo y caerse por el precipicio o seguir de frente y cochar contra el otro coche, tirándolo por el precipicio. Ambos coches tienen un pasajero. ¿Qué debería hacer el coche? ¿Debería actuar favoreciendo a la persona que lo ha comprado, a su dueño?
Ver 37 comentarios