OPINIÓN: El código de software es éticamente neutro, “MENTIRA”

OPINIÓN: El código de software es éticamente neutro, “MENTIRA”

Si crees que el código de software es éticamente neutro, te estás mintiendo a ti mismo. El evangelista de Google, Vinton Cerf, cree que no hay lugar para el pensamiento filosófico en la programación de los coches autopropulsados. Sólo diles que no golpeen cosas y estaremos bien.

Fue un accidente a punto de ocurrir. A pesar de todos los esfuerzos de Joachim Müller-Jung, la conversación se fue desviando lenta pero seguramente hacia los coches autopropulsados. Hasta entonces, me había aburrido bastante.

Así que fue el miércoles, y la tercera “Charla de Prensa” en el 66º Encuentro de Premios Nobel de Lindau. Y el tema era la inteligencia artificial (I.A.).

Müller-Jung, jefe de ciencia y naturaleza del periódico alemán “Frankfurter Allgemeine Zeitung”, había dicho repetidamente durante su larga y sinuosa introducción: “¡Aquí no vamos a hablar de coches de autoconducción o de una “I.A. pícara”!. Y el público de periodistas y jóvenes científicos se rió.

Quería hablar de la mecánica cuántica e invitó al experto cuántico Rainer Blatt a hacer precisamente eso, hablar de mecánica cuántica.

Pero Vinton (Vint) Cerf, vicepresidente de Google y Evangelista Jefe de Internet, también estaba en el panel. Así que en cuanto se abrió el turno de preguntas, los coches autopropulsados se situaron en la primera posición.

Google, como usted sabe, está a la vanguardia de la investigación sobre los coches de autoconducción y la inteligencia artificial que necesitarán para llevarnos de A a B, si es que confiamos en ellos.

 

Cerf se divirtió deleitando a la audiencia con historias de los experimentos de autoconducción de Google y de cómo uno de sus coches había chocado contra un autobús pero que estaba “a unos 3 kilómetros por hora”, y cómo en otros casos los coches autónomos de Google habían sido chocados por otros coches, conducidos por humanos. Las cosas estúpidas, de reacción lenta.

Pero lo que sucede, preguntó el joven científico Mehul Malik, cuando un coche se enfrenta a la elección de golpear a un niño en la carretera o girar para evitarlo de una manera que pondría en peligro la seguridad de cualquier pasajero en el coche.

 

La respuesta del evangelista fue precipitada, por decirlo suavemente. Tal como corresponde a un evangelista, Cerf no entiende a las personas cuya visión del mundo contradice la suya propia.

Dijo que no tenía sentido invertir en los coches de autoconducción con las preocupaciones filosóficas a las que nos enfrentamos como seres humanos. Todo lo que tienes que hacer es instruir a los coches autónomos, a través del software y el código que escribes, “no golpear nada”.

Estoy en desacuerdo con esta idea, fundamentalmente. No tengo ni la mitad de los cerebros que Cerf habita. Después de todo, él es uno de los “padres de Internet”, habiendo co-diseñado el software TCP/IP que sostiene nuestra red global de ordenadores. También ganó el Premio Turing 2004.

Pero sé que hay un problema con la lógica de Cerf. Es una utopía descaradamente utópica.

Los humanos somos filosóficos. Podemos empatizar y confundirnos. Observamos grados de verdad, lógica borrosa. Las computadoras no se confunden, lo hacen o no lo hacen, de acuerdo con las instrucciones del software que las ejecuta. Esto puede hacer que sea más fácil para los coches que conducen por su cuenta reaccionar más rápido en situaciones peligrosas. Pero eso no significa que vayan a tomar la decisión correcta.

Repito, los humanos somos filosóficos. Y aunque ya no podamos conducir, seguimos siendo nosotros los que queremos que nos conduzcan. Por lo tanto, es nuestra responsabilidad invertir la filosofía en la programación de los coches de autoconducción. Sin filosofía, no tenemos ética ni moral.

Sin embargo, el problema es aún más profundo. No importa lo que Cerf insista, es imposible no invertir filosofía o ética en nuestro código informático. Tan pronto como un programador comienza a escribir a máquina, toma decisiones. Tienen que hacerlo. Y esas decisiones se basan en la forma en que ven el mundo. Esa es su filosofía: sus intereses y visiones de futuro, humanitarias, estéticas o comerciales.

Las líneas de código de los automóviles autónomos deberían ser capaces de resolver el dilema moral del “Dilema del Tranvía”.

El dilema del tranvía es un experimento mental en ética, ideado por Philippa Foot y analizado extensamente por Judith Jarvis Thomson y, más recientemente, Peter Unger. Problemas similares han sido tradicionalmente tratados en derecho penal y, algunas veces, regulados en los códigos penales, también en derecho civil. Un ejemplo clásico de esos problemas es conocido como la tabla de Carnéades, elaborado por Carnéades para atacar la inconsistencia de las teorías morales estoicas. El planteamiento de éste diléma filosófico consiste en hacer que la persona decida entre sacrificar a 5 personas en la vía o presionar un botón que desviará al travía hacia otra dirección, sabiendo que sacrificará a una persona.

Mientras tanto, en el Derecho inglés el caso de R. v. Dudley y Stephens (1884), en el que tras un naufragio unos marinos mataron a otro con fines de canibalismo de supervivencia, estableció que la necesidad no es una defensa contra el cargo de asesinato.

Durante décadas, los utópicos de la tecnología han vendido la errónea creencia de que el código es neutral, que no puede hacer nada malo. Es como los defensores de la Segunda Enmienda de Estados Unidos, el derecho a tener y portar armas, diciendo “las armas no matan a la gente, la gente sí”. Y es igualmente ilógico. Por supuesto, es la gente la que mata. También es la gente la que codifica. Y la gente debería asumir la responsabilidad de su código.

El problema vendrá cuando exista un reclamo de derechos por una decisión de un autómata.

Sugerir que el código es neutral y sin filosofía ni ética es sugerir un futuro en el que podamos decir felizmente a los padres desconsolados: “Siento mucho que mi coche haya atropellado a tu hijo, pero fue culpa del coche, yo estaba atrás teniendo sexo”.

Así que, Sr. Cerf, programemos nuestros autos con la más alta prioridad “no golpear nada”. Bien. Eso en sí mismo es una filosofía. En cualquier caso, la mayoría de las personas están programadas, o condicionadas, para comportarse de esa manera. Pero seguimos teniendo accidentes y los coches que se conducen por cuenta propia también lo harán.

La pregunta debería ser: ¿Estará usted dispuesto a decir que no hay lugar para la filosofía, para la ética, cuando las compañías de seguros se niegan a pagar y los fabricantes de automóviles se niegan a asumir la responsabilidad de los errores de su software?

¿Que propondrías hacer para resolver éste dilema? ¿Darías tu aprobación para que se fabriquen cosas cuyo software puede decidir quien muere? ó ¿Apoyarías que no exista más avances tecnológicos en dicha materia, posiblemente llevándonos a otro estancamiento como en la edad media? Tal vez falta mucho para que ésta tecnología toque a tu puerta y pueda afectarte, pero en algún momento hemos de opiinar.

Otras Fuentes citadas:

El Dilema del Tranvía, Wikipedia

Tabla de Carnéades, Wikipedia