LA DECISIÓN Y LA MÁQUINA

La saga cinematográfica Terminator es una de las distopías más populares. Cuenta que, tras haber alcanzado la inteligencia de sus creadores humanos, en un futuro indeterminado las máquinas se rebelarán contra ellos y, para exterminarlos, ellas mismas se encargarán de producir otras máquinas asesinas y perfectas. Estallará entonces la guerra total entre los hombres y sus artefactos y el destino de la humanidad quedará en manos de un Salvador providencial; etc. etc.

(Hollywood nunca ha sabido salirse del patrón mesiánico judeoprotestante. No importa dónde estén ambientadas sus epopeyas, sea en la Roma imperial, en el Far West o en la guerra de las galaxias…, siempre contienen una conspiración y un Redentor que nos salva.)

Si no recuerdo mal, el guión de la saga Terminator recurre a una variante del viejo mito del Golem, de tal modo que la novedad de su relato está en los espectaculares efectos especiales y en algunos gags inolvidables. Los guionistas no solo dieron con el actor ideal para protagonizar al Terminator –Arnold Schwartzenegger, él mismo una especie de Golem en la realidad– sino que lo invistieron con un carácter fantástico que de inmediato uno asocia con el Ogro que aparece en tantos cuentos infantiles; o con Yago, el perverso intrigante de Othello. Era previsible, puesto que todo lo imaginable ya está contado en las obras de Shakespeare. Lo mismo que Yago, el Terminator es un ser de una maldad absoluta, una criatura implacable cuya malignidad produce espanto porque no tiene una causa evidente y, como es inmotivada e inexplicable, parece imbatible.

¿Pero podemos hacernos una idea del mal absoluto? Si se trata de una máquina no parece tan difícil. En cambio concebir un tipo como Yago es mucho más complicado, como lo muestra el caso de Iván Karamazov en la novela de Dostoievsky. En efecto, cuando un individuo es muy malo enseguida se convierte ante nuestros ojos en un nihilista demoniaco y, de pronto, adquiere estatura moral. En esto tampoco nos ayudan las pautas dominantes, pues a medida que nuestras reglas y costumbres se hacen cada vez más permisivas y se relajan, resulta cada vez más difícil imaginar un personaje absolutamente inicuo que sea también verosímil, entre otras razones, porque hoy en día todo el mundo es malo en alguna medida –otro tópico judeoprotestante difundido por la cultura popular y refrendado por los psicopedagogos– de ahí que los guionistas de cine hayan derivado en sus ficciones hacia malos psicopatológicos, como Henry, o Leatherface, o Anton Chigurh, o Hannibal Lecter, etc.

Sin embargo, la personalidad del psicópata, sobre todo si es muy maligna, puede que sea verosímil desde un punto de vista narrativo pero no resulta tan convincente en el plano moral puesto que, como es bien sabido e incluso reconocido en las leyes penales, el loco no puede ser considerado responsable de sus actos, justamente porque está loco; y el mal, lo mismo que el bien, necesita de un sujeto responsable. Que podamos identificar la responsabilidad en una acción, en forma de discernimiento entre el bien y el mal, nos permite llegar hasta la intención y su motivo; condición necesaria para que salga a la luz la trasgresión que, en última instancia, nos permitirá juzgarla moralmente.

Asimismo, para que haya discernimiento debe existir la posibilidad del error, es decir que tiene que ser plausible que el sujeto involucrado haya podido equivocarse, que haya elegido hacer el mal o el bien y que se haya desviado. También ha de haber un responsable del extravío, por eso en los relatos de Robert Louis Stevenson este matiz importante nunca falta y leerlos resulta tan dramático para el lector, que se compromete y participa en una experiencia moral inolvidable.

Pero para poder discernir de manera acertada o errónea se requiere además una condición trascendental que no deriva de la idea que el sujeto tenga acerca del bien y del mal sino de una decisión ciega entre las dos instancias, que puede ser, a su vez, correcta o equivocada. En suma, la responsabilidad presupone la posibilidad del error: que pueda haber error no solo en la alternativa entre el bien y el mal sino en el acto de decidir entre una opción u otra. Si una acción, cualquiera que sea, solo puede ser correcta –aunque se trate de hacer el mal– las decisiones dejan de ser tales y la moralidad se extingue. Así pues, si concebimos un artefacto en el que hayan sido eliminados todos los errores posibles –y eso seguramente ocurrirá tras alguna revolución maquínica como las que se anuncian a diario– ya no serán necesarias las tomas de decisiones ni el cálculo de riesgos y la idea de responsabilidad será tan vacía como una metáfora blanca.

Como ejemplo podrían servir los nuevos automóviles sin conductor. ¿Tiene sentido sancionar una infracción de tráfico cuando quien la comete es un algoritmo? No. Por una parte porque es del todo improbable que un autómata liberado de la decisión por el algoritmo, cometa infracciones. Y, si falla, ¿para qué perder el tiempo con reprimendas o sanciones? Mejor será acudir al técnico para que lo corrija. ¿Pero entonces para qué nos servirá tener un código de circulación?

Las máquinas, por otra parte, no solo no se equivocan sino que, al contrario que los seres humanos, son perfectibles; y como no se equivocan, tampoco deciden. Por eso la hipótesis de Terminator puede ser inquietante y muy eficaz como ficción cinematográfica, pero es falsa: puede que los artilugios técnicos lleguen a ser casi humanos pero nunca decidirán rebelarse contra los hombres. En cambio, la batalla contra el error se libra a diario en nuestras máquinas cibernéticas. Con cada update que nos entra por la red –y los hay a razón de uno por semana– nuestro artefacto se hace más perfecto –y, de paso, se introduce en él algún sofisticado robot destinado a ajustar el control social. Ese perfeccionamiento indefinido nos empobrece desde un punto de vista ético en la medida en que poco a poco va recortando la esfera de la incertidumbre en la experiencia y anula nuestra capacidad para tomar decisiones, que va siendo sustituida por soluciones protocolizadas y programadas, como les pasa a los médicos actuales cuando tratan una enfermedad.

Y no hablemos de esa ilusión de que Google “aprende” y es cada año más preciso e inteligente. Falso. Google no aprende. Nosotros somos cada vez más tontos.

Lo que diferencia a los hombres de las máquinas no es el sentimiento, que se puede simular por medio de un juego de lenguaje y la situación correspondiente; ni es la razón, que como ya sabían los mecanicistas del siglo XVII, es puro cálculo; ni por supuesto la memoria, que una máquina puede atesorar hasta niveles inimaginables para un ser humano; sino la decisión, que implica el error e introduce el caos y las contingencias en el mundo, tanto si son felices como infelices.

He aquí el único derecho a decidir que es preciso defender; y a toda costa.

Deja una respuesta

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.