El problema del tranvía climático
Enernauta

Especialista en política energética y asuntos internacionales. Fue Secretario General del International Energy Forum, con sede en Arabia Saudita, y Subsecretario de Hidrocarburos de México.
Actualmente es Senior Advisor en FTI Consulting.

El problema del tranvía climático
Foto: AFP

La semana pasada me referí a la decisión de funcionarios del gobierno mexicano de inundar amplias zonas de Tabasco en 2007 y 2020, dada la enorme presión sobre el sistema de presas hidroeléctricas en la cuenca del rio Grijalva. Su dilema no era si inundar o no, pues no hacerlo causaría daños y pérdidas de vidas aún mayores, sino hacia dónde dirigir la inundación o a cuáles ciudades o pueblos inundar más.

Si el cambio climático avanza como hasta ahora, más autoridades alrededor del mundo se enfrentarán a situaciones similares. El aumento en el nivel del mar pondrá en jaque tanto a poblaciones enteras como a las instalaciones energéticas ubicadas en las costas; los cambios en la precipitación provocarán inundaciones y sequías fuera de los registros hasta ahora conocidos. Será preciso tener una mejor idea de cómo elegir entre inconvenientes.

La estructura de este tipo de dilemas se asemeja a la del famoso “problema del tranvía” planteado por primera vez en 1967 por la filósofa británica Philippa Foot y bautizado de esa manera en 1976 por la filósofa americana J. J. Thomson. En su versión básica, el tranvía avanza sin frenos por una vía en la que más adelante hay cinco trabajadores sin opción de esquivarlo y que morirán al ser arrollados. Un observador tiene la oportunidad de activar una palanca para desviarlo hacia otra vía y así evitar el desenlace fatal, pero en la otra vía hay un trabajador que tampoco podrá esquivarlo y morirá. ¿Es correcto matar a una persona de esta manera para salvar a cinco?

Este problema y sus variantes ha sido objeto de fascinación, crítica y mofa. Aunque se han propuesto diversas soluciones, el dilema no admite una solución que claramente triunfe sobre las demás – de ahí que sea un dilema. Para quienes se enfocan en las consecuencias de las acciones y en el bien mayor, la muerte de uno para salvar a cinco se justifica. Pero su cálculo cambia si, por ejemplo, el espectador mira la escena desde un puente peatonal acompañado de otra persona, a la que decide tirar a las vías para detener al tranvía. Aunque en los dos casos se salvaron cinco personas a cambio de la muerte de una, el primer caso genera menos rechazo que el segundo. El acto de empujar es equiparado con provocar directamente la muerte; el de jalar la palanca, no.

Enfocarse en las consecuencias (consecuencialismo) o en las reglas de comportamiento (deontología) son las maneras más comunes de aproximar una solución ética al problema, pero hay más opciones. La ética aristotélica de la virtud, la ética feminista, la ética que surge del contrato social, la ética de Confucio, la ética budista, la ética de los textos religiosos, entre muchas otras. Un creciente registro de investigaciones ha buscado encontrar criterios para evaluar las acciones y sus efectos, pero no ha aparecido una respuesta que satisfaga a todos los enfoques éticos al mismo tiempo. Permanece el desafío de elegir entre dos opciones desagradables.

En el horizonte ha aparecido, sin embargo, una esperanza propia de soñadores. Ahora que la inteligencia artificial está demostrando una capacidad insospechada para realizar cálculos complejos a velocidad extrema y conexiones creativas entre conceptos nunca vistas. ¿Podría aportar una salida a este tipo de dilemas? Si las máquinas pueden aprender realizando inferencias automatizadas con base en sistemas de cómputo de redes neuronales y procesar un sinfín de cálculos más rápido que cualquier ser humano, ¿podrían pronosticar con mayor precisión que un humano las consecuencias de decisiones entre inconvenientes? ¿podrían señalar cual regla de comportamiento es la indicada? ¿por qué no delegarles a las máquinas la decisión?

Estas preguntas influyen ya sobre el desarrollo de los sistemas que determinarán el comportamiento de un automóvil autónomo (eléctrico) y de “asistentes morales artificiales”. El automóvil decidiría, por ejemplo, si es mejor que pierda la vida su pasajero estrellando el auto en un muro lateral antes de atropellar a cinco niños que repentinamente empezaron a cruzar una calle. El asistente moral artificial podría hacer lo mismo o, simplemente, jugar el papel de un cuestionador socrático que ayude al tomador de decisiones a elegir entre regiones a inundar.

La discusión está en curso. Lo más probable es que la ética misma entre humanos dicte que hay decisiones de vida o muerte, como el desfogue de una presa, que no pueden cederse a una máquina o asistente moral, sin importar cuán sofisticados lleguen a ser. Pero puede ser que un amplio consenso social derive en una preferencia por evitarle esa pesada carga a una persona y la delegue en una máquina que, además, decidiría imparcialmente conforme a las reglas que le fueron alimentadas, en una versión alternativa a lanzar una moneda al aire, buscar una señal en las nubes o escudriñar mensajes en los restos del café. Eso implicaría que quienes diseñaron la máquina o asistente moral saben lo que están haciendo y que su manera de codificar el criterio ético de una sociedad entera es acertada a lo largo del tiempo, aun cuando las interpretaciones, circunstancias y emociones cambien continuamente, como de hecho lo hacen.

Se antoja imposible. Aunque sea asistido por la inteligencia artificial (por cierto, todavía carente de sentido común) y logre con este apoyo convertirse en un tomador de decisiones mejor informado, alguien terminará siendo responsable por el curso de la inundación, sea el diseñador de la máquina o el que la emplea. Los asuntos del César seguirán siendo del César.

Más del autor: El inconveniente menos inconveniente

Síguenos en

Google News
Flipboard