John Tasioulas (Universidad de Oxford): “No hay soluciones fáciles para la ética de la inteligencia artificial”
El director del Instituto de Ética de la Inteligencia Artificial de la Universidad de Oxford critica el utilitarismo dominante en este campo.
31 julio, 2023 00:52Como los ilustres filósofos griegos, John Tasioulas trata de dar respuesta a las grandes preguntas de nuestro tiempo. En particular, a aquellas asociadas a la emergencia de la inteligencia artificial (IA), una tecnología que ha puesto en la diana debates éticos y dilemas morales antes reservados a unos pocos.
D+I - EL ESPAÑOL entrevistarlo durante su visita a Madrid para participar en el Future Trends Forum de Fundación Innovación Bankinter, en el que habló del derecho a una toma de decisiones humana. Conversamos también sobre humanismo y marcos éticos no utilitaristas para la IA, y sobre cómo usar la tecnología para una democracia más participativa.
Ética utilitarista
Lo primero es tener claro el punto de partida, tal y como lo defiende Tasioulas: que la ética es, ante todo, un dominio del pensamiento humano ordinario, no una disciplina académica especializada. Es decir, que la ética no es un ámbito de discusión de eruditos sino algo presente en la toma de decisiones en nuestro día a día.
“La ética es algo que todos hacemos. En la vida cotidiana constantemente tomamos decisiones éticas. Decidiste ser periodista. Tenías otras opciones y las sopesaste, tuviste que elegir. Pero hay cosas que probablemente nunca te planteaste, como por ejemplo ser una asesina a sueldo, porque lo consideras incorrecto”, ejemplifica.
Mientras los filósofos exponen teorías sobre el bienestar y la moralidad y sus interrelaciones, todos nosotros, al vivir nuestras vidas, tomamos constantemente decisiones que reflejan las respuestas a estas preguntas, por incipientes o inconscientes que sean, reflexiona el catedrático.
Esas elecciones -dice- pueden evaluarse con referencia a una gama de valores, en cuyo corazón se encuentran dos preguntas: ¿Qué es vivir una vida buena? ¿Y qué es lo que le debemos a los demás, especialmente a los demás seres humanos, pero también a los animales no humanos o incluso a la naturaleza inanimada?
La primera pregunta nos lleva al territorio del bienestar individual, y la segunda al de la moralidad, especialmente las obligaciones que debemos a los demás y los derechos que tienen contra nosotros. Sus objeciones al utilitarismo tienen que ver con cómo se responde a ellas.
La primera objeción es que usualmente los utilitaristas identifican una vida próspera con una vida de placer que evita el dolor, o con una vida donde se satisfacen las preferencias individuales. Eso -dice Tasioulas- no es aceptable, porque las preferencias de cada cual pueden ser dañinas, estar sesgadas, ser racistas o sexistas o tener otros prejuicios, o ser el resultado de adaptaciones a circunstancias opresivas. Al contrario, el filósofo arguye que los elementos de una vida próspera deben ser genuinamente valiosos, promover el florecimiento humano, y no depender de juicios subjetivos.
Su segunda objeción es contra la obligación de maximizar el bienestar, porque nos enfrenta a dilemas morales tramposos y los justifica. Bajo ese prisma, “tendría que decidir cosas terribles, como torturar a una persona para evitar que tres personas sean torturadas, porque de esa manera hay más bienestar”, escribe el académico en un artículo titulado Inteligencia artificial, ética humanística, publicado en la revista Daedalus en 2022.
Inteligencia artificial humanista
Tasioulas sostiene que dicho enfoque utilitarista es el dominante en las discusiones sobre la ética de la IA, que favorecen una ética que sea ampliamente compatible con poderosos actores científicos, económicos y gubernamentales en el campo. “La mentalidad de optimización que prevalece entre los informáticos y los economistas, entre otros actores poderosos, ha llevado a un enfoque centrado en maximizar el cumplimiento de las preferencias humanas”, afirma.
Así, la ética de la IA se reduce a un ejercicio de predicción y optimización: ¿qué acción o política es más probable que conduzca al cumplimiento óptimo de las preferencias humanas? “Esta visión de la ética es conocida por sus múltiples y serias objeciones”, asegura el catedrático. Al centrarse en la agregación de preferencias, amenaza con anular derechos importantes. “¿Por qué no arrojar a algunos cristianos a los leones si sus preferencias de mantenerse con vida son superadas por las preferencias de un número suficientemente grande de sádicos espectadores romanos?”, plantea.
En el caso de los agentes económicos y gubernamentales, critica que se maximice la riqueza como el indicador más fácilmente medible para la satisfacción de preferencias, “con la consecuente marginalización de valores que no son fácilmente atendidos por el mercado, como los bienes públicos como el acceso a la justicia y la atención médica, o la preservación del medio ambiente”.
[La Eurocámara aprueba imponer restricciones a ChatGPT y otros sistemas de Inteligencia Artificial]
De ahí también -dice Tasioulas- la legitimación de la maximización de las ganancias por parte de las corporaciones como el medio institucional más efectivo para maximizar la riqueza en la sociedad. Frente a esto, propone una perspectiva humanista que trascienda las limitaciones y distorsiones de este paradigma ético dominante.
Su propuesta humanista se basa en la interrelación de las tres “p”: pluralismo, procedimientos y participación. La pluralidad de valores considera tanto los elementos del bienestar humano (el logro, la comprensión, la amistad, el juego) como los componentes de la moralidad (la justicia, la equidad, la caridad y el bien común). Rechaza la noción de que la clave para la ética de la IA se encuentra en un único concepto principal, como la confianza o los derechos humanos, que no incluyen el daño ambiental o valores como la solidaridad.
El foco en los procedimientos -y no solo en los resultados- enfatiza que lo que nos importa legítimamente no es solo el valor de los resultados que las aplicaciones de IA pueden ofrecer, sino también los procedimientos a través de los cuales lo hacen. Algunos valores son incompatibles y no pueden ser medidos o comparados de manera precisa. Hay aspectos valiosos de la autonomía humana y el juicio individual que deben tenerse en cuenta. No siempre hay una única respuesta correcta en situaciones complejas, por lo que no se puede confiar plenamente en algoritmos para tomar decisiones éticas difíciles.
Decisiones humanas
Aquí entra en juego la idea del derecho a la decisión humana, a que una decisión sea tomada por una persona, en lugar de por un algoritmo. “Es una especie de manifestación de la tesis de Joseph Weizenbaum [profesor emérito de informática, pionero y escéptico de la IA] de que hay algunas decisiones que ningún ordenador debería poder tomar”, explica Tasioulas. Destaca la importancia de considerar los valores procesales y la responsabilidad humana en la toma de decisiones relacionadas con la IA.
Además -prosigue- en decisiones prácticas importantes donde existen diferentes valores en conflicto, puede ser preferible que los humanos tomen esas decisiones en lugar de dejarlas en manos de procesos automatizados, ya que preservarían la autonomía humana y la capacidad de tomar decisiones basadas en gustos y valores individuales.
El catedrático pone ejemplos del ámbito legal y judicial, donde ya se usan tecnologías de IA que se han demostrado discriminatorias: “Mucha gente rechazaría visceralmente la idea de que un sistema de IA debería determinar su sentencia de prisión en un juicio penal. Incluso si el sistema de IA condujera a un resultados mejores, estos no son lo único que importa: los procesos inherentemente también”.
“Esta es una de las razones por las que la gente apoya los juicios con jurados populares incluso aunque un jurado experto pudiera ofrecer mejores decisiones”, señala el investigador. Apunta que, en el caso de la IA, incluso en el caso muy hipotético de que en algún momento esta tecnología pudiera producir mejores resultados, todavía quedarían varias cuestiones en el aire. ¿Podría esta proporcionar explicaciones adecuadas (que lo justifiquen)? ¿Podría ser responsable de dichos resultados? ¿Sus decisiones manifestarían el tipo de reciprocidad y solidaridad que se puede lograr cuando un humano juzga a otro humano?
En línea con esto está la participación: la tercera “p” de la propuesta humanista de ética para la IA de Tasioulas. Se refiere a “participar en el proceso de toma de decisiones en relación con la IA, ya sea como individuo o como parte de un grupo de ciudadanos democráticos autogobernados”.
Frente a la ética utilitarista que equipara el bienestar humano con un estado final, como el placer o la satisfacción, el académico defiende que la participación exitosa en actividades valiosas es fundamental para el bienestar humano. ¿Acaso se aceptaría que, para conseguir dicha felicidad, el gobierno introdujera una droga de felicidad en el suministro de agua?
Tasioulas argumenta que aceptar que las máquinas automaticen el trabajo humano mientras se implanta una Renta Básica Universal (RBU) no encaja en dicha perspectiva del bienestar humano como un proceso participativo. Al fin y al cabo, la RBU consiste en la recepción pasiva de un beneficio, acompañada de una delegación del poder de toma de decisiones a las aplicaciones de IA.
“En su lugar, será necesario prestar mucha más atención a cómo la IA puede integrarse en prácticas productivas de manera que no reemplace tanto el trabajo humano como mejore su calidad, haciéndolo más productivo, satisfactorio y desafiante, al mismo tiempo que sea menos peligroso, repetitivo y carente de significado”, sostiene el filósofo.
¿IA para la democracia?
Con la participación democrática sucede algo similar. Es una práctica de autogobernanza democrática colectiva que valoramos no solo por los beneficios de la diversidad cognitiva, sino también porque ello reafirma el estatus de los ciudadanos como miembros libres e iguales de la comunidad, explica Tasioulas.
Frente a esto, el investigador critica que la IA esté siendo “cooptada por modos tecnocráticos de toma de decisiones”. Unos modos que “socavan los valores democráticos, al tratar de convertir cuestiones de juicio político en preguntas de experiencia técnica”. “Las decisiones sobre los ‘valores’ codificados en las aplicaciones de IA las toman élites corporativas, burocráticas o políticas, a menudo en gran medida aisladas de un control democrático significativo”, añade Tasioulas.
El catedrático de la Universidad de Oxford advierte de las consecuencias de que un pequeño grupo de gigantes tecnológicos represente la mayor parte de la inversión en investigación en IA, “dictando su dirección general y estableciendo el tono moral predominante”.
“Mientras tanto, las redes sociales habilitadas por la IA corren el riesgo de erosionar la calidad de la deliberación pública que necesita una democracia genuina”, sostiene. Se refiere a cómo desde estas se promueve la desinformación, se agrava la polarización política y se trata de controlar y manipular a las personas, socavando su privacidad y amenazando el ejercicio de las libertades básicas.
Esto - argumenta Tasioulas- desalienta efectivamente la participación ciudadana en la política democrática. Sin embargo, afirma que no quiere ser solo negativo sobre los desarrollos tecnológicos. Frente a ello, parte de sus esfuerzos actuales están puestos en explorar si la IA puede contribuir a desarrollar formas más radicales [en su acepción de esenciales, que emergen de la raíz] de democracia. En específico, frente al reto de la falta de escala de los procesos participativos.
[Inteligencia artificial: la obligada revisión histórica]
“No es posible involucrar a todas las personas en una conversación y en la deliberación, por lo que nos planteamos: ¿podemos contar con herramientas de IA que ayuden a abordar estos procesos?”. Es decir, que reúnan -en cierto sentido- a las personas, que les brinden ciertos tipos de información, que faciliten discusiones ordenadas…
Durante los próximos dos años y medio tratará de dar respuesta a estas y otras preguntas gracias a la beca AI2050 de Schmidt Futures. Lo hará junto con Hélène Landemore, profesora de Ciencias Políticas en la Universidad de Yale. “Es un proyecto realmente fascinante para mí, ya que creo que la crisis de la democracia y la pérdida de confianza en ella, especialmente entre las personas más jóvenes, es uno de los problemas más preocupantes en todo el mundo. “La forma actual en que estamos llevando a cabo la democracia no está cumpliendo con sus expectativas”, considera el investigador.
Cambiar las tornas
Las preguntas a las que tratan de responder Tasioulas y Landemore son similares a las que nos realizamos hace 30 años, en los comienzos de la adopción masiva de internet. Confiábamos en que la red de redes fuera una fuerza democratizadora, igualadora, habilitadora de la participación.
Si bien no se puede decir que en cierto modo internet no haya ayudado a tales objetivos, no ha sucedido de forma generalizada. Al contrario, la comercialización del ciberespacio ha contribuido a la violación de derechos, a socavar la democracia y a la pérdida de confianza en ella, con ayuda precisamente de la IA. ¿Cómo cambiar las tornas?
“Tal vez deberíamos aprender de por qué no se cumplieron esas ingenuas expectativas sobre internet. Puede que se pusiera demasiado énfasis en la tecnología, sin pensar en el contexto más amplio en el que esta opera”, responde Tasioulas.
“Supongo que parte del tema común con la IA son las soluciones fáciles. El utilitarismo era una solución fácil que propone tomar nuestros valores, asignarles números y luego simplemente hacer los cálculos. Evita la necesidad de transformar cómo nos comportamos y cómo interactuamos, bajo la creencia de que la tecnología lo hará por nosotros, pero no es así. Esa es la lección que necesitamos aprender. Tiene que haber un cambio cultural”, señala el filósofo.
Tasioulas apela también a la responsabilidad personal de cada cual. En su caso, “no ser como esos académicos que dicen que los expertos deben determinarlo todo, sino de aquellos que mantienen que es realmente importante que haya participación pública”. También tratar de crear situaciones en el trabajo que ayuden a que eso suceda, y fomentar parte de un debate civil informado donde se trata a los otros como seres racionales y sin demonizar a nadie.
Reconoce, no obstante, que su preocupación es que necesitemos un desastre para que el cambio suceda. “Desafortunadamente, así es como hemos operado históricamente. Algo terrible tiene que suceder antes de que algo se convierta en una prioridad para nosotros”, sentencia.
Aunque claramente los pesos de poder están repartidos de forma altamente desigual entre los diferentes grupos de interés, entre el sector público y el sector privado; entre Estados, organismos supranacionales, grandes corporaciones y ciudadanos, será responsabilidad de todos y de cada cual contribuir a evitar errores pasados.