Ciencia

Los ordenadores nos dicen con quién salir y a quién encarcelar: pero ¿deberían hacerlo?

Los algoritmos dominan cada vez más nuestras vidas, pero es fundamental que trabajemos con las nuevas tecnologías para crear un futuro mejor, según un nuevo libro.miércoles, 7 de noviembre de 2018

Por Simon Worrall
ver galería

La pregunta de cuánto poder tienen los algoritmos en nuestras vidas es un tema de actualidad. Ya existen líneas de código que nos dicen qué ver, con quién salir y hasta a quién meter en la cárcel. En Hello World: Being Human in the Age of Algorithms, la matemática británica Hannah Fry nos introduce en ese mundo y se pregunta: ¿corremos el riesgo de perder nuestra humanidad?

Cuando National Geographic habló con Fry en la ciudad de Nueva York durante su gira de promoción, la autora explicó por qué la derrota de Gary Kasparov frente al Deep Blue de IBM fue un momento tan decisivo, cómo los algoritmos empleados en el sistema judicial pueden tener prejuicios raciales y por qué las elecciones estadounidenses de 2016 deberían ser una llamada de atención para la democracia.

Comienza su libro hablando de la victoria del Deep Blue de IBM frente al maestro ajedrecista Gary Kasparov en 1997. ¿Por qué fue un momento tan importante?

Lo que ocurrió con Gary Kasparov fue un punto de inflexión en esta historia. En aquel momento, él era uno de los mejores ajedrecistas que el mundo había visto nunca. Hablé con muchos grandes maestros ajedrecistas y lo describieron como un tornado; entraba en la sala y todos se quedaban inmóviles porque tenía un aura muy intimidatoria. Era un dios del ajedrez.

IBM había construido una máquina que podía jugar al ajedrez, algo que mucha gente había querido hacer pero que siempre se consideró que estaba más allá de las capacidades de un ordenador. Se celebraron dos encuentros. El importante, en 1997, cuando el ordenador ganó a Kasparov, fue un momento en que todos tuvieron que sentarse y reevaluar de qué eran capaces los ordenadores, así como reevaluar nuestras capacidades como humanos.

Pero la razón real de que Kasparov fuera derrotado por la máquina no fue que a esta se le diera mejor el ajedrez. La mayoría reconoce que, en aquella época, Kasparov era mejor que la máquina. Fue porque se permitió que la máquina lo intimidase. Empezó a cuestionar cuánto sabía la máquina y permitió que eso lo pusiera nervioso. Eso fue lo que le condujo a la derrota.

Existe una moraleja en esa historia que es tan aplicable hoy como lo era en 1997. Con todas las nuevas tecnologías que surgen en este momento, sobre todo la inteligencia artificial y el aprendizaje automático, surge la incógnita de cuánto confiamos a estas máquina, cuánto poder les concedemos y cuántos de nuestros defectos humanos en cuanto a confianza y poder entrarán en juego en el futuro.

Dos empresas tecnológicas han salido mucho en las noticias este año: Cambridge Analytica y Facebook. Un nuevo libro de la académica estadounidense Kathleen Hall Jamieson sugiere que ellas y los rusos influyeron en las elecciones a favor de Donald Trump. ¿Está de acuerdo?

Desde hace ya tiempo, las empresas han sabido que recopilar nuestros datos puede ser muy rentable. Si entiendes quiénes son tus clientes, puedes predecir qué harán y emplear dicha predicción para manipular su comportamiento de forma sutil, normalmente para hacernos comprar más productos. Los supermercados llevan mucho tiempo haciéndolo. Pero lo que Facebook ha logrado hacer, porque ha tenido acceso a información muy personal, no solo tiene que ver con nuestra cesta de la compra; es quién somos y qué nos gusta, cómo nos comunicamos. Si tienes acceso a dicha información, es algo muy poderoso.

Lo que hacía Cambridge Analytica era ir un paso más allá, intentando averiguar nuestros tipos de personalidad y ponernos anuncios para manipular nuestros miedos y esperanzas. Un ejemplo era un mensaje del lobby proarmas orientado a madres solteras que eran de naturaleza neurótica. Les ponían anuncios sobre alguien que entraba en sus casas en plena noche y sobre la necesidad de protegerse.

Es difícil determinar si esto cambió el resultado electoral, porque gran parte de esto ocurría bajo la superficie. Pero dado lo ajustadas que estuvieron las elecciones, ya que en algunos estados Trump ganó por unos pocos miles de votos, creo que es una posibilidad. Resulta preocupante. Debe preocuparnos la cantidad de poder que tienen estos algoritmos, podrían cambiar las normas de la democracia.

Los vehículos autónomos también han aparecido en las noticias. Uno de los mayores retos es crear coches que no solo vean su entorno, sino que lo perciban como nosotros y que incluso tomen decisiones «compasivas». ¿Será posible algún día?

Técnicamente, sí. Si queremos que ocurra eso es otra pregunta totalmente distinta, ya que hacemos referencia al denominado dilema del tranvía. La idea es que un vehículo autónomo circula por una carretera y a un camión que va delante se le cae la carga, y el coche tiene que tomar decisiones. Desviarse hacia un lado y chocar con el tráfico en sentido contrario, matando al pasajero del coche, o desviarse hacia el otro y salvar a todos los pasajeros del coche, atropellando a algunos peatones.

Cuando se planteó por primera vez este dilema moral, su objetivo era demostrar que hay preguntas en las que no se puede aplicar la lógica directa para encontrar la respuesta correcta. Existen preguntas que no tienen una respuesta correcta. No estoy del todo convencida de que vayamos a encontrarnos en una situación en la que los coches autónomos vayan a circular con el resto de los vehículos, el ruido y el caos que reinan en la carretera.

A algunos de nuestros lectores, como a mí, les sorprenderá saber que los algoritmos se emplean mucho en el sistema de justicia. ¿Pueden corregirse los prejuicios con la ayuda del aprendizaje automático?

Los algoritmos llevan mucho tiempo empleándose en los tribunales, remontándose hasta los años 30. La idea es que intentas hacer una predicción sobre si un individuo cometerá o no un delito en el futuro. Te guste o no, el juez o jueza debe decidir si la persona que tiene enfrente cometerá otro delito cuando la pongan en libertad. Y existen algoritmos que pueden realizar predicciones más precisas que las de los humanos.

En 2017, los periodistas investigadores de Propublica.com publicaron un gran reportaje en el que usaban uno de estos algoritmos y demostraban que la forma en que el algoritmo comete errores no es necesariamente la misma en cada individuo. Demostraron que, si el acusado es negro, es más probable que el algoritmo afirme de forma incorrecta que tiene más riesgo de cometer otro delito que si el acusado es blanco.

Los algoritmos también se usan cada vez más en medicina. Háblenos de algunas de sus aplicaciones y los dilemas éticos que plantean.

Una de las historias positivas de cómo se usan algoritmos en medicina es el caso del diagnóstico del cáncer. Es un ejemplo en el que las personas no otorgan poder al algoritmo. Se basa en el reconocimiento de imágenes: un algoritmo observa la diapositiva de una biopsia y determina si hay tumores ocultos entre las células.

Existen otros ejemplos de usos de estos algoritmos en diagnósticos. Hay una aplicación que ha acaparado gran atención mediática en Reino Unido llamada Babylon Health, empleada por el Servicio Nacional de Salud para simplificar el proceso de diagnóstico. Entras y hablas en un chat, te da información y consejos sobre tu afección y, a continuación, filtra tu consulta al trabajador sanitario pertinente.

Parece un sueño, pero puede lograrse que el sistema sanitario sea más asequible y de más fácil acceso, no solo para los habitantes del mundo occidental, sino también en países en vías de desarrollo. Pero existe un pequeño problema: no creo que estas tecnologías sean tan buenas como dicen ser. Todavía cometen muchos errores. Un ejemplo interesante de Babylon es cuando alguien entró en el chat de diagnóstico y dijo que le dolía el codo y el chat le diagnosticó que tenía enrojecimiento en torno a los genitales. [Se ríe] Mucha gente hizo bromas en Internet sobre no distinguir el culo del codo. [Se ríe]

La realidad es que no hay nada más privado y personal que tus datos médicos, sobre todo en lo que al ADN se refiere. Todos estos algoritmos requieren grandes cantidades de datos para poder funcionar. La cuestión es quién tiene tus datos y si eres cómplice a la hora de renunciar a tu derecho a tener esos datos. No creo que nos encontremos en un momento en el que sepamos enfrentarnos a estos problemas, proteger la privacidad de la gente al mismo tiempo que apuntamos a un futuro más positivo.

Además de las aplicaciones positivas, su libro está lleno de historias sobre el daño que pueden hacer los algoritmos. Descríbanoslos.

El daño se produce cuando los algoritmos tienen demasiado poder. Volviendo al ejemplo de los algoritmos que se emplean en los tribunales, existe el problema de los prejuicios. Pero también está el hecho de que estos algoritmos cometen errores. Un ejemplo es un joven llamado Christopher Drew Brooks. Era un chico de 19 años de Virginia condenado por el estupro de una chica de 14 años. Tenían una relación consensuada, pero ella era menor de edad, de forma que fue condenado por un delito. Durante su juicio, un algoritmo evaluó las posibilidades de que reincidiera. Como solo tenía 19 años y ya había cometido delitos sexuales, concluyó que existía una alta probabilidad de que volviera a una vida de delitos y recomendó una pena de 18 meses de cárcel.

Esto demuestra que los algoritmos pueden ser ilógicos. Este algoritmo en particular ponía mucha importancia en la edad. Pero si Christopher Drew Brooks hubiera tenido 36 años y no 19, siendo 22 años mayor que su víctima, que según cualquier criterio agravaría el delito, el algoritmo lo habría considerado un individuo con bajo riesgo de reincidencia y se hubiera salvado de la cárcel. Cabría esperar que, en ese tipo de situación, un juez comprobara los defectos del algoritmo y supiera desautorizarlo. Pero en ese caso particular, y en muchos más como ese, no vemos que las personas defiendan y confíen en su instinto por encima del de los algoritmos. En este caso, la sentencia de Christopher Drew Brooks fue aumentada por lo que determinó el algoritmo. Ahí es donde surgen los problemas. Los algoritmos pueden cometer errores y estos pueden ser catastróficos. Si les otorgamos poder sin que un humano tenga en cuenta el contexto y los matices de la situación, creo que estamos buscando problemas.

Al final del libro, escribe: «En la era del algoritmo, los humanos nunca han sido más importantes». Explíquenos esa idea y los problemas a los que nos podríamos enfrentar en el futuro.

En última instancia, este no es un libro sobre algoritmos, sino sobre humanos. Trata de cómo encajamos en nuestro propio futuro, cómo la tecnología cambia las normas de comunicación, la democracia, la medicina, la política y la justicia. Todo cambia y tiene que ver con que necesitamos controlar más nuestro propio futuro y decidir cuánto poder debemos ceder. También trata de que no vivimos una etapa en la que los humanos estén fuera de escena. No creo que el debate deba ser de humanos contra máquinas. El debate debería tratar de la asociación de humanos y máquinas, de dar la mano a esta nueva tecnología y aceptar sus defectos, así como reconocer nuestros propios defectos, y resolver dicha asociación, un viaje compartido de posibilidades de futuro que explote las fortalezas de cada uno tanto como sea posible.

Hemos editado esta entrevista por razones de longitud y claridad.

Este artículo se publicó originalmente en inglés en nationalgeographic.com.

Seguir leyendo