Diretes y dimes

Hola, me llamo Juan Ruitiña. Puedes seguirme en Twitter.

CS50x

Cumpliendo un propósito para 2017, anoche terminé al fin CS50x, el curso online de introducción a las Ciencias de la Computación de Harvard en edX.

No es un MOOC cualquiera. Cursos para aprender a programar hay a montones. Pero, además de trabajar con C, Python y Javascript (y HTML y CSS), CS50x trata de enseñar cómo funciona un ordenador e internet, cómo utilizar bases de datos o cómo evitar algunas vulnerabilidades graves.

El temario no es el único acierto. El director del curso, David J. Malan, es un gran profesor. La producción de los vídeos es estelar (aquí puedes ver la primera clase), y el reproductor es muy versátil. Desde la edición de 2018 estarán disponibles subtítulos en castellano. Los sets de problemas están muy bien planteados y pueden trabajarse fácilmente desde el entorno de desarrollo en Cloud9 que nos facilitan. La dificultad es la justa y necesaria: la mejor prueba de ello es que, cuando llega la hora de hacer el proyecto final, eres capaz de poner en práctica lo aprendido para construir algo que funciona.

Aunque le echara el ojo por primera vez hace casi cuatro años, le dediqué en total unas 80 horas. Si partes de cero quizá necesites algo más. Es gratuito, y puedes obtener un título verificado por 90 dólares. Sí, lo recomiendo. Es increíble todo lo que se puede aprender en tan poco tiempo.

10 años

Hoy es un día especial. Este blog que estás leyendo cumple 10 años.

Aunque no escriba tanto como aquel adolescente que aún vivía en Oviedo, sigo estando orgulloso de este rinconcito que tengo para mis moderados desahogos y para compartir aquello que me interesa. No es nada extraordinario, pero me alegra celebrar este aniversario.

Si hay alguien por ahí: gracias por seguirme.

La tiranía del algoritmo

El pasado 18 de noviembre me animé a escribir por primera vez en el blog del Real Instituto Elcano, donde trabajo. Desde la victoria de Trump este tema ha recibido mucha atención: este post es una primera toma de contacto.

Los medios de comunicación ya no son los únicos guardianes de la información que nos llega a los ciudadanos. Tras las elecciones estadounidenses, empresas tecnológicas como Facebook, Google y Twitter se han unido a la prensa en un examen de conciencia colectivo: ¿hasta qué punto pudieron contribuir, por acción u omisión, a la designación de un candidato abiertamente xenófobo y misógino?

El 44% de los estadounidenses utilizan Facebook para informarse de la actualidad. Pero a diferencia de las cabeceras tradicionales, las noticias que los usuarios reciben en su news feed están filtradas por un algoritmo. Aprendiendo de nuestros gustos y nuestro historial de interacciones, escoge para cada uno de nosotros aquellos contenidos que es más probable que compartamos.

Estos algoritmos pueden tener sentido dentro de una lógica comercial: son los que permiten que se te muestre publicidad de las gafas de sol que te interesan, y no del gimnasio que no vas a pisar en tu vida. La publicidad sustenta el modelo de negocio de todas estas compañías: cuanto antes consiguen tu clic, antes cobran del anunciante. Como afirma Wired, las interacciones son la principal divisa en la economía del clic. Sin embargo, los efectos secundarios son inquietantes cuando hablamos de información y de opinión pública.

En tiempos de la posverdad, los news feeds de los estadounidenses se llenaron en campaña de noticias falsas (hasta un 20% del total) que conseguían un gran impacto. Una de las más conocidas aseguraba que el Papa Francisco apoyaba al candidato Trump, algo que, efectivamente, nunca ha ocurrido. Ya de resaca electoral y ante las voces críticas entre las que se cuenta la del presidente Obama, tanto Facebook como Google han anunciado medidas contra las webs que publican estos contenidos: impedirán que puedan monetizarlos con publicidad.

Pero el problema no está tanto en la existencia de noticias falsas como en las burbujas de opinión que se están creando. Como demostraba ya en mayo este experimento interactivo de Wall Street Journal, los news feeds de un usuario liberal y de uno conservador parecen dibujar dos realidades completamente diferentes. Al buscar el “me gusta” fácil, las noticias que cada usuario recibe refuerzan sus percepciones, no las desafían, alimentando así el llamado sesgo de confirmación. De hecho, muchos usuarios comparten contenidos incluso sin haberlos leído. Al mismo tiempo, los medios están escaqueándose de un escrutinio razonable por parte de una audiencia crítica. En estas circunstancias florecen las noticias falsas, pero también otras tendenciosas o simplemente poco plurales. El entorno idóneo para una campaña de desinformación exitosa.

Es necesario dejar de idealizar el código. Los algoritmos están programados por humanos. No son infalibles, pueden provocar efectos no deseados y también introducir sesgos con consecuencias graves incluso para derechos fundamentales. El sistema judicial estadounidense utiliza modelos predictivos a lo Minority Report, pero ya hay investigaciones que demuestran cómo pueden estar discriminando a la población afroamericana. Por no hablar de la opacidad: tanto estos modelos como herramientas de uso cotidiano como el buscador de Google o el mismo news feed son de código cerrado, lo cual dificulta auditorías que permitan detectar, corregir y en su caso denunciar posibles deficiencias.

Quizá las grandes compañías de Silicon Valley carezcan de incentivos para un cambio de modelo, pero este parece cada vez más necesario. Pluralidad, igualdad, transparencia: hay muchos principios democráticos en juego. Facebook ha defendido en varias ocasiones que es una empresa tecnológica, no un medio de comunicación. Sin embargo, tiene una audiencia mayor que cualquier medio tradicional. ¿Seguirá escurriendo el bulto cuando, en el futuro, terceros utilicen sus API de inteligencia artificial con fines poco éticos? Quizá será mejor que empecemos a exigir responsabilidades.

Juguete de dos caballos con orejeras. Foto: Staci Myers (CC BY-NC-ND 2.0)