Dólar Obs: $ 954,58 | 0,40% IPSA -0,25%
Fondos Mutuos
UF: 37.237,20
IPC: 0,40%
Ex ejecutivo de la firma: "En Facebook los problemas son organizacionales y políticos, sienten que no pueden hacer cambios grandes"

lunes, 20 de agosto de 2018

Pablo Tirado
El_Mercurio

Carlos Gómez Uribe, ex ejecutivo de la firma, y el auge de las noticias falsas. El mexicano trabajó por casi dos años en la compañía de Mark Zuckerberg, con la misión de perfeccionar los algoritmos de control de fake news y aunque encontró maneras de reducirlas, renunció porque encontró resistencia interna.

El mexicano Carlos Gómez Uribe solía pensar que su futuro estaría ligado al mundo de la academia y la investigación. Con un currículum que incluía licenciaturas en matemáticas, ingeniería eléctrica y física, un máster en computación y algoritmos, y un doctorado en ingeniería eléctrica y médica -todo en el MIT-, no era raro que creyera que su destino iba a estar en los laboratorios y las salas de clases.

De visita en Santiago para dictar un curso de innovación para la consultora Humind, recuerda que hubo algo del mundo de la academia que lo terminó por decepcionar: "Se está enfocando demasiado en publicaciones como Science o Nature y tienes que jugar un juego que no me interesó mucho jugar, que no se enfoca realmente en desarrollar conocimientos, sino en vender y agrandar lo que estás haciendo. Así que a fin de cuentas decidí explorar la iniciativa privada", recuerda Gómez.

Primero llegó a Google, donde trabajó para perfeccionar el algoritmo de búsqueda del gigante tecnológico utilizando herramientas matemáticas de análisis de datos y de modelaje estadístico.

En eso estuvo un par de años hasta que se cambió a la, en ese entonces, incipiente compañía de videos Netflix, donde estuvo por siete años y en al que fue el encargado de liderar el equipo detrás del algoritmo de recomendaciones del servicio de streaming . "Llegué en un momento súper interesante de la compañía, cuando acababan de decidir lanzarse de lleno al streaming por internet y a crear y lanzar un producto global que no tuviera nada que ver con el arriendo de DVD, que era lo que estaban haciendo antes", recuerda.

Después de eso, en enero del año pasado llegó hasta Facebook, donde estuvo trabajando en el equipo detrás del controvertido news feed -la pantalla de inicio de la red social, donde aparecen los comentarios y publicaciones de las otras cuentas- y donde luego manejó uno de los equipos de investigación más grandes de la compañía, encargado justamente de hacer frente a noticias falsas y filtraciones de datos.

Como director of Core Data Science, estuvo en la compañía hasta mayo pasado, donde le tocó vivir el escándalo de la filtración de Cambridge Analytica, y hoy su opinión respecto de lo que está haciendo Facebook en materia de control de contenidos es crítica.

-¿En Facebook le tocó lidiar con el problema de las fake news ?

"Sí, de hecho, yo me fui a Facebook porque a raíz del proceso electoral en EE.UU. de 2016, quedé extremadamente preocupado por el rol que tuvieron las redes sociales, y en particular Facebook y su news feed, en la propagación de información y desinformación y en incrementar la polarización política. Así, contacté a gente que conocía en Facebook y les dije que me preocupaba, que pensaba que tenían un problema grande y que si estaban de acuerdo y querían ayuda, a mí me gustaría ir a ayudarles. Así que crearon una división dentro de news feed que llamaron Integrity -Integridad-, para supuestamente ocuparse de todas estas áreas y yo estuve como director de producto de esa área".

-¿Y cuál es su sensación después de haber estado ahí? ¿Siente que fue un aporte en la lucha contra las noticias falsas?

"Antes de irme para allá, yo pensaba que estos problemas podían tener en gran parte una solución técnica, tecnológica y que iban a ser problemas difíciles de tecnología, algoritmo. Y lo que encontré es que obviamente son problemas sociales, pero dentro de Facebook, son organizacionales y políticos. De cierta manera, sienten que no pueden hacer muchos cambios grandes, porque al hacerlos cambian la distribución de muchas personas, de muchos grupos, de muchas páginas".

"Desafortunadamente, yo creo que para poder arreglar este tipo de problemas, tienen que cambiar la distribución, la forma en la que se distribuye la información de una manera importante, y todavía no había un consenso dentro de la compañía que le permitía a ninguna persona lanzar un cambio importante, así que me fui precisamente por eso. Me frustró el que se pudieran hacer muchas cosas desde el punto de vista técnico, pero que no te dejaran hacerlas por miedo a críticas".

Información horizontal

-¿Pensando en eso, es factible hoy día crear un algoritmo que valide la información y que determine qué es cierto y qué no lo es?

"No, yo creo que eso es imposible. Además, sería demasiado arriesgado que una compañía privada y global sea la que decida lo que es correcto y que no. Facebook está extremadamente consciente de eso y no quiere jugar ese papel, y en parte es por eso que se les dificulta tomar pasos importantes. Pero a fin de cuentas yo sí creo que tienen la responsabilidad de definir mejores reglas que fomenten la distribución de contenido de alta calidad -sea el que sea- sin tener que validar específicamente cada historia, si es verdadera o si es falsa. También creo que hay muchas maneras de mejorar la situación actual, mediante algoritmos, maneras bastante sencillas que todavía no han intentado, porque tienen demasiada aversión al riesgo".

-¿Pero cómo se hace pensando, por ejemplo, que en un medio de comunicación tradicional, como un periódico, existe un equipo editorial que filtra contenidos?

"Eso es imposible en estos casos, porque la ventaja de Facebook, de las redes sociales en general, es que de cierta manera le regresan el poder de distribuir la información a la gente, pero obviamente como es en extremo difícil validar incluso que una cuenta que está pretendiendo ser una persona en realidad sea esa persona, ocurre que es muy fácil abusar de esas plataformas y crear perfiles que no son auténticos y que más bien son parte de un grupo - ya sea de algún gobierno, de alguna organización- para manipular a la opinión pública".

"Alguien lanza una historia con el punto de vista que quiere distribuir, la empiezan a compartir entre ellos y los algoritmos están diseñados para detectar ese tipo de señales y entonces distribuir ese contenido más y más. Además, obviamente abusan de la psicología humana, no las plataformas, sino que los autores de ese tipo de contenido y crean el contenido de forma que sea más escandaloso, y te haga reaccionar rápidamente, te haga sentir "enojado", "frustrado" o lo que sea para que, al ver el contenido -antes de que lo valides, incluso antes de leerlo completamente-lo compartas o reacciones, en el caso de Facebook con un like , con una cara triste, una cara enojada o lo que sea. Y otra vez, los algoritmos ven esas señales y dicen "mira este contenido está generando muchas reacciones, hay que maximizar el número de reacciones, distribúyelo más"".

-Y eso es automático...

"Es automático, no es que digan "ah, mira las reglas son que mientras más escandaloso sea el contenido que tienes, mejor te va a ir", pero como funcionan hoy los algoritmos, eso efectivamente ocurre y combinado con la naturaleza de la psicología humana, es una táctica que desafortunadamente funciona y nos perjudica a todos".

(Me fui de Facebook porque) me frustró que se pudieran hacer muchas cosas desde el punto de vista técnico, pero que no te dejaran hacerlas por miedo a críticas".

 Imprimir Noticia  Enviar Noticia