Dólar Obs: $ 682,31 | -0,17% IPSA -0,25%
Fondos Mutuos
UF: 27.875,49
IPC: 0,60%
Inteligencia artificial y privacidad

viernes, 29 de marzo de 2019

Economía y Negocios Online


José M. Piquer Director de Tecnologías de Información y Comunicaciones de la Universidad de Chile

Hoy está muy de moda pensar que el futuro de la tecnología va, en gran medida, por la Inteligencia Artificial. ¿Cómo funciona realmente? En realidad, de lo que se está hablando hoy principalmente es de "aprendizaje artificial", que es un área específica de la Inteligencia Artificial. Se trata de algunos algoritmos genéricos, conocidos, que son capaces de devorar enormes cantidades de datos los que, sumados a un feedback que dice cuáles casos son buenos y cuáles son malos, detectan patrones en los datos que les permiten "decidir" después, sobre ejemplos nuevos, cuáles son buenos y cuáles son malos.

Un ejemplo fácil de entender es en el caso de imágenes médicas, donde puede haber tumores o no. En sus etapas iniciales, estos tumores son una pequeña mancha en la imagen que sólo un experto puede detectar. Si le damos a un algoritmo de estos todas las imágenes médicas disponibles hoy en el mundo, y donde conocemos su evolución posterior, es fácil de aceptar que un computador debiera ser más preciso y confiable que un experto para detectar estas manchas.

Hay ejemplos más complejos, y más polémicos, como en prevención del crimen. Si hacemos esto mismo con fotos de ciudadanos y sus datos históricos, y sabemos quiénes fueron condenados por crímenes y quiénes no, obviamente el algoritmo heredará todos los sesgos de la sociedad y generará una lista de sospechosos aún más racista y clasista que un humano, que probablemente está al menos consciente que tiene sesgos y tratará de batallar contra ellos.

Sin embargo, creo que todos (o casi todos) compartimos que es mejor que un computador detecte patrones y genere diagnósticos a un ser humano (que puede estar cansado, deprimido o distraído). Sobre todo que tendrá más experiencia, información y datos de los que ningún ser humano podría procesar.

Pero, aun aceptando eso, lo difícil es justamente definir a qué datos puede tener acceso el algoritmo. Creo que todos (o casi todos) compartimos la idea de que no es razonable darle acceso a nuestras redes a todos nuestros datos, incluidos viajes, comidas, actividad sexual, siestas, conversaciones y, por supuesto, todas nuestras señales bio-médicas que múltiples sensores estarán midiendo en nuestro cuerpo. Sin embargo, sí queremos que nuestro teléfono nos mande al hospital por que estamos al borde de un infarto, tendremos que entregarle toda esa información y mucho más: los datos de todos nuestros familiares, historiales médicos y un largo etc.

Nos enfrentamos entonces a un conflicto de intereses gigantesco: queremos tener la funcionalidad que nos entregan estos sistemas, pero sin darles nuestra información personal, lo que es obviamente imposible. Entonces podríamos aceptar entregar nuestros datos a un sistema, con una cláusula absoluta de privacidad para que no la comparta con nadie, pero eso implica confiar ciegamente en esa empresa (tanto en su ética como en sus sistemas de seguridad) y, por otro lado, habrán cientos de estos sistemas en empresas independientes. ¿Deberemos confiar en todos ellos?

Esto dilemas ya los vivimos a menor escala hoy en día: no nos gusta que google lea todos nuestros mails, pero nos encanta la funcionalidad que nos ofrece al recordarnos mails pendientes y cosas así. No podemos obtener lo uno sin lo otro.

Lo peor, es que todo este conflicto lo tenemos en una sociedad razonable aún, donde la democracia y sus controles todavía funcionan. Pero imaginen a los Nazis de vuelta en el poder con estas herramientas para perseguir a los judíos y todos sus enemigos, reales e inventados. La historia cuenta que, en su apogeo, los Nazis no eran capaces de procesar todas las denuncias que recibían de vecinos que sospechaban de otros.

Este conflicto no tiene solución fácil. Los europeos han empujado una nueva ley de datos que busca proteger la privacidad, pero muchos sospechan que frenará la innovación y el desarrollo de estas soluciones masivas. China es el otro extremo, y está intentando tener un sistema de puntaje ciudadano, que baja cada vez que un sistema de reconocimiento me detecta cruzando una calle en forma ilegal o emitiendo opiniones indeseables. Entre ambos, habrá que buscar un camino razonable. Pero no podremos tener algo sin sacrificar algo.

 Imprimir Noticia  Enviar Noticia