Dólar Obs: $ 699,52 | 0,11% IPSA -0,25%
Fondos Mutuos
UF: 27.836,61
IPC: 0,60%
Fuga de avisadores y acusaciones por material violento:

YouTube atraviesa una compleja crisis a causa de sus contenidos

miércoles, 13 de marzo de 2019

JANINA MARCANO
Vida Ciencia Tecnología
El Mercurio

La plataforma está envuelta en varias polémicas porque su algoritmo ha probado no ser eficiente para discriminar videos. Resolverlo será una tarea muy complicada, aseguran los expertos.



"A los cuatro minutos cuarenta y cinco segundos del video, un hombre caminó rápidamente hacia la pantalla, extendió su brazo y les enseñó a los niños cómo acabar con su vida".

Es parte de la denuncia que realizó el mes pasado en su blog la pediatra estadounidense Free Hess sobre Youtube Kids, la versión infantil del popular sitio de videos YouTube.

Aunque el material denunciado fue dado de baja una semana después, una organización benéfica de Reino Unido al igual que la pediatra acusaron a la compañía de no controlar contenido peligroso para los niños.

Es solo una de las polémicas en las que ha estado envuelta la plataforma en lo que va del año.

También, a finales de febrero, la empresa anunció que empezaría a desmonetizar videos antivacunas en su sitio principal. Esto, luego de recibir protestas de parte de varios de sus avisadores, quienes descubrieron que sus anuncios aparecían junto a este tipo de material.

Además de la decisión de desactivar los avisos en estos videos, YouTube dijo que estaba tratando de que el contenido basado en la ciencia sea más fácil de encontrar.

"Al igual que muchos cambios algorítmicos, estos esfuerzos serán graduales y más precisos con el tiempo", dijo la empresa.

Pero las alertas se encendieron nuevamente días después, cuando un popular youtuber , conocido como MattsWhatltls, publicó un video que se viralizó rápidamente. En él exponía que YouTube permitía la pedofilia. El youtuber argumentó con imágenes que pedófilos compartían datos de videos donde aparecían niños a través de la herramienta "comentarios" y que dejaban "información perturbadora".

La crítica tuvo consecuencias. Según informó Bloomberg, empresas como Disney, Nestlé y la compañía de videojuegos Epic Games retiraron su publicidad del sitio de manera momentánea.

Y aunque YouTube decidió eliminar la posibilidad de comentar en los videos en los cuales aparecen niños, la ineficiencia de su algoritmo para detectar contenido inapropiado está siendo un foco de atención.

El problema es que resolverlo no es nada sencillo, según los expertos.

"Yo diría que es imposible de arreglar con la tecnología actual", comenta Jorge Pérez, académico del Instituto Milenio de los Datos.

Según explica, las máquinas son capaces de identificar imágenes explícitas, como desnudos; sin embargo, no pueden determinar si un video incita al odio o al suicidio.

Muchas veces el contenido es tan sutil que el algoritmo no logra reconocerlo, como el video denunciado por Hess, el cual no incluía la palabra muerte, ni imágenes asociadas.

"Es un problema que no está resuelto por la tecnología. Necesitas editores humanos, pero con la cantidad de videos que hay en YouTube, es poco probable que lo resuelvan con gente", dice Pérez.

Concuerda Carlos Araos, doctor en ciencias de la información de la Universidad Adolfo Ibáñez.

"Un gran problema que tiene la empresa es que no se da abasto con el fenómeno que ellos mismos han producido", opina Araos.

"El contenido es tan enorme que se hace incontrolable. Los algoritmos pueden identificar información literal, pero no connotaciones ni saber si algo es violento o no".

Salvo que YouTube pueda generar un algoritmo que anticipe qué interpretaciones se le pueden dar a un contenido antes de subirlo, advierte Araos, la empresa solo podrá eliminar material inapropiado una vez que haya sido publicado y alguien lo detecte.

"Y si logran construirlo (un algoritmo más inteligente), matas YouTube", dice Araos.

"Porque muchos contenidos pueden ser interpretados en virtud de cómo percibes el mundo".

José Antonio Soto, profesor de tecnologías de la información de la UC, coincide en que el problema de fondo es una falla en el control de lo que se publica.

"Por más algoritmos que se desarrollen, siempre estos van un paso atrás de aquellos que buscan la manera de zafarse de ellos o de encontrar una vuelta que les permita hacer algo indebido a través de la plataforma", asegura.

Consultados sobre el tema para la realización de este artículo, Google, propietario de YouTube, no accedió a hablar con "El Mercurio".

 Imprimir Noticia  Enviar Noticia