Aula en Red-Acción
Hacia el siglo XXII Personalización

El algoritmo de YouTube es el CEO de la verdad

CRÓNICA | Cuando un usuario inicia sesión en YouTube espera encontrar vídeos de recetas, tutoriales o algún contenido personalizado recomendado por el algoritmo. Estas recomendaciones se basan en tus anteriores búsquedas y en las tendencias del momento para poder ofrecerte lo mejor de lo mejor. O eso dicen. YouTube nació en 2005 y al año siguiente fue adquirido por Google Inc. por muchos millones de dólares. Esto significa que tu historial de búsqueda de GOOGLE también es conocido por YouTube, pudiendo personalizar tus opciones de vídeos que reproducir de forma más precisa. La pregunta es, ¿de qué manera favorece el algoritmo de YouTube a la difusión de fake news? El algoritmo de YouTube es el CEO de la verdad, y de la mentira.

En el actual sistema capitalista el objetivo de cualquier empresa es aumentar el beneficio de forma constante. Los algoritmos no iban a ser diferentes. En el caso de YouTube, su algoritmo parte de un modelo de negocio: el de la publicidad. Cuanta más publicidad vea el usuario y más tiempo pase en la aplicación, más dinero ganará la plataforma. El algoritmo te muestra los vídeos por la potencial posibilidad de que hagas click en él. Aquí interviene el factor emocional que tanto caracteriza a los seres humanos, y por el que YouTube sabe qué contenidos vamos a consumir. Cuanto más controvertido sea el vídeo, más apela a los sentimientos de rabia o pasión, y más posibilidad de interacción y participación. Por esta razón los vídeos que difunden fake news son los más favorecidos por el algoritmo, son muy controvertidos, generan muchas visitas, interacciones y hacen a YouTube ganar mucho dinero.

¿Por qué el algoritmo de YouTube favorece a los canales que difunden teorías conspiranoicas y fake news?

Cada día, más de 200 millones de vídeos son consumidos directamente desde la página de recomendados. Muchos de ellos, fake news. El 70% de la población reconoce haber creído un bulo que había sido difundido por redes sociales y solo el 31% se ve capaz de diferenciar la verdad de la mentira. Además, al consumir un vídeo de este estilo el algoritmo entiende que es un tema que te interesa, por lo que te recomienda más vídeos de ese estilo. Es un círculo vicioso que no acaba. Uno de los creadores del algoritmo de YouTube, Guillaume Chaslot, explica que el objetivo de este algoritmo es que pases más tiempo en YouTube.

¿Es el humano el que controla a la máquina, o la máquina la que controla al humano?

El humano controlando la máquina
El humano controlando la máquina

Cierto es que el algoritmo no tendría vida si no se la hubiera proporcionado un ser humano. Si nos preguntamos qué es realmente un algoritmo, es lógico pensar que solo es un proceso matemático capaz de recolectar miles de datos y actuar en consecuencia. Incluso la RAE define el término algoritmo como un conjunto ordenado y finito de operaciones que permite hallar la solución a un problema. Pero según Cathy O’neil, doctora en matemática por la Universidad de Harvard, es justamente lo contrario. En una entrevista afirmó que son objetos incontables, injustos y que tienen un poder ilimitado sobre nuestras vidas. Es algo que nos acompañan en nuestro día a día cada vez que abrimos una red social. Los algoritmos nos hacen ver unas publicaciones en Instagram antes que otras, y en YouTube nos hacen ver unos vídeos y no otros. Consumir e interactuar.

En YouTube, Chaslot afirma que se guiaban por las cifras y los datos, pero que no eran conscientes de lo que podía ocasionar esa búsqueda de la interacción. Cuando trabajaba en YouTube, cuenta que no tenían ni idea de lo que estaba ocurriendo ni de lo que estaba haciendo el algoritmo. El humano creó el algoritmo y acabó perdiendo el control sobre él. En numerosas películas y libros se han planteado escenarios distópicos en los que los robots o Inteligencias Artificiales dominaban al ser humano.

En el documental de NETFLIX, The Social Dilemma, dan su testimonio diferentes expertos y expertas del ámbito de Internet. Desde el fundador de Pinterest, hasta el creador del GMAIL, una de las cofundadoras de Instagram, etc. Todos ellos parecen están de acuerdo en una cosa: nadie se esperaba que lo que habían creado con inocencia tuviera unas consecuencias negativas. Muchos confiesan haber desarrollado una adicción por sus propias creaciones. Lo mismo le ocurrió a Víctor, el científico que le dio vida a Frankestein y que acabó matando a toda su familia. Nada más que, en esta ocasión, no hay asesinatos de por medio.

YouTube y la lucha contra el contenido radical y falso

YouTube selecciona los contenidos que siguen o no en la plataforma
YouTube selecciona los contenidos que siguen o no en la plataforma

En este momento puedes encontrarte un poco angustiado, pensando en todas aquellas veces que te han aparecido anuncios que te incitaban a comprar un producto que habías buscado en el buscador de GOOGLE. No te preocupes, todo está controlado. YouTube comenzó su lucha contra las fake news y el contenido radical y conspiratorio hace años.

En el último trimestre de 2020, la plataforma retiró 72.833 vídeos que incumplían las normas acerca de extremismo violento, 97.362 que incitaban al odio y más de 3 millones que no respetaba la seguridad de los menores. Una de las medidas que tomó YouTube fue la revisión manual de todos los vídeos que podrían contener ideas radicales o información y retirarlo, también, de forma manual. Además, también dan la opción al usuario de denunciar este tipo de contenidos. En los tres últimos meses de 2020 se procesaron más de 16 millones de denuncias de usuarios, particulares y ONGs.

Hay un tipo de contenido en concreto, «contenido cuestionable´´, que, si bien no es del todo fiable, tampoco llega a quebrantar las normas comunitarias. Lo que hace YouTube en estos casos en reducir su difusión. Según lo especifican en su portal de transparencia, la difusión de este contenido se ha reducido en un 70% en Estados Unidos. Además, creó un programa específico para formar a profesionales de servicios públicos u ONGs y convertirlos en Informadores de Confianza. Este perfil de usuario suelen denunciar contenido con mucha precisión y de forma muy reiterada.

Además, YouTube desmonetiza todos estos contenidos. Con toda esta información, solo cabe hacernos la siguiente pregunta: ¿es suficiente? David Fernández, jefe de máquinas de Maldita.es, nos responde a esta pregunta.

David nos da su opinión acerca de cómo luchan YouTube y el resto de plataformas contra el contenido falso y radical que incita al odio

¿Qué podemos hacer los ciudadanos?

Se han desarrollado numerosas extensiones para Chrome y otros navegadores que nos permite modificar nuestra página de recomendados de YouTube y que impiden que se nos coloque en un sector de audiencia concreto. Para Chrome, por ejemplo, tenemos DF YouTube, que nos permite eliminar los elementos de la aplicación que deseemos. Desde la página entera de recomendados, la sección de comentarios, reproducción automática y los similares. Guillaume Chaslot, ya mencionado anteriormente, y famoso por ser uno de los creadores del algoritmo de recomendados de YouTube, recomienda no hacer click en ningún vídeo que nos recomiende el algoritmo. La idea es evitar que YouTube nos recomiende vídeos, por lo que nos incita a buscar nuestros propios vídeos y así ver solo lo que queramos. Aunque también incita al uso de aplicaciones como DF YouTube para eliminarlas directamente.

David nos cuenta qué más podemos hacer los ciudadanos en para combatir las fake news.

¿Qué podemos hacer los ciudadanos para evitar difundir fake news? David nos da unos tips.

David intentó responderme a varias preguntas más, pero me dijo que eran imposibles de responder porque no se sabía qué había detrás de los algoritmos y sus actuaciones. Porque no sabemos qué es lo que realmente pasa. Estas preguntas eran: ¿saben realmente os algoritmos lo que están haciendo?, ¿hasta qué punto son controlables por el ser humano? ¿Por qué le interesaría a YouTube no separar el contenido real del falso? Cierto es que son preguntas difíciles de contestar y a las que yo busca respuesta en un intento desesperado de entender por qué cierto contenido afectaba al imaginario y las ideas de un colectivo. Mientras que la opacidad no nos deje ver, debemos optar por hacer lo único que podemos. En este caso, no clickar en las recomendaciones de YouTube.

Related posts

Fuencarral-El Pardo.com y la necesidad del periodismo hiperlocal

Guillermo Alonso

La vacuna contra la COVID19: El nuevo negocio de los ciberdelincuentes

Irán en el punto de mira por la ausencia de libertad de expresión

Leave a Comment