¿Se debería moderar el contenido en redes sociales? – por Aberdeen S.I.

La importancia del contenido en redes sociales
¿Esto ha sido de tu interés?

Las redes sociales no solo están cambiando la forma en la que el mundo se comunica sino que, además, inundan internet con nuevos contenidos. Se calcula que en 2017 se publicaban 3,3 millones de post en Facebook cada segundo, se subían 500 horas de video a Youtube y se envíaban 29 millones de mensajes a través de WhatsApp.

El contexto: ¿Es necesario moderar el contenido de redes sociales?

Los analistas elogian a menudo las redes sociales por su papel para conectar a la gente y facilitar acciones en la comunidad. Sin embargo, recientemente han sido objeto de duras críticas por manipular a los usuarios y promover contenidos nocivos.  Los medios de comunicación han hecho acusaciones contra Facebook entre las que se incluyen la interrupción de las elecciones en Estados Unidos y la incitación al genocidio en Myanmar.  Mientras tanto, a los anunciantes les preocupa que YouTube pueda estar facilitando redes de pedófilos.

En respuesta, muchas redes sociales aplican de forma voluntaria sus propios «estándares comunitarios». Ejercen el derecho a eliminar el contenido que no cumpla con sus estándares y restringen a los usuarios que publiquen repetidamente contenido inapropiado. Sin embargo, no existen normas claras y reconocidas por la industria sobre lo que constituye un contenido inapropiado. Tanto los reguladores como los accionistas de estas empresas están empezando a cuestionar la eficacia de estas políticas.

La mala praxis: jaque a la libertad de expresión en los social media

moderar el mal contenido en redes sociales

La naturaleza de las redes sociales ha provocado que los contenidos engañosos y nocivos se conviertan en un problema mundial. Sin embargo, en lugar de un marco normativo internacional, muchos piden que se tomen medidas a nivel nacional.

Dos intentos de regular los contenidos en redes sociales: Reino Unido y Alemania

Por ejemplo, el Ministro de Sanidad del Reino Unido, Matt Hancock, pidió recientemente que se prohibieran las redes sociales que no eliminaran los contenidos nocivos.

Alemania, en cambio, tomó la iniciativa en materia de reglamentación con su Ley de aplicación de la normativa sobre redes. Una norma que entró en vigor en 2018 y que muchos observan como un banco de pruebas para futuras regulaciones en otras regiones. Algunas exigencias son:

La Ley  exige que estas plataformas eliminen el contenido que es «obviamente ilegal» en un plazo de 24 horas a partir de la recepción de la denuncia.

  • La Ley exige que estas plataformas eliminen el contenido que es «obviamente ilegal» en un plazo de 24 horas a partir de la recepción de la denuncia.
  • Una plataforma que reciba más de 100 quejas en un año debe informar cada dos años sobre el volumen y la gestión de las quejas.

Actualmente, la Ley se limita a los contenidos alemanes. Sin embargo, creemos que es probable que estas medidas se vuelvan más globales, a medida que otros reguladores sigan su ejemplo.

Ya lo hemos visto en Australia y en su repuesta a la reciente tragedia en Nueva Zelanda y a la rápida difusión del vídeo del atacante en los medios sociales. El país aprobó una ley que obliga a las empresas de Internet a alertar a la policía sobre «material violento abominable» y a retirarlo de su sitio.

¿Cómo afecta esta crisis en redes sociales a la inversión?

En 2018, Facebook y Twitter se enfrentaron a las primeras propuestas de sus accionistas, que exigían transparencia y una mejora en la eficacia de sus políticas de moderación de contenidos.

Aberdeen Standard Investments votó a favor de estas resoluciones, aunque no fueron aprobadas. Durante el último año, hemos estado investigando el asunto y sus implicaciones para nuestras inversiones. Esto incluye el examen de varios aspectos:

  • Estándares actuales
  • Nuevas Regulaciones
  • Mecanismos disponibles para identificar y eliminar contenido nocivo

Estos problemas afectan de forma más directa a los proveedores de redes sociales, pero también tienen implicaciones para las empresas que se anuncian en estas plataformas.

Los anunciantes quieren que los usuarios se comprometan con sus productos y servicios, sin que se les asocie con contenidos perjudiciales. La pérdida potencial de ingresos derivada de estas asociaciones podría ser considerable.

De hecho, las grandes compañías, muy enfocadas a clientes como Disney, AT&T, Walmart y Verizon a veces han retirado la publicidad como resultado de enlaces a contenido inapropiado.

A medida que se intensifica el escrutinio público y se introducen nuevas regulaciones, es probable que aumenten los costes asociados con la moderación de los contenidos generados por los usuarios.

Una nueva figura: El moderador de contenidos en redes sociales

Los cambios en las regulaciones y las expectativas públicas requerirán mecanismos más efectivos para moderar el contenido. Para muchas de estas empresas, garantizar el cumplimiento de los estándares por parte de los usuarios depende tanto de la tecnología como de los seres humanos.

Por ejemplo, la Inteligencia Artificial y los algoritmos pueden funcionar para identificar ciertas palabras, pero su capacidad para interpretar el contexto es limitada. Como tal, se requiere la intervención humana y los roles de los moderadores de contenido están creciendo en número.

Los moderadores de contenido son personas empleadas específicamente para revisar el contenido generado por el usuario y que se marca como inapropiado para decidir si lo eliminan del sitio o permiten que permanezca.

La industria de moderación de contenidos colectivos es importante, ya que comprende decenas de miles de subcontratistas, y se espera que crezca significativamente conforme aumente  el contenido generado por los usuarios.

¿Qué forma profesional está tomando esta nueva figura?

Múltiples empresas ofrecen soluciones de outsourcing y estarán en una posición privilegiada para capitalizar las oportunidades comerciales. Sin embargo, las compañías tienen poca información sobre cómo funciona en la práctica la moderación de contenidos.

Llevar a cabo esta labor en línea puede ser extremadamente desagradable y potencialmente traumático. Es alarmante que la mayoría de las empresas proporcionen pocos detalles sobre el apoyo psicológico que se da al personal para tratar con lo que ven y escuchan.

Como industria nueva y emergente, es difícil estimar los costes que va a suponer su implementación. Los moderadores bien cualificados y con capacidad pueden ayudar a las empresas a aprovechar las oportunidades comerciales para satisfacer esta creciente demanda, por lo que es importante que estas firmas inviertan en la contratación, la formación y el apoyo psicológico adecuados para estos empleados.

El riesgo de no hacerlo puede incluir litigios, acciones regulatorias y daños en la reputación.

El lado oscuro de los acuerdos de confidencialidad: la falta de transparencia

En la actualidad no existe ningún supervisor externo de la industria de moderación de contenidos y, por lo general, se prohíbe a los empleados discutir su trabajo a través de acuerdos de confidencialidad. Esto hace que la orientación y las mejores prácticas sean difíciles de identificar.

Sin embargo, se pueden encontrar consejos sobre cómo apoyar a los moderadores de contenido en otros tipos de organismos que trabajan con contenido estresante y con las víctimas de traumas.

  • La Guía de Resistencia de los Empleados de la Coalición Tecnológica para el Manejo de Imágenes de Abuso Sexual Infantil
  • Internet Watch Foundation (IWF)
  • Centro Nacional para Niños Desaparecidos y Explotados de los Estados Unidos (NCMEC)

Esto son buenos ejemplos. Sus recomendaciones incluyen sesiones de formación específicas, planes de autocuidado para los trabajadores y fácil acceso a servicios de asesoramiento, entre otros.

Conclusión: Sigue el debate sobre la moderación de contenidos en redes sociales

Determinar si el contenido es apropiado para el consumo público seguirá siendo el centro de muchos debates.  Sin embargo, las empresas que se enfrentan a la realidad cotidiana del crecimiento exponencial de los contenidos generados por los usuarios se han visto obligadas a actuar. Han creado sus propios estándares, desarrollado soluciones tecnológicas y puesto a trabajar a decenas de miles de moderadores de contenido en todo el mundo.

Las plataformas de medios sociales se enfrentan a riesgos de daños a la reputación, pérdida de usuarios, malas relaciones con los empleados y disminución de los ingresos por publicidad. Estas empresas se enfrentan a un entorno normativo incierto. Esto plantea riesgos nuevos y potencialmente inexplorados para los inversores que necesitan un seguimiento y un compromiso continuos.

Cartel de la Jornada EFPA en Valladolid
Este artículo se ha escrito con motivo de la charla del autor en la Jornada EFPA de Valladolid

¿Te ha gustado este artículo? Consulta más artículos de Aberdeen


Faris Hamadeh, director de Desarrollo de negocio de Aberdeen Standard Investments
También te puede interesar
Marketing Digital para asesores financieros en EFPA
Marketing digital para asesores financieros (Webinar EFPA 19/02)
fondos-edufinanciera-efpa
Educación financiera: claves para contratar fondos de inversión

Deja tu comentario

Tu Comentario*

Tu Nombre*
Your Website