Héroes anónimos: moderadores en la primera línea de la seguridad en Internet

0
3
Héroes anónimos: moderadores en la primera línea de la seguridad en Internet

Uno podría preguntarse, ¿qué hace exactamente un moderador de contenido? Para responder a esa pregunta, empecemos por el principio.

¿Qué es la moderación de contenido?

Aunque el término moderación a menudo se malinterpreta, su objetivo central es claro: evaluar el contenido generado por el usuario por su potencial para dañar a otros. Cuando se trata de contenido, la moderación es el acto de prevenir comportamientos extremos o maliciosos, como lenguaje ofensivo, exposición a imágenes gráficas o videos, y fraude o explotación del usuario.

Hay seis tipos de moderación de contenido:

  1. Sin moderación: sin supervisión o intervención del contenido, donde los malos actores pueden causar daño a otros
  2. Moderación previa: el contenido se analiza antes de que se publique en función de pautas predeterminadas
  3. Moderación posterior: el contenido se analiza después de que se publica y se elimina si se considera inapropiado
  4. Moderación reactiva: el contenido solo se filtra si otros usuarios lo informan
  5. Moderación automatizada: el contenido se filtra y elimina de forma proactiva mediante la automatización impulsada por IA
  6. Moderación distribuida: el contenido inapropiado se elimina en función de los votos de varios miembros de la comunidad

¿Por qué la moderación de contenido es importante para las empresas?

Los comportamientos maliciosos e ilegales, perpetrados por malos actores, ponen a las empresas en riesgo significativo de las siguientes maneras:

  • Pérdida de credibilidad y reputación de marca.
  • Exponer audiencias vulnerables, como niños, a contenido dañino
  • No proteger a los clientes de actividades fraudulentas
  • Perder clientes frente a competidores que pueden ofrecer experiencias más seguras
  • Permitir cuenta falsa o impostor

Sin embargo, la importancia crítica de la moderación del contenido va mucho más allá de la protección de las empresas. Administrar y eliminar contenido confidencial y atroz es importante para todos los grupos de edad.

Como pueden atestiguar muchos expertos en servicios de confianza y seguridad de terceros, se necesita un enfoque múltiple para mitigar la gama más amplia de riesgos. Los moderadores de contenido deben usar medidas preventivas y proactivas para maximizar la seguridad del usuario y proteger la confianza de la marca. En el entorno en línea altamente cargado política y socialmente de hoy, adoptar un enfoque de “esperar y observar” “sin moderación” ya no es una opción.

“La virtud de la justicia consiste en la moderación, regulada por la sabiduría”. — Aristóteles

¿Por qué los moderadores de contenido humano son tan críticos?

Muchos tipos de moderación de contenido implican la intervención humana en algún momento. Sin embargo, la moderación reactiva y la moderación distribuida no son enfoques ideales, porque el contenido dañino no se aborda hasta después de haber sido expuesto a los usuarios. La posmoderación ofrece un enfoque alternativo, donde los algoritmos impulsados ​​por IA monitorean el contenido en busca de factores de riesgo específicos y luego alertan a un moderador humano para verificar si ciertas publicaciones, imágenes o videos son de hecho dañinos y deben eliminarse. Con el aprendizaje automático, la precisión de estos algoritmos mejora con el tiempo.

Aunque sería ideal eliminar la necesidad de moderadores de contenido humano, dada la naturaleza del contenido al que están expuestos (incluido el material de abuso sexual infantil, violencia gráfica y otros comportamientos dañinos en línea), es poco probable que esto sea posible. La comprensión humana, la comprensión, la interpretación y la empatía simplemente no se pueden replicar a través de medios artificiales. Estas cualidades humanas son esenciales para mantener la integridad y la autenticidad en la comunicación. De hecho, el 90 % de los consumidores dice que la autenticidad es importante a la hora de decidir qué marcas les gustan y qué marcas apoyan (frente al 86 % en 2017).

LEAVE A REPLY

Please enter your comment!
Please enter your name here