Um relatório da NYU oferece um plano para o setor de moderação de conteúdo

O trabalho é um pesadelo. Mas as empresas de tecnologia podem ser capazes de torná-lo um pouco mais humano.

Consertar um dos trabalhos mais desumanos da tecnologia não é uma tarefa invejável.

Os moderadores precisam explorar alguns dos conteúdos mais sombrios que a humanidade tem a oferecer – e o trabalho geralmente é traumatizante. Mas a moderação da IA ​​não é bem até rapé também, o que significa que os humanos são uma necessidade infeliz.



Mas em um novo relatório , o professor da NYU Paul M. Barrett tem algumas ideias para renovar a indústria – começando com uma grande. Em vez de terceirizar moderadores de conteúdo, ele argumenta, empresas como o Facebook precisam contratá-los como trabalhadores em tempo integral.



olhos verdes e sardas

Como a moderação de conteúdo deu tão errado

As grandes empresas de tecnologia atualmente “marginalizam as pessoas que fazem moderação de conteúdo” para se dar uma “negação plausível” sobre falhas de conteúdo, de acordo com o relatório.

Os moderadores de conteúdo do Facebook são muitas vezes subcontratados . Muitos trabalhavam para uma empresa chamada Cognizant, ganhando salários tão baixos quanto ~ $ 28k e recebendo poucos benefícios de saúde. (Em outubro passado, Cognizant deixou o negócio.)

Depois que uma série de moderadores recebeu diagnósticos de TEPT, eles processaram o Facebook – e no mês passado, a empresa concordou em desembolsar US$ 52 milhões para 11.250 de seus moderadores.

Mas os moderadores dizem que estão impedidos de “expressar preocupações e contribuir para a discussão pública”. Um grupo de moderadores na segunda-feira solidariedade expressa com paralisações virtuais no Facebook, escrevendo: “Nós sairíamos com você – se o Facebook permitisse”.

O novo plano de ação de moderação

Aqui estão mais algumas das prescrições de Barrett:

jogo de amor escorpião aries
  • Dobrar o número de moderadores humanos . Os moderadores poderão alternar os turnos com mais frequência e, em geral, visualizar o conteúdo menos aterrorizante.
  • Coloque equipes de moderação em todos os países. Moderadores treinados em idiomas e políticas locais são mais adequados para investigar postagens inadequadas.
  • Dê aos moderadores mais apoio à saúde mental . Aconselhamento de trauma é urgentemente necessário - mas a maioria tem dificuldade em obtê-lo.