;(function() { window.createMeasureObserver = (measureName) => { var markPrefix = `_uol-measure-${measureName}-${new Date().getTime()}`; performance.mark(`${markPrefix}-start`); return { end: function() { performance.mark(`${markPrefix}-end`); performance.measure(`uol-measure-${measureName}`, `${markPrefix}-start`, `${markPrefix}-end`); performance.clearMarks(`${markPrefix}-start`); performance.clearMarks(`${markPrefix}-end`); } } }; /** * Gerenciador de eventos */ window.gevent = { stack: [], RUN_ONCE: true, on: function(name, callback, once) { this.stack.push([name, callback, !!once]); }, emit: function(name, args) { for (var i = this.stack.length, item; i--;) { item = this.stack[i]; if (item[0] === name) { item[1](args); if (item[2]) { this.stack.splice(i, 1); } } } } }; var runningSearch = false; var hadAnEvent = true; var elementsToWatch = window.elementsToWatch = new Map(); var innerHeight = window.innerHeight; // timestamp da última rodada do requestAnimationFrame // É usado para limitar a procura por elementos visíveis. var lastAnimationTS = 0; // verifica se elemento está no viewport do usuário var isElementInViewport = function(el) { var rect = el.getBoundingClientRect(); var clientHeight = window.innerHeight || document.documentElement.clientHeight; // renderizando antes, evitando troca de conteúdo visível no chartbeat-related-content if(el.className.includes('related-content-front')) return true; // garante que usa ao mínimo 280px de margem para fazer o lazyload var margin = clientHeight + Math.max(280, clientHeight * 0.2); // se a base do componente está acima da altura da tela do usuário, está oculto if(rect.bottom < 0 && rect.bottom > margin * -1) { return false; } // se o topo do elemento está abaixo da altura da tela do usuário, está oculto if(rect.top > margin) { return false; } // se a posição do topo é negativa, verifica se a altura dele ainda // compensa o que já foi scrollado if(rect.top < 0 && rect.height + rect.top < 0) { return false; } return true; }; var asynxNextFreeTime = () => { return new Promise((resolve) => { if(window.requestIdleCallback) { window.requestIdleCallback(resolve, { timeout: 5000, }); } else { window.requestAnimationFrame(resolve); } }); }; var asyncValidateIfElIsInViewPort = function(promise, el) { return promise.then(() => { if(el) { if(isElementInViewport(el) == true) { const cb = elementsToWatch.get(el); // remove da lista para não ser disparado novamente elementsToWatch.delete(el); cb(); } } }).then(asynxNextFreeTime); }; // inicia o fluxo de procura de elementos procurados var look = function() { if(window.requestIdleCallback) { window.requestIdleCallback(findByVisibleElements, { timeout: 5000, }); } else { window.requestAnimationFrame(findByVisibleElements); } }; var findByVisibleElements = function(ts) { var elapsedSinceLast = ts - lastAnimationTS; // se não teve nenhum evento que possa alterar a página if(hadAnEvent == false) { return look(); } if(elementsToWatch.size == 0) { return look(); } if(runningSearch == true) { return look(); } // procura por elementos visíveis apenas 5x/seg if(elapsedSinceLast < 1000/5) { return look(); } // atualiza o último ts lastAnimationTS = ts; // reseta status de scroll para não entrar novamente aqui hadAnEvent = false; // indica que está rodando a procura por elementos no viewport runningSearch = true; const done = Array.from(elementsToWatch.keys()).reduce(asyncValidateIfElIsInViewPort, Promise.resolve()); // obtém todos os elementos que podem ter view contabilizados //elementsToWatch.forEach(function(cb, el) { // if(isElementInViewport(el) == true) { // // remove da lista para não ser disparado novamente // elementsToWatch.delete(el); // cb(el); // } //}); done.then(function() { runningSearch = false; }); // reinicia o fluxo de procura look(); }; /** * Quando o elemento `el` entrar no viewport (-20%), cb será disparado. */ window.lazyload = function(el, cb) { if(el.nodeType != Node.ELEMENT_NODE) { throw new Error("element parameter should be a Element Node"); } if(typeof cb !== 'function') { throw new Error("callback parameter should be a Function"); } elementsToWatch.set(el, cb); } var setEvent = function() { hadAnEvent = true; }; window.addEventListener('scroll', setEvent, { capture: true, ive: true }); window.addEventListener('click', setEvent, { ive: true }); window.addEventListener('resize', setEvent, { ive: true }); window.addEventListener('load', setEvent, { once: true, ive: true }); window.addEventListener('DOMContentLoaded', setEvent, { once: true, ive: true }); window.gevent.on('allJSLoadedAndCreated', setEvent, window.gevent.RUN_ONCE); // inicia a validação look(); })();
  • AssineUOL
Topo

Facebook: Brasil é um dos três países que mais precisam de moderação

Getty Images
Imagem: Getty Images

Marcella Duarte

Colaboração para Tilt, em São Paulo

28/10/2021 12h48

O Brasil é um dos três países que mais precisam de moderação de conteúdo do Facebook, ao lado de Índia e Estados Unidos, segundo demonstram documentos vazados por funcionários da empresa e pela ex-gerente e delatora s Haugen. O caso está sendo chamado de "Facebook Papers" (Documentos do Facebook, em tradução direta).

De acordo com os arquivos internos da empresa, desde o final de 2019, a plataforma mantém um ranking de nações que demandam atenção especial, principalmente em períodos delicados, como eleições, manifestações e instabilidade social. Brasil, EUA e Índia estão no topo, o "nível 0" (tier 0), de prioridade máxima.

Eles são os que recebem mais recursos e um trabalho proativo de moderação, incluindo equipes especializadas dedicadas 24 horas por dia, com auxílio de inteligência artificial. O Facebook estabeleceu verdadeiras "salas de guerra", oficialmente chamadas de "centros de operações aprimoradas", para monitorar a plataforma nestes três países constantemente.

De acordo com as investigações:

  • No "nível 1" (tier 1), estão Indonésia, Israel, Irã, Itália e Alemanha. Eles recebem menos recursos, com atenção especial apenas na época de eleições.
  • No "nível 2" (tier 2), há outros 22 países, sem "salas de guerra".
  • No "nível 3" (tier 3), está o resto do mundo que o Facebook funciona. Na categoria, existe mínima intervenção e a avaliação de conteúdo é quase inexistente: uma postagem indevida só é retirada do ar caso seja localizada manualmente por um moderador.

Apenas no caso de crises e eventos extraordinários, como golpes de Estado e violações aos direitos humanos, um desses países ou regiões do grupo três pode receber esforços mais ativos, temporariamente.

Ou seja, apenas as 30 nações com mais usuários e os à rede social contam de fato com revisão das postagens. De acordo com os documentos internos, o ranking —criado meses antes das últimas eleições presidenciais norte-americanas, em 2020— foi uma maneira de distribuir melhor o uso dos recursos de moderação pelo mundo.

Consequências da desigualdade

Com cerca de 3 bilhões de usuários, a empresa preferiu fazer escolhas e priorizar os locais em que é mais popular do que dividir os recursos igualmente. Essa desigualdade de moderação tem sido alvo de críticas nos últimos anos.

Países como Mianmar, Paquistão e Etiópia, apesar de constantemente atravessarem conflitos sectários, políticos e sociais, não contam com classificadores de conteúdo, o que contribui para o aumento da disseminação de violência e ódio na rede social.

Em Mianmar a situação é ainda pior, pois o Facebook é a principal maneira de navegação na Internet, devido aos constantes blecautes e à censura imposta pelo governo.

Uma das grandes barreiras é o idioma: a empresa não tem especialistas, como tradutores e moderadores, suficientes que falem a língua de boa parte dos países de nível 2 e 3. Só assim seria possível detectar discursos de ódio e fake news, além de treinar a inteligência artificial para fazer o mesmo.

"Temos equipes dedicadas que trabalham para impedir o abuso em nossa plataforma em países onde há alto risco de conflito e violência. Também temos equipes globais com falantes nativos que revisam o conteúdo em mais de 70 idiomas, juntamente com especialistas em questões humanitárias e de direitos humanos", garantiu um porta-voz do Facebook ao site Insider.

"Fizemos progresso no enfrentamento de grandes desafios, como a evolução de termos de discurso de ódio, e construímos novas maneiras de responder rapidamente aos problemas quando eles surgirem. Sabemos que esses desafios são reais e estamos orgulhosos do trabalho que fizemos até agora."