Zuckerberg reconhece erros do Facebook

880
Zuckerberg reconhece erros do Facebook

O Facebook finalmente quer ser mais transparente na gestão do conteúdo que é veiculado em sua plataforma. Esta foi a mensagem que a empresa tentou passar nesta quinta-feira (15) em uma teleconferência que contou com a presença do executivo-chefe Mark Zuckerberg e da qual o UOL Tecnologia participou.

O chefão da rede social ainda publicou um extenso documento descrevendo seus planos, que envolvem desde relatórios trimestrais de transparência até a instalação de um órgão independente para apelações de conteúdos reportados.

No olho do furacão desde que o escândalo do Cambridge Analytica explodiu no início de 2018, a empresa tem adotado medidas gradativas nesse sentido, mas tardou a tomar uma postura mais contundente. A explicação dada por Zuckerberg nesta quinta foi a mais completa feita pela empresa até então, detalhando números da atuação do Facebook no combate a discurso de ódio, fake news, bullying, além da apresentação de medidas claras para diminuir o impacto desses problemas no futuro.

A apresentação foi aberta com um discurso do chefão da empresa, que traçou um paralelo entre o conteúdo danoso espalhado dentro da rede social com o crime nas ruas de qualquer cidade: ele vai acontecer, o objetivo é combatê-lo e diminuir a incidência ao máximo.

Acompanhado de Guy Rosen, vice-presidente de gestão de produtos, e Monika Bickert, chefe global de gestão de políticas, Zuckerberg respondeu a perguntas de jornalistas por mais de uma hora, deu detalhes de como a empresa tem atuado e como irá atuar em um futuro próximo.

Rosen detalhou a importância de ferramentas de inteligência artificial para o monitoramento de conteúdo que violasse as políticas da plataforma. Segundo ele, a automatização de parte desses processos libera os moderadores humanos para os trabalhos que exigem mais nuance, como discurso de ódio ou bullying, duas modalidades de conteúdo que as máquinas têm dificuldade de identificar corretamente. Ainda assim, erros acontecem e são numerosos.

“Hoje, dependendo do tipo de conteúdo, nossos times de revisão tomam a decisão errada em mais de um em cada 10 casos.”

Zuckerberg

O executivo-chefe apontou a parceria entre revisores e inteligência artificial como uma forma de agir mais proativamente na remoção de conteúdos irregulares, não só na base das denúncias de usuários que já viram o material que vai contra as regras do Facebook.

As ações combinadas fizeram com que 1,5 bilhão de contas falsas, fontes de spam, desinformação e campanhas de informação coordenadas fossem removidas nos últimos dois trimestres.

Apesar dos avanços, Zuckerberg ainda vê muito espaço para melhorias. “Transparência é uma das maiores áreas que eu acho que precisamos fazer mais. Nos últimos meses, temos feito mais dessas ligações quando achamos ações coordenadas e não autênticas, vamos ao telefone e tentamos responder as perguntas difíceis de pronto, para as pessoas entenderem como lidamos com isso”, afirmou.

O executivo admitiu que as violações das regras do Facebook nunca terão fim, mas o objetivo da empresa é diminuir a incidência delas:

“Esses não são problemas que você conserta, você administra – e precisamos chegar a um bom nível, onde a quantidade de conteúdo danoso é baixa. Vamos melhorando, continuamente, e ficando à frente de novas ameaças que surgirem. A expectativa que devemos ter é: existirão problemas contínuos de conteúdo. Se damos a voz às pessoas, algumas pessoas vão postar coisas ruins.”

O executivo também mostrou preocupação com a polarização crescente estimulada pela plataforma, evidenciada por conteúdos sensacionalistas que estão próximos dos limites estabelecidos pelas políticas do Facebook. Esse tipo de material é o que gera maior envolvimento dos usuários, o que aumenta o alcance de publicações desse gênero.

A empresa usará inteligência artificial para identificar sensacionalismo e derrubar o alcance desse tipo de material, em um esforço para diminuir a quantia de pessoas afetadas por esse tipo de conteúdo, que, embora não seja irregular, pode “piorar a qualidade” dos serviços do Facebook.

Juízes externos

Como uma forma de transparência (ou seria transferência de responsabilidade?), Zuckerberg anunciou a criação de um comitê externo, independente à rede social, que permitirá que usuários recorram sobre casos de conteúdos derrubados ou de denúncias não acatadas.

Ele não será a primeira esfera para a qual os usuários poderão recorrer, mas a última. Antes disso, os recursos pedidos passarão pelos sistemas automatizados, depois por uma avaliação humana interna do Facebook e só então chegarão ao órgão externo.

O executivo entende que a montagem desse comitê será difícil, mas quer começar os testes dele em 2019: “É um balanço difícil de acertar, mas é muito importante.”

Outra preocupação com a isenção da plataforma tem a ver com os algoritmos que julgam o que é conteúdo perigoso dentro da plataforma. Tendo isso em vista, a empresa também têm estudado a questão ética de suas inteligências artificiais, para torná-las o mais imparcial possível.