segunda-feira, 14 de novembro de 2016

Extremismo. Que extremismo?

Como outros gigantes da Economia de Dados, o Facebook deslocaliza a filtragem de dados para um exército de moderadores em empresas localizadas do Oriente Médio ao Sul da Ásia. Isso foi confirmado por Monika Bickert, do Facebook.
Esses moderadores têm um papel no controle daquilo que deve ser eliminado da rede social, a partir de sinalizações dos usuários. Mas a informação é então comparada a um algoritmo, que tem a decisão final.

A silenciosa ditadura do algoritmo
Por Pepe Escobar | Tradução: Inês Castilho | no site Outras Palavras

Em sociedades digitalizadas, decisões cruciais sobre a vida são tomadas por máquinas e códigos. Por que isso multiplica a desigualdade e ameaça o direito à informação e a democracia 

Vivemos todos na Era do Algoritmo. Aqui está uma história que não apenas resume a era, mas mostra como a obsessão pelo algoritmo pode dar terrivelmente errado.
Tudo começou no início de setembro, quando o Facebook censurou a foto ícone de Kim Phuch, a “menina do napalm”, símbolo reconhecido em todo o mundo da Guerra do Vietnã. A foto figurava em post no Facebook do escritor norueguês Tom Egeland, que pretendia iniciar um debate sobre “sete fotos que mudaram a história da guerra”.
Não só o seu post foi apagado, como Egeland foi suspenso do Facebook. O Aftenposten, principal jornal diário da Noruega, propriedade do grupo de mídia escandinavo Schibsted, transmitiu devidamente a notícia, lado a lado com a foto. O Facebook pediu então que o jornal apagasse a foto – ou a tornasse irreconhecível em sua edição online. Antes mesmo de o jornal responder, artigo e foto já haviam sido censurados na página do Aftenposten do Facebook.
A primeira ministra norueguesa, Erna Solberg, protestou contra tudo isso em sua página do Facebook. Também foi censurada. O Aftenposten então sapecou a história inteira em sua primeira página, ao lado de carta aberta a Mark Zuckerberg, assinada pelo diretor do jornal, Espen Egil Hansen, acusando o Facebook de abuso do poder.
Passaram-se 24 longas horas até que o colosso de Palo Alto recuasse e “desbloqueasse” a publicação.
Uma opinião embrulhada em código
O Facebook empenhou-se ao máximo para controlar os danos depois do episódio. Isso não alterou o fato de que o inbroglio “menina da napalm” é um clássico drama do algoritmo, como ocorre na aplicação de inteligência artificial para avaliar conteúdo.
Como outros gigantes da Economia de Dados, o Facebook deslocaliza a filtragem de dados para um exército de moderadores em empresas localizadas do Oriente Médio ao Sul da Ásia. Isso foi confirmado por Monika Bickert, do Facebook.
Esses moderadores têm um papel no controle daquilo que deve ser eliminado da rede social, a partir de sinalizações dos usuários. Mas a informação é então comparada a um algoritmo, que tem a decisão final.
Não é necessário ter PhD para perceber que esses moderadores não têm, necessariamente, vasta competência cultural, ou capacidade de analisar contextos. Isso para não mencionar que os algoritmos são incapazes de “entender” contexto cultural e certamente não são programados para interpretar ironia, sarcasmo ou metáforas culturais.
Os algoritmos são literais. Em poucas palavras, são uma opinião embrulhada em código. E no entanto, estejamos atingindo um estágio em que a máquina decide o que é notícia. O Facebook, por exemplo, conta agora apenas com o algoritmo para definir quais hstórias coloca em destaque.
Pode haver um lado positivo nessa tendência – como o Facebook, o Google e o YouTube usarem sistemas para bloquear rapidamente vídeos do ISIS e propaganda jihadista semelhante. Logo estará em operação eGLYPH – um sistema que censura vídeos violam supostos direitos autorais por meio  “hashing”, ou codificação para busca rápida. Uma única marca será atribuída a vídeos e áudios considerados “extremistas”, possibilitando assim sua remoção automática em qualquer nova versão e bloqueando novos uploads.
E isso nos traz para um território ainda mais turvo; o próprio conceito de “extremista”. E os efeitos, sobre todos nós, de sistemas de censura baseados em lógica algorítmica.
Como as Armas de Destruição Matemática controlam nossa vida
É neste cenário que um livro como Armas de Destruição em Math [ou “Armas de Destruição Matemática”] de Cathy O’Neil (Crown Publishing), torna-se tão essencial quanto o ar que respiramos.
Leia na íntegra aqui:  http://outraspalavras.net/posts/a-silenciosa-ditadura-do-algoritmo/

Nenhum comentário:

BRASIL NUNCA MAIS

BRASIL NUNCA MAIS
clique para baixar. Íntegra ou tomos