O algoritmo

Texto originalmente publicado em Blogueiras Negras por Charô Nunes

 

Um texto para a felicidade, nossos pais e mães, para Dona Neide e Seu Betto, para as amigas e amores.

Obrigada.

Muito se fala sobre “o” algoritmo. Essa expressão tem ganhado força com as redes sociais e não raro dão a impressão de que muito do que acontece nesses ambientes são resultado de uma simples construção matemática. Bem, estamos longe disso. Na realidade, as trocas das redes são parte de algo maior, que tem muito mais a ver com pessoas do que com matemática. Existe uma norma que determina como as coisas dentro e fora da internet são? Como as próprias redes e empresas de tecnologia funcionam? Tem muito mais a ver com história, privilégios e o quão próximo alguém está de uma figura branca cisheteronormativo.

Quando ouço tais palavras não deixo de pensar em Alan Turing, um matemático inglês vitimado através da castração química pelo governo britânico, porque ser homossexual (e qualquer coisa que não hetero) era considerado crime no País de Gales até 1967. Também na Escócia até 1980 e na Irlanda do Norte até 1982.

O matemático também “quebrou”, ou melhor, “decifrou” a máquina Enigma durante a Segunda Guerra Mundial. Este mecanismo, muito parecido com uma máquina de escrever antiga, tornava indecifráveis as mensagens alemãs durante o conflito. Estima-se que este feito encurtou a guerra em alguns anos, salvou muitas vidas e colocou um fim no III Reich.

Turing percebeu que precisava entender qual era a lógica usada para embaralhar as mensagens ao invés de apenas tentar ler cada uma delas. Uma tarefa inhumana, pois “quebrar” uma máquina seria tarefa de outra máquina. Foi neste momento que o pai da computação moderna inventou o primeiro computador para entender as leis que regiam aquele código.

UM CONJUNTO DE INSTRUÇÕES

Para quebrar Enigma foi preciso compreender que se tratava de um algoritmo e decifrá-lo. Este é o tipo de estória que parece distante da nossa realidade. Coisa de matemáticos. Mas se você olhar ao lado, perceberá que tudo a sua volta obedece um conjunto de instruções executadas de maneira específica. O modo como uma pedra cai ou porque alguns mal limpam o chão da própria casa.

A maneira como a sociedade indiana se estrutura, por exemplo. Existe um conjunto muito específico de regras para que alguém esteja nesta ou naquela casta. Os Shudras, que nasceram ao pé de Brahma, teriam sido destinados a serem servos. Os Brahmin por outro lado estariam destinados a ser letrados, intelectuais, próximos aos deuses.

Existe um algoritmo que define tais leis, que não são de forma alguma naturais, mas refletem um conjunto de regras sociais, econômicas, ideológicas e até mesmo semióticas que são resultado das disputas e toda sorte de interação entre diversos segmentos da população. Estas lógicas também contaminam quem faz tecnologia e ciência, fazem com que estes não sejam produtos isentos diante das questões de seu tempo.

No Brasil, assim como na Índia, roda o mesmo tipo de algoritmo em nossa sociedade. Ambos considerados obsoletos e ilegais, mas ainda decisivos para saber quem pode entrar em determinado espaço (ou não) tais como na universidade ou pisar no chão de fábrica. Algumas das variáveis são cor da pele, classe social, gênero, identidade de gênero, tipo de corpo, idade, orientação sexual, pertencimento territorial, ausência ou presença de doenças.

Podemos dizer que esse algoritmo, a Liberdade de Ofensa, determina quais corpos são considerados descartáveis e dispensáveis, podendo ser até mesmo mortos pelos operadores do sistema. Sim, não se trata de uma simples regra matemática, mas de um conjunto de coisas que precisa ser operada. A escravização e a ausência de pessoas negras nos espaços de poder tem a mão daqueles que se beneficiam direta ou indiretamente da branquitude.

Ou seja, o crime tem nome e sobrenome.

COMUNICAÇÃO

A comunicação também é um algoritmo, uma ferramenta que podendo ser usada para qualquer propósito, não está obviamente isenta de ser influenciada pelos interesses de quem faz uso dela. Muito menos dos algoritmos que rodam fora dos ambientes tecnológicos. Num país onde poucas famílias detém o monopólio das empresas do ramo, e muito recentemente assumimos oficialmente o posto de maior concentração de renda entre os 1% mais ricos, isso é especialmente verdade.

Na realidade a comunicação feita por nossas elites têm reproduzido quase que fielmente os algoritmos que determinam violências racistas por exemplo. Estamos diante de um algoritmo perverso que se caracteriza pelo monopólio capitalista daquilo que deveria ser um direito. Assim, empresas de comunicação são um ponto focal. Muitos questionam os grandes conglomerados das telecomunicações, sem voltar seus olhos para as redes sociais.

Mas a lógica não é a mesma?

O algoritmo que roda nas redes sociais não é o mesmo que roda aqui fora?

Ainda estamos longe por exemplo da diversidade nas empresas de tecnologia. Há grandes empresas transnacionais como o Google que ainda pagam menos para mulheres que executam a mesma função que os homens. Em 2016, apenas 3% dos funcionários do Facebook eram negros e 27% mulheres. Não causa espanto que a primeira tenha sido alvo de questionamentos quando um funcionário publicou um artigo de dez páginas contra a diversidade de gênero e a segunda tenha permitido que o algoritmo executasse buscas antissemitas em seu ambiente. Estamos falando de empresas que não são diversas em quaisquer dos seus setores.

Mas o problema vai além, muito dos algoritmos que estruturam tais empresas podem ser quebrados através de suas práticas. Pensemos nos aplicativos que criam mecanismos para impedir que os usuários deixem seus ambientes. E quando isso é feito, ficamos presos numa caixa de pandora, um dos mecanismos mais eficientes de cercear a livre comunicação. Afinal se você não sai do aplicativo, tende a acreditar que a internet nada mais é que este ambiente restrito.

E isso realmente acontece. Assustadoramente, 55% dos brasileiros acreditam que Facebook e internet são a mesma coisa. No mundo, a Google domina praticamente todas as buscas feitas através do telefone e monopoliza 75% daquelas feitas no computador. A promessa que nos foi feita de que a internet seria um território de livre comunicação de ideias e pessoas não se concretizou, o que afeta enormemente quem faz comunicação como direito humano. Um algoritmo completamente diferente.

Porém uma alternativa é questionar os grandes monopólios com as oportunidades que nos oferecem. Conhecendo muito bem o modo como tais empresas funcionam é possível pensar em boas práticas na comunicação livres para lidar com a censura velada de conteúdo e práticas que coíbem a diversidade. Mais ainda neste momento tão sombrio da história brasileira e mundial, em que o cerceamento do discurso se tornou prática corrente.

BOAS PRÁTICAS

E o que fazer nesse cenário funesto? A sinceridade nos obriga a dizer que seria muita inocência dizer que você deve sair das redes sociais. Até mesmo porque se a gente sai desses espaços, eles se tornaram aquilo que foram feitos para ser, brancos. É bom saber que estamos disputando cada centímetro. Por isso, com humildade, gostaria de deixar algumas recomendações simples para ajudar nesse movimento de estar em espaços que nos são hostis.

Lembrando que o Blogueiras Negras tem uma guia porreta sobre Segurança na Rede.

01. Planeje por onde sua informação circula

Michelin é uma empresa francesa que produz pneus e faz aquele boneco branco e estranho que muitos de nós conhecemos. Também são os responsáveis pelas estrelinhas que os chef de cozinha se empenham para conseguir. Ser três estrelas é para poucos. Um privilégio.

Mas o que isso tem a ver com comunicação?

Antes de ser uma referência de conteúdo, o guia era distribuído gratuitamente, o que mudou quando seu criador viu um dos exemplares ser usado como calço para roda de um carro. A partir de então ele passou a ser vendido, deixando ainda mais evidente que se tratava de um negócio, um produto de comunicação muito bem pensado, nunca uma excentricidade.

Os produtos de comunicação são muito mais que novelas, telejornais e assumem os mais diversos formatos e lógicas. Redes sociais por exemplo, não são apenas ambientes que abrigam pessoas, mas locais onde se produz ou se faz circular conteúdo que pode ser vendido. O conteúdo pode ser desde uma informação corriqueira, como a simples data de aniversário, até uma opinião ideológica.

É a partir daí que se faz grandes negócios porque as informações de perfil podem ser repassadas para anunciantes, desejosos de alcançar seu público alvo. É possível encontrar quem goste de rosas, até buscas racistas em mapas, uma intervenção possivelmente humana. Em outro caso emblemático, o algoritmo da Amazon organizou produtos para fazer uma bomba caseira que foram exibidos por quem adquiriu certos itens.

Como comunicadores livres, precisamos entender como estes algoritmos funcionam. E o mais importante, planejar por onde nosso conteúdo vai circular e por que. Nem sempre compartilhar é o ideal. Em alguns casos estudar muito bem o horário pode ser mais importante que impulsionar, ou pagar, para que seu conteúdo seja de fato visto por quem interessa.

Outra decisão crucial é manter perfis apenas em redes que você realmente vai usar e são pertinentes para sua informação. Sempre lembrando que pode ser uma boa garantir que seu nome ou marca não serão indevidamente usados por terceiros em outros ambientes. É o mesmo que André Michelin fez por seu famoso guia.

02. Entenda que likes não tem ética

As redes sociais estão numa encruzilhada. Até o momento não precisaram decidir sobre aquilo que chamamos de ética. O modo de funcionamento é coletar o maior número possível de dados, e apresentá-los sem se preocupar com o modo que isso é feito. Há pouco tempo, o Facebook teve de responder pelo fato de mostrar buscas antissemitas que permitam anunciar para pessoas que “odeiam judeus”.

Isso vai contra as políticas que a comunidade expressa publicamente e muitos argumentam que não se tratam de filtros feitos pela empresa. Porém, ainda que se trate de uma consequência do uso feito por pessoas intolerantes, continuamos diante de um ambiente que nem sempre é afeito à diversidade e aos direitos humanos. Logo, é preciso tomar medidas de proteção.

Isso é primordial porque hoje a informação circula predominantemente através de redes sociais. Apesar de serem ambientes por vezes questionáveis, se o seu conteúdo não estiver nestas plataformas, será virtualmente invisível e irrelevante. Para quem está começando, uma dose extra de paciência e dedicação serão necessários para conquistar cada curtida.

O maior dos desafios é entender que, num ambiente que lucra com a circulação de conteúdo, likes não têm ética. Mas o que isto significa? Que um post de discurso de ódio que circula e recebe likes gera tanta informação quanto um post de direitos humanos que circula e recebe likes. E toda informação pode ser vendida e gerar lucro.

É por isso que muitas redes sociais, senão todas, não se empenham em criar mecanismos efetivos para impedir a promoção de discurso de ódio, afinal até ele pode ser moeda de lucro e negociação como vimos nos casos em que as empresas criam filtros racistas para organizar suas comunidades. Nesses ambientes, que não são diversos, um outro fenômeno curioso ocorrer. Como essas empresas têm perfis cisheteronormativos, o defesa dos direitos humanos pode ser criminosamente considerada discurso de ódio.

Observe os discursos que chegam no topo das buscas das redes sociais. Nem sempre são as negras mais retintas, mais velhas e mais gordas a falar. Nem sempre são as mulheres periféricas com a primazia da fala. Ainda que muitas empresas – mais do que no passado recente – estejam se apropriando do conceito de empoderamento, que se distorce mais e mais.

Estamos falando de meios sofisticados de se fazer censura ou ainda, políticas raciais nas redes. Tomemos por exemplo o algoritmo que roda aqui fora para entender como ele funciona também online.

O Brasil é especialista em fazer políticas raciais excludentes sem citar a palavra raça. Do mesmo modo, é possível fazer com que redes sociais construídas sob regras aparentemente diversas sejam hostis a determinados grupos. Veja o caso de mulheres negras que não conseguem usar a palavra sapatão em espaços online sem serem perseguidas. Ou são acusadas de obscenidade, tendo seus conteúdos considerados apropriados apenas para maiores.

Isso afeta quem faz a informação, mas também quem precisa dela. Muitas destas vozes representam a única fonte de educação sexual para adolescentes, pessoas que precisam de conteúdo mais que nunca. Afinal tal conteúdo não será estudado na escola ou em casa, ambientes que podem ser facilmente contaminados pela cisheteronormatividade.

Busque entender quais são as regras das comunidades online em que você escolheu estar e sempre se questione o motivo pelo qual seu conteúdo não recebe o mesmo alcance que outro, mais palatável do ponto de vista dos direitos humanos. Ou ainda, como reagir diante de um discurso de ódio que não quer viralizar.

03. Entenda o que é sua mensagem na fila do pão para não precisar impulsioná-la

Algumas redes sociais vivem da venda de informações para anunciantes que procuram o alvo ideal. Do ponto de vista dos comunicadores, isto significa que seremos pressionados a pagar para que nosso conteúdo seja visto. Seja porque estamos em busca das primeiras curtidas, seja porque o número delas estacionou.

O que é muito contraditório porque estamos produzindo informação cada vez que compartilhamos algo. O algoritmo mais lógico seria sermos pagos para estar nestas redes, porque estamos colaborando com o lucro da empresa que gere a rede social. Mas há alternativas.

Entender quem você é na fila do pão significa que vai compreender qual é a sua mensagem e qual o público que pretende alcançar. Por exemplo, deixar bem enegrecido que seu discurso tem como escopo o feminismo interseccional pode parecer algo muito simples, porque se trata de nossas vidas e nossos corpos, mas nem sempre é assim.

Porque o segundo passo é transformar isso em etiquetas ou hashtags. Este é um dos modos de usar a ferramenta ao seu favor, porque quanto mais souber usar estas definições, mas seu conteúdo será rapidamente encontrado. Inclusive por pessoas que estão fora do país e da sua bolha.

Não tenha medo de usar tantas etiquetas quantas forem necessárias. Tenha apenas o cuidado de fazer que não interfiram no conteúdo em si. Reunir todas as hashtags ao final dos post #é #bem #mais #agradável #que #deixar #tudo #no #meio #do #texto. Isso pode afugentar leitores e não convidá-los a participar da discussão.

04. Não é crime

No Brasil vivemos um cerceamento tão perverso que alguns assuntos, como aborto e direitos sexuais e reprodutivos ou legalização das drogas, não podem ser sequer discutidos. Estaríamos incidindo em apologia ao crime, quando estamos na realidade diante da criminalização da luta por direitos humanos.

Este algoritmo também pode ser visto nas redes sociais. O mesmo acontece quando alguém classifica seu conteúdo como discurso de ódio e a acusação é acatada por quem processa tais informações. Isto se dá pelo fato de que a vasta maioria dos funcionários das redes sociais são brancos, por exemplo. Existe uma grande probabilidade de que classifiquem a luta de pessoas negras como indesejáveis.

A solução é persistir quantas vezes se fizerem necessárias. Por exemplo, caso seu post tenha caído por usar a palavra travesti, faça um post explicando como isso aconteceu e o porquê. Falar sobre o próprio silenciamento é muito importante para que não volte a acontecer. E se acontecer, você poderá denunciar o processo de censura em si.

05. Proteja seu conteúdo

Muitas pessoas fazem páginas em redes sociais e não apenas compartilham o conteúdo nestes ambientes, mas produzem. Isso não é de todo ruim, porém é preciso entender que no Vale do Silício onde está a sede de grandes empresas de tecnologia e conteúdo, nada é para sempre.

Quem se lembra de como o Orkut foi absoluto e de como, num belo dia, acabou. Não sem levar para o cemitério do conteúdo uma quantidade sem fim de textos e imagens. Muitas plataformas para blogar tiveram o mesmo destino. Então o mais sensato é proteger seu conteúdo para que não seja afetado pelo fim da rede que você usa.

É importante tomar duas decisões. A primeira delas é fazer cópias de segurança do seu conteúdo, seja o perfil pessoal ou institucional. Outra medida de segurança é manter espaços seguros para abrigar sua informação, sem que isso coloque em conflito a autoria do mesmo. Vide o exemplo dos blogues.

Nos domínios próprios você decide quando e como fazer cópias de segurança, porém isto ainda requer alguns cuidados. Por exemplo, quando seu blog for indexado, não pode haver dúvidas de que os textos foram originalmente publicados neste ambiente.

Se o mesmo texto for publicado em outro domínio pode haver conflito. Agora, compartilhar o mesmo conteúdo em formatos diferentes como texto, áudio e/ou vídeo pode ser uma estratégia muito bem vinda. Assim mais pessoas são alcançadas e não haverá conflitos entre os ambientes. Apenas se lembre que a cada rede escolhida, haverá uma cópia a mais para fazer.

06. Bolhas, biomas de conteúdo

Muito se fala, de modo pejorativo infelizmente, sobre como os ambientes das redes sociais criam bolhas onde as pessoas falam apenas com elas mesmas e com pessoas que pensam de modo similar. Mas e se pudermos usar algo que é aparentemente limitador a nosso favor?

As bolhas são como biomas de conteúdo que agrupa pessoas que têm afinidades mas nunca, nunca, as mesmas opiniões sobre tudo. Por isso aproveite estes ambientes como ferramentas de aprendizagem para ouvir seus pares, confrontar suas próprias ideias e construir argumentos para o que discorda.

Neste meio tempo, aprenda a lidar com discurso de ódio. O mais importante é não os apagar para que se possa produzir provas em caso de processos legais. Também tenha todo controle sobre suas próprias informações. Não deixe públicas (e até mesmo privadas) informações pessoais que revelem seus dados pessoais.

07. Saiba quais são as rotas de fuga

Estamos num momento de franca instabilidade para a livre imprensa. O Brasil é um dos países que mais mata jornalistas em exercício da sua profissão. Comunicadores também tem sua prática fortemente afetada pelo ambiente de retrocesso que contamina a política, as relações institucionais e promover retrocessos. O golpe continua em marcha.

Entenda quais são as lutas que você (seja indivíduo ou organização) está preparado para encampar. É preciso ter infraestrutura para deixar o conteúdo em segurança e o mais importante, você mesmo. Lembrando que muitas redes sociais, coagidas por governos locais comprometidos com a criminalização de ativistas, podem fornecer seus dados para investigadores.

E isso pode ser especialmente valoroso para se proteger de odiadores que atravessam bolhas para promover discursos de ódio. Saiba quais são os órgãos que podem ajudar em caso de ataque e quais os melhores procedimentos que podem variar desde a recuperação de um perfil até colocar o site num servidor feminista e ter um e-mail relativamente mais seguro.

08. Não abandone as redes, ocupe.

Nossas recomendações não são um convite para que as redes sociais sejam deixadas de lado por comunicadores. Isso infelizmente é virtualmente impossível seja porque ainda não há alternativas completamente seguras ou porque é lá que está grande parte das pessoas que usam a internet.

Não podemos prescindir desses espaços, até mesmo para poder problematizá-los pelo lado de dentro. Isso significa tomar uma série de medidas de segurança para proteger a si e ao seu conteúdo. O que significa em consequência produzir conteúdo com muita responsabilidade, sobretudo em condições adversas e tantas vezes hostis à premissa de que comunicação é um direito humano.

Bibliografia

DN, Lusa. Alan Turing foi perdoado. Reino Unido indulta homossexuais condenados por antiga lei. Diário de Notícias. Janeiro, 2017. Consultado em Outubro de 2017. Disponível em https://www.dn.pt/mundo/interior/alan-turing-foi-perdoado-reino-unido-indulta-homossexuais-condenados-por-antiga-lei-5639719.html

The Enigma of Alan Turing. Central Intelligence Agency of United States. Consultado em Outubro de 2017. Disponível em https://www.cia.gov/news-information/featured-story-archive/2015-featured-story-archive/the-enigma-of-alan-turing.html

Reuters. Facebook eleva pouco a diversidade de raça e gênero entre funcionários. G1. Agosto, 2016. Consultado em Outubro de 2017. Disponível em http://g1.globo.com/tecnologia/noticia/2016/07/facebook-eleva-pouco-diversidade-de-raca-e-genero-entre-funcionarios.html

SUMARES, Gustavo. 55% dos brasileiros acham que o Facebook é a internet, diz pesquisa. Olhar Digital. Janeiro, 2017. Consultado em Outubro de 2017. Disponível em https://olhardigital.com.br/noticia/55-dos-brasileiros-acham-que-o-facebook-e-a-internet-diz-pesquisa/65422

ZACK, Clélia. Guide Michelin, l’histoire de la saga. LCI. Maio, 2011. Consultado em Outubro de 2017. Disponível em http://www.plurielles.fr/recettes-cuisine/actus/guide-michelin-l-histoire-de-la-saga-6504163-402.html

Redação Exame. Busca com termos racistas no Google Maps leva à Casa Branca. Exame. Maio, 2015. Consultado em Outubro de 2017. Disponível em https://exame.abril.com.br/tecnologia/busca-com-termos-racistas-no-google-maps-leva-a-casa-branca/

Amazon acusada de ajudar clientes a comprar componentes de bombas artesanais. Setembro. Diário de notícias. Setembro, 2017. Consultado em Outubro de 2017. Disponível em https://www.dn.pt/dinheiro/interior/amazon-acusada-de-ajudar-clientes-a-comprar-componentes-de-bombas-artesanais-8784977.html

AFP. Facebook elimina “filtros antissemitas” para anunciantes. Exame. Setembro, 2017. Consultado em Outubro de 2017. Disponível em https://exame.abril.com.br/tecnologia/facebook-elimina-filtros-antissemitas-para-anunciantes/

Quanto dinheiro o Facebook ganha com você (e como isso acontece). BBC Brasil. Novembro, 2016. Consultado em Outubro de 2017. Disponível em http://www.bbc.com/portuguese/internacional-37898626

WU, Tim. Facebook Should Pay All of Us. New Yorker. Agosto, 2015. Consultado em Outubro de 2017. Disponível em https://www.newyorker.com/business/currency/facebook-should-pay-all-of-us

HUDDLESTON JR, Tom. Facebook’s Hate Speech Rules Make ‘White Men’ a Protected Group. Fortune. Junho, 2017. Consultado em Outubro de 2017. Disponível em http://fortune.com/2017/06/28/facebook-hate-speech-censorship-policies/

GUYNN, Jéssica. Twitter users are diverse but not its staff. Usa Today. Janeiro, 2017. Disponível em https://www.usatoday.com/story/tech/news/2017/01/19/twitter-diversity-2016/96749454/

COVRE, Giulia. YouTube está censurando clipes de artistas e conteúdo LGBT com novo recurso. Papel pop. Março, 2017. Consultado em Outubro de 2017. Disponível em http://www.papelpop.com/2017/03/youtube-esta-censurando-clipes-de-artistas-e-conteudo-lgbt-com-novo-recurso/

MENDONÇA, Camila. Limites da liberdade de expressão na democracia. Conjur. Junho, 2011. Consultado em Outubro de 2017. Disponível em http://www.conjur.com.br/2011-jun-04/diferenca-entre-apologia-propor-descriminalizacao-drogas

SALAS, Javier. Usuários transformam seus murais no Facebook em ‘bolhas’ ideológicas. El país. Maio, 2015. Consultado em Outubro de 2017. Disponível em https://brasil.elpais.com/brasil/2015/05/06/tecnologia/1430934202_446201.html

VENTURA, Felipe. Este webmail criptografado “à prova de NSA” é simples de usar e gratuito. Gizmodo Brasil. Maio, 2014. Consultado em Outubro de 2017. Disponível em http://gizmodo.uol.com.br/protonmail-email-seguro/

Escrito em outubro de 2016. Revisado em dezembro de 2016.

Imagem de destaque – Sage Island