Bruno Pettersen
Quando hoje pesquisei o termo “Filosofia” no Google obtive 661.000.000 resultados. Os resultados aparecem em uma ordem chamada pelo Google de “relevância”. Mas quem decide o que é relevante?
Um pouco de história dos mecanismos de busca. Os primeiros buscadores, tais como o Altavista e o Yahoo Search, funcionavam de uma forma diferente dos mecanismos atuais. Nesses primeiros buscadores, para que um site aparecesse na pesquisa, o webmaster (o sujeito, ou empresa, que gerencia o site) deveria inserir manualmente o site na lista de buscas. A busca era mais uma lista alfabética ou numérica, do que uma lista de informações relevantes ao usuário. Isso mudou radicalmente com o Google.
Atualmente, o usuário não precisa catalogar nada manualmente. Quando uma página é feita, é inserida no código dela algumas informações que podem ser acessadas pelo mecanismo de busca. Os buscadores acessam essa informação e a ordenam de acordo com um processo computacional chamado algoritmo. Um algoritmo é uma sequência de instruções lógicas e matemáticas, expressas em código, que geram um determinado processo, por exemplo, a ordem pela qual uma informação aparece. Aqui surge o problema: a ordem apresentada não é aleatória, ela é uma decisão impressa em código pelos programadores.
Não sabemos como o algoritmo funciona especificamente, ele é uma fórmula complexa produzida pelos programadores das empresas; mas é possível uma descrição geral. O algoritmo reúne as informações a partir de processos como:
- Qual foi a informação acessada por outros usuários em buscas passadas;
- Como usuários com características semelhantes às minhas pesquisaram;
- Como as minhas informações que eu cedo às plataformas, como Youtube e redes sociais, sugerem certos interesses;
- Páginas monetizadas para aparecer primeiro para pessoas como eu.
Dessa forma, recebo informações e propagandas que são feitas pensando no meu estilo de vida. Mas claro, nada disso é feito para mim em específico, mas para pessoas que são semelhantes a mim. Pessoas que possam ter uma posição x recebem vídeos e pesquisas que são dirigidas para pessoas semelhantes a elas. Assim, para que continuemos engajados nas buscas, nos vídeos
e nas plataformas, esses algoritmos apresentam informações que, por vezes, corroboram nossas próprias visões e necessidades. Continuamos a nos engajar nesses sites com uma forte sensação de pertença por um lado e, por outro, de antipatia de quem pensa diferente de nós. Quanto mais fortes esses dois lados, mais tendemos a nos engajar.
A consequência disso é que essas plataformas não são apenas uma lista alfabética como eram no princípio da internet; hoje elas se parecem mais como uma página de jornal – profundamente editadas. Assim, se a plataforma nos apresenta uma informação, ela é responsável pela maneira como esse conteúdo é apresentado. Se uma pessoa tem uma visão política radicalizada ou encontra informações criminosas, ela encontrou isso tendo a sua mão guiada pelo algoritmo. Se a informação causa dano à sociedade, a plataforma é responsável, tal como o jornal é responsável se o que ele veicula causa dano.
A regulação desse processo é o objetivo do Projeto de Lei 2630, de 2020, de iniciativa do Senador Alessandro Vieira (CIDADANIA/SE). O nome atribuído ao PL é enganoso. Ele é conhecido como PL das Fake News, mas o ideal teria sido algo como “PL da transparência e regulação do algoritmo” ou algo do tipo. Muitos argumentos têm sido apresentados contra ou a favor desse PL. Quero aqui adicionar um breve argumento filosófico, mas penso que discussão não é de opinião, mas de ordem Constitucional, e apesar de eu não ser um constitucionalista, tenho clareza de que a Constituição Brasileira de 1988 não apresenta liberdade completa, mas liberdade a partir do que a lei permite. Mas, e o que um filósofo diria sobre esse assunto?
Comecemos com uma pergunta: todas as ideias deveriam ter livre acesso aos cidadãos? Enquanto ideias, penso que sim. O problema é o possível dano social que uma ideia pode ter. John Stuart Mill no seu célebre Sobre a Liberdade, de 1859 afirma o seguinte:
“A única parte do comportamento de qualquer pessoa pela qual ela é responsável perante a sociedade é aquela que diz respeito aos outros. Na parte que diz respeito apenas a si mesma, sua independência é, por direito, absoluta. Sobre si mesmo, sobre seu próprio corpo e mente, o indivíduo é soberano”.
Esse trecho indica que todas as ideias poderiam ser tratadas do ponto de vista intelectual. Assuntos como drogas, aborto e sexualidade, potencialmente polêmicos, devem ter o espaço para o debate intelectual, e devem ser ofertados aos usuários. No entanto, esses assuntos devem ser apresentados com o devido cuidado ético e político. Veja o que Mill nos diz:
“Uma opinião de que os comerciantes de milho são responsáveis pela fome dos pobres, ou de que a propriedade privada é roubo, deve ser respeitada quando simplesmente divulgada pela imprensa, mas pode justamente incorrer em punição quando expressa oralmente a uma multidão excitada reunida diante da casa de um comerciante de milho, ou quando distribuída entre a mesma multidão na forma de um cartaz (…) A liberdade do indivíduo deve ser limitada até certo ponto; ele não deve se tornar uma perturbação para outras pessoas”. (Destaque meu)
Se uma opinião causa dano ela não deve ser apresentada sem o cuidado necessário. Se as informações disponibilizadas pelo algoritmo radicalizam uma pessoa, ou se apresentam uma ideia que é socialmente perigosa, elas não deveriam ser apresentadas sem um contexto claro dos possíveis danos. As ideias precisam da arena pública, mas uma arena eticamente regulada. A regulação não é um argumento contra a liberdade das ideias, mas parte do mais famoso livro liberal.
Enquanto o algoritmo não sofrer uma sanção ética e uma legal, teremos redes de pesquisa e sociais cada vez mais apresentando ideias que, sem o contexto correto, geram dano social, como é o caso atual.
Bruno Pettersen é professor e pesquisador no departamento de Filosofia da FAJE