image/svg+xmlDe ranking universitário a eleições: Como os algoritmos estão modificandonossavidaEstud. sociol., Araraquara, v.27, n.00, e022015, jan./dez. 2022.e-ISSN: 1982-4718DOI:https://doi.org/10.52780/res.v27i00.150931DE RANKING UNIVERSITÁRIO A ELEIÇÕES: COMO OS ALGORITMOSESTÃO MODIFICANDO NOSSA VIDA1DE LAS CLASIFICACIONES UNIVERSITARIAS A LAS ELECCIONES: CÓMO LOS ALGORITMOS ESTÁN CAMBIANDO NUESTRAS VIDASFROM UNIVERSITY RANKINGTO ELECTIONS: HOW ALGORITHMS ARE CHANGING OUR LIVESLuciano Lopes QUEIROZ2Atualmente, vivemos em uma sociedade digital. No Brasil, estima-se que existam cerca de 234 milhões de celulares inteligentes, apesar de a conexão com a internet ser limitada em várias regiões do país. Atualmente, a maior parte das nossas atividades são realizadason-line. Todos estamos produzindo dados constantemente quando procuramos algo no Google ou marcamos um amigo em uma foto do Facebook. A partir dos dados, podemos determinar padrões comportamentais das pessoas e até mesmo mensurar o que estão sentindo e desejando. Esse grande volume de dados, associado à maior capacidade de processamento e aos avanços dos modelos matemáticos e algoritmos,gera um grande impacto em nossas vidas. Entretanto, a maioria de nósconhece pouco ou nada de como os algoritmos funcionam. Cathy O’Neil, em Weapons of Math Destruction, How Big Data Increases Inequality and Threatens Democracy (publicado em português como Algoritmos de Destruição em Massa), traz à tona a discussão de comoos modelos matemáticos, algoritmos e Big Datatêm sido utilizados de forma indiscriminada. Segundo o livro, esses componentes estão presentes em quase todos os momentos de nossas vidas nas plataformas digitais, nos processos de contratação de funcionários, na publicidade on-line, nas políticas públicas, nasfinanças, no sistema prisional e em vários outros exemplos. O’Neildemonstra, por meio de uma série de exemplos ao longo dos dez capítulos de seu livro, como a falsa ideia de imparcialidade dos algoritmos pode levar a um aumento da desigualdade e dasinjustiças.O’Neil, uma doutora em matemática e ex-cientista de dados de Wall Street, pôde observar durante a crise econômica de 2008 (crise do subprime) como os modelos 1Resenha da obra: O’NEIL, C. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. New York: Crown, 2016. ISBN: 978-0553418811.Publicado em português como Algoritmos de Destruição em Massapela Editora Rua do Sabão, 2020.2Universidadede São Paulo(USP), São Paulo SP Brasil.Departamento de Microbiologia.Doutorado em Ciências Biológicas.ORCID: http://orcid.org/0000-0002-5260-0628.E-mail: lqueiroz@usp.br
image/svg+xmlLuciano Lopes QUEIROZEstud. sociol., Araraquara, v.27, n.00, e022015, jan./dez. 2022.e-ISSN: 1982-4718DOI:https://doi.org/10.52780/res.v27i00.150932matemáticos e os algoritmos podem influenciar a vida das pessoas. No primeiro capítulo, ela explica o que são modelos matemáticos e como os utilizamos em nosso dia a dia. Durante o ensino médio, aprendemos que modelos matemáticos são simplificações da realidade. O’Neildescreve um modelo comonada mais que uma representação abstrata de algum processo, seja ele uma partida de beisebol ou a cadeia de suprimentos de uma companhia de petróleo. Ela conclui que, se o modelo está rodando em um computador ou na cabeça, ele considera as informações quesabemos e as utiliza para predizer respostas emvárias situações. Alguns modelos são saudáveis e objetivos, como os criados a partir de estatísticas esportivas; outros são prejudiciais e subjetivos, como os utilizados para calcular as chances de reincidência de prisioneiros em algumas prisões dos Estados Unidos. Esse segundo tipo de modelo é o que ela classifica como “Armas de Destruição em Matemática” ou, em inglês, Weapons of Math Destruction” (WMD). O’Neillista três perguntas para identificar se um modelo matemático é uma WMD: 1) o modelo é opacoou invisível?; 2) o modelo é injusto ou causa danos?; e 3) o modelo tem a capacidade de crescer exponencialmente? Em resumo, ela define que os três elementos de uma WMD são opacidade, escalae dano. Ainda iremos retomar esses três elementos nesta resenha.Antes, vamos nos aprofundar nos conceitos de algoritmo e Big Data.Algoritmos têm ganhado cada vez mais importância em nossas vidas e, por isso, entender sua definição é de fundamental importância. Segundo Lupton (2014),algoritmos são sequências de comandos decomputador que dizem à máquina como prosseguir com uma série de instruções para chegar a um resultado específico. Com outras palavras, Gillespie (2014)define algoritmos como procedimentos codificados para transformar os dados de entrada (input) em uma saída (output) desejada por meio de cálculos específicos. Uma analogia frequentemente utilizada para explicar o que é um algoritmoé a da receita de bolo. Uma sequência de comandos que irá utilizar os inputs (farinha, ovos, manteiga), realizar transformações(misturar todos os ingredientes, bater e colocar no forno) e entregar um output (bolo). Todavia, apesar de uma simples sequência de comandos ser considerada um algoritmo, aqui estamos tratando de algoritmos complexos, que realizam uma série de cálculos, análises, fazem escolhas e aprendem (algoritmos de machine learning). Esses algoritmos, em sua maioria, utilizam do Big Datacomoinput.O termo Big Data, talvez até mais que algoritmo, tornou-se muito popular, principalmente entre empresários e na mídia. Contudo, o conceito de Big Data não é tão simples quanto o termo nos leva a deduzir. De acordo com Kitchin (2014),a definição comumente utilizada envolve os 3Vs: volume, velocidade e variedade. Uma quantidade
image/svg+xmlDe ranking universitário a eleições: Como os algoritmos estão modificandonossavidaEstud. sociol., Araraquara, v.27, n.00, e022015, jan./dez. 2022.e-ISSN: 1982-4718DOI:https://doi.org/10.52780/res.v27i00.150933enorme de dados (volume) é gerada e armazenadadiariamente (velocidade), com grande diversidade (variedade) em tipos de dados. Além dessas três características, Kitchin (2014)também lista outras que têm sido atribuídas a Big Data, como ser exaustiva, flexível, escalonável, ter alta resolução e relações com outros dados. Como já foi dito no início desta resenha, estamos constantemente conectados e gerando dados em atividades simples, como curtir uma foto no Instagram ou enviar uma mensagem para um amigo no WhatsApp. Entretanto, também estamos gerando dados em nosso dia a dia off-line. Por exemplo, ao informarmos nosso número de Cadastro de Pessoas Físicas (CPF)ao caixa do supermercado para a nota fiscal, ao fazermos a matrícula em um curso de inglês ou ao respondermos a um funcionário do censo da população brasileira. Todos esses dados são armazenados e podem ser utilizados no futuro como inputs de algoritmos produzidos por empresas privadas ou pelo Estado. Sendo assim, dados e algoritmos estão intimamente conectados. A forma como os modelos matemáticose os algoritmos são produzidos, bem como os dados utilizados nas análises serão tratados, pode definir se eles serão classificados como WMD ou não.Agora que definimos modelos matemáticos, algoritmos e Big Data, podemos retomar os três elementos que definem um algoritmo como WMD: opacidade, escalae dano. Cathy O’Neiltem uma grande capacidade de criar analogias para exemplificar esses três elementos e demonstra de forma clara e objetiva as várias formascomo os algoritmos afetam nossas vidas. Vamos utilizar alguns dos exemplos apresentados por ela e adicionar casos semelhantes da realidade brasileira.Uma editora de revistas brasileira criou um ranking das universidades e faculdades do país. As instituições eram classificadas entre uma e cinco estrelas. Essas estrelas refletem a média aritmética das notas dadas pelos avaliadores, que são professores e coordenadores de cursos de graduação. Eles recebem um questionário para realizar a avaliação dos cursos euniversidades, sendo que o mesmo avaliador podeavaliar até 35 cursos. Muitos estudantes entraram em contato com esse ranking e muitos devem ter escolhido onde iriam estudar baseados nessa avaliação. Apesar dos critérios de inclusão de um curso e da escolha dos avaliadores estarem claras, será que as perguntas que compõem o formulário são justas e refletem a realidade? Além disso, a partir do momento em que os coordenadores de curso conhecem os critérios de avaliação, isso poderia influenciar suas escolhasadministrativas para o curso e para a universidade com o objetivo de subir a nota? Algo semelhante aconteceu nos Estados Unidos nos anos 1980, e O’Neildemonstra como os critérios utilizados para o desenvolvimento desse modelo criaram uma “corrida armamentista” entre as universidades americanas.
image/svg+xmlLuciano Lopes QUEIROZEstud. sociol., Araraquara, v.27, n.00, e022015, jan./dez. 2022.e-ISSN: 1982-4718DOI:https://doi.org/10.52780/res.v27i00.150934No anode 1983, a revista U.S. News & World Reportdecidiu avaliar 1800 universidades dos Estados Unidos e classificá-las por excelência. Semelhante ao ranking brasileiro, eles enviavam um formulário para os presidentes das universidades, os quais avaliavam outras instituições com base em critérios definidos pela revista. O’Neilargumenta que os jornalistas da U.S. Newsnão possuíam uma formadireta de quantificar como o processo de formação superior afetava um estudante, muito menos milhões deles. Ao invés de escolher variáveis objetivas correlacionadas ao sucesso dos estudantes, eles decidiram selecionar variáveis como os resultados do SAT (Scholastic Aptitude Test), a razão estudante-professor e as taxas de aceitação dos estudantes que entraram e saíram das universidades num ano específico. A partir do conhecimento das variaveis utilizadas pelo ranking, muitos dos quais facilmente manipuláveis, algumas universidades começaram a manipular o algoritmo com o objetivode aumentarem suas notas. O algoritmo criado ealimentado pela U.S. Newspara classificar as universidades norte-americanas cumpre todos os critérios para ser considerado uma WMD. Ele é opaco, ou seja, poucas pessoas possuem conhecimento completo de comoo algoritmo é construído, quais variáveis são levadasem consideração e quais controles são realizados para evitar vieses. Algoritmos com essas características são considerados black-box(caixas-pretas) por terem um sistema ser misterioso. Sabemos quais são os inputs e outputs, mas não sabemos como um étransformado no outro (PASQUALE, 2015). O algoritmo da U.S. Newstambém é escalável, isto é, ele não afeta um pequeno grupo de pessoas e determina, a partir de critérios imprecisos, quais são as “melhores” universidades dos EUA, impactando a decisão de milhõesde estudantes. Por fim, ele também é danoso, pois molda o comportamento das universidades para obterem melhores avaliações, impedindo, por exemplo, o acesso de estudantes de baixa renda por serem bolsistas ou terem menores notas no SAT. Além disso, gera um ciclo vicioso em que as universidades que obtiveram notas baixas continuam sendo mal avaliadas e não conseguem esquivar-se dessa situação, tendo menor procura pelos estudantes, recebendo menos recursospúblicos ou privados e aumentando a desigualdade entre estudantes e universidades.Em um outro exemplo, a questão da desigualdade e injustiça dos algoritmos WMD fica ainda mais evidente. No capítulo cinco de seu livro, Cathy O’Neilexplica como modelos que computam risco de reincidência são utilizadoscomoguias de sentenças judiciais e para a patrulha policial. Um ponto importante que a autora traz no decorrer do livro em relação aos modelos e algoritmos é que eles são baseados no passado, ou seja, os algoritmos utilizam
image/svg+xmlDe ranking universitário a eleições: Como os algoritmos estão modificandonossavidaEstud. sociol., Araraquara, v.27, n.00, e022015, jan./dez. 2022.e-ISSN: 1982-4718DOI:https://doi.org/10.52780/res.v27i00.150935como inputs dados já coletadossobreuma realidadecomo a incidência de crimes em uma determinada região da cidadee procuram por padrões, assumindo que eles irão se repetir.Muitos motoristas de aplicativos de transporte, como Uber e99, relatam casos de violência, furto e se sentem inseguros para realizar viagens em áreas consideradas perigosas. Por isso, a Uber definiu, a partir de dados de segurança pública das cidades brasileiras, como o seu algoritmo deveria responder às chamadasvindas desses locais. Em São Paulo, por exemplo,quando um usuário do bairro de Heliópolis tentava solicitar um veículo, ele recebia a seguinte mensagem: “Infelizmente, a Uber não está disponível na suaárea no momento”(SOUZA, 2017). Dessa forma, essas empresas limitam as possibilidades de acesso ao serviçopelo simples local ou Código de Endereçamento Postal (CEP) da pessoa que está fazendo a solicitação. Sabemos da grande desigualdade presente na sociedade brasileira, e as cidades refletem isso, levandoas pessoas pobres às regiões periféricas dos municípios com menor infraestrutura, qualidade de vida e maior suscetibilidade à criminalidade. No caso dos aplicativos de transporte citados acima, as pessoas que vivem nessas regiões podem ser ainda mais excluídas, o que aumenta a desigualdade social. Agora, imagine utilizar o mesmo princípio para definir o policiamento de uma cidade. Cathy O’Neilexplica que o chefe de polícia de uma cidade no interior da Filadélfia, em decorrência da diminuição de seu esquadrão por cortes de verba, decidiu implantar um programa de predição de crimes da PredPol, uma startup sediada na Califórnia, para auxiliar as tomadas de decisões do distrito policial. Este programa é capaz de predizer as possibilidades da ocorrência de diferentes tipos de crimes em várias regiões da cidade apartir de dados históricos. Ou seja, o departamento de polícia da região inclui no sistema todos os dados de crimes já registrados, executa os algoritmos e prediz em quais regiões podem ocorrer novos crimes. A partir desse output, o chefe de polícia pode decidir onde posicionar seus agentes. Apesar de esses programas de predição de crimes realmente aumentarem a eficiência do policiamento, eles podem incorrer em uma série de vieses, principalmente devido àescolha dos dados que serão incluídos. O’Neilargumenta que muitos dos crimes registrados não são graves, como, por exemplo, pessoas em situação de rua agressivas, cometendo pequenos furtos ou venda e consumo de pequenas quantidades de drogas que, normalmente, não seriam registradas se os policiais não estivessem no local. Ela classifica esses crimes de menor gravidade como crimes de “incômodo” (nuisance). Geralmente, regiões maispobres das cidades têm uma grande taxa de ocorrência desse tipo de crime.Ao incluí-los nos modelos de predição de crimes,maispoliciais são destinados a esses locais. Eles irão registrar mais casos que serão novamente incluídos no sistema, e os policiais continuarão sendo
image/svg+xmlLuciano Lopes QUEIROZEstud. sociol., Araraquara, v.27, n.00, e022015, jan./dez. 2022.e-ISSN: 1982-4718DOI:https://doi.org/10.52780/res.v27i00.150936enviados a esses bairros, gerando um ciclo vicioso. Apesar de o algoritmo não ser necessariamente racista, aescolha da localização geográfica como variável é. Poderíamos afirmar, também, que os algoritmos dos aplicativos de transporte reforçam o racismo da nossa sociedade ao excluírem regiões pobres e com maiores taxas de criminalidade das cidades brasileiras,povoadas, em sua maioria, por pessoas negras.A partir do exposto nos parágrafos anteriores, fica mais visível como algoritmos baseados na localização geográfica causam danos para as pessoas. Além disso,esse tipo de algoritmo é opaco, pois pertence aumaempresa privada, e os usuários não podem modificá-lo eles unicamente incluem o inpute recebem o output. Por fim, esses algoritmos são escalonáveis, uma vez que grandes cidades dos estados da Califórnia, Carolina do Sul, Washington, Tennessee, Flórida, Pensilvânia e Nova Iorque já estão utilizando sistemas de policiamento preditivo (FERGUSON, 2017).No último capítulo do livro, Cathy O’Neilexplica como o algoritmo do Facebook tem sido utilizado nas campanhas eleitorais, bem como ocorre a segmentaçãode público. Em 2012, um grupo de cientistas de dados do Facebook conduziu um experimento com 689 mil pessoas e demonstrou que as mesmas emoções sentidas por uma pessoa podem ser transferidas (contagiosas) para outras, sem que elas tenham consciência disso(KRAMER; GUILLORY; HANCOCK, 2014). Ou seja, o algoritmo do Facebook pode ser utilizado para modificar as emoções de milhões de pessoas e, quem descobrir como manipulá-lo, pode tirar vantagem em campanhas publicitárias, petições ou em eleições. A utilização dasredes sociais para campanhas eleitorais ganhou força a partir da campanha presidencial de Barack Obama, em 2012. Conteúdos eramcriados de forma direcionada para segmentos sociais, despertando maior interesse de um grupo e gerando maior engajamento emocional, ou seja, conteúdo microssegmentado. Entretanto, a microssegmentação de conteúdo teve muito impacto nas eleições presidenciais dos EUA, em 2016, quando Donald Trump foi eleito. Aqui no Brasil, a campanha de Jair Bolsonaro, em 2018, utilizou as redes sociais da mesma forma: conteúdo segmentado, provocando emoções diversas em grupos sociais distintos e alcançando grande engajamento. No caso dos dois últimos exemplos, as campanhas foram fortemente associadas a conteúdos falsos (fake news).Cathy O’Neiloclassifica os algoritmos das grandes empresas de tecnologia (big techs) como WMD, mas indica que eles têm grande potencial de serem manipulados e utilizados de forma abusiva. Sabemos que os algoritmos são opacos por representarem um segredo vital dosnegócios dessas empresas. Também são escalonáveis porque as redes sociais têm bilhões de usuários em todo o mundo. O Facebook, somando suas três redes sociais
image/svg+xmlDe ranking universitário a eleições: Como os algoritmos estão modificandonossavidaEstud. sociol., Araraquara, v.27, n.00, e022015, jan./dez. 2022.e-ISSN: 1982-4718DOI:https://doi.org/10.52780/res.v27i00.150937Facebook, WhatsApp e Instagram, tem cerca de3 bilhões de usuários. No Brasil, mais de 127 milhões de pessoas são usuárias do Facebook; cerca de 120 milhões do WhatsApp, e 69 milhões do Instagram. Elas também podem causar dano, uma vez que afetam as emoções de seus usuários e, como já demonstrado, podem levar a casos de depressão e suicídio, principalmente entre jovens de 13 a 18 anos que passam mais tempo nas redes sociais (TWENGE et al., 2018).A manipulação das emoções por meio das redes sociais, a importância e o poder das big techs estão ganhando cada vez mais destaque nas discussões sobre osriscos à democracia (MOROZOV, 2018). Runciman (2018)elenca a revolução da informática, a dependência de formas de comunicação e o compartilhamento de informaçõescada vez mais controlado por empresas privadas, como um dos três fatores que distinguema crise atual das democracias daquelas enfrentadas no passado. Runciman (2018)também expõe, de forma contundente, o controle das bigtechs sobre a sociedade ao comparar o Facebook a um Leviatã (no sentido hobbesiano), indicando um possível confronto entreFacebook e os Estados. Apesar de o Facebook não ter a prerrogativa do uso da força, ele dispõe de capacidade para alterar nossos hábitos, sentimentos e nos persuadir a agir da forma como ele deseja. Por exemplo, moldando o tipo de conteúdo produzido, comoas pessoas se expõem nas redes sociais e os dados que estão gerando a partir da modificação de seus algoritmos. Apesar de O’Neilnãoadentrar tanto nessas discussões, levantar a discussão sobre o uso das redes sociais e a microssegmentação foi uma grandecontribuição dela para o debate em 2016.A leitura do livro de O’Neilabre nossos olhos para a importância de inspecionarmos osmais distintos algoritmos presentes em nossas vidas, evitando, assim, que se tornem WMD. Como vimos nesta resenha, os modelos matemáticos e os algoritmos podem se tornar WMD ao serem opacos, escalonáveis e danosos à sociedade. Ela não advoga pelo banimento dos algoritmos, mesmo porque isso seria impossível dado o estágio dos avanços tecnológicos que estamos vivenciando. Mas sim, por umamaior regulamentação e transparência. Os modelos não podem sacrificar a realidade e a justiça pelo simples fato de serem e tornarem nossas vidas mais eficientes. Eles podem tornar nossas vidas melhores,auxiliando em tarefas que seres humanos não poderiamexecutar, mas devemos selecionar quais variáveis serão escolhidas, quais dados entrarão e analisar, também, se os resultados condizem com a realidade. As decisões políticas que impactam a sociedade devem continuar sendo tomadas por nós, seres humanos, deforma democrática e transparente, reforçando a democracia e lutando por sociedades mais justas e menos desiguais.
image/svg+xmlLuciano Lopes QUEIROZEstud. sociol., Araraquara, v.27, n.00, e022015, jan./dez. 2022.e-ISSN: 1982-4718DOI:https://doi.org/10.52780/res.v27i00.150938REFERÊNCIASFERGUSON, A.G.Policing predictive policing. Washington University Law Review, v. 94, n. 5,p.1109-1189, 2017. Disponível em:https://openscholarship.wustl.edu/law_lawreview/vol94/iss5/5/. Acesso em: 14 abr. 2021.GILLESPIE, T.The relevance of algorithms. In:GILLESPIE, T.; BOCZKOWSKI, P.J.; FOOT, K.A. Media Technologies:Essays on Communication, Materiality, and Society. Cambridge: MIT Press, 2014.KITCHIN, R.Big Data, new epistemologies and paradigm shifts. Big Data & Society, v. 1, n. 1, p.1-12, jul. 2014.Disponível em: https://journals.sagepub.com/doi/pdf/10.1177/2053951714528481. Acesso em: 25 out. 2020.KRAMER, A.D. I.; GUILLORY, J.E.; HANCOCK, J.T. Experimental evidence of massive-scale emotional contagion through social networks. Proceedings of the National Academy of Sciences, v. 111, n. 24, p.8788-8790, jun. 2014.Disponível em: https://www.pnas.org/doi/10.1073/pnas.1320040111. Acesso em? 8 jun. 2021.LUPTON, D. Digital Sociology. New York: Taylor & Francis, 2014.MOROZOV, E. Big Tech: A ascensão dos dados e a morte da política. São Paulo: Ubu Editora, 2018.O’NEIL, C. Weapons of Math Destruction: HowBig Data Increases Inequality and Threatens Democracy.New York: Crown, 2016.O’NEIL, C.Algoritmos de Destruição em Massa: Como o Big Dataaumenta a destruição em massa e ameaça a democracia.1. ed.São Paulo: Editora Rua do Sabão, 2020.PASQUALE, F. The Black Box Society:The Secret Algorithms That Control Money and Information. Cambridge: Harvard University Press, 2015.RUNCIMAN, D. Como a democracia chega ao fim. São Paulo: Todavia, 2018.SOUZA, F.Uber veta bairros de SP e moradores da periferia criam a Ubra. BBC Brasil, mar.2017. Disponível em: https://www.bbc.com/portuguese/brasil-39225699. Acesso em: 07 dez. 2020.TWENGE, J.M.et al. Increasesin Depressive Symptoms, Suicide-Related Outcomes, and Suicide Rates Among U.S. Adolescents After 2010and Links to Increased New Media Screen Time. Clinical Psychological Science, v. 6, n. 1, p.3-17, jan.2018.Disponível em: https://journals.sagepub.com/doi/abs/10.1177/2167702617723376?journalCode=cpxa. Acessoem: 07 dez. 2020.
image/svg+xmlDe ranking universitário a eleições: Como os algoritmos estão modificandonossavidaEstud. sociol., Araraquara, v.27, n.00, e022015, jan./dez. 2022.e-ISSN: 1982-4718DOI:https://doi.org/10.52780/res.v27i00.150939Como referenciar este artigo QUEIROZ, L. L.De ranking universitário a eleições: Como os algoritmos estão modificando nossavida. Estudos de Sociologia, Araraquara, v. 27, n. 00, e022016, jan./dez.2022. e-ISSN: 1982-4718.DOI:https://doi.org/10.52780/res.v27i00.15093Submetido em:02/07/2021Revisões requeridas em:30/07/2021Aprovado em: 13/01/2022Publicado em:30/062022
image/svg+xmlFrom university ranking to elections: How algorithms are changing our livesEstud. sociol., Araraquara, v.27, n.00, e022015, Jan./Dec. 2022.e-ISSN: 1982-4718DOI:https://doi.org/10.52780/res.v27i00.150931FROM UNIVERSITY RANKING TO ELECTIONS: HOW ALGORITHMS ARE CHANGING OUR LIVES1DE RANKING UNIVERSITÁRIO A ELEIÇÕES: COMO OS ALGORITMOS ESTÃO MODIFICANDO NOSSA VIDADE LAS CLASIFICACIONES UNIVERSITARIAS A LAS ELECCIONES: CÓMO LOS ALGORITMOS ESTÁN CAMBIANDO NUESTRAS VIDASLuciano Lopes QUEIROZ2We currently live in a digital society. In Brazil, it is estimated that there are around 234 million smart cell phones, despite the fact that the internet connection is limited in several regions of the country. Currently, most of our activities are carried out online. We are all constantly producing data when we Google something or tag a friend in a Facebook photo. From the data, we can determine people's behavioral patterns and even measure what they are feeling and desiring. This large volume of data, associated with greater processing capacity and advances in mathematical models and algorithms, has a great impact on our lives. However, most of us know little or nothing about how algorithms work. Cathy O'Neil, in Weapons of Math Destruction, How Big Data Increases Inequality and Threatens Democracy(published in Portuguese as Algorithms of Mass Destruction), brings up the discussion of how mathematical models, algorithms and Big Data have been used in indiscriminately. According to the book, these components are present in almost every moment of our lives in digital platforms, in employee hiring processes, in online advertising, in public policy, in finance, in the prison system and in several other examples. O'Neil demonstrates, through a series of examples throughout the ten chapters of his book, how the false idea of fairness in algorithms can lead to an increase in inequality and injustice.O'Neil, a PhD in mathematics and former Wall Street data scientist, was able to observe during the 2008 economic crisis (subprime crisis) how mathematical models and algorithms can influence people's lives. In the first chapter, she explains what mathematical models are and how we use them in our daily lives. During high school, we learned that mathematical models 1Review of the work: O’NEIL, C. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. New York: Crown, 2016. ISBN: 978-0553418811. Published in Portuguese as Algoritmos de Destruição em Massa by Editora Rua do Sabão, 2020.2University ofSão Paulo(USP), São Paulo SP Brazil.Department of Microbiology. PhD in Biological Sciences.ORCID: http://orcid.org/0000-0002-5260-0628.E-mail: lqueiroz@usp.br
image/svg+xmlLuciano Lopes QUEIROZEstud. sociol., Araraquara, v.27, n.00, e022015, Jan./Dec. 2022.e-ISSN: 1982-4718DOI: https://doi.org/10.52780/res.v27i00.150932are simplifications of reality. O'Neil describes a model as nothing more than an abstract representation of some process, be it a baseball game or an oil company's supply chain. She concludes that whether the model is running on a computer or in the head, ittakes the information we know and uses it to predict responses in various situations.Some models are healthy and objective, such as those created from sports statistics; others are harmful and subjective, such as those used to calculate prisoners' chances of recidivism in some US prisons. This second type of model is what she classifies as “Weapons of Math Destruction” (WMD). O'Neil lists three questions to identify whether a mathematical model is a WMD: 1) is the model opaque or invisible?; 2) is the model unfair or causes harm?; and 3) does the model have the ability to grow exponentially? In short, it defines that the three elements of a WMD are opacity, scale and damage. We will return to these three elements in this review. First, let's delve into theconcepts of algorithm and Big Data.Algorithms have gained more and more importance in our lives and, therefore, understanding their definition is of fundamental importance. According to Lupton (2014), algorithms are sequences of computer commands that tell the machine how to proceed with a series of instructions to reach a specific result. In other words, Gillespie (2014) defines algorithms as coded procedures to transform input data into a desired output through specific calculations. An analogy often used to explain what an algorithm is is that of the cake recipe. A sequence of commands that will use inputs (flour, eggs, butter), perform transformations (mix all the ingredients, beat and place in the oven) and deliver an output (cake). However, although a simple sequence of commands is considered an algorithm, here we are dealing with complex algorithms, which perform a series of calculations, analyses, make choices and learn (machine learning algorithms). These algorithms mostly use Big Data as input.The term Big Data, perhaps even more than an algorithm, has become very popular, especially among entrepreneurs and in the media. However, the concept of Big Data is not as simple as the term leads us to deduce. According to Kitchin (2014), the commonly useddefinition involves the 3Vs: volume, speed and variety. A huge amount of data (volume) is generated and stored daily (speed), with great diversity (variety) in data types. In addition to these three characteristics, Kitchin (2014) also lists others that have been attributed to Big Data, such as being exhaustive, flexible, scalable, having high resolution and relationships with other data. As already stated at the beginning of this review, we are constantly connected and generating data in simple activitiessuch as liking a photo on Instagram or sending a message to a friend on WhatsApp. However, we are also generating data in our day to day offline. For example, when informing our Individual Taxpayer Identification Number (Cadastro de Pessoas
image/svg+xmlFrom university ranking to elections: How algorithms are changing our livesEstud. sociol., Araraquara, v.27, n.00, e022015, Jan./Dec. 2022.e-ISSN: 1982-4718DOI:https://doi.org/10.52780/res.v27i00.150933Físicas-CPF)to the supermarket cashier for the invoice, when registering for an English course or when responding to a Brazilian population census official. All this data is stored and can be used in the future as inputs to algorithms produced by private companies orthe State. Thus, data and algorithms are intimately connected. The way in which the mathematical models and algorithms are produced, as well as the data used in the analyzes will be treated, can define whether they will be classified as WMD or not.Now that we've defined mathematical models, algorithms, and Big Data, we can go back to the three elements that define an algorithm like WMD: opacity, scale, and damage. Cathy O'Neil has a great ability to create analogies to exemplify these three elements and demonstrates clearly and objectively the many ways that algorithms affect our lives. We will use some of the examples presented by her and add similar cases from the Brazilian reality.A Brazilian magazine publisher created a ranking of the country's universities and colleges. Institutions were rated between one and five stars. These stars reflect the arithmetic mean of the scores given by the evaluators, who are professors and coordinators of undergraduate courses. They receive a questionnaire to evaluate courses and universities, and the same evaluator can evaluate up to 35 courses. Many students came into contact with this ranking and many must have chosen where they would study based on this assessment. Although the criteria for inclusion in a course and the choice of evaluators are clear, are the questions that make up the form fair and reflect reality? Furthermore, once the course coordinators know the evaluation criteria, could this influence their administrative choices for the course and for the university in order to raise the grade? Something similar happened in the United States in the 1980s, and O’Neil demonstrates how the criteria used to develop this model created an “arms race” among American universities.In 1983, the U.S. News & World Report decided to evaluate 1800 universities in the United States and rank them for excellence. Similar to the Brazilian ranking, they sent a form to university presidents, who evaluated other institutions based on criteria defined by the magazine. O'Neil argues that U.S. News did not have a direct way of quantifying how the higher education process affected one student, let alone millions of them. Rather than choosing objective variables correlated with student success, they decided to select variables such as SAT (Scholastic Aptitude Test) scores, student-faculty ratio, and acceptance rates of students entering and leaving universities in a particular year. From the knowledge of the variables used by the ranking, many of which are easily manipulated, some universities began to manipulate the algorithm in order to increase their grades.
image/svg+xmlLuciano Lopes QUEIROZEstud. sociol., Araraquara, v.27, n.00, e022015, Jan./Dec. 2022.e-ISSN: 1982-4718DOI: https://doi.org/10.52780/res.v27i00.150934The algorithm created and powered by the U.S. News to rank North American universities meets all the criteria to be considered a WMD. It is opaque, that is, few people have completeknowledge of how the algorithm is built, which variables are considered, and which controls are performed to avoid bias. Algorithms with these characteristics are considered black-box because they have a mysterious system. We know what the inputs and outputs are, but we do not know how one is transformed into the other (PASQUALE, 2015). The U.S. algorithm News is also scalable, that is, it does not affect a small group of people and determines, based on imprecise criteria, which are the “best” universitiesin the US, impacting the decision of millions of students. Finally, it is also harmful, as it shapes the behavior of universities to obtain better evaluations, preventing, for example, the access of low-income students because they are scholarship holdersor have lower SAT scores. In addition, it generates a vicious cycle in which universities that obtained low grades continue to be poorly evaluated and cannot avoid this situation, having less demand from students, receiving less public or private resources and increasing inequality between students and universities.In another example, the issue of inequality and injustice of WMD algorithms becomes even more evident. In chapter five of her book, Cathy O'Neil explains how models that compute risk of recidivism are used as guides to court sentences and for police patrol. An important point that the author makes throughout the book in relation to models and algorithms is that they are based on the past, that is, the algorithms use as inputs data already collected about a reality -such as the incidence of crimes in a certain region of the city and look for patterns, assuming they will repeat.Many drivers of transportation apps, such as Uber and 99, report cases of violence, theft and feel unsafe to travel inareas considered dangerous. Therefore, Uber defined, based on public safety data from Brazilian cities, how its algorithm should respond to calls from these places. In São Paulo, for example, when a user from the Heliópolis neighborhood tried to request avehicle, he received the following message: “Unfortunately, Uber is not available in your area at the moment” (SOUZA, 2017). In this way, these companies limit the possibilities of accessing the service by the simple location or Postal Address Code (Código de Endereçamento Postal -CEP) of the person making the request. We are aware of the great inequality present in Brazilian society, and cities reflect this, taking poor people to peripheral regions of municipalities with less infrastructure, quality of life and greater susceptibility to crime. In the case of the transport apps mentioned above, people living in these regions can be even more excluded, which increases social inequality.
image/svg+xmlFrom university ranking to elections: How algorithms are changing our livesEstud. sociol., Araraquara, v.27, n.00, e022015, Jan./Dec. 2022.e-ISSN: 1982-4718DOI:https://doi.org/10.52780/res.v27i00.150935Now, imagine using the same principle to define the policing of a city.Cathy O'Neil explains that the chief of police in an inner city in Philadelphia, as a result of his squad's downsizing due to budget cuts, decided to implement a crime prediction program from PredPol, a California-based startup, to help police department decision-making. This program is capable of predicting the possibilities of the occurrence of different types of crimes in various regions of the city from historical data. That is, the region's police department includes all data on crimes already recorded in the system, runs the algorithms and predicts in which regions new crimes may occur. From this output, the chief of police can decide where to place his agents. While these crime prediction programs do increase policing efficiency, they can incur a number of biases, mainly due to the choice of data that will be included. O'Neil argues that many of the crimes recorded are not serious, such as aggressive homeless people committing petty theft or selling and using small amounts of drugs -which would normally not be recorded if police officers were not on site. It classifies these lesser crimes as nuisance crimes. Generally, poorer regions of cities have a high rate of occurrence of this type of crime. By including them in crime prediction models, more police officers are assigned to these locations. They will register more cases that will be re-entered into the system, and the police will continue to be sent to these neighborhoods, creating a vicious cycle. While the algorithm is not necessarily racist, thechoice of geographic location as a variable is. We could also say that the algorithms of transport apps reinforce the racism of our society by excluding poor regions with higher crime rates from Brazilian cities, populated mostly by black people.From what was exposed in the previous paragraphs, it becomes more visible how algorithms based on geographic location cause harm to people. Furthermore, this type of algorithm is opaque, as it belongs to a private company, and users cannot modify it theyonly include the input and receive the output. Finally, these algorithms are scalable, since large cities in the states of California, South Carolina, Washington, Tennessee, Florida, Pennsylvania and New York are already using predictive policing systems (FERGUSON, 2017).In the last chapter of the book, Cathy O'Neil explains how Facebook's algorithm has been used in election campaigns, as well as audience segmentation. In 2012, a group of Facebook data scientists conducted an experiment with 689,000 people and demonstrated that the same emotions felt by one person can be transferred (contagious) to others, without them being aware of it (KRAMER; GUILLORY; HANCOCK, 2014). In other words, the Facebook algorithm can be used to modify the emotions of millions of people and, whoever discovers how to manipulate it, can take advantage of advertising campaigns, petitions or elections. The use of social networks for electoral campaigns gained strength from Barack Obama's
image/svg+xmlLuciano Lopes QUEIROZEstud. sociol., Araraquara, v.27, n.00, e022015, Jan./Dec. 2022.e-ISSN: 1982-4718DOI: https://doi.org/10.52780/res.v27i00.150936presidential campaign in 2012. Content was created in a way that was targeted to social segments, arousing greater interest in a group and generating greater emotional engagement, that is, micro-segmented content. However, content micro-segmentation had a lot of impact in the US presidential electionin 2016, when Donald Trump was elected. Here in Brazil, Jair Bolsonaro’s campaign in 2018 used social media in the same way: segmented content, provoking different emotions in different social groups and achieving great engagement. In the case of the lasttwo examples, the campaigns were strongly associated with false content (fake news).Cathy O'Neil does not classify the algorithms of large technology companies (big techs) as WMD, but indicates that they have great potential to be manipulated and misused. We know that algorithms are opaque because they represent a vital business secret for these companies. They are also scalable because social networks have billions of users worldwide. Facebook, adding its three social networks Facebook, WhatsApp and Instagram has about 3 billion users. In Brazil, more than 127 million people are Facebook users; about 120 million from WhatsApp, and 69 million from Instagram. They can also cause harm, as they affect the emotions of their users and, as already demonstrated, can lead to cases of depression and suicide, especially among young people aged 13 to 18 who spend more time on social media.(TWENGE et al., 2018).The manipulation of emotions through social networks, the importance and power of big tech are gaining more and more prominence in discussions about the risks to democracy (MOROZOV, 2018). Runciman (2018) lists the information technology revolution, dependence on forms of communication and information sharing increasingly controlled by private companies as one of the three factors that distinguish the current crisis of democracies from those faced in the past. Runciman (2018) also forcefully exposes the control of big tech over society by comparing Facebook to a Leviathan (in the Hobbesian sense), indicating a possible confrontation between Facebook and the States. Although Facebook does not have the prerogative to use force, it does have the ability to change our habits, feelings and persuade us to act the way it wants. For example, shaping the type of content produced, how people expose themselves on social networks and the data they are generating from modifying their algorithms. Although O’Neil does not delve much into these discussions, raising the discussion about the use of social networks and micro-segmentation was her great contribution to the debate in 2016.Reading O'Neil's book opens our eyes to the importance of inspecting the most distinct algorithms present in our lives, thus preventing them from becoming WMD. As we have seen
image/svg+xmlFrom university ranking to elections: How algorithms are changing our livesEstud. sociol., Araraquara, v.27, n.00, e022015, Jan./Dec. 2022.e-ISSN: 1982-4718DOI:https://doi.org/10.52780/res.v27i00.150937in this review, mathematical models and algorithms can become WMD by being opaque, scalable and harmful to society. She does not advocate the banning of algorithms, if only because that would be impossible given the stage of technological advances that we are experiencing. But yes, for greater regulation and transparency. Models cannot sacrifice reality and justice for the simple fact of being and making our lives more efficient. They can make our lives better, helping with tasks that human beings could not perform, but wemust select which variables will be chosen, which data will enter and also analyze if the results match reality. Political decisions that impact society must continue to be taken by us, human beings, in a democratic and transparent way, strengthening democracy and fighting for fairer and less unequal societies.REFERENCESFERGUSON, A. G. Policing predictive policing. Washington University Law Review, v. 94, n. 5, p. 1109-1189, 2017. Available: https://openscholarship.wustl.edu/law_lawreview/vol94/iss5/5/. Access: 14 Apr. 2021.GILLESPIE, T. The relevance of algorithms. In:GILLESPIE, T.; BOCZKOWSKI, P. J.; FOOT, K. A. Media Technologies: Essays on Communication, Materiality, and Society. Cambridge: MIT Press, 2014.KITCHIN, R. Big Data, new epistemologies and paradigm shifts. Big Data & Society, v. 1, n. 1, p. 1-12, jul. 2014. Available: https://journals.sagepub.com/doi/pdf/10.1177/2053951714528481. Access: 25 Oct. 2020.KRAMER, A. D. I.; GUILLORY, J. E.; HANCOCK, J. T. Experimental evidence of massive-scale emotional contagion through social networks. Proceedings of the National Academy of Sciences, v. 111, n. 24, p. 8788-8790, jun. 2014. Available: https://www.pnas.org/doi/10.1073/pnas.1320040111. Access:8 June2021.LUPTON, D. Digital Sociology. New York: Taylor & Francis, 2014.MOROZOV, E. Big Tech: A ascensão dos dados e a morte da política. São Paulo: Ubu Editora, 2018.O’NEIL, C. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. New York: Crown, 2016.O’NEIL, C. Algoritmos de Destruição em Massa: Como o Big Data aumenta a destruição em massa e ameaça a democracia. 1. ed.São Paulo: Editora Rua do Sabão, 2020.PASQUALE, F. The Black Box Society: The Secret Algorithms That Control Money and Information. Cambridge: Harvard University Press, 2015.
image/svg+xmlLuciano Lopes QUEIROZEstud. sociol., Araraquara, v.27, n.00, e022015, Jan./Dec. 2022.e-ISSN: 1982-4718DOI: https://doi.org/10.52780/res.v27i00.150938RUNCIMAN, D. Como a democracia chega ao fim. São Paulo: Todavia, 2018.SOUZA, F. Uber veta bairros de SP e moradores da periferia criam a Ubra. BBC Brasil, mar. 2017. Available: https://www.bbc.com/portuguese/brasil-39225699. Access: 07 Dec. 2020.TWENGE, J. M. et al. Increases in Depressive Symptoms, Suicide-Related Outcomes, and Suicide Rates Among U.S. Adolescents After 2010 and Links to Increased New Media Screen Time. Clinical Psychological Science, v. 6, n. 1, p. 3-17, jan. 2018. Available: https://journals.sagepub.com/doi/abs/10.1177/2167702617723376?journalCode=cpxa. Access: 07 Dec. 2020.How to reference this articleQUEIROZ, L. L.From university ranking to elections: How algorithms are changing our lives. Estudos de Sociologia, Araraquara, v. 27, n. 00, e022016, Jan./Dec. 2022. e-ISSN: 1982-4718. DOI: https://doi.org/10.52780/res.v27i00.15093Submitted:02/07/2021Required revisions:30/07/2021Approved: 13/01/2022Published:30/062022