Tecnologia, dados e políticas públicas

Clarice Tavares, Bárbara Simão, Anna Martha e Juliana Fonteles
Verbetes do glossário sobre fundo verde
O que é datificação? O que são bases de dados? O que são políticas públicas datificadas? Como esses conceitos se relacionam com a vigilância? Qual a diferença entre vigilância e vigilantismo? Veja neste glossário os principais conceitos relacionados à tecnologia, dados pessoais e políticas públicas
  • Dados pessoais

    Quando tratamos de temas como datificação e uso de tecnologias em políticas públicas, o primeiro conceito importante a ser abordado é o de dados pessoais. A construção deste conceito estabelece os contornos do regime de proteção de dados, definindo quais tipos de informações podem ou não ser consideradas dados pessoais e, portanto, submetidas às regras de proteção de dados.

    Existem duas principais abordagens para conceituar dados pessoais: a reducionista e a expansionista. A primeira parte de uma perspectiva mais restrita, considerando dado pessoal apenas como a informação relacionada a uma pessoa identificada, de maneira que haja um vínculo direto entre o dado e a pessoa. Pela abordagem reducionista, dados como CPF e RG, por exemplo, podem ser considerados dados pessoais.

    A abordagem expansionista, por sua vez, adota uma perspectiva mais abrangente do conceito de dados pessoais. De acordo com essa teoria, qualquer informação relacionada a uma pessoa identificada ou identificável é um dado pessoal. Incluem-se nesta definição aqueles dados que, apesar de não estarem imediatamente vinculados a uma pessoa específica, têm algum vínculo indireto com um indivíduo que pode ser identificado (Bioni, 2019). Por exemplo, uma pessoa pode ser identificável se soubermos o local onde ela habita, o restaurante em que ela costuma almoçar, sua idade e atributos físicos. Para que um dado seja classificado como pessoal é necessário que haja uma análise contextual, isto é, uma análise que avalie a possibilidade de identificação daquela pessoa dentro de determinado contexto e conjunto de informações. A LGPD (Lei Geral de Proteção de Dados (lei n. 13.709/2019) adota uma definição expansionista. Nos termos do art. 5, I, dado pessoal é “informação relacionada a pessoa natural identificada ou identificável”. Por informação, entende-se diversos tipos de dados e conteúdos, desde números de identificação, fotos, vídeos até outras informações subjetivas.

  • Dados pessoais sensíveis

    O conceito de dados pessoais desdobra-se em outra categoria mais restritiva: dados pessoais sensíveis. A esta categoria, impõe-se um regime jurídico mais protetivo, pois este tipo de dado revela informações mais intrusivas à privacidade do indivíduo e tem maior potencial discriminatório, além de representar mais riscos a direitos individuais e coletivos (Mulholland, 2018). Segundo o art. 5, II da LGPD, dado pessoal sensível é todo “dado pessoal sobre origem racial ou étnica, convicção religiosa, opinião política, filiação a sindicato ou a organização de caráter religioso, filosófico ou político, dado referente à saúde ou à vida sexual, dado genético ou biométrico, quando vinculado a uma pessoa natural”.

  • Base de dados

    Uma base de dados (ou banco de dados) é o conjunto de dados e informações estruturadas e relacionadas entre si. A organização de dados em uma base permite gerir, pesquisar, cruzar e tratar uma enorme quantidade de dados. Em suma, uma base de dados “é uma ferramenta de recolha e organização de informações”. Bases de dados podem ser de diversos tipos, desde bases de artigos científicos, de dados científicos até os dados pessoais. São exemplos de bases de dados: listas telefônicas; repositórios de teses e dissertações; catálogos diversos; e informações de identificação civil de cidadãos etc.

    A Lei Geral de Proteção de Dados define banco de dados em seu artigo 5º, inciso IV, como “conjunto estruturado de dados pessoais, estabelecido em um ou em vários locais, em suporte eletrônico ou físico”.

  • Datificação

    Datificação é o termo utilizado para caracterizar o fenômeno que torna diferentes aspectos da vida social em dados, aumentando o uso de dados em diferentes escopos e impactando o corpo social. O conceito foi originalmente concebido por Mayer-Schoenberger e Cukier, em um estudo que fazia uma revisão sobre a noção de Big Data. Os autores argumentam que datificar um fenômeno é transformá-lo em uma forma quantificada, para que ele possa ser tabulado e analisado. Assim, de acordo com Mayer-Schoenberger e Cukier (2013), datificação é a “transformação da ação social em dados on-line quantificados, permitindo assim monitoramento em tempo real e análise preditiva” (Van Dijck, 2017). A datificação, portanto, transforma o comportamento humano em algo analisável. José Van Dijck argumenta que a datificação é um meio de acessar, entender e monitorar o comportamento das pessoas.

    A datificação não se confunde com a digitalização, sendo esta apenas um processo de representação numérica por meio de codificação binária. A datificação, por outro lado, transforma tudo em dado, combinando dois processos: (1) transformando elementos da vida social em dados por meio de processos de quantificação e (2) gerando diferentes tipos de valor a partir dos dados. Esses tipos de valor podem ser desde valores monetários até o controle estatal, produção cultural, concessão de benefícios, entre outros.

  • Política pública datificada

    No âmbito das políticas públicas, o processo de datificação se exprime por meio da datificação dos beneficiários e usuários, que são convertidos em “bancos de dados digitais em que se determinam os direitos”.

    A introdução das tecnologias digitais no poder público possibilitou métodos mais complexos de tratamento de dados pessoais, impulsionando na burocracia estatal e nos tomadores de decisão a noção de que a datificação seria uma solução adequada para o desenho e a implementação de políticas mais eficientes. Com o objetivo, por exemplo, de aprimorar a focalização de uma política social ou avaliar o impacto de uma política de mobilidade urbana para informar seu redesenho, o Estado passa a tratar mais dados pessoais dos beneficiários orientado pela percepção de que a maior disponibilidade de informações como renda, emprego, quantidade de indivíduos no domicílio, local de moradia, ou ainda tempo de deslocamento e modal de transporte, podem jogar luz às eventuais lacunas nessas políticas e facilitar seu endereçamento.

    Para tanto, são empregados mecanismos de compartilhamento e cruzamento automatizado de informações pessoais dos beneficiários coletadas e armazenadas por distintos órgãos da administração pública. Assim, dados de renda coletados pela Receita Federal podem ser cruzados com dados de previdência do Ministério do Trabalho, dados de habitação do Ministério da Economia e dados sobre pobreza do Ministério da Cidadania. Desse modo, observa-se que a cadeia de dados pessoais e os fluxos entre órgãos públicos – e, por vezes, com empresas privadas prestadoras de serviços públicos – é bastante ampla. Esse tratamento e cruzamento de dados tem por objetivo reconhecer os usuários e beneficiários de políticas públicas, discriminando os titulares do direito à política dos não titulares, possibilitando uma automatização dos processos de concessão de benefícios e de acesso. A essa descrição do processamento de dados nas políticas, em grande medida informadas por dados pessoais, dá-se o nome de políticas públicas datificadas.

    Em políticas de proteção social, existem promessas de que a datificação permita uma identificação e seleção mais precisa dos beneficiários, permitindo uma melhor solução para os problemas de inclusão de indivíduos que não cumprem as condições e de exclusão de quem precisaria do benefício. Por outro lado, parte da literatura também tem alertado sobre as possíveis injustiças e desigualdades na forma de reconhecimento informatizado dos beneficiários e usuários de políticas públicas datificadas. Essas desigualdades podem ser (1) para a datificação, isto é, em deficiências digitais e desigualdades de acesso em determinados contextos que podem dificultar o processo de reconhecimento e tratamento de dados dos titulares das políticas; ou (2) da datificação em si, ou seja, dos riscos de vigilantismo e riscos à privacidade no tratamento de dados.

  • Justiça de dados

    Justiça de dados refere-se à “justiça na forma como pessoas se tornam visíveis, representadas e são tratadas em razão de sua produção de dados digitais” (Taylor, 2017) e às implicações da coleta e tratamento de dados pessoais para a justiça social (Dencik & Sanchez-Mondero, 2022).

    Existem diversas abordagens para o uso do termo, dentre as quais, pode-se destacar aquela que busca endereçar as assimetrias de poder pelo uso de dados pessoais e, em outro sentido, aquela que foca em tecnologias baseadas em dados para promover justiça distributiva mediante a visibilização de grupos vulnerabilizados (Taylor, 2917).

    Analisar um serviço público, política pública ou qualquer processo que trate dados pessoais sob o enfoque de justiça de dados é pensar sobre as liberdades fundamentais e exercício de direitos implicados nesse processo. É buscar tornar o serviço, política ou processo mais equitativo. A abordagem de justiça de dados é mobilizada quando se busca entender as relações de gênero, de raça, de classe social, étnicas e religiosas em determinado processo de coleta e uso de dados pessoais de determinada coletividade. Mais especificamente, o conceito de justiça de dados é aplicado ao se evidenciar ou tentar tornar mais justa, por exemplo, uma política estatal de emprego que expõe e vigia desproporcionalmente imigrantes em detrimento da invisibilidade geral deste grupo para o Estado.

  • CadÚnico

    O CadÚnico (Cadastro Único para Programas Sociais do Governo Federal) é um instrumento de coleta de dados e informações que identifica e caracteriza as famílias de baixa renda, com base em informações sobre as características da residência, a composição da família, a situação de trabalho, renda etc. Trata-se de um instrumento para a seleção de famílias em vulnerabilidade para o acesso a programas componentes da assistência social federal, como o Auxílio Brasil, auxílio-gás, Programa de Erradicação do Trabalho Infantil, entre outros.

    Trata-se de um mecanismo constituído por uma base de dados, sistemas, redes de atendimento e rede de programas de usuários cuja finalidade é a coleta, processamento, sistematização e disseminação de informações para a identificação e caracterização socioeconômica das famílias de baixa renda que residem no território nacional.

    O CadÚnico foi criado pelo decreto n. 9.364/2001 – atualmente regulamentado pelo decreto n. 11.016/2022 – e reúne dados de cerca de 73,4 milhões de brasileiros. Ele é o instrumento do governo federal responsável pela gestão de dados dos programas sociais e é gerido pela Caixa Econômica Federal. São programas e benefícios sociais que recorrem ao CadÚnico: Programa Auxílio Brasil; Programa Minha Casa, Minha Vida; Programa de Erradicação de Trabalho Infantil; entre outros.

    As informações coletadas pelo CadÚnico são cruzadas com outras bases de dados do governo para possibilitar a concessão de benefícios sociais. Pode-se citar o caso dos programas de transferência de renda, como o antigo Programa Bolsa Família, o Auxílio Emergencial e o Auxílio Brasil, em que essa base de dados do CadÚnico são cruzadas com diversas outras, como a base de dados da Receita Federal.

  • Privacidade

    A privacidade é definida por Stefano de Rodotà como “o direito de manter o controle sobre suas próprias informações e de determinar a maneira de construir sua própria esfera particular”. A privacidade pode ser compreendida ainda, conforme a definição clássica de Warren e Brandeis, como o direito de todos os indivíduos de reservar informações pessoais e sobre a sua vida a si mesmo. Em 1890, Warren e Brandeis publicaram na revista Harvard Law Review o artigo científico "The Right to Privacy", em que os autores argumentam que o direito à privacidade estaria fundamentado na inviolabilidade pessoal da intimidade. De acordo com os autores, a tutela da privacidade esteve associada a uma noção de “direito de estar só” ou “direito de ser deixado em paz” ou ainda sem perturbação. Os autores foram, provavelmente, os primeiros a formularem uma conceituação do direito à privacidade.

    A garantia à privacidade é um direito fundamental, essencial à proteção da dignidade humana e à autonomia. De acordo com o professor Ferraz Júnior, o conteúdo do direito à privacidade é “a faculdade de constranger os outros ao respeito e de resistir à violação do que lhe é próprio, isto é, das situações vitais que, por dizerem a ele só respeito, deseja manter para si, ao abrigo de sua única e discricionária decisão” (Ferraz Júnior, 1993).

    A conceituação do direito à privacidade formulado por Ferraz Júnior parte de uma distinção entre público e privado, abarcando o direito à privacidade tanto em face de outros indivíduos particulares, como em face do Estado (Mafei & Ponce, 2020). Assim, estão, principalmente, abarcados pelos direitos à privacidade: o direito ao nome, à intimidade, à vida privada, à imagem e à reputação etc.

    O direito à privacidade nos permite a criação de barreiras e a imposição de limites para nos proteger de interferências indesejadas em nossas vidas, seja pelo Estado, seja por atores privados. Nesse sentido, a privacidade é uma fundação sob a qual diversos outros direitos humanos são construídos, uma vez que permite que os indivíduos negociem quem eles são e como eles querem interagir com o ambiente ao redor deles. Além disso, a privacidade nos dá a capacidade de proteger nós mesmos e a sociedade de desequilíbrios de poder ao reduzir o que pode ser conhecido sobre nós e feito a nós.

    Com a crescente inovação tecnológica, a privacidade é cada vez mais tensionada por problemáticas que interferem nessas noções associadas a liberdades devido a grande quantidade de dados pessoais que são coletados e tratados.

  • Autodeterminação informativa

    Autodeterminação informativa significa que qualquer cidadão possui o direito de decidir, com autonomia, quando e dentro de quais limites uma informação a seu respeito pode ser utilizada ou transmitida a terceiros. Traduz, em linhas gerais, o exercício de um controle sobre o fluxo de seus dados pessoais, garantindo proteção contra o uso e tratamento de dados de maneira ilimitada.

    A primeira vez que a expressão apareceu foi em decisão do Tribunal Constitucional Alemão, em 1983. O caso questionava a aplicação do Censo promovido pelo governo em razão da ausência de informações a respeito do uso posterior desses dados. O Tribunal, então, decidiu que o tratamento não transparente de dados pessoais feria a ideia de dignidade da pessoa humana e do livre desenvolvimento da personalidade.

    Hoje, a autodeterminação informativa está prevista como fundamento da proteção de dados pessoais na legislação brasileira (LGPD, art. 2º, II). O tema também foi discutido em Ação Direta de Inconstitucionalidade que discutiu a ordem de compartilhamento de dados pessoais de clientes de empresas de telefonia com o IBGE (Instituto Brasileiro de Geografia e Estatística) no âmbito da pandemia de covid-19. A relatora da ação, ministra Rosa Weber, entendeu que a falta de autonomia dos cidadãos no caso sobre o uso e tratamento de seus dados pessoais implicava violação à autodeterminação informativa, reconhecendo-a enquanto direito fundamental na ordem jurídica brasileira.

  • Proteção de dados

    Se a autodeterminação informativa traduz o controle sobre o fluxo de dados de um cidadão, a proteção de dados vai garantir o exercício desse e de outros direitos relacionados ao tratamento justo e adequado de quaisquer informações pessoais. No Brasil, o direito à proteção de dados pessoais é reconhecido como direito fundamental (Emenda Constitucional n. 115/2022) e é regulamentado pela Lei Geral de Proteção de Dados.

    Esse direito vai além da proteção de informações privadas ou sigilosas: o direito à proteção de dados possui uma dimensão coletiva, que abarca também informações que sejam ou estejam publicamente disponíveis. Isso significa que até informações disponíveis em redes sociais são passíveis de proteção e não devem ser utilizadas para fins diversos daqueles esperados pelo titular.

    A proteção de dados também implica prestação de contas por parte de agentes de tratamento de dados – tanto aos titulares com quem mantenham vínculo, quanto à ANPD (Autoridade Nacional de Proteção de Dados) –, bem como responsabilização caso não utilizem as informações com a devida ética e legalidade. Na prática, isso significa possuir documentação atualizada a respeito de fluxos de dados, ser transparente, manter políticas acessíveis e, em caso de incidentes de segurança, informar e tomar medidas de mitigação de riscos.

  • Vigilância

    Não há dúvidas de que um Estado precisa coletar e processar dados pessoais sobre sua população, especialmente, quando pensamos no acompanhamento de políticas públicas ou em atividades de persecução penal. Da sistematização de informações pessoais, entretanto, advém também um poder de controle social. Assim, a vigilância pode ser entendida como esse olhar – de análise e controle – sobre a população.

    Quando exercido sem limitações, o poder de vigilância pode esbarrar em práticas pouco ou antidemocráticas. O ápice da vigilância, nesse caso, seria a ausência de qualquer direito à privacidade. Estados totalitários rejeitam a ideia de privacidade por defenderem a transparência máxima dos cidadãos em relação ao Estado – o qual, por sua vez, seria opaco em relação aos cidadãos (Westin, 2018, p. 35). Assim surge um estado de desconfiança e insegurança, no qual sistemas de vigilância podem ser capazes de espionar e controlar indivíduos por suas opiniões, hábitos e manifestações políticas. Para evitar esse cenário, colocar limites sobre as capacidades de vigilância do Estado é pré-requisito para democracias liberais (Westin, 2018, p. 36-58).

    Hoje, a ideia de vigilância assume ainda novos contornos com a utilização massiva de dispositivos eletrônicos capazes de coletar informações sobre a população a todo momento. Não apenas Estados detêm poderes de vigilância, mas também empresas, que utilizam tais informações para realizar – e vender – predições, análises e inferências sobre o comportamento dos usuários. Dados pessoais viraram a matéria prima dessa nova economia, a qual Shoshana Zuboff denominou de “capitalismo de vigilância” (Zuboff, 2019). A todo momento informações são extraídas, interpretadas e classificadas. Nesse sentido, entender como ocorrem fluxos e dinâmicas de processamento e compartilhamento de dados entre diferentes agentes é de suma importância para que cidadãos detenham controle e informação sobre o que ocorre com seus dados pessoais.

  • Fluxo de dados

    O conceito de fluxo de dados refere-se aos caminhos pelos quais os dados percorrem em determinado sistema, durante os processos de tratamento e compartilhamento de dados. Desde o momento da coleta até a sua eliminação ou exclusão, dados pessoais passam por uma série de processos de compartilhamento, combinação e análise, por diferentes agentes.

    No âmbito das políticas públicas datificadas, Heeks e Shekhar propõem um modelo de análise para o fluxo dos dados, dividido em três momentos: a subida, que é a coleta dos dados; a correnteza, que é o processamento e visualização dos dados; e a descida, em que há o uso dos dados tratados para tomada de decisões e ações para a política pública. Em cada um desses momentos há envolvimento de diferentes atores, assim como de direitos e formas de tratamento dos dados pessoais em cada uma dessas etapas.

  • Decisão automatizada

    A decisão automatizada é uma decisão tomada sem envolvimento humano, isto é, por algoritmos. Algoritmos, por sua vez, são fórmulas matemáticas produzidas para funcionarem enquanto instruções: o desenvolvedor fornece uma série de informações de entrada e uma instrução de como o algoritmo deve decidir a partir disso. Assim, ele chega a determinadas conclusões, inferências realizadas a partir daquele conjunto de dados.

    A correção de provas objetivas que não passam por uma banca examinadora é um exemplo de tomada de decisão automatizada no nosso cotidiano. Em geral, utiliza-se de um sistema automatizado que analisa a folha de resposta dos candidatos e é pré-programado com o número de acertos necessários para obter a nota de aprovação. As pontuações, assim, são automaticamente atribuídas aos candidatos com base no número de acertos e os resultados são disponibilizados online. Outro exemplo é o score de crédito, que mensura o quão “confiável” seria uma pessoa para receber um empréstimo ou financiamento.

    A Lei Geral de Proteção de Dados menciona a decisão automatizada em seu artigo 20, o qual garante a qualquer pessoa o direito de solicitar a revisão de uma decisão automatizada que afete seus interesses, bem como de ser informada a respeito dos critérios e procedimentos utilizados para a tomada dessa decisão.

  • Exclusão digital

    A exclusão digital refere-se às “consequências sociais, econômicas e culturais da distribuição desigual do acesso a computadores e Internet”. Este tipo de exclusão reproduz e agrava, na dimensão virtual e tecnológica, as desigualdades econômicas, sociais, raciais e de gênero que marcam as relações sociais, restringindo o acesso às tecnologias da informação e comunicação a grupos politicamente marginalizados.

    Há múltiplas camadas de desigualdade no acesso à internet, podendo se expressar pela (1) exclusão de acesso; (2) exclusão de uso, especificamente no que diz respeito a competências digitais; e (3) exclusão de qualidade da rede e do dispositivo eletrônico. Em 2020, por exemplo, a maioria das pessoas de renda mais baixa acessou a internet exclusivamente pelo celular, enquanto a maioria das pessoas de renda mais alta teve acesso também por meio de computadores (Núcleo de Informação e Coordenação do Ponto BR, 2021).

    Em um contexto de digitalização das políticas públicas, a exclusão digital – em suas várias formas – implica em um obstáculo para o acesso e a garantia de direitos. No caso do Auxílio Emergencial, por exemplo, a ausência de um aparelho de celular, a falta de memória nos dispositivos móveis, limitação de acesso à internet e as dificuldades para manejar o aplicativo do programa emergencial de transferência de renda foram alguns dos óbices e dificuldades para a concessão do benefício.

  • Discriminação algorítmica

    Decisões automatizadas podem produzir e reproduzir vieses humanos. Essa é a ideia por trás do conceito de “discriminação algoritmica”, que aborda como algoritmos também são capazes de discriminar com base em gênero, raça, classe, dentre outros marcadores sociais, refletindo as desigualdades persistentes na sociedade. Assim, esses algoritmos tendem a apresentar maiores taxas de erro, imprecisão, ou a julgar de maneira racista, sexista, desigual e/ou preconceituosa em relação a esses grupos.

    A tecnologia de reconhecimento facial, por exemplo, tem sido questionada por, comprovadamente, possuir maior possibilidade de erros em relação a mulheres, latinos e pessoas negras, o que está relacionado ao fato de que os algoritmos, por uma lógica geopolítica entre Norte e Sul Global, serem treinados predominantemente a partir do reconhecimento de homens e pessoas brancas. A discriminação algorítmica, entretanto, vai ainda além de falhas diretas de funcionamento na tecnologia, passando também pela reprodução de microagressões em seu uso, o que pode ser exemplificado por casos de suposição de criminalidade, exotização e negação de cidadania de pessoas negras (Tarcízio, 2022). Outro exemplo é apontado por Safiya Noble. No livro “Algoritmos da opressão”, a autora relata como a busca por “mulheres negras” em ferramentas de busca costumava levar a resultados de sites eróticos e pornografia, o que não ocorria nos resultados de busca por “mulheres brancas” (Noble, 2018).

    Reparar essa realidade só é possível com equipes diversas, que pensem de antemão sobre as estruturas discriminatórias que podem ser reproduzidas a partir da tecnologia.

BIBLIOGRAFIA

Bioni, Bruno. 2019. Proteção de dados pessoais, a função e os limites do consentimento.

Brasil. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Diário Oficial da União: seção 1, Brasília, DF, nº 157, p. 59, 15 ago. 2018.

Dencik, L. & Sanchez-Mondero, J. 2022. Data justice. Internet Policy Review, 11(1). https://doi.org/10.14763/2022.1.1615.

Ferraz Júnior, T. S. (1993). Sigilo de dados: o direito à privacidade e os limites à função fiscalizadora do Estado. Revista da Faculdade de Direito, Universidade de São Paulo, 88, pp. 439-459.

Mafei, Rafael; Ponce, Paula. Tércio Sampaio Ferraz Júnior e Sigilo de dados: o direito à privacidade e os limites à função fiscalizadora do Estado: o que permanece e o que deve ser reconsiderado. In: Internet&Sociedade. N. 1 ⁄ V. 1 ⁄ 2020 p. 64 - 90.

Mayer-Schoenberger, V.; Cukier, K. 2013. Big Data: a revolution that will transform how we live, work, and think. Londres: John Murray.

Mulholland, C. S. Dados pessoais sensíveis e a tutela de direitos fundamentais: uma análise à luz da lei geral de proteção de dados (Lei 13.709/18). Revista de Direitos e Garantias Fundamentais, v. 19, n. 3, p. 159–180, 2018.

Noble, Safiya Umoja. Algorithms of oppression: how search engines reinforce racism. New York: New York University Press, 2018.

Núcleo de Informação e Coordenação do Ponto BR. (Org.). Pesquisa sobre o uso das tecnologias de informação e comunicação nos domicílios brasileiros: TIC Domicílios 2020. 1ed.São Paulo: Comitê Gestor da Internet no Brasil, 2021.

Silva, Tarcízio. Racismo algorítmico: inteligência artificial e discriminação nas redes digitais. Brasil, Edições Sesc SP, 2022.

Taylor, Linnet. 2017. "What is data justice? The case for connecting digital rights and freedoms globally." Big Data & Society 4.2 (2017): 2053951717736335.

Van Dijck, José. 2017. “Confiamos nos dados? As implicações da datificação para o monitoramento social”. In: Matrizes, V.11 - Nº 1 jan./abr. 2017 São Paulo. p. 40.

Clarice Tavares é coordenadora da área de Desigualdades e Identidades do InternetLab. É bacharela em ciências sociais pela USP (Universidade de São Paulo) e graduanda em direito pela Pontifícia Universidade Católica de São Paulo.

Bárbara Simão é coordenadora da área Privacidade e Vigilância do InternetLab. É mestra em direito e desenvolvimento pela FGV Direito SP (Fundação Getulio Vargas) e graduada na FDUSP (Faculdade de Direito da Universidade de São Paulo).

Ana Martha é estagiária de pesquisa do InternetLab. Graduanda em direito na FDUSP (Faculdade de Direito da Universidade de São Paulo).

Juliana Fonteles é bacharela em direito pela USP (Universidade de São Paulo). Concluiu sua especialização em direito alemão na LMU (Ludwig-Maximilians-Universität München) em 2019. Foi pesquisadora do InternetLab.

Veja também

Parceiros

AfroBiotaBPBESBrazil LAB Princeton UniversityCátedra Josuê de CastroCENERGIA/COPPE/UFRJCEM - Cepid/FAPESPCPTEClimate Policy InitiativeMudanças Climáticas FAPESPGEMAADRCLAS - HarvardIEPSISERJ-PalLAUTMacroAmbNeriInsper