Biometria, uma espécie de “pré-sal” dos dados
Dados biométricos podem impulsionar avanços na saúde e alavancar empresas inovadoras, mas convivem com desconfiança quanto ao controle governamental e à perda de privacidade de indivíduos
Virou clichê dizer que “dados são o novo petróleo”. A frase ganhou buzz a partir de um artigo da revista The Economist, de 6 de maio de 2017, mas a analogia faz sentido ao se observar a mudança no ranking de empresas mais valiosas dos EUA. Se durante o século XX o setor de óleo e gás abarcou as maiores companhias americanas, na década que acabou de findar (2011-2020) a lista foi liderada pelas big techs.
E se dados são como petróleo, dados biométricos — da quase paleolítica impressão digital a avanços recentes em reconhecimento facial, até áreas em exploração, como marcas genéticas (DNA) e sinais fisiológicos e bioquímicos — são uma espécie de "pré-sal" dessa nova economia. Não apenas porque requerem tecnologia e conhecimento avançados para serem extraídos de “nossas profundezas”, mas porque podem ser uma mina de ouro para empresas, um poder significativo a governos e um interesse legítimo de cada indivíduo “dono” de tais dados.
Estima-se que esse mercado dobre de tamanho em cinco anos e atinja cerca de US $70 bilhões. Iniciativas que vão de bancos e fintechs a empresas de turismo, visando cadastramento e acesso mais seguro e confiável de clientes, passando por governos, quanto à identidade, carteira de motorista e título de eleitor, chegando até avanços no monitoramento de temperatura corporal e distanciamento social impostos pela Covid-19, exemplificam algumas das investidas. É uma área que promete oportunidades tanto para quem desenvolve Inteligência Artificial (IA) e lida com big data quanto para profissionais de segurança da informação, criptografia e blockchain.
No entanto, por ser uma área que trata de características para lá de pessoais (algumas das quais nem nos damos conta, como a frequência de nossos batimentos cardíacos ou as dimensões de nossa íris), também é um prato cheio para receios e para “desconhecidos-desconhecidos”1 em relação à privacidade e, no extremo, à liberdade individual, tão cara ao liberalismo que o Ocidente cultua desde o Iluminismo.
É um trade-off que ainda depende do bom e velho consenso entre risco e benefício e entre crenças divergentes para ser decidido, e que em vários países, pelo menos no papel — no Brasil, com a Lei Geral de Proteção de Dados (LGPD) — pelo menos já conta com dispositivos regulamentadores.
O desejo por controle na origem
Os receios e “desconhecidos-desconhecidos” decorrem, sobretudo, de a biometria estar associada ao controle político de indivíduos e grupos ao longo da história, principalmente a partir do século XIX e durante o século XX. É o que o filósofo francês Michel Foucault chamou de “biopoder”. Por isso o temor de que governos ou até corporações possam usar de marcas exclusivas e imutáveis do corpo para segregação, discriminação ou exploração de grupos ou minorias — o que, de um ponto de vista “Weird”2, pode parecer trama de seriado distópico da Netflix, mas é algo que ocorre em aeroportos internacionais, no litoral do Mediterrâneo, na fronteira México-EUA, no Tibete e em outros cantos do mundo3.
Sobre a impressão digital, parece que ela surgiu mais para autenticar (dar fé) a documentos ou obras de arte, como demonstram polegares e palmas de mãos estampados em vasos, selos e placas de argila da antiguidade chinesa. Foi a partir da antropometria moderna, no século XIX, porém, que as cristas papilares dos dedos ganharam a ciência forense e adentraram os departamentos de polícia que cresciam e se qualificavam em todo o mundo4. Nessa trajetória, tais campos flertaram com teorias que culminaram em experiências que vão do Nazismo ao Apartheid, como a eugenia e o racismo científico, o que ajuda a entender por que biopoder, em termos foucaultianos, preocupa.
Por outro lado, há que se ter em mente que a Modernidade é um projeto racional de civilização e, como toda racionalização, requer, necessariamente, padronização e normalização, fazendo com que isto abarque todos os aspectos da vida, até os mais íntimos. É o que Foucault trata, com frequência, em relação à medicina, à sanitização, às escolas e prisões, aos sanatórios e hospícios — dispositivos para “racionalização” da vida em sociedade. Não é de espantar que a busca por métodos eficientes e eficazes de identificar, demarcar, classificar e, portanto, controlar indivíduos, seja uma busca importante e contínua desse projeto.
Temores, teorias e experiências controversos à parte, o fato é que a biometria têm permitido e facilitado, atualmente, o acesso de pessoas a serviços públicos e privados, otimizado viagens e intercâmbio entre países, acelerado e evitado fraudes em processos eleitorais, ajudado a ampliar a segurança em sociedade e, também, desfeito injustiças ou promovido justiça de forma mais “científica”. (Apesar de rodeada de tom anedótico, a história ou fábula de Will West e Willian West, em Leavenworth, Kansas, na primeira década do século XX, é meio que um marco inicial neste aspecto.)
Os avanços têm permitido a construção de sistemas como o Aadhaar, na Índia, o maior banco de dados de identificação biométrica do mundo (e multimodal, já que não utiliza apenas impressões digitais, mas reconhecimento de íris e outras características). O sistema armazena IDs da maioria dos 1,25 bilhão de habitantes do país, para se ter ideia. Em países em que a identificação biométrica digital está avançada, como na Estônia, um exemplo mundial, e na própria China, tornou-se muito mais fácil e rápido encampar mudanças sociais ou fornecer benefícios em resposta à pandemia de Covid-19, por exemplo.
Na mesma toada, o FBI conseguia, segundo dados de 2018, conduzir mais de 300 mil buscas em registros de impressões digitais por dia, dando suporte a milhares de agências policiais e não policiais. A Interpol detém centenas de milhares de conjuntos de impressões digitais para identificação de criminosos em 190 países5. E não é só no controle do Estado e nas forças policiais que os benefícios são visíveis.
O mercado se apropriou da tecnologia de forma que, atualmente, de clínicas médicas a agências de turismo, de bancos digitais a outras aplicações eletrônicas, até a ignição de carros, dependem de de biometria. Alguns problemas também ocorrem — na Malásia, em 2005, ladrões de carros cortaram o dedo do proprietário de uma Mercedez-Benz que era acionada por impressão digital6 —, mas acabam se tornando residuais, estatisticamente, em meio aos benefícios, pelo menos os de curto prazo, do contrário nem adotaríamos tais soluções.
Na saúde, IA e big data aplicados a monitoramento biométrico têm ajudado a reduzir a readmissão de pacientes cardíacos em tratamentos e somam dados não estruturados a dados estruturados para melhor entendimento de vícios como tabagismo. Em outras drogas e álcool, permitem a indivíduos terem uma vida mais saudável, por meio do monitoramento de dietas e uso de medicamentos, além de reduzir erros de decisão e interpretação médicas, no que se tem chamado de “medicina de precisão”.
Somado a sensores cada vez mais baratos e microscópicos e à Internet das Coisas (IoT, de “Internet of Things”), os avanços podem ser ainda mais significativos, permitindo monitoramento de pacientes de qualquer local e até intervenções a distância7. Porém, envolve dados extremamente críticos, com poder de revelar mais sobre uma pessoa do que ela própria conhece, o que requerer segurança eficiente — um erro, por negligência ou intencional, no uso de tais dados, pode resultar em sofrimento ou até na morte da pessoa.
Aprimoramentos, naturalmente, não ficam apenas na biometria tradicional, focada em impressões digitais e outras medidas físicas ou em soft biometrics, como peso, altura e outros dados que complementam as formas de identificação: elas estão adentrando campos bem mais profundos e complexos, como o do código genético, dos dados bioquímicos e das “pegadas” comportamentais.
Biometria de segunda geração
É aqui que chegamos na chamada “biometria de segunda geração”, no behavioral biometrics e em todo um novo cenário que se descortina, um campo farto de possibilidades e ávido por profissionais de dados — e onde o trade-off entre benefícios e riscos é bem mais delicado. Não é à toa que legislações como a brasileira LGPD têm tentado se antecipar e já incluem no rol de dados pessoais sensíveis o conceito de “dado genético ou biométrico” (Art. 5º, inciso II).
O escaneamento de íris e o reconhecimento facial, já amplamente utilizados e com uma série de exemplos práticos de erros e acertos, são como a ponta desse iceberg (ou, seguindo a analogia: os campos mais acessíveis desse “pré-sal de dados”). No Carnaval de 2020, na Bahia, o reconhecimento facial implantado em algumas cidades permitiu a identificação e captura de 33 foragidos em Feira de Santana e 42 em Salvador, além de tornar mais precisa a contagem de pessoas nas ruas8, um fator crítico para planejamento da segurança pública e de outros serviços.
Dados comportamentais, como padrões de uma caminhada de uma pessoa (gait), maneiras de falar e de digitar, tiques nervosos, até o ritmo da respiração (vários facilmente capturáveis por meio de sensores ou terminais em dispositivos móveis) avançam um pouco mais neste domínio. Nas “profundezas”, encontramos métodos mais caros, como exames de eletrocardiograma, monitoramento de pressão sanguínea e de indicadores como insulina, colesterol, hormônios e outras substâncias, bem como eletroencefalogramas e tomografia computadorizada.
Nesse território, não é apenas identificação que interessa, mas monitoramento para fornecimento de serviços, produtos e comodidade aos clientes. Alguns são muito bem-vindos, como os de acompanhamento médico ou de qualidade de vida. Quão útil não seria a um portador de diabetes ter um chip instalado no corpo que monitora níveis de insulina e que libera automaticamente a substância na corrente sanguínea quando o algoritmo calcular necessário? (Um aparelho desse tipo, obviamente não do tamanho de um chip, já é comercializado desde 2016.) Da mesma forma, quão desejável não seria a um atleta, profissional ou amador, saber, por meio de seu ritmo de passadas em uma corridas, quantas calorias gasta ou pode economizar, quais lesões pode ter decorrente deste padrão e quais recordes pode bater conhecendo, em tempo real, como tal fator interfere em seu desempenho (o que um Apple Watch também já permite, pelo menos em partes)?
O limite entre benefícios e riscos fica mais opaco quanto à segurança de dados quando se tentar (e se conseguir) descobrir outras características (poderíamos dizer: outros tipos de dados pessoais sensíveis) a partir de traços biométricos básicos. Em relação à segurança, cabe lembrar que, diferente de uma senha, um dado biométrico não pode ser alterado. Uma vez roubado um banco de dados de IDs biométricos, transtornos e prejuízos podem ser incalculáveis. Quanto à correlação de biometria com outros dados pessoas sensíveis, é aqui que se situa, por exemplo, a psicometria, que deu origem ao escândalo do Facebook e da Cambridge Analytics para a eleição dos EUA, em 2016, por exemplo. A partir da captura de intenções e comportamentos primários de usuários, descobre-se padrões que denotam suas preferências ou propensões, inclusive políticas.
Fim do conceito de “humano”?
Um estudo do polêmico pesquisador Michal Kosinski, o cara por trás do primeiro artigo a alertar sobre o escândalo Cambridge Analytics, divulgado em 2021 na Scientific Report, demonstra que o reconhecimento facial pode expor até a orientação política de pessoas. Segundo o estudo, considerando pares de rostos liberal versus conservador, a orientação política foi classificada corretamente em 72%, melhor que a precisão humana, de 55%. Apesar de ser um único estudo e, como toda pretensão científica, sujeito a revisões e a refutações, é algo que acende um alerta para possibilidades de IA combinada com biometria.
Outro estudo de Kosinski, em parceria com Yilun Wang, de 2017, testou algo semelhante. Deepneural networks (redes neurais profundas) foram postas para extrair features (características) de mais de 35 mil imagens faciais. Em 81% dos casos elas conseguiram determinar se, pelo formato do rosto, um homem era heterossexual ou homossexual. O percentual foi de 74% para rostos de mulheres. Enquanto isso, a precisão humana foi de 61% e 54%, respectivamente. Novamente, apesar de estudos poderem ser refutados, como orientação sexual é outro dado pessoal sensível, é mais um ponto de atenção em relação a possíveis usos nada nobres de tais características para discriminação, segregação ou exploração.
Casos extremos chegariam aos que Yuval Harari imagina em Homo Deus, livro em que discorre sobre como, por meio de biotecnologia e de tecnologia inorgânica, o homo sapiens pode ser superado por uma versão completamente diferente de si mesmo ou por máquinas inteligentes. Esmiuçando, decifrando e monitorando cada vez mais nossos padrões bioquímicos e neurais, poderemos chegar a um ponto em que a IA irá nos conheça melhor do que nós a nós mesmos, saberá qual desejo nosso se manifestará no minuto seguinte, o que pode acontecer daqui a dias, meses ou anos com nosso corpo e, quem sabe, interferir para “corrigir” tais fenômenos, visando algum “bem-estar” padronizado, o que derrubaria, de vez (ela já vem erodindo desde Darwin, com os avanços das ciências da vida, segundo o historiador) a noção de indivíduo “uno”, consciente e capaz de tomar decisões por si só, narrativa que sustenta a “religião liberal”, nas palavras de Harari, a qual cultuamos desde o Iluminismo.
Filósofos como o italiano Giorgio Agamben e o sul-coreano radicado na Alemanha Byung-Chul Han seguem na mesma linha. Enxergam a decomposição do humano em algoritmos bioquímicos e no monitoramento e quantificação da vida não como forma de melhorá-la, mas como ameaça de desintegração do que entendemos como “natural” e “humano”. Agamben atribui à biometria uma redução à “vida nua”, à vida destituída de humanismo, e compara a coleta de dados biométricos a uma forma de “tatuagem biopolítica”. Han considera que a sociedade está sendo reduzida a critérios de eficiência e desempenho, lança um olhar bastante crítico sobre nosso desejo (que considera impossível) por transparência e trata de temas que vão de psicopolítica a “dataísmo” (uma um conceito filosófico ou espécie de “culto” que diz que tudo no universo consiste em fluxos de dados).
Um dilema que não se resolve com tecnologia
Um pouco aquém de um cenário apocalíptico, ao menos no Ocidente, tanto governos (estabelecendo legislações), quanto empresas (adotando códigos de conduta e abandonando ferramentas potencialmente perigosas) e indivíduos (mais diretamente afetados por escândalos e problemas decorrente do compartilhamento de dados pessoais) têm avançado num embate para estabelecer caminhos que não firam a privacidade, permitam controle e segurança adequados e, ao mesmo tempo, não limitem avanços tecnológicos e inovação do mercado.
A Microsoft, por exemplo, anunciou que não venderá tecnologia de reconhecimento facial para departamentos de polícia dos EUA e pediu que governos regulamentem a inovação. A IBM também decidiu abandonar o desenvolvimento de tecnologia e encerrar pesquisa e desenvolvimento em biometria facial, por discordar da tecnologia. O Google passou a apoiar restrições da União Europeia para o reconhecimento facial e, após pesquisas e fatos mostrarem que sistemas de classificação de imagens fazem confusão em se tratando de negros, asiáticos e mulheres, decidiu não mais determinar o gênero de pessoas em fotos. A Amazon, proprietária do Recokognition, capaz de detectar emoções como medo e raiva, suspendeu por um ano desenvolvimentos na área. É um esforço não apenas para aparecer de “bonzinho”, mas porque há multas altas à espreita e forte cobrança de acionistas, já que a não observância a tais cuidados afetam o valor de mercado das companhias.
No Brasil, a LGPD promete turbinar o Código de Defesa do Consumidor. Empresas vêm sendo notificadas por uso de reconhecimento facial e uma delas, investigada por, supostamente, utilizar-se da tecnologia para estimar gênero, faixa etária e humor de consumidores. Em Salvador (BA), 2021 começou com mais um suspeito foragido identificado e capturado por conta do sistema de reconhecimento facial.
Por outro lado, em Londres, um homem foi multado em 90 libras, por “comportamento desordeiro”, ao cobrir o rosto e evitar ser reconhecido por um sistema de reconhecimento facial. Inocentes são confundidos com suspeitos, com “alta precisão” (70%), constrangendo pessoas e gerando abordagens policiais desnecessárias. Pessoas trans e não binárias continuam a ter problemas com a padronização estabelecida social e culturalmente e aprendida por algoritmos, como mostra pesquisa da Universidade do Colorado. Empresas e startups continuam minerando o arsenal de fotos do Facebook para venda de serviços de reconhecimento facial a polícias e outras empresas. E governos usam biometria para monitorar minorias étnicas.
Como a metáfora do início do texto, dados, assim como petróleo foi no século XX, parecem estar moldando um novo mundo, uma nova sociedade, novos desejos e desafios, e também novos riscos. A biometria, como um dado extremamente abundante e ao mesmo tempo “profundo”, tem um valor ainda maior e pode determinar, para benefício ou para prejuízo, nossa liberdade, nossa qualidade de vida e até nosso lugar íntimo e indissolúvel como indivíduo no contexto Liberal-Iluminista em que boa parte da humanidade vive ou parece almejar viver hoje.
Entre o desejo de governos por controle e segurança, de empresas por conquistar mais fatias de mercado, ter mais clientes, vender mais e “otimizar” tudo, e de indivíduos não se verem chafurdados no íntimo de seus pensamentos, sensações e até miudezas intracelulares, não há saída fácil. O fato de a IA ter de reduzir tudo a padrões pré-estabelecidos, culturalmente, por nós (ou por alguns de nós que produzimos a IA) — encaixar diversidade em categorias nunca é uma conta inteira —, coloca questionamentos sobre quais padrões queremos adotar e por quais deles aceitaremos ser medidos, se é que, como sociedade, queremos isso.
Está aí um problema em que a tecnologia ainda depende de duas áreas incondicionalmente humanas para tomar decisões, senão ótimas”, mas ao menos razoáveis, à nossa maneira: ética (o que queremos) e política (como pôr em prática o que queremos).
Artigo escrito por Rogério Kreidlow, jornalista, que gosta de observar a tecnologia em relação a temas amplos, como política, economia, história e filosofia.
“Desconhecidos-desconhecidos” é um termo comumente usado em gerenciamento de projetos e planejamento estratégico. Significa riscos que vêm de situações inimagináveis. O termo nasceu de uma frase proferida pelo ex-Secretário de Defesa dos EUA, Donald Rumsfeld.
Weird é acrônimo para “Western, Educated, Industrialized, Rich and Democratic” (Ocidental, Educado, Industrializado, Rico e Democrático), uma espécie de apelido crítico usado para designar sociedades ocidentais.
Para um exemplo, conferir “How China Uses High-Tech Surveillance to Subdue Minorities”, no New York Times, de 22/05/2019.
Em 1877, Thomas Taylor chamava atenção para a possibilidade de identificar criminosos pelas marcas de palmas das mãos. Em 1882, Alphonse Bertillon, da Polícia de Paris, criou um sistema de antropometria forense. Em 1888, Francis Galton, primo de Charles Darwin e importante estatístico (criador da correlação e da regressão à média), começou a estudar sistematicamente impressões digitais. Em 1891, Juan Vucetich, da Polícia Argentina, passou a usar arquivos de impressão digital baseados nos tipos de Galton. Hoje, a impressão digital é o tipo de biometria que mais alimenta bancos de dados de identificação e forenses em todo o mundo.
Informações sobre o FBI e a Interpol são deste site, um apanhado que bastante honesto, aparentemente, sobre impressão digital ao longo da história.
Conferir “Gangue corta dedo de motorista para roubar carro”, de 31/05/2005, na BBC Brasil.
O estudo “Big Data Analytics in Biometrics and Healthcare” contém vários subsídios a respeito de big data e biometria na saúde.
Conferir “Reconhecimento facial encontra foragidos no Carnaval de Salvador”, de 27/02/2020, no Tecmundo.