No futuro breve, atendimento por humanos será para poucos. E isso não é algo bom. Já falamos algumas vezes sobre o impacto dos algoritmos em nosso cotidiano. O que talvez poucas pessoas percebam é que essa excessiva automação pode (e vai) acarretar em uma abertura ainda maior do abismo social entre as pessoas, preferencialmente, entre as que detém maior renda em função das que não têm.
Recentemente, tentei alterar a data de vencimento de um cartão de crédito. Tentei pelo app do banco. Não consegui. O internet banking não dava a opção para fazer a alteração. Tentei ligar no autoatendimento e, advinhem: sem opção disponível. Depois de muito esperar na ligação, finalmente aparece uma opção para falar com um atendente. Expliquei a situação e fui orientado a fazer a operação pelo aplicativo. Em um primeiro momento desisti e desliguei. Mas lembrei que, por acaso, tenho essa conta bancária desde os tempos de faculdade e, pelo tempo, fui sendo movido de categorias e, na minha atual, existe um atendimento direto. Liguei e finalmente consegui a alteração de data.
Esse é um pequeno exemplo daquilo que vai se tornar algo muito ruim em nossos dias: uma discriminação sociodigital. Isto é, aqueles que têm condições de um atendimento humanizado (e, aqui, entender pela conotação básica da palavra e não solidária) serão privilegiados. Os demais, passarão por uma triagem quase que infinita a partir da automação.
Apesar dessa imagem de neutralidade atribuída às inteligências artificiaiss, não são poucos os casos de ferramentas tecnológicas que reproduzem estereótipos nocivos de gênero, raça e geolocalização e, agora, social. Nos níveis mais altos da economia, são os seres humanos que tomam as decisões, embora utilizem os computadores como ferramentas úteis. Mas nos níveis intermediários, e principalmente nos mais baixos, grande parte do trabalho é automatizada.
Esse é o pensamento da pesquisadora Cathy O’Neil no livro Weapons of Math Destruction (“armas de destruição matemática”). Se, durante uma entrevista de emprego em um renomado escritório de advocacia, o nome de um candidato formado na Faculdade de Direito de Stanford aparecer no sistema associado a uma prisão pela criação de um laboratório de metanfetamina, o entrevistador vai dar risada, achando que a máquina se enganou, e continuará com a entrevista. Já se um algoritmo determinar que um pai não é suficientemente responsável, os riscos para ele não serão nem um pouco engraçados.Se não forem estabelecidas regras claras em torno da utilização de dados, em breve poderemos ter alguma surpresa desagradável.