Apesar de os algoritmos de inteligência artificial já estarem em nossas vidas e em nossos celulares, estamos vivenciando apenas o começo da era de sua ascensão. Se por um lado os benefícios e as comodidades oferecidas por essas aplicações caem rapidamente no gosto das pessoas, por outro, os problemas que surgem a partir da ausência de regras transparentes começam a se acumular.
Mas é exatamente na grande capacidade de atrair usuários que reside, em parte, o perigo. Muitas aplicações são desenvolvidas sem regras claras ou transparentes sobre sigilo e privacidade de dados. As big techs, grandes corporações de tecnologia, têm sido sistematicamente acusadas de uso indevido das informações que coletam de seus usuários, sem que isso fique claro. Ou seja, a pessoas não têm a menor ideia que os seus dados pessoais estão sendo coletados e nem sabe onde vão parar. O caso mais notório disso foi o uso indevido de dados de usuários do Facebook pela Cambridge Analytica.
Existe, por outro lado, uma desconfiança crescente da sociedade sobre o viés de algoritmos, mesmo que as pessoas não saibam exatamente o que isso significa. Recentemente participei do Web Summit, evento de inovação tecnológica realizado anualmente em Lisboa, Portugal. Lá pude acompanhar algumas palestras, como a de Edward Snowden, que abriu o evento, falando sobre os grandes problemas de privacidade, ou do ex-primeiro-ministro do Reino Unido, Tony Blair, sobre a exclusão digital. Me senti obrigado a concordar que além dos grandes avanços tecnológicos atuais, temos também imensos problemas que teremos que enfrentar e resolver como sociedade.
De todos os debates que assisti, o que mais me preocupou foi um que abordou a coleta de dados de usuários realizados por diversos sites e aplicativos para vender mais e mais produtos e serviços. Neste contexto, cidadãos acabam despidos de seus direitos básicos e passam a ser tratados meramente como “consumidores”. Países e sociedades passaram a ser “mercados”. Os indivíduos são analisados como ativos de marketing, “clusterizados” em grupos de comportamentos similares.
A coleta de dados tem somente dois objetivos: vender mais ou aprimorar produtos e serviços para vender mais ainda. Até as conversas privadas são gravadas por “inocentes” assistentes inteligentes instalados dentro de sua casa e seus dados podem ser vendidos para empresas que desejam conhecer melhor o perfil dos “clientes”.
Essa prática de simplificação e “coisificação” humana é altamente arriscada e pode nos mover, como cidadãos, a uma condição de impotência em relação a como devemos viver daqui para frente. Cria-se uma brutal assimetria de informação, na qual a ponta do cidadão é a parte mais fraca. Precisamos realmente refletir se vamos deixar nossas vidas e intimidades nas mãos de corporações, mais poderosas que muitos governos.
É inevitável a força da inovação e os benefícios que a inteligência artificial nos trará. Mas, pouco entendemos sobre como essas tecnologias são criadas e implementadas a partir dos objetivos puramente econômicos de seres humanos e empresas.
Também é fundamental lembrar que as máquinas não têm autonomia para decidir. Assim, a tomada de decisão a respeito da aplicação, em primeira instância, é sempre uma prerrogativa do humano que a criou. E, seguindo essa linha de raciocínio, entendo que um dos pontos a serem questionados pela sociedade, em especial a brasileira, é: quais os modelos de vida nós desejamos seguir? Em particular nossa atenção deve recair sobre os algoritmos que têm emprego público, em larga escala, em toda a sociedade. Precisamos conhecer melhor como são desenvolvidos, que dados são coletados, o que é feito com estes dados, e se esses apresentam ou não determinado viés.
É necessário que a discussão sobre a inteligência artificial saia das salas de reuniões de executivos de empresas de tecnologia de informação, das mesas de engenheiros de software e ganhe espaço junto à sociedade. Essa última é que deverá decidir quais as prerrogativas e limites que os algoritmos deverão respeitar. É necessário também que os resultados dos algoritmos sejam auditáveis, mesmo sem conhecermos os meandros tecnológicos utilizados para sua criação.
Sem o devido debate com toda a sociedade, este tipo de tecnologia tem uma enorme capacidade de criar níveis alarmantes de exclusão, desigualdades, afetar sociedades inteiras e lançar a humanidade em problemas em uma escala sem precedentes na história.
Contudo, nossa geração tem a grande oportunidade de criar algoritmos livres de viés e preconceitos e, assim, melhores do que muitos seres humanos. Isso sim, seria um grande salto para a humanidade. Mas, para que isso aconteça, temos que entender e participar mais ativamente do debate e da avaliação de algoritmos que possuem emprego público.
Quanto aos limites a serem respeitados pela tecnologia e pela coleta de dados o mundo está hoje dividido em três grandes blocos. Dos excessos de controle estatal praticados na China sobre o cidadão e a sociedade por um lado, aos não menos danosos excessos praticados pelas big techs dos Estados Unidos. Entre os dois extremos está a Europa que tenta colocar algum tipo de regra aos excessos dos dois lados, com a adoção de uma lei de proteção de dados, a GDPR, que inspirou a nossa LGPD e de outras legislações similares.
O modelo adotado pelos países na União Europeia se mostra mais equilibrado, oferecendo condições mínimas para o progresso tecnológico, sem deixar de preservar as individualidades. As leis aprovadas e as discussões sobre a ética de algoritmos (melhor dizendo, de seus criadores) servirão como guia mais seguro para permitir a inovação acontecer, balizadas pelo respeito ao cidadão e à sociedade.
No ano passado, a gigante de e-commerce Amazon precisou dar explicações sobre o viés dos algoritmos desenvolvidos para o recrutamento de novos colaboradores, pois esses apresentavam uma tendência para a seleção de um percentual maior de currículos de candidatos do gênero masculino. O motivo, segundo a empresa, estava no fato de haver um número maior de currículos masculinos selecionados nos processos seletivos praticados, por seres humanos, nos últimos 10 anos. Como os dados utilizados para o treinamento do algoritmo, o chamado dataset, continham um percentual maior de currículos masculinos, o algoritmo apenas reproduziu o que recrutadores humanos já vinham fazendo. Nada que uma análise mais criteriosa não pudesse prever e evitar.
Bastaria apenas excluir o atributo gênero, deixando que a seleção fosse realizada somente com base em competências técnicas. Alguém faria a seleção dos candidatos por altura ou cor dos olhos? Claro que não! Então por que considerar o gênero como um atributo para o treinamento do algoritmo?
Procedendo desta forma, ao alimentar a rede neural sem o atributo de gênero, mesmo que o dataset contivesse uma maioria de homens, o sistema seria capaz de realizar a seleção independentemente do gênero, eliminando a desproporção de gênero. Será que o algoritmo iria selecionar mais mulheres?
Na área da tecnologia, mais do que potencial para oferecer respostas, é preciso saber fazer as perguntas corretas. Um exercício ético e filosófico que não deve ficar a cargo apenas de quem atua no setor. Precisamos envolver vários segmentos da sociedade, capazes de fazer as perguntas certas para chegarmos às melhores respostas. A inovação não pode parar, mas os cidadãos precisam ser respeitados.
*Por Victor Rizzo, engenheiro e Diretor Executivo da INOV.AI e responsável pelo comitê de Governança Digital, Risco e Compliance da HYON PAR.
Comments