Ultima atualização 26 de outubro

Uso massivo de dados no setor pode potencializar viés discriminatório

Tese de doutorado do advogado Thiago Junqueira analisa o impacto da introdução da IA em mecanismos decisórios, com foco no mercado de seguros

Com a promessa de oferecer uma precificação individualizada das apólices, as seguradoras estão expandindo o acesso a dados pessoais dos segurados, elevando o risco de violação da privacidade e da perpetuação de viés discriminatório nos processos decisórios. É o que afirma o advogado Thiago Junqueira, sócio do escritório Chalfin, Goldberg & Vainboim Advogados e professor do ICDS, em seu livro Tratamento de Dados Pessoais e Discriminação Algorítmica nos Seguros, resultado de sua tese de doutorado defendida na UERJ e publicada pela Revista dos Tribunais.

O especialista analisa as transformações no mercado de seguros, com foco na expressiva adesão ao uso de dados e à inteligência artificial na estruturação do negócio. Em vez do “prêmio fixo”, determinado por cálculos atuariais antes da contratação, o valor da apólice está, cada vez mais, baseando-se no acompanhamento dos “riscos” do segurado, calculados e definidos por algoritmos.

Para seguros de automóveis, os produtos pay as you drive ou pay how you drive ( “pague conforme você usa” e “pague como você dirige”) tiveram forte crescimento no Brasil, especialmente no período da pandemia (de até 200%), ante o recuo nos contratos tradicionais (que chegou a alcançar o número de 60%). Para estes produtos, os smartphones têm servido como ferramentas poderosas para a captura de dados. Em ambas modalidades são inúmeros os benefícios, como produtos mais acessíveis e adequados ao perfil dos segurados, contudo, não podem ser menosprezados possíveis danos causados aos consumidores.

Embora o uso do Big Data e da Inteligência Artificial no setor de seguros traga muitos benefícios, inclusive para os consumidores e aponte para decisões mais consistentes e justas , prevenindo fraudes e outras condutas de má-fé dos segurados, o novo sistema não elimina a possibilidade de haver discriminação indireta (não intencional) a determinados perfis nos contratos. “O algoritmo aprende por repetição. Mesmo não sendo desenhado com a intenção de discriminar, ele reproduz preferencias sociais de forma racional e, se não forem tomadas salvaguardas, necessárias irá repetir e perpetuar formas de discriminação”, analisa Junqueira. “O uso de dados para a precificação dos seguros poderia levar ainda a uma devassa nas informações pessoais do segurado, colocando em xeque seu direito à privacidade, à igualdade, à liberdade de expressão, à liberdade de associação e à identidade pessoal”, alerta.

Em seu livro, Junqueira demonstra que o titular dos dados tem, na realidade, um controle apenas parcial sobre a fonte de informações utilizada para a tomada de decisão pelos seguradores. A permissão de acesso a dados, como a localização, por exemplo, leva o segurador a formar um perfil bastante sofisticado do cliente, que pode abranger o hábito de frequentar a academia de ginástica, comer em redes fast-food, ir constantemente a farmácias, tabacarias, bares ou casas noturnas, por exemplo.

“Caso os seguros realmente marchem para um robusto tratamento de dados pessoais, a maioria das apólices passará a exigir amplo acesso aos dados dos segurados e consequências ainda não devidamente mapeadas poderão ocorrer”, afirma. De acordo com o professor, pode-se vislumbrar o potencial de expansão do uso de novos dados “comportamentais” coletados “indiretamente”, como as atividades online do proponente (buscas e compras em sites da internet e utilização de redes sociais), dados oriundos de wearables e telemetria (os aplicativos de celulares ou aparelhos que controlam desde os passos do indivíduo até a forma de direção do veículo), dados financeiros provenientes do uso de cartão de crédito entre outros.

O que fazer?

No mundo digital, os dados pessoais tornaram-se cruciais para as empresas direcionarem seus negócios e aumentarem os lucros. Em seu estudo, Junqueira alerta que uma parte considerável das empresas ainda descuida das implicações sociais e éticas que o uso destes dados pode gerar. A Lei Geral de Proteção de Dados Pessoais, embora oferecendo instrumentos capazes de contribuir para o combate à discriminação, mostra-se, em geral, insuficiente, sobretudo no que se refere ao problema da discriminação indireta.

O advogado, contudo, aponta que as possibilidades de controle na inteligência artificial são expressivas. “As empresas podem auditar os resultados de seus algoritmos. Quem foi alvo de uma discriminação também tem direito a uma explicação sobre a decisão automatizada”. Para o professor, no entanto, é mandatória uma mudança cultural e regulatória no país: “A indiferença para a realidade social e os riscos envoltos na tomada de decisões automatizadas devem ser rapidamente alterados. É preciso haver um treinamento de ética e um investimento em diversidade nas seguradoras”, conclui.

N.F.
Revista Apólice

Compartilhe no:

Assine nossa newsletter

Você também pode gostar

Feed Apólice

Ads Blocker Image Powered by Code Help Pro

Ads Blocker Detected!!!

We have detected that you are using extensions to block ads. Please support us by disabling these ads blocker.

Powered By
Best Wordpress Adblock Detecting Plugin | CHP Adblock