Cyro Púperi | Artigos e Notícias Jurídicas

Automação de decisões em seguradoras e bancos: discriminação invisível e responsabilidade legal

A concessão de crédito, a definição de prêmios de seguro e a aprovação de serviços financeiros estão cada vez mais condicionadas por sistemas automatizados. Em segundos, algoritmos analisam histórico de consumo, comportamento financeiro, localização, perfil de risco e centenas de outras variáveis para decidir quem recebe crédito, quem paga mais caro e quem é recusado. O processo parece técnico, rápido e objetivo. Mas por trás dessa aparência de neutralidade surge uma preocupação jurídica crescente: a automação pode reproduzir formas invisíveis de discriminação.

Quando uma decisão é tomada por modelos estatísticos complexos, muitas vezes o consumidor sequer entende por que foi recusado ou enquadrado em determinada categoria. O desafio jurídico está em conciliar eficiência econômica com transparência, igualdade e responsabilidade.

A promessa da neutralidade algorítmica

Bancos e seguradoras adotam automação porque ela reduz custos, acelera análises e amplia capacidade de processamento. Sistemas conseguem avaliar milhares de operações simultaneamente e detectar padrões de inadimplência ou sinistralidade com alto grau de precisão estatística.

Em tese, isso diminuiria arbitrariedades humanas. O algoritmo não decide por simpatia, aparência ou impressões subjetivas. Decide por dados.

Contudo, essa neutralidade é apenas aparente. Algoritmos aprendem com bases históricas e refletem padrões já existentes no mercado e na sociedade.

Quando o passado contamina o cálculo

Se dados históricos mostram maior inadimplência em determinadas regiões ou perfis socioeconômicos, o sistema tende a incorporar esse padrão como fator de risco.

O problema é que muitos desses dados refletem desigualdades estruturais, não escolhas individuais. Assim, um modelo matemático pode transformar exclusão histórica em critério permanente de decisão.

A discriminação deixa de ser explícita e passa a ocorrer de forma indireta, estatística e silenciosa.

Na maioria dos casos, consumidores não sabem quais fatores efetivamente influenciaram a decisão automatizada. Recebem apenas a negativa ou a classificação final.

Essa opacidade amplia a assimetria entre instituições e usuários. O banco conhece o modelo; o consumidor conhece apenas o resultado.

Discriminação indireta e responsabilidade legal

Mesmo sem intenção discriminatória, um sistema pode gerar efeitos desiguais sobre determinados grupos. Localização geográfica, padrão de consumo, tipo de dispositivo utilizado ou histórico de navegação podem funcionar como proxies de renda, origem social ou perfil demográfico.

O Direito já reconhece que discriminação não depende apenas de intenção, mas também de impacto.

Se um modelo automatizado produz exclusão sistemática injustificada, a instituição pode responder juridicamente pelos efeitos do sistema que escolheu utilizar.

No setor de seguros, a automação permite personalização extrema de preços. Sensores, dados de mobilidade e hábitos individuais tornam o cálculo de risco cada vez mais granular.

Decisões automatizadas e direito à revisão

Em muitos ordenamentos jurídicos, cresce o entendimento de que decisões automatizadas relevantes devem admitir revisão humana.

Isso não significa proibir algoritmos, mas impedir que o resultado seja absolutamente incontestável.

Quando uma recusa de crédito ou alteração contratual impacta direitos relevantes, o consumidor deve poder solicitar reavaliação e obter explicação compreensível.

Sem esse canal, a automação se transforma em decisão fechada e de difícil controle.

A responsabilidade continua sendo institucional

Mesmo quando a decisão é produzida por software, a responsabilidade jurídica não desaparece. O algoritmo não responde em juízo; quem responde é a instituição que o implementa.

Isso inclui dever de testar modelos, corrigir distorções e monitorar efeitos discriminatórios.

Delegar análise a sistemas automatizados não significa delegar responsabilidade.

Conclusão: eficiência não substitui igualdade

A automação em bancos e seguradoras representa avanço operacional importante. Porém, quando critérios invisíveis afetam acesso a crédito, proteção financeira e oportunidades econômicas, a discussão deixa de ser apenas tecnológica.

O Direito precisa garantir que eficiência estatística não legitime exclusões silenciosas. Transparência, possibilidade de contestação e controle de impacto discriminatório tornam-se elementos centrais.

No futuro, decisões automatizadas continuarão crescendo. O desafio será impedir que a matemática esconda desigualdades que o Direito tem o dever de enfrentar.

Compartilhe nas redes sociais:

Cyro Luiz Pestana Púperi

Juiz de Direito Aposentado – Advogado – Sócio Fundador do Escritório de Advocacia Púperi, Dutra e Moschem Advogados – Atuante na Área do Direito há mais de 40 anos – Palestrante – Escritor – Entusiasmado por Tecnologia e Evolução Tecnológica – Especialista em Direito Civil – Pós- Graduando em Direito Empresarial e LGPD – Cursando especialização em Legal Operation: Dados, Inteligência Artificial e Alta Performance Jurídica na PUC do Paraná - Participou de vários cursos nas áreas de Legal Design e Visual Law.