Estadão: EPPGG debate uso da inteligência artificial no serviço público

Arquivo pessoal

Em artigo publicado no Estadão, o EPPGG Pedro Cavalcante reflete sobre o uso da inteligência artificial (IA) no setor público. Ele pondera que – como cabe ser a qualquer processo de inovação – tal uso apresenta prós e contras: se, por um lado, pode representar ganhos de produtividade, economia de recursos e permitir processos decisórios mais precisos e ágeis; por outro, o uso dos algoritmos também pode ocasionar, nas palavras de Cavalcante, “viés e discriminação no tratamento das demandas da população, questionamentos quanto à integridade, justiça e transparência dos critérios e das decisões automatizadas, bem como na desumanização no atendimento, com impactos negativos na qualidade da prestação de serviços, respeito à diversidade, garantia de direitos e confiança cidadã no setor público”. Não à toa o título do artigo é “nem tudo são flores no mundo da IA”.

O EPPGG relembra o caso do uso de robôs na análise inicial de pedidos de benefícios do INSS. Em recente auditoria do Tribunal de Contas da União (TCU), foi identificada a presença de diversos problemas, posto que a resposta padrão via algoritmos ampliou significativamente o percentual de negativas sem as devidas explicações dos motivos aos segurados. “Para piorar, a estratégia de automatização não foi acompanhada da adequação do quadro funcional, o que culminou no aumento da fila de espera e na extensão de prazos para finalização dos processos em até quatro vezes mais que o estabelecido pela legislação”, aponta Cavalcante. Em sua análise, o relatório do TCU evidencia que a iniciativa do INSS não apresenta padrões mínimos de transparência nem foco no cidadão e, ao empurrar os pedidos para a instância recursal, desestimula o reconhecimento de direitos legítimos, desprotege o cidadão, além de agravar a já notória exclusão digital nessa política.

Em resposta a esse tipo de problema, há uma nova tendência denominada Accountability Algorítmica, informa o autor. Em linhas gerais, essa nova abordagem consiste em medidas que garantam que aqueles que constroem, adquirem e usam algoritmos sejam responsáveis por seus impactos, fazendo com que dirigentes e organizações se vejam obrigados a aprimorar as transparências dos valores e critérios embutidos nos algoritmos, gerenciar seus riscos, bem como prestar contas dos seus resultados. Tal perspectiva teve destaque no estudo “Global Trends in Government Innovation 2023”, da OCDE (Organização para a Cooperação e Desenvolvimento Econômico).

“Obviamente, a efetiva implementação de medidas de accountability algorítmico requer um arcabouço normativo apropriado e capacidade estatal de supervisão”, assevera Cavalcante. Ele conclui: “É evidente também que as consequências das inovações provenientes do uso indiscriminado de algoritmos nem sempre são previsíveis e podem impactar negativamente a qualidade dos processos e serviços públicos e a garantia de direitos ao cidadão. Portanto, esse complexo dilema impõe aos órgãos de gestão de políticas públicas e de controle o urgente desafio de construção de medidas efetivas de transparência e responsabilização na adoção do IA no governo que convirjam com os padrões éticos, participativos e inclusivos, valorados pela sociedade brasileira”.

Leia o texto na íntegra.