PIX e meios de pagamento

Pagamento Agêntico: o que muda para

Por · · 4 min de leitura
Pagamento Agêntico: o que muda para

Em maio de 2026, o NeoFeed publicou a primeira parte de uma série sobre comércio agêntico, explorando como uma transação financeira executada por um agente de inteligência artificial se desenrola na prática. O ponto de partida da análise é simples: seguir o dinheiro em uma compra feita não por um humano, mas por um sistema autônomo que interpreta instruções, escolhe fornecedores e aciona meios de pagamento sem intervenção direta do usuário.

O cenário descrito não é ficção científica. Ferramentas como assistentes de IA com acesso a carteiras digitais e APIs de pagamento já estão em operação em mercados como os Estados Unidos e a Europa. No Brasil, o ecossistema do PIX e do Open Finance cria uma infraestrutura tecnicamente favorável para que esse modelo se expanda rapidamente.

A pergunta que o artigo do NeoFeed levanta, mas que precisa ser respondida com maior profundidade jurídica, é: quando um agente de IA paga por algo em seu nome, quem responde se algo der errado? Essa questão é o centro do debate regulatório que fintechs brasileiras precisam acompanhar com atenção.

Contexto jurídico e regulatório

O que é pagamento agêntico e por que a regulação brasileira ainda não o alcança

O pagamento agêntico ocorre quando um sistema de inteligência artificial, operando com autonomia delegada pelo usuário, inicia, autoriza e conclui uma transação financeira. Diferente de um débito automático ou de uma recorrência programada, o agente toma decisões em tempo real: escolhe o meio de pagamento, seleciona o fornecedor e executa a ordem sem confirmação humana a cada etapa.

O arcabouço regulatório brasileiro atual não contempla esse modelo de forma específica. A Resolução BCB nº 1 de 2020, que institui o PIX, e a Resolução BCB nº 96 de 2021, que trata do Open Finance, estruturam o consentimento como um ato do titular da conta, pessoa física ou jurídica identificada. A ideia de que esse consentimento possa ser exercido de forma contínua e delegada a um sistema autônomo não está endereçada.

O Marco Legal das Fintechs, consolidado principalmente pelas Resoluções CMN nº 4.656 e nº 4.657 de 2018, tampouco traz previsão sobre responsabilidade em transações iniciadas por terceiros não humanos. A Lei nº 12.865 de 2013, que regulamenta os arranjos de pagamento, define o pagador como aquele que ordena a transferência de fundos, mas não define o que ocorre quando essa ordem parte de um agente automatizado com poderes amplos.

O ponto mais crítico está na Resolução BCB nº 403 de 2023, que trata da iniciação de pagamento no Open Finance. Ela exige consentimento granular e com prazo definido. Um agente de IA operando de forma autônoma precisaria de um modelo de consentimento dinâmico e revogável a qualquer momento, o que ainda não está regulamentado. O risco jurídico para fintechs que oferecerem esse serviço sem clareza normativa é elevado, especialmente em disputas envolvendo o Código de Defesa do Consumidor, Lei nº 8.078 de 1990, que presume a responsabilidade objetiva do fornecedor do serviço.

Impacto prático

Para fintechs que atuam como iniciadores de pagamento (IPs) ou que desenvolvem soluções de carteira digital, o pagamento agêntico representa tanto uma oportunidade de diferenciação quanto um vetor de risco regulatório imediato. A oferta de assistentes financeiros autônomos pode aumentar o engajamento e a retenção de usuários, mas exige revisão completa dos termos de uso, da política de privacidade e dos contratos de prestação de serviço.

Do ponto de vista contábil, transações iniciadas por agentes de IA criam desafios para a conciliação e para a evidenciação de controles internos exigidos pela Resolução CFC nº 1.418 de 2012 e pelas normas de compliance financeiro do Banco Central. Se um agente executa dezenas de micropagamentos em nome de um usuário ao longo do dia, o rastro de auditoria precisa identificar claramente a cadeia de autorização, desde o consentimento original até cada transação individual.

Bancos digitais e instituições de pagamento que pretendem integrar agentes de IA às suas plataformas já deveriam estar mapeando os cenários de falha: transações duplicadas, pagamentos a destinatários incorretos selecionados pelo agente, e disputas de chargeback em que o usuário alega não ter autorizado a operação individualmente. A ausência de jurisprudência consolidada sobre o tema no Brasil torna a construção de um framework interno de governança ainda mais urgente.

Considerações finais

O pagamento agêntico não é uma tendência distante. É um modelo que já está sendo construído sobre a infraestrutura do PIX e do Open Finance, e que chegará ao mercado brasileiro com ou sem regulação específica. Fintechs que esperarem a norma para agir estarão atrasadas; as que agirem sem critério jurídico estarão expostas.

O caminho mais prudente é iniciar agora o desenho de uma arquitetura de consentimento robusta, documentar os fluxos de autorização de forma auditável e acompanhar de perto as consultas públicas do Banco Central, especialmente no âmbito do Open Finance e do Drex. A regulação virá. A questão é se a sua fintech estará preparada quando ela chegar.

Perguntas frequentes

O PIX pode ser usado por agentes de IA para fazer pagamentos automáticos?

Tecnicamente sim, desde que o agente tenha acesso às credenciais ou ao token de autorização da conta. Juridicamente, porém, o modelo ainda não está regulamentado pelo Banco Central. A Resolução BCB nº 1 de 2020 exige que o pagador seja identificado, mas não define como tratar a delegação de autonomia a sistemas de IA. Usar o PIX nesse modelo sem uma estrutura clara de consentimento e responsabilidade expõe a fintech a riscos regulatórios e de consumidor.

Quem responde juridicamente se um agente de IA fizer um pagamento errado?

Na ausência de norma específica, o Código de Defesa do Consumidor (Lei nº 8.078 de 1990) é o principal vetor de responsabilização. O fornecedor do serviço, que pode ser a fintech, o desenvolvedor do agente ou a instituição de pagamento, responde objetivamente pelos danos causados ao consumidor. A cadeia de responsabilidade entre essas partes precisa estar definida em contrato, de preferência com cláusulas de SLA e de alocação de risco específicas para transações autônomas.

O Open Finance brasileiro suporta o modelo de pagamento agêntico?

A infraestrutura técnica do Open Finance, especialmente a iniciação de pagamento regulada pela Resolução BCB nº 403 de 2023, tem elementos compatíveis com o pagamento agêntico, como o consentimento prévio e a delegação de acesso. Contudo, o modelo atual exige consentimento com prazo e escopo definidos, o que limita a autonomia de um agente de IA que precise tomar decisões em tempo real. Ajustes regulatórios serão necessários para acomodar esse uso.

Como registrar contabilmente transações feitas por agentes de IA?

As transações agênticas devem ser registradas como qualquer outra saída ou entrada de caixa, seguindo as normas do CFC e do Bacen. O desafio está na conciliação e na trilha de auditoria: cada transação precisa ter rastreabilidade até o consentimento original do usuário. Sistemas de ERP e de gestão financeira precisarão ser adaptados para capturar metadados sobre a origem da ordem de pagamento, incluindo se foi iniciada por um agente automatizado.

Existe alguma regulação sendo discutida no Brasil sobre pagamentos com IA?

Até a data de publicação deste artigo, o Banco Central não abriu consulta pública específica sobre pagamentos agênticos. O tema está sendo monitorado no contexto do Drex e das atualizações do Open Finance. O Projeto de Lei nº 2.338 de 2023, que trata da regulação da inteligência artificial no Brasil, aborda responsabilidade civil por sistemas autônomos de forma ampla, mas sem foco específico em serviços financeiros. Fintechs devem acompanhar as publicações do BCB e do Congresso Nacional.
Sobre os autores

Conteúdo produzido pela SAFIE, consultoria jurídico-contábil para empresas digitais e de tecnologia. A SAFIE é liderada por Lucas Mantovani e Italo Cunha.

Artigos relacionados

Mais artigos em breve.