Resolução CTSI/RFB nº 2, de 14 de junho de 2024
(Publicado(a) no Boletim de Serviço da RFB de 14/06/2024, seção 1, página 5)  

Aprova as Diretrizes para a Estratégia de Inteligência Artificial na Secretaria Especial da Receita Federal do Brasil.

A PRESIDENTE DO COMITÊ DE TECNOLOGIA E SEGURANÇA DA INFORMAÇÃO DA SECRETARIA ESPECIAL DA RECEITA FEDERAL DO BRASIL, no uso das competências que lhe conferem as Portarias RFB nº 800 e 801, ambas de 28 de junho de 2013, considerando a Resolução CTSI/RFB nº 1, de 16 de março de 2020, e considerando o resultado da 1ª Reunião Ordinária do Comitê de Tecnologia e Segurança da Informação do exercício de 2024, realizada em 24 de maio de 2024,
RESOLVE:
Art. 1º Ficam aprovadas, na forma do Anexo Único desta Resolução, as Diretrizes para a Estratégia de Inteligência Artificial na Secretaria Especial da Receita Federal do Brasil.
Art. 2º Esta Resolução entra em vigor na data de sua publicação no Boletim de Serviço da RFB.
ADRIANA GOMES REGO
ANEXO ÚNICO
Diretrizes para a Estratégia de Inteligência Artificial na Receita Federal do Brasil
Art. 1º - Diretrizes Gerais:
I. A Receita Federal do Brasil (RFB) deve estimular o uso da inteligência artificial (IA) para melhorar o desempenho operacional e a qualidade do serviço prestado ao cidadão, comprometendo-se com a inovação contínua para antecipar e responder rapidamente às mudanças nas necessidades dos cidadãos e nas regulamentações tributárias.
II. As soluções de IA desenvolvidas pela RFB devem atender aos princípios de IA confiável, priorizando a ética, a transparência e o respeito aos direitos humanos, seguindo as melhores práticas internacionais para garantir a consistência e a qualidade ética das implementações.
Art. 2º - Princípios de Desenvolvimento:
I. A RFB deve adotar práticas de desenvolvimento que incorporem os princípios de privacidade desde a concepção (privacy by design), segurança desde a concepção (security by design), direitos humanos desde a concepção (human rights by design), e ética desde a concepção (ethics by design), com um mecanismo de monitoramento contínuo que avalie a conformidade com esses princípios ao longo do ciclo de vida dos sistemas de IA.
II. A Inteligência Artificial Explicável (IAE - explainable artificial intelligence) deve ser priorizada para garantir que as decisões automatizadas possam ser compreendidas e explicadas aos usuários, estabelecendo uma interface de usuário clara e educativa que não apenas explique as decisões automatizadas, mas também forneça orientações sobre como os usuários podem interagir com os sistemas de IA de forma mais eficaz.
Art. 3º - Equidade, Responsabilidade e Transparência:
I. A produção de soluções de IA deve ser orientada por projetos de pesquisa que promovam a equidade, a responsabilidade e a transparência.
II. Devem ser realizadas auditorias aleatórias por humanos para identificar e corrigir vieses ou discriminações que possam surgir nas soluções de IA, implementando um sistema de auditoria contínua com base em métodos de IA explicável para detectar e corrigir vieses em tempo real, além de realizar auditorias regulares manuais.
Art. 4º - Gestão de Dados e Segurança:
I. É obrigatório realizar avaliações de risco ao utilizar dados pessoais em soluções de IA, assegurando o uso adequado de dados sensíveis.
II. A gestão e governança de dados devem garantir a qualidade, precisão, completude e representatividade dos dados utilizados, adotando padrões internacionais de qualidade de dados.
III. As soluções de IA devem ser robustas e seguras, com medidas para minimizar riscos de falhas e ataques cibernéticos, incluindo a realização de testes de invasão periódicos e avaliações de segurança conduzidas periodicamente.
Art. 5º - Supervisão e Conformidade:
I. Deve-se implementar supervisão humana adequada para garantir a segurança e prevenir violações de direitos fundamentais no uso da IA, estabelecendo um protocolo claro para intervenção humana em casos onde a IA possa comprometer direitos fundamentais, incluindo uma linha direta de comunicação para denúncias e intervenções rápidas.
II. A RFB deve manter documentação técnica detalhada sobre os sistemas de IA, incluindo objetivos, lógica de funcionamento, arquitetura e algoritmos utilizados, desenvolvendo uma plataforma de transparência onde a documentação técnica e relatórios de auditoria estejam disponíveis.
III. As soluções de IA estarão sujeitas a auditorias regulares e procedimentos de conformidade para assegurar a aderência às regulamentações vigentes, integrando um calendário de auditorias regulares e imprevistas, com relatórios de conformidade publicados anualmente para avaliação pública.
IV. É necessário manter registros das operações e decisões tomadas pelos sistemas de IA e relatar incidentes significativos às autoridades competentes, implementando um sistema automatizado de registro e reporte que garanta a integridade e a rastreabilidade de todas as operações e decisões de IA, facilitando a auditoria e a investigação de incidentes.
Art. 6º - Limitações e Uso Aceitável:
I. A RFB não deve desenvolver sistemas de IA considerados de risco inaceitável, como aqueles que manipulam o comportamento humano de forma subliminar, sistemas de pontuação social ou uso de IA para vigilância em massa indiscriminada.
*Este texto não substitui o publicado oficialmente.