A Inteligência Artificial (IA) vem transformando os ambientes de negócios em diversos setores, impulsionada pela necessidade de otimizar processos, aprimorar serviços e proporcionar maior competitividade. Por isso, no Brasil, não é diferente: grandes empresas têm voltado sua atenção para soluções de IA que agreguem valor e ofereçam inovações em áreas-chave, como atendimento ao cliente, análise de dados e automação de tarefas. Nesse sentido, emerge a importância da chamada “Governança de IA”, uma abordagem sistemática destinada a garantir que o uso da IA seja ético, seguro e em conformidade com as regras contratuais que permeiam as relações, normas legais e regulatórias.
Por essa razão, este artigo tem como objetivo apresentar os fundamentos, desafios e estratégias para uma Governança de IA eficiente, especialmente para organizações de grande porte que buscam se adaptar às exigências do mercado e da legislação vigente.
Em primeiro lugar, a Governança de IA pode ser entendida como o conjunto de políticas, procedimentos, estruturas e práticas que orientam o desenvolvimento, a implementação e a manutenção de soluções de Inteligência Artificial dentro das organizações.
Diferentemente da Governança de TI, que tradicionalmente foca em infraestrutura, software e suporte, a Governança de IA preocupa-se também com aspectos como ética, transparência e accountability no uso de algoritmos e dados. Nesse sentido, uma governança bem estabelecida traz benefícios significativos, como maior confiança dos stakeholders, redução de riscos legais e reputacionais.
Empresas que não estabelecem diretrizes claras para o uso de IA podem enfrentar desde problemas contratuais até processos judiciais, uma vez que a responsabilização por decisões automatizadas ainda é tema em discussão no Brasil.
Sistemas de IA são, muitas vezes, alimentados por bases de dados robustas, e a proteção desses dados é fundamental para evitar vazamentos e ataques cibernéticos.
Algoritmos treinados com dados enviesados podem perpetuar ou até agravar discriminações e desigualdades. Por exemplo, quando não há controle sobre os dados usados no treinamento, as consequências podem ser ainda mais graves. Portanto, a implementação de medidas de controle é essencial para evitar danos reputacionais e para preservar a confiança de clientes e parceiros.
A Lei Geral de Proteção de Dados (LGPD) impõe obrigações rigorosas sobre coleta, armazenamento e uso de dados pessoais. Portanto, a inadequação aos requisitos legais pode resultar em multas e sanções severas, além de prejudicar a imagem da empresa.
A percepção pública sobre o uso responsável da IA pode influenciar diretamente a construção e a manutenção da marca. Afinal, transparência e boas práticas geram credibilidade junto a consumidores, investidores e parceiros de negócios.
A LGPD impõe princípios como finalidade, adequação e necessidade no tratamento de dados pessoais. Por isso, projetos de IA devem considerar essas diretrizes desde a fase de concepção, garantindo a privacidade dos titulares e evitando a exposição indevida de informações sensíveis.
As organizações precisam revisar e adaptar cláusulas contratuais a fim de prever responsabilidades, formas de auditoria e padrões de segurança relativos à coleta e ao processamento de dados para IA. Dessa forma, elas podem reduzir riscos e assegurar que suas parcerias estejam alinhadas às regulamentações vigentes.
O Projeto de Lei nº 2338/2023, em tramitação na Câmara dos Deputados, pretende estabelecer normas gerais para o desenvolvimento e aplicação de IA no Brasil. Apesar de ainda não ter sido aprovado, o texto oferece um norte importante para empresas e demais atores interessados em se adequar de forma antecipada aos principais pontos de regulação.
I – Direito à informação prévia: O indivíduo tem direito de saber quando está interagindo com um sistema de IA, o que implica transparência sobre a natureza automatizada do atendimento ou do serviço prestado.
II – Direito à explicação: Qualquer decisão, recomendação ou previsão tomada pela IA deve ser passível de esclarecimento. Da mesma forma, isso exige que as empresas adotem mecanismos de interpretabilidade dos algoritmos ou, ao menos, expliquem de forma acessível os critérios utilizados na tomada de decisão.
III – Direito de contestar decisões: Caso uma decisão ou previsão gere efeitos jurídicos ou impacto significativo sobre o titular, a pessoa tem o direito de questionar e solicitar revisão, o que pode incluir a necessidade de intervenção humana para avaliar se a decisão foi justa ou correta.
IV – Direito à determinação e à participação humana: O projeto de lei reforça que, dependendo do contexto e do estado da arte tecnológico, deve haver um humano capaz de intervir ou supervisionar decisões de IA, evitando automatizações integralmente cegas às consequências sociais ou individuais.
V – Direito à não-discriminação e à correção de vieses: As empresas devem assegurar que seus sistemas de IA não perpetuem nem reforcem preconceitos e discriminações. Além disso, quando esses vieses forem identificados, devem-se adotar medidas de correção ou mitigação.
VI – Direito à privacidade e à proteção de dados pessoais: Da mesma forma que a LGPD, o projeto de lei reforça que o tratamento de dados pessoais deve observar rigorosamente a legislação pertinente, incluindo princípios como finalidade, transparência e segurança.
O parágrafo único do artigo 5º exige que os agentes de IA forneçam, de maneira clara e acessível, os procedimentos necessários para o exercício desses direitos. Portanto, ainda que o projeto não seja lei em vigor, empresas que se antecipam a tais disposições podem se beneficiar ao evitar futuros passivos legais, além de construir uma reputação mais robusta no mercado.
O Conselho Federal da OAB, divulgou orientações acerca do uso da IA no âmbito jurídico, reforçando a necessidade de transparência, confiabilidade e respeito à privacidade. Como resultado, essas diretrizes podem influenciar tanto o setor legal quanto as empresas que se valem de consultoria jurídica especializada em projetos de IA. Nesse sentido, os principais aspectos são:
Ainda que direcionadas à prática da advocacia, essas referências reforçam a necessidade de cumprimento das normas existentes e de respeito à proteção de dados e direitos de terceiros.
As orientações ressaltam a importância de assegurar o sigilo das informações inseridas em sistemas de IA, avaliando a segurança dos fornecedores e certificando-se de que os dados não sejam utilizados para o treinamento dos sistemas sem o devido consentimento. Além disso, esse cuidado dialoga diretamente com as demandas de compliance e conformidade exigidas pela LGPD.
O uso de IA, sobretudo a IA generativa, não deve substituir o julgamento profissional nem realizar atividades privativas da advocacia. Além disso, destaca-se a relevância de uma capacitação contínua, de modo que os profissionais compreendam as limitações e riscos da tecnologia. Embora esse ponto seja dirigido às atividades forenses, organizações de qualquer segmento podem extrair o aprendizado sobre a necessidade de sempre manter um monitoramento humano e ético em aplicações de IA.
As Diretrizes enfatizam a transparência com os clientes, avaliando as limitações e riscos de cada aplicação. Quando transpostas para o ambiente corporativo em geral, essas recomendações reforçam a boa prática de informar parceiros e consumidores sobre a adoção de IA, esclarecendo potencialidades e eventuais limitações, o que contribui para um relacionamento mais confiável e ético.
Essas diretrizes do Conselho Federal da OAB evidenciam como a governança de IA, mesmo em setores fortemente regulados, deve ser pautada pela transparência, pelo respeito à privacidade e pela aplicação de normas éticas específicas. Ademais, servem como um arcabouço que pode inspirar políticas corporativas em áreas diversas, pois tratam de temas transversais à Governança de IA, como confidencialidade, segurança, capacitação e responsabilidade.
A regulação da IA tende a evoluir rapidamente, exigindo das empresas um monitoramento contínuo de legislações e normativas, além da constante atualização de práticas internas para atender aos padrões estabelecidos.
O uso responsável de IA pode se tornar um diferencial competitivo, elevando a percepção de valor da marca perante o mercado. No entanto, incidentes de uso indevido, vazamentos de dados ou viés nos algoritmos podem resultar em crises de imagem de grande proporção. Por isso, a implementação de uma comunicação transparente, aliada a medidas sólidas de governança, fortalece o relacionamento com clientes, colaboradores e investidores, promovendo um posicionamento de confiança e inovação.
Os tomadores de decisão devem garantir que a organização possua políticas e recursos necessários para o desenvolvimento seguro e ético de IA, observando os limites regulatórios e as boas práticas de mercado.
A alta administração precisa avaliar cuidadosamente os riscos e benefícios de cada iniciativa, contando com relatórios técnicos, pareceres jurídicos e análises de impacto para definir prioridades e aprovar investimentos.
A Governança de IA exige um esforço multidisciplinar. O diálogo contínuo entre áreas distintas, ou seja, a colaboração entre setores diversos, gera sinergia, facilita a implementação de soluções robustas e assegura a compatibilidade com as estratégias gerais da corporação.
Diversas empresas têm obtido sucesso ao aplicar IA em processos de análise de crédito, recomendação de produtos e prevenção de fraudes. Em geral, esses projetos contam com sólida estrutura de governança e equipes multidisciplinares.
Por exemplo, uma aplicação bem-sucedida é o uso de IA para atendimento automatizado por meio do WhatsApp, em que o sistema é treinado com base no próprio banco de dados da empresa, incluindo catálogos de produtos e serviços.
Essa solução acelera e melhora a acurácia do atendimento, reduzindo custos operacionais e proporcionando uma experiência mais ágil ao cliente. Entretanto, o treinamento do modelo é conduzido com cautela, de modo a evitar violações de privacidade e garantir a conformidade com a LGPD. Assim como, o usuário deve ser devidamente informado de que está interagindo com uma IA generativa desenvolvida para aquela finalidade específica, reforçando a transparência e consolidando a confiança do público.
A adoção de soluções de IA demanda uma etapa de validação técnica e legal antes do lançamento em larga escala. Por exemplo, testes piloto, revisão de dados e auditoria independente podem evitar erros e trazer mais confiança ao projeto.
Existem ferramentas de mercado e frameworks de governança corporativa adaptáveis à realidade da IA. Posteriormente, a adoção de padrões internacionais (como ISO/IEC) também contribui para elevar o nível de maturidade e credibilidade dos projetos.
O fortalecimento da Governança de IA nas grandes empresas brasileiras surge como resposta à crescente dependência de soluções tecnológicas para a tomada de decisões e para a sustentação de vantagens competitivas no mercado. Assim, ao considerar aspectos legais e regulatórios, sobretudo a LGPD, o Projeto de Lei nº 2338/2023 e as Diretrizes do Conselho Federal da OAB, é possível garantir maior segurança jurídica e robustez ética em cada etapa dos projetos de IA.
Nesse sentido, o apoio de assessorias especializadas, a formação de comitês internos e a criação de políticas claras tornam-se diferenciais indispensáveis. Olhando para o futuro, a tendência é que a regulação de IA se torne ainda mais dinâmica, demandando acompanhamento contínuo e a revisão constante dos processos internos.
O escritório Vanzin & Penteado Advogados está preparado para ser um parceiro estratégico nessa jornada, oferecendo a expertise e o suporte necessários para navegar e implementar, com sucesso, novas tecnologias nas operações de grandes empresas.
Publicado por:
© 2024 Vanzin & Penteado Advogados Associados.