Inteligência Artificial na RD Station: a sua privacidade importa

Entenda como as funcionalidades de IA do RD Station levam a sua privacidade em consideração, desde o momento em que são idealizadas até o seu lançamento

Você possivelmente ouviu falar que, nos últimos meses, a RD Station lançou uma série de novas funcionalidades de Inteligência Artificial. Sim, existem ferramentas para aumentar performance, otimizar análises, facilitar processos criativos e potencializar resultados.

Aqui na RD Station, nós acreditamos no potencial que a Inteligência Artificial tem de revolucionar a forma como trabalhamos, nos relacionamos e vivemos. Em paralelo, também entendemos que a construção deste tipo de tecnologia requer muita responsabilidade ética dos envolvidos, em todas as etapas do processo de criação. Entendemos que essa é a única forma de construirmos um futuro digital positivo – porque certamente os benefícios do uso de Inteligência Artificial são tremendos mas, infelizmente, os seus riscos também.

A seguir vamos te contar um pouco sobre práticas e mecanismos que estamos adotando na RD para o uso e desenvolvimento seguro de IAs.

Como construímos IAs de forma responsável?

Apesar do tema Inteligência Artificial já fazer parte da nossa rotina há tempos, a regulamentação e melhores práticas ainda dão os seus primeiros passos em muitos países do mundo. No Brasil, não é diferente. Atualmente, discute-se o Projeto de Lei 2338/23, que dispõe sobre o uso da Inteligência Artificial. 

Contudo, aqui na RD, entendemos que é importante criar uma cultura ética em relação ao uso e desenvolvimento de IAs desde o princípio. Buscamos aprender junto a reguladores, sociedade civil e com grandes players do mercado.

A seguir,  trazemos alguns exemplos de medidas que estamos tomando para mitigar os principais tipos de riscos relacionados ao uso e desenvolvimento de IAs:

Governança, processos e políticas de IA

  • Regras: desenvolvemos uma Política Corporativa de IA, que traz obrigações e melhores práticas em relação ao uso e desenvolvimento de IA para todos os RDoers. Falhas em observar as normas da Política, implicam em violação ao nosso Código de Ética e Conduta;
  • Educação: Na frente de educação, por exemplo, criamos uma Cartilha Digital para que RDoers entendam sobre o uso seguro, riscos associados a possíveis usos e orientações para a contratação de ferramentas. Estamos também inserindo o tema no Programa de Conscientização de Privacidade e Segurança da RD, para que tenhamos treinamentos obrigatórios e recorrentes à respeito;
  • Gestão de riscos: Todas as IAs desenvolvidas por nós devem passar por um processo de avaliação de riscos à privacidade e segurança – fluxo onde são avaliados todos os riscos envolvidos na criação e posterior utilização da funcionalidade, contendo um plano de ação para a mitigação de cada um dos riscos identificados;

Desenvolvimento de IA

Ao desenvolver uma nova solução de IA e realizar a avaliação de riscos associados, criamos planos de ação específicos para o desenvolvimento de cada funcionalidade, a fim de direcionar os nossos times de Produto e Engenharia em direção às melhores práticas de mercado, às leis de proteção de dados e às discussões e principais diretrizes do PL 2338/23. A seguir, trazemos alguns exemplos:

  • Auditabilidade e explicabilidade: o modelo deve ser auditável e a explicação do seu funcionamento deve ser possível – a fim de mitigar, por exemplo, a ocorrência do “Black Box Effect”;
  • Transparência: a funcionalidade deve possuir maneiras de trazer transparência aos nossos clientes e parceiros em relação ao seu funcionamento – assim, tornando possível que o nosso ecossistema consiga também ser transparente para com a sua base de contatos; 
  • Uso de dados sintéticos: direcionamos os times para que os modelos de IA sejam treinados a partir do uso de dados sintéticos e/ou através da adoção de mecanismos de minimização ou desidentificação. O uso de dados sintéticos, por exemplo, ocorre quando não há o uso de dados de pessoas reais utilizadas no treinamento do modelo. Ao invés disso, utiliza-se uma base sintética semelhante, desenvolvida através de um algoritmo.
  • Acompanhamento humano na validação do modelo: Incentivamos a validação humana dos resultados gerados pelos modelos de IA, a fim de garantir que (a) atinjam as finalidades positivas inicialmente objetivadas; (b) não gerem riscos discriminatórios, vieses ou imprecisões;

Estamos trabalhando para trazer ao RD Station inúmeras inovações proporcionadas a partir do uso de IA – e sim, queremos possibilitar mais com menos. Em paralelo, e com a mesma intensidade, queremos que todas as nossas inovações nasçam com responsabilidade, pautadas em valores éticos, inclusivos e dentro das melhores práticas de privacidade e segurança.

Marcadores:

Não perca nenhuma novidade!

Assine nossa newsletter para ficar por dentro dos lançamentos do RD Station.

Cadastro realizado com sucesso!

Você começará a receber as newsletters mensais do RD Station em sua caixa de entrada.