Para finalizar a primeira bateria de paineis da 5° edição do Finance & Law Summit and Awards, Ricardo Santana, sócio da KPMG, recebeu Mendel Diesendruck, Compliance Officer da Microsoft; Leandro Marco Antonio, Regional Cyber Security & Privacy Lead Partner da KPMG, e Roberta Porto, da Fundação Renova, para o painel “Inteligência Artificial, Tecnologias do Futuro e o Impacto na Segurança das Organizações”.
O painel trouxe o debate sobre os riscos, governança, projeto de lei e oportunidades trazidas pela Inteligência Artificial no país e no globo. Santana abriu o painel falando sobre o uso de ferramentas de IA no Brasil, apontando que o país é o 5° país do mundo que mais usa IA no globo. O sócio apontou como as empresas, pessoas e governo vem lidando com a tecnologia e seus riscos.
Diesendruck explicou que existem dois principais riscos com adoção, o vazamento de dados e a alucinação, que basicamente quando a IA responde algo que não faz sentido, por uma programação ou erro.
Leia também:
> ‘Hoje, o grau de complexidade das perícias é imenso’, diz painelista
> Painel discute impactos da Reforma Tributária no setor Financeiro e Varejista
> ‘É inevitável usar a Inteligência Artificial, então o ideal é treinar os funcionários’
> Painéis debatem panoramas de investimentos
“O risco de vazamento de dados não é algo novo. Estou há 30 anos no mercado e já lidava com possíveis vazamentos de dados, então a IA não traz esse risco como novidade, mas sim o potencializa. A IA tem a capacidade de acelerar o acesso a esses dados. Porém, existem ferramentas sendo criadas e aperfeiçoadas para trabalhar nesses vazamentos. Na Microsoft, por exemplo, são os programas Co-Pilot. O programa Co-Pilot da Microsoft entende que a IA não substitui pessoas, mas sim auxilia a aumentar a velocidade de trabalho das pessoas. Portanto, é necessário ter uma pessoa mediando o acesso às informações. Hoje, são mais de quarenta produtos sob essa marca”, discorreu.
Porto deu sequência a fala de Diesendruck relatando sobre a regulação que está sendo feita em torno da Inteligência Artificial, principalmente com as constantes evoluções da tecnologia.
“O Brasil está se baseando muito na regulação europeia, que está muito relacionada à questão transparência, onde existe a necessidade de passar a mensagem, mas também mostrar para o usuário como isso está sendo feito. Outras preocupações são a exploração da vulnerabilidade de grupos, como a ética está sendo respeitada; o uso de direitos autorais e como isso está sendo tratado; reconhecimento biométrico, especificamente a privacidade, como estamos protegendo a privacidade. É bom regular, pois traz segurança jurídica, mas também pode trazer limitações e lacunas, já que é uma norma prescritiva, apontando que algumas situações são proibidas, e estamos seguindo essa linha. Outra questão em que a lei europeia avançou é que ela não regula somente o sistema, mas também o uso dos sistemas. Isso pode impactar empresas brasileiras que estão ligadas ao mercado europeu, então, se isso acontecer, já seremos impactados”, defendeu.
Marco Antônio, seguiu a linha de Porto e Diesendruck, explicando que a IA não é diferente de nenhuma tecnologia que já existe. Ela segue a mesma linha que a nuvem, por exemplo, que já possui uma série de barreiras para proteção.
“Quando olhamos para a proteção, também temos que considerar o trânsito de dados dentro da empresa. A LGPD já poderia guiar essas novas normas, pois ela já trata de segurança. Eu acho que temos que ter a mentalidade de que não há diferença em relação à segurança dos últimos anos. Todos nós temos consciência do que estamos falando sobre IA dentro da nossa empresa. A maioria das pessoas apenas faz uma pergunta para o ChatGPT, e isso não é apenas sobre IA. Você tem que entender sobre o que está falando e usando IA. Você tem várias opções, mas o que isso tem a ver com a empresa?”, questionou.
Mendel complementou falando sobre como as empresas realmente estão adotando a IA em seu dia-a-dia e com os funcionários da companhia.
“Existem uma quantidade crescente de soluções de IA, então há um risco para as empresas com algumas soluções que são abertas demais. As pessoas, ao quererem adotar a tecnologia, se expõem ao risco de vazamento de dados. Por isso, as empresas devem ter cuidado ao avaliar as soluções e como elas são construídas, verificando se elas treinam o modelo com os dados ou se os utilizam para auxiliar outras empresas. As empresas deveriam buscar soluções desenvolvidas especificamente para elas, com modelos treinados sem usar seus dados e que, somente depois, são aplicados com rigor nas empresas”, completou.