* Wanderley Brandão é DPO da Rox Partner
Não é segredo para ninguém que a inteligência artificial é a tecnologia do momento. Com o desejo de não perder essa onda, muitas empresas e pessoas estão embarcando na tecnologia que vem ganhando novos espaços a cada dia. No entanto, à medida que cresce o uso das soluções, cresce também uma preocupação válida: qual o impacto da IA diante da proteção aos nossos dados? A inquietação ganhou volume principalmente no ano passado, quando a Itália baniu temporariamente o ChatGPT em seu território. Na época, o órgão regulador de dados do país (o GPDP) questionou o uso massivo de dados públicos que a ferramenta se apropria para “aprender”.
O episódio acendeu um alerta e abriu discussões sobre até onde as informações que circulam na internet são realmente “livres”. Até porque, mesmo que as redes sociais deixem nossos dados “expostos”, isso não quer dizer que qualquer um possa usar essas informações sem limites. Há normas e regras que protegem essas informações de usos indevidos, inclusive por empresas de IA. Para resolver o caso, a OpenAI, empresa que é responsável pelo ChatGPT, readequou suas práticas para respeitar às requisições da GDPR, mostrou evidências quanto ao uso adequado de dados conforme à legislação e implementou um mecanismo de controle de acesso contra menores de 13 anos. Apesar da resolução, a situação acabou levantando uma nova questão: como garantir que nossos dados estão mesmo protegidos, especialmente com o avanço tão rápido das IAs?
Um dos maiores motivos dessa preocupação é que a gente ainda sabe muito pouco sobre como as IAs armazenam e usam os dados que recebem. Quando a gente faz uma pergunta à tecnologia, a plataforma armazena as informações utilizadas para responder a solicitação, usando-os para “aprimorar” seu sistema. Utilizando novamente a OpenAI como exemplo, a empresa se envolveu em uma outra polêmica recente ao admitir que guardava todos os dados colhidos durante as interações. Após ser alvo de críticas, a companhia alterou seu modelo para uma política que apaga os dados após 30 dias e pede permissão ao usuário para processá-los.
Além da preocupação envolvendo o uso dos dados em si, o fato das empresas armazenarem os conteúdos abre o precedente ainda para o risco de haver vazamento de informações. Estas situações geram questionamentos quanto à aderência das IAs às regulamentações de proteção e privacidade de dados.
Uma das normas mais importantes nesse contexto foi desenvolvida pela ISO, organização internacional responsável por garantir a padronização de atividades. Recentemente, o órgão anunciou a ISO/IEC 42001 com foco justamente para a IA. O código afirma que empresas responsáveis pelas soluções em IA devem orientar seus processos à “gestão de preocupações relacionadas à credibilidade de sistemas de IA tais como segurança, proteção, equidade, transparência, qualidade de dados e qualidade em seu ciclo de vida”.
Preocupação empresarial
Apesar do passo importante, ainda é preciso estar atento às informações que acabam “compartilhadas” com a IA. Vamos pensar, por exemplo, no caso do mundo corporativo, por exemplo. Para empresas, todo o cenário acaba sendo delicado, uma vez que lidar com dados sensíveis a segurança é tópico essencial. Normalmente, elas têm políticas de privacidade rigorosas, que até mesmo impedem colaboradores de compartilharem informações internas em plataformas externas, inclusive em IAs. Afinal, qualquer uso indevido de dados que sejam protegidos pela LGPD pode levar a sanções legais e prejudicar a imagem da empresa.
Um caso recente interessante ocorreu com a Samsung, que proibiu o uso de ferramentas de IA. A medida foi tomada após o uso, por seus engenheiros, de código-fonte confidencial de suas aplicações na ferramenta. Como consequência, os dados sigilosos acabaram vazados ao mercado, gerando uma enorme dor de cabeça à marca. Após o caso, a gigante sul-coreana optou por excluir a solução do seu dia a dia ao apontar que não existe uma segurança sobre onde as informações enviadas às ferramentas serão armazenadas ou serão utilizadas.
Apesar da decisão polêmica da empresa, é difícil imaginar um futuro em que a IA se distancia tanto assim do mundo empresarial. Até porque, estamos falando de uma das tecnologias mais disruptivas dos últimos tempos. Nesse contexto, é fundamental que as empresas invistam em práticas de segurança sólidas para proteger suas informações. Camadas adicionais de segurança devem ser implementadas para evitar o risco de vazamento de dados. Algumas delas são:
– Classificação das informações: os referenciais produzidos por uma organização devem ser rotulados quanto à sua sensibilidade, como por exemplo informações públicas, restritas ou confidenciais. Medidas preventivas devem ser adequadas a diferentes tipos de dado e isto deve ser amplamente divulgado.
– Conscientização dos colaboradores: campanhas de conscientização sobre segurança da informação e proteção e privacidade de dados devem ser frequentes. As regras da empresa para o uso de seus dados, as normas e compliances aos quais elas estão sujeitas devem ser claras a todos os colaboradores. Além disso, a liderança deverá estar engajada na promoção destes valores e disposta a aplicar penalidades para casos de violações.
– Políticas e procedimentos: Garantir que exista métodos e processos internos claros e acessíveis a todos os funcionários é fundamental para garantir a segurança e privacidade dos dados.
– Ferramentas de proteção ao vazamento de dados (DLP – Data Loss Prevention): Tais soluções costumam ser custosas e de implementação complicada, porém são bastante eficientes para assegurar a proteção das informações sigilosas.
É evidente que a IA veio para transformar o mercado e agregar valor às empresas, porém, ao mesmo tempo, ela exige uma atenção redobrada em relação à proteção de dados. O caso da Samsung e as regulamentações emergentes, como a ISO/IEC 42001, servem de alerta à importância de um compromisso ético e responsável com o uso das informações. Cabe às instituições, portanto, investir em políticas de segurança e criar uma cultura organizacional que valorize a privacidade e o respeito à legislação. Somente com essas práticas será possível aproveitar o potencial da IA de forma segura e sustentável, garantindo que a inovação caminhe lado a lado com a proteção dos direitos dos usuários.
* Wanderley Brandão é DPO da Rox Partner, consultoria de tecnologia referência em dados e cibersegurança. Com formação em Análise de Sistemas e Gestão de Sistemas de Informação pela Anhanguera Educacional e MBA em Gestão de Tecnologia da Informação pela FIAP, é um dos mais respeitados especialistas em segurança, governança de dados e Lei Geral de Proteção de Dados (LGPD). Na empresa, esteve à frente da conquista da certificação ISO27001 e é responsável pela implementação e cumprimento de políticas de privacidade, proteção de dados e segurança da informação.
Para mais informações, entrevistas e personagens da Juridico AI:
Equipe MOTIM
Isabella Bonito – isabella.bonito@motim.cc
11 93333-0434
Hadassa Nunes – hadassa.nunes@motim.cc
11 95968-1060
Caroline Tondato – caroline.tondato@motim.cc
11 98183-4482
Notícia distribuída pela saladanoticia.com.br. A Plataforma e Veículo não são responsáveis pelo conteúdo publicado, estes são assumidos pelo Autor(a):
ISABELLA CAETANO BONITO MARTINS
isabella.bonito@motim.cc