Política Interna

O que os funcionários precisam saber antes de conversarem com a ferramenta ChatGPT

8 minutos lidos

Discussões sobre ferramentas de IA têm sido o foco do debate nos últimos meses. Devido à sua capacidade de acelerar a produtividade e economizar tempo, muitos funcionários já adotaram seu uso em sua rotina de trabalho. Ainda assim, antes de desfrutarem dos benefícios das ferramentas de IA inovadoras, seus funcionários devem saber como manter os dados seguros – sem comprometer a cibersegurança dos dados da sua empresa.

Ferramentas de IA podem nos ajudar a desenvolver ideias, resumir ou parafrasear textos ou partes de textos, ou até mesmo criar uma base de estratégia de negócios ou caçar erros em um código. Ao usar IA, entretanto, devemos nos lembrar que os dados fornecidos a essas ferramentas deixam de pertencer a nós assim que clicamos em "enviar".

Uma das principais preocupações relacionadas ao uso de grandes modelos de linguagem (LLMs), como o ChatGPT, reside no compartilhamento de dados sensíveis com corporações internacionais de grande escala. Esses modelos funcionam com base em textos on-line, permitindo a interpretação efetiva e resposta ao usuário para sanar as suas dúvidas. Porém, toda vez que interagimos com um chatbot e solicitamos informações ou assistência, podemos acabar compartilhando dados sobre nós mesmos ou a empresa para a qual trabalhamos, sem nos dar conta.

Ao escrever comandos para um chatbot, os dados inseridos se tornam públicos. Isso significa que os chatbots podem, imediatamente, usar essas informações como base para respostas a outros usuários. Contudo, o provedor de LLM ou seus parceiros podem ter acesso a essas perguntas e as incorporar em versões futuras da tecnologia.

OpenAI, a organização por trás do ChatGPT, inaugurou a opção de desativar o histórico da conversa, que irá prevenir o uso indevido de dados dos usuários para treinar e aprimorar os modelos de IA da OpenAI. Dessa forma, os usuários controlam seus dados mais de perto. Se os funcionários da sua empresa gostariam de usar ferramentas como o ChatGPT, desligar o histórico de conversas deve ser o primeiro passo a ser tomado. 

Mesmo com o histórico da conversa desligado, todos os dados de comandos seguem sendo armazenados nos servidores do chatbot. Ao salvar todos os comandos em servidores externos, há uma ameaça em potencial: o acesso não autorizado de hackers. Além disso, erros técnicos podem, por vezes, habilitar o acesso não autorizado de alguns indivíduos, que acabam acessando os dados de outros usuários da ferramenta.

Então, como garantir que os funcionários da sua empresa utilizam plataformas como o ChatGPT, de forma segura? Veja alguns erros comuns e como evitá-los.

Uso de dados dos clientes como fonte de informações

O primeiro erro comum que muitos funcionários cometem ao usar LLMs é compartilhar, sem permissão, informações sensíveis sobre os clientes da empresa. Como isso ocorre? Imagine, por exemplo, um médico que insere os nomes e históricos médicos dos pacientes e pede que a ferramenta de LLM escreva relatos às empresas de seguro médico dos pacientes. Ou que um profissional de marketing carregue dados dos clientes em seu sistema de CRM de preferência e solicite que a ferramenta gere newsletters personalizadas. 

Ensine os funcionários a tornarem seus comandos anônimos, constantemente, antes de os inserir nos chatbots. Para proteger a privacidade dos clientes, incentive-os a revisarem e excluírem, cuidadosamente, dados confidenciais, como nomes, endereços ou números de conta. A melhor prática é sempre evitar o uso de informações pessoais e optar por perguntas ou comandos gerais.

Carregamento de documentos confidenciais em chatbots

Os chatbots podem ser ferramentas valiosas para resumir grandes volumes de dados, bem como criar rascunhos, apresentações ou relatórios. Ainda, carregar documentos em ferramentas como o ChatGPT pode significar um comprometimento dos dados da empresa ou dos clientes, armazenados junto das empresas. Mesmo que seja tentador simplesmente copiar documentos e pedir que a ferramenta devolva resumos ou sugestões de slides de apresentação, por exemplo, não é a opção mais segura em termos de dados.

Isso também se aplica a relatórios importantes, como estratégias de desenvolvimento, mas também a documentos menos relevantes (como as atas de uma reunião), que podem causar um vazamento de know-how da empresa, até então cuidadosamente protegido.

Para mitigar esse risco, estabeleça políticas restritas para o manejo de documentos sensíveis e acesso limitado a esses registros com uma política de "Para saber antes de usar IA". Os funcionários devem revisar os documentos, manualmente, antes de os carregarem ou de pedirem um resumo ou solicitarem assistência do chatbot. Assim, é possível garantir que informações sensíveis, como nomes, informações de contato, números relativos a vendas ou fluxo de caixa, sejam excluídos ou devidamente anonimizados. 

 Exposição dos dados da empresa em comandos

Imagine que você está tentando aperfeiçoar algumas das práticas e fluxos de trabalho da sua empresa e decide pedir ajuda ao ChatGPT com a gestão de tempo ou criação de uma estrutura de tarefas. Para isso, você insere know-how valioso e outros dados no comando para que o chatbot desenvolva uma solução. Assim como carregar documentos sensíveis ou dados de clientes nos chatbots, a inserção de dados sensíveis da empresa na etapa de escrever o comando é uma prática comum, mas potencialmente perigosa, podendo gerar acessos não autorizados ou vazamento de informações confidenciais

Samsung bane o uso de “IA generativa”; Amazon também toma precauções.

No início de 2023, um engenheiro da Samsung descobriu que uma fonte de código interna com dados sensíveis que ele mesmo havia carregado no ChatGPT fora vazada. Como resultado, a Samsung baniu o uso de ferramentas de “IA generativa” na empresa. A Amazon também enfrentou um problema parecido, tendo relatado a verificação de respostas do ChatGPT que se assemelhavam aos dados internos da Amazon. Nesse caso, porém, a Amazon não baniu o uso de ferramentas de IA, mas solicitou aos funcionários que as utilizassem com responsabilidade.

 

Para lidar com a questão, a anonimização dos comandos deve ser parte essencial do uso dessas ferramentas. Ou seja, os usuários não podem inserir nomes, endereços, detalhes financeiros ou outros dados pessoais nos comandos de chatbots. E caso você queira facilitar o uso seguro de ferramentas como o ChatGPT para seus funcionários, crie comandos padrão como modelos seguros a serem editados por todos os funcionários. Se necessário, escreva algo como "Imagine que você [cargo] na empresa [nome da empresa]. Crie um fluxo de trabalho aprimorado para a posição [posição], com foco principal na tarefa de [tarefa]."

Ferramentas de IA não são apenas o futuro do trabalho. Elas já são o presente. Conforme o progresso no âmbito das IA e, mais especificamente, do machine learning avança todos os dias, as empresas irão precisar acompanhar as tendências e se adaptar conforme as mudanças ocorrem. Ajude seus colegas a usarem essas tecnologias sem arriscar um vazamento de dados – quer sejam especialistas em cibersegurança ou ocupem um cargo mais geral de TI.