Funcionário da Samsung usa o ChatGPT e causa vazamento de dados confidenciais

Untitled-design-3 (1).png

A divisão de semicondutores da Samsung contou com a ajuda do ChatGPT para solucionar problemas em seu código-fonte. No entanto, ao utilizar o chatbot de inteligência artificial, eles acidentalmente divulgaram informações confidenciais, como o código-fonte de um novo programa e notas de reuniões internas sobre o hardware. Infelizmente, isso não foi um incidente isolado, pois foram relatados três incidentes em um mês.

Para evitar violações semelhantes no futuro, a Samsung está trabalhando no desenvolvimento de sua própria ferramenta de IA semelhante ao ChatGPT, exclusivamente para uso interno pelos funcionários. Isso permitirá que os trabalhadores da fábrica recebam assistência rápida enquanto garantem a segurança das informações confidenciais da empresa. No entanto, essa nova ferramenta só processará prompts de até 1024 bytes de tamanho.

O problema ocorreu porque o ChatGPT é gerenciado por uma empresa terceirizada que utiliza servidores externos. Portanto, quando a Samsung inseriu seu código, sequências de teste e conteúdo de reuniões internas no programa, houve vazamento de dados. A Samsung prontamente informou seus líderes e funcionários sobre o risco de informações confidenciais comprometidas. Até 11 de março, a Samsung não havia permitido que seus funcionários usassem o chatbot.

A Samsung não é a única empresa lidando com essa questão. Muitas empresas estão restringindo o uso do ChatGPT até estabelecerem uma política clara sobre o uso de IA generativa. Embora o ChatGPT forneça uma opção de exclusão para coleta de dados do usuário, vale ressaltar que as informações fornecidas ao serviço ainda podem ser acessadas pelo desenvolvedor.

O que é o ChatGPT e como ele funciona?

ChatGPT é um aplicativo de IA desenvolvido pela OpenAI que utiliza aprendizado profundo para produzir texto semelhante ao humano em resposta a solicitações do usuário. Ele pode gerar texto em diversos estilos e para diversos propósitos, incluindo escrever cópias, responder perguntas, redigir e-mails, realizar conversas, traduzir linguagem natural para código e explicar código em várias linguagens de programação.

ChatGPT funciona prevendo a próxima palavra em um texto dado usando os padrões que aprendeu a partir de uma vasta quantidade de dados durante o processo de treinamento. Ao analisar o contexto do prompt e seu aprendizado anterior, o ChatGPT gera uma resposta destinada a ser o mais natural e coerente possível.

Que medidas a Samsung tomou para evitar futuros vazamentos?

Após os vazamentos de dados causados pelo ChatGPT, a Samsung tomou várias medidas para evitar que incidentes como esse aconteçam novamente. Primeiramente, a empresa aconselhou seus funcionários a terem cautela ao compartilhar dados com o ChatGPT. Eles também implementaram uma restrição no tamanho das perguntas enviadas ao serviço, limitando-as a 1024 bytes.

Além disso, a Samsung está atualmente desenvolvendo uma ferramenta de IA semelhante ao ChatGPT, mas exclusivamente para uso interno pelos funcionários. Isso garantirá que os trabalhadores da fábrica recebam assistência rápida enquanto protegem informações sensíveis da empresa. Até o desenvolvimento dessa ferramenta, a Samsung havia alertado seus funcionários sobre os potenciais riscos associados ao uso do ChatGPT. Eles também destacaram que os dados inseridos no ChatGPT são transmitidos e armazenados em servidores externos, tornando impossível para a empresa controlar os dados uma vez que eles são transferidos.

Quais foram as consequências para os funcionários que vazaram dados confidenciais?

As consequências para os funcionários da Samsung que vazaram dados confidenciais para o ChatGPT não foram explicitamente divulgadas nas informações disponíveis. No entanto, a Samsung Electronics está tomando medidas para evitar novos vazamentos de informações sensíveis através do ChatGPT, incluindo a imposição de um limite de 1024 bytes no tamanho das perguntas enviadas. A empresa também alertou seus funcionários sobre os potenciais riscos de usar o ChatGPT.

Além disso, a Samsung Semiconductor está desenvolvendo sua própria ferramenta de IA para uso interno pelos funcionários, que será restrita ao processamento de prompts com até 1024 bytes. Essas ações indicam que a Samsung está levando a proteção de suas informações confidenciais a sério e está implementando medidas para mitigar os riscos associados ao uso do ChatGPT.

Que tipo de informações confidenciais foram vazadas?

Quantas vezes os funcionários da Samsung vazaram dados confidenciais para o ChatGPT?

De acordo com os resultados da pesquisa, funcionários da Samsung vazaram informações confidenciais da empresa para o ChatGPT em pelo menos três ocasiões.

Artigos Relacionados

Ver mais >>

Desbloqueie o poder da IA com HIX.AI!