ChatGPT confirma vazamento de dados de cartão de usuários; empresa afirma que bug foi corrigido

OpenAI, a empresa por trás do 'app-sensação' confirmou o vazamento de dados sensíveis; empresas entram em alerta e proíbem uso do site

Equipe InfoMoney

(Getty Images)

Publicidade

Para os usuários assíduos do ChatGPT, o chatbot de inteliência artificial da OpenAI, não é incomum encontrar o site fora do ar. Normalmente, isso acontece por um excesso de demanda. O ChatGPT atingiu 100 milhões de usuários ativos em 2 meses, enquanto o TikTok levou 9 meses e o Instagram, 2 anos e meio para alcançar a marca.

Mas, na semana passada, o ChatGPT ficou offline por uma outra razão: um bug em uma biblioteca de código aberto que permitia que alguns usuários vissem títulos do histórico de bate-papo de outro usuário ativo. A informação foi dada pela própria OpenAI que, após uma semana de investigação, confirmou o vazamento de dados sensíveis de usuários, incluindo o histórico de conversas. “O bug agora está corrigido. Conseguimos restaurar o serviço ChatGPT e, posteriormente, o recurso de histórico de bate-papo, com exceção de algumas horas de histórico”, informou a empresa em comunicado.

Segundo a nota, o bug pode ser causado a visibilidade de informações relacionadas ao pagamento de 1,2% dos assinantes do ChatGPT Plus que estavam ativos durante uma janela específica de nove horas. “Horas antes de colocarmos o ChatGPT offline na segunda-feira, alguns usuários podiam ver o nome e sobrenome de outro usuário ativo, endereço de e-mail, endereço de pagamento, os últimos quatro dígitos (somente) de um número de cartão de crédito e a expiração do cartão de crédito data. Os números completos do cartão de crédito não foram expostos em nenhum momento”, escreveu a empresa.

Continua depois da publicidade

Leia mais:

Vulnerabilidade para empresas

Depois de escolas, universidades e entidades de diferentes governos proibirem o uso da ferramenta por plágio e violação de direitos autorais, empresas privadas, como a Amazon, Citigroup, Deutsche Bank, Wells Fargo, JP Morgan, Bank of America e Goldman Sachs estão seguindo o mesmo caminho.

Nessas companhias, contudo, a regra tem sido criada para evitar que funcionários compartilhem informações sensíveis da própria empresa ou de clientes, o que poderia abrir margem para vazamentos de dados e processos judiciais.

Essa movimentação têm gerado, inclusive, mais trabalho para as áreas de gestão de pessoas das companhias. Segundo uma pesquisa da consultoria Gartner, quase metade dos líderes de recursos humanos disseram que estão formulando orientações sobre o uso dos funcionários do chatbot de inteligência artificial ChatGPT da OpenAI.

Outras empresas vão no caminho oposto. O Citadel, por exemplo, está negociando uma licença corporativa para a ferramenta. “Esse ramo da tecnologia tem um impacto real em nossos negócios: desde ajudar nossos desenvolvedores a escrever um código melhor até a tradução de software entre idiomas para analisar vários tipos de informações que analisamos no curso normal de nossos negócios”,  afirmou Ken Griffin, seu fundador, em entrevista à Bloomberg.

Riscos desconhecidos

Nesta quarta-feira (29), o bilionário Elon Musk aliado a um grupo de especialistas em inteligência artificial e executivos do setor publicou uma carta aberta com o pedido de uma pausa de seis meses no desenvolvimento de sistemas mais poderosos que o recém-lançado GPT-4 da OpenAI. A carta cita potenciais riscos para a sociedade e a humanidade e foi emitida pela organização sem fins lucrativos Future of Life Institute e assinada por mais de mil pessoas.

A pausa, segundo o documento, serviria para que protocolos de segurança compartilhados para tais projetos sejam desenvolvidos, implementados e auditados por especialistas independentes.

“Poderosos sistemas de inteligência artificial devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis”, afirma o grupo na carta.