Apple restringe uso do ChatGPT para funcionários com temor de vazamento de informações, diz WSJ

Além do temor de vazamento de dados confidenciais, a fabricante do iPhone também trabalha no desenvolvimento uma IA para chamar de 'sua'

Equipe InfoMoney

(Photo by Justin Sullivan/Getty Images)

Publicidade

A Apple (AAPL34) restringiu o uso do ChatGPT e de outras ferramentas de inteligência artificial para seus funcionários, publicou o Wall Street Journal na quinta-feira (18), citando documento e fontes.

A restrição aconteceu por uma preocupação da gigante de tecnologia com o vazamento de dados confidenciais pelos funcionários que usam os programas de IA. Em março a OpenAI, apoiada pela Microsoft e criadora do ChatGPT, informou que tirou o serviço temporariamente do ar quando percebeu que um bug permitia que usuários tivessem um acesso limitado ao histórico de outros usuários.

No mês passado, a OpenAI, anunciou a introdução de um “modo incógnito” para o ChatGPT que não salva o histórico de conversas dos usuários nem o utiliza para aprimorar sua inteligência artificial.

Continua depois da publicidade

Segurança da informação

A Apple é conhecida por manter um alto padrão de segurança da informação de seus futuros produtos e dos dados de clientes. A companhia também aconselhou seus funcionários a não usarem o Copilot, do GitHub, controlado pela Microsoft, utilizado para automatizar funções de produção de código de software, segundo o jornal.

Com sede em Cupertino, na Califórnia, a Apple é a mais recente a aderir a uma onda de bloqueio de grandes empresas ao uso do ChatGPT. Verizon e JPMorgan também fazem parte do grupo. A diferença é que enquanto a big tech proíbe o uso da ferramenta internamente, a empresa desenvolve tecnologia semelhante.

(com informações da Agência Reuters)