Conteúdo editorial apoiado por

Os conselhos dos especialistas em Inteligência Artificial para evitar dores de cabeça nas empresas

Popularização da tecnologia fez com que mais companhias buscassem soluções, mas ainda é necessário preparar times e ponderar sobre desenvolvimento interno

Iuri Santos

Publicidade

Você já parou para pensar em por que a Uber, com todo o domínio de tecnologia, continua usando a plataforma do Google  Maps? A questão, levantada durante debate sobre como a Inteligência Artificial está transformando os processos de tomada de decisão nas organizações, ilustra bem um dos desafios diante da corrida por esses novos recursos tecnológicos. “A velocidade da transformação tecnológica mudou, está muito acelerada. Mas ainda é preciso ponderar qual será o retorno que a solução pode trazer para a empresa”, afirmou Marcel Saraiva, gerente de vendas corporativas da NVIDIA Brasil.

A uma plateia de representantes dos departamentos de tecnologia de empresas de diferentes setores, em evento, realizado pela XP Empresas, Saraiva trouxe alguns alertas sobre o risco de se tentar fazer parte da festa a qualquer custo. “Existe o mundo antes e depois do ChatGPT, mas é preciso entender em que situações essa tecnologia faz sentido”, afirma.

Uma das principais inseguranças sobre o uso adequado de IA dentro do meio corporativo é o vazamento de dados. Para o CEO da plataforma de automação de processos com IA Pipefy, Alessio Alionço, que também participou do debate, empresas que não orientarem suas áreas de negócio sobre o uso seguro das ferramentas, com regras claras de compliance, começarão a se deparar com problemas de vazamento.

Continua depois da publicidade

Há um receio de que o mau uso de tecnologias que aprimoram seu algoritmo com as perguntas feitas na plataforma, como o ChatGPT, utilizem dados sensíveis em suas próximas respostas. “Esses algoritmos têm uma capacidade de realimentação. Eles vão aprendendo com as informações que damos e vão melhorando” explica Saraiva, da produtora de processadores líder em inteligência artificial no mundo NVIDIA.

No começo de 2023, por exemplo, a Samsung baniu a utilização de inteligência artificial generativa após funcionários subirem um código-fonte na plataforma. “Amanhã eu resolvo fundar uma empresa e quero fazer um software, então faço uma pergunta parecida com a que o funcionário da Samsung fez. A chance dele me dar o código da Samsung é enorme”, aponta Saraiva.

(Getty Images)

Aliado aos treinamentos de compliance, companhias também devem se atentar à escolha das plataformas de inteligência artificial que serão contratadas para o negócio — o que não se restringe a uma versão paga do ChatGPT. Soluções de qualquer tipo que utilizem inteligência artificial precisam passar pelo escrutínio dos responsáveis pela segurança de dados.

Continua depois da publicidade

De acordo com Alionço, do Pipefy, empresas podem garantir que seus prestadores de serviço que utilizam inteligência artificial estão fazendo os procedimentos de segurança de dados da forma correta olhando suas certificações de conformidade, como SOC 1 e SOC 2, que avaliam controles internos de uma empresa, ou certificações específicas da área.

Seja por segurança de dados ou para entrar na onda, empresas têm considerado internalizar soluções de inteligência artificial. A saída, no entanto, custa muito caro. A escala computacional exigida para fazer internamente um modelo base que responda de maneira similar ao ChatGPT 3 demanda US$ 10 milhões (R$ 51 milhões) em equipamentos.

“É infinitamente mais barato você usar a solução do mercado para fazer o  MVP, a prova de conceito. Entender bem o seu problema e, a partir do momento que entendeu, e ele está lá, gerando resultado, decide: agora está na hora de internalizar”, afirma Alionço. Para ele, além de mais caras, muitas vezes as criações internas não apresentam os melhores resultados quando comparadas às opções dedicadas disponíveis no mercado.