A inteligência artificial generativa (GenAI) terá um enorme impacto em tornar as empresas mais produtivas, mas o uso corporativo dela ainda está envolto de desafios, tanto de privacidade quanto de eficiência. Há um risco real de os funcionários postarem perguntas com informações confidenciais sobre a empresa ou enviarem informações confidenciais e proprietárias para um modelo de linguagem natural (LLM) público por acidente.
O problema é que proibir não resolve. Ken Exner, CPO da Elastic, afirma que os funcionários usam chatbots públicos quando não têm alternativas patrocinadas pela empresa. Por isso, o caminho que muitas organizações têm tomado é a construção de chatbots internos que rodam em seu sistema de intranet ou aumentando suas soluções de suporte.
“Os funcionários passam a ser incentivados a usar esses sistemas em vez de chatbots públicos”, explica. “Ao ter chatbots baseados em endpoints de LLM privados ou de locatário único (single-tenant), as organizações podem garantir que os dados não sejam vazados ou usados para treinar o LLMs.”
Outra boa aplicação do GenAI internamente é no treinamento e apoio de equipes. Isso porque os grandes modelos de linguagem costumam ser genéricos e não trazem dados que se adequem a cada negócio. “As organizações podem resolver isso implementando a geração aumentada de recuperação (RAG), uma tecnologia que complementa a geração de texto com informações de fontes de dados privadas ou proprietárias.”
Exner explica que, com a geração aumentada de recuperação, é possível definir o escopo da resposta de um LLM para o conjunto de dados que se acredita ser mais preciso e basear o LLM em um conjunto específico de dados que reflita a diversidade e a imparcialidade que uma organização precisa.
“Por exemplo, suponha que uma empresa tenha um banco de dados contendo um histórico de todos os diferentes casos de suporte atendidos, e como eles foram respondidos. Nesse caso, eles podem construir um sistema de IA generativa que responda a perguntas de suporte com base nesse conjunto de dados. Assim, os bancos de dados tornam-se uma fonte de conhecimento interno que pode ser usado para fundamentar e criar contexto para o LLM e, portanto, garantir a qualidade dos dados”, explica.
Participe das comunidades IPNews no Instagram, Facebook, LinkedIn e X (Twitter).