
A Nvidia anunciou um novo serviço de nuvem de linguagem natural com redes pré-treinadas em setores específicos. A ideia é facilitar o desenvolvimento de inteligência artificial (IA) para geração de conteúdo, resumo de texto, chatbots e até desenvolvimento de códigos. O primeiro setor a receber esse serviço é o de ciência e saúde.
Chamado de Nvidia BioNeMo Service, ele é uma interface de programação de aplicações (API) em nuvem, que expande os casos de uso do LLMs, que são algoritmos capazes de reconhecer, prever e gerar linguagem humana a partir de enormes conjuntos de dados de texto. O serviço já é treinado para entender os termos e expressões usados por empresas farmacêuticas e de biotecnologia.
Com o NeMo LLM Service, os desenvolvedores podem usar seus próprios dados de treinamento para personalizar modelos de fundação que variam de 3 bilhões de parâmetros até o Megatron de 530 bilhões, um dos maiores LLMs do mundo. O processo leva apenas alguns minutos ou horas, em comparação com as semanas ou meses necessários para treinar um modelo do zero, segundo a Nvidia.
Os modelos são personalizados com aprendizado imediato, que usa uma técnica chamada p-tuning. Isso permite que os desenvolvedores usem apenas algumas centenas de exemplos para personalizar rapidamente modelos de base treinados originalmente com bilhões de pontos de dados. O processo de personalização gera tokens de prompt específicos para tarefas, que são combinados com os modelos de base para oferecer maior precisão e respostas mais relevantes para casos de uso específicos.
Os desenvolvedores podem personalizar para vários casos de uso utilizando o mesmo modelo e gerando muitos tokens de prompt diferentes. Um recurso de playground oferece uma opção sem código para experimentar e interagir facilmente com os modelos, aumentando ainda mais a eficácia e a acessibilidade dos LLMs para casos de uso de setores específicos.
Depois de prontos para implantação, os modelos ajustados podem ser executados em instâncias na nuvem, sistemas locais ou por meio de API.
Evoluindo a inteligência artificial
Marcel Saraiva, diretor de Vendas Enterprise da Nvidia para o Brasil, diz que esse serviço é uma forma de ajudar as empresas a evoluírem seus projetos de inteligência artificial. Hoje, criar modelos de algoritmos para IA pode ser complicado e custar bem caro, já que é necessária uma grande capacidade de processamento de dados. “Disponibilizar redes pré-treinadas é uma forma de encurtar tempo e investimento em hardware”, diz.
Ele afirma que, atualmente, a capacidade do hardware não limita o desenvolvimento de IA, o que limita é o custo para fazer acontecer. Se o modelo de IA que uma empresa quer desenvolver for muito complexo, será necessário maior capacidade de processadores, o que pode acabar não valendo a pena. O novo serviço da Nvidia resolve esse problema, defende ele.
O serviço Nvidia NeMo Large Language Model Service deve estar disponível com acesso antecipado a partir do próximo mês, assim como a BioNeMo, desenvolvida para o setor da saúde. Os desenvolvedores interessados já podem procurar a Nvidia para obter mais detalhes.
Participe das comunidades IPNews no Instagram, Facebook, LinkedIn e Twitter.