Artigos

IA Open Source: a perspectiva da Red Hat

Chris Wright, San Francisco, California, 2018.

*Por Chris Wright

Mais de três décadas atrás, a Red Hat viu o potencial do desenvolvimento e das licenças open source para criar melhores softwares e fomentar a inovação de TI. Trinta milhões de linhas de código depois, o Linux não apenas se desenvolveu a ponto de se tornar o software open source mais bem-sucedido, como também mantém essa posição até hoje. O compromisso com os princípios open source continua, não apenas no modelo de negócios corporativa, como também é parte cultura de trabalho. Na avaliação da empresa, esses conceitos têm o mesmo impacto na inteligência artificial (IA) se feitos da maneira correta, mas o mundo da tecnologia está dividido em relação ao que seria a “maneira certa”.

A IA, em especial os grandes modelos de linguagem (LLMs) por trás da IA generativa (gen AI), não pode ser vista da mesma forma como um programa aberto. Ao contrário do software, os modelos de IA consistem principalmente em modelos de parâmetros numéricos que determinam como um modelo processa inputs, assim como a conexão que faz entre vários data points. Parâmetros de modelos treinados são o resultado de um longo processo envolvendo vastas quantidades de dados de treinamento que são cuidadosamente preparados, misturados e processados.

Embora os parâmetros do modelo não sejam software, em alguns aspectos possuem uma função semelhante ao código. É fácil fazer a comparação de que os dados são o código-fonte do modelo, ou seriam muito próximos a ele. No open source, o código-fonte é comumente definido como a “forma preferida” para fazer modificações no software. Os dados de treinamento sozinhos não se encaixam nessa função, dado que seu tamanho difere e do seu complicado processo de pré-treinamento que resulta em uma conexão tênue e indireta que qualquer item dos dados usados no treinamento tem com os parâmetros treinados e o comportamento resultante do modelo.

A maioria das melhorias e aprimoramentos em modelos de IA que estão ocorrendo agora na comunidade não envolvem acesso ou manipulação dos dados originais de treinamento. Em vez disso, eles são o resultado de modificações nos parâmetros de modelo ou em um processo ou ajuste que também pode servir para ajustar a performance do modelo. A liberdade de fazer essas melhorias no modelo exige que os parâmetros sejam lançados com todas as permissões que os usuários recebem sob licenças open source.

Visão da Red Hat para a IA open source

A Red Hat acredita que a base do IA open source se encontra nos parâmetros de modelo licenciados de forma open source combinados com componentes de software open source. Este é um ponto de partida da IA open source, mas não o último destino da filosofia. A Red Hat incentiva a comunidade open source, autoridades regulatórias e a indústria a continuarem se esforçando para obter maior transparência e alinhamento com os princípios de desenvolvimento open source ao treinar e ajustar modelos de IA.

Esta é a visão da Red Hat como empresa, que abrange um ecossistema de software open source, pode engajar de forma prática com a IA open source. Não é uma tentativa de definição formal, como a que a Open Source Initiative (OSI) está desenvolvendo com a sua Open Source AI Definition (OSAID). Esse é o ponto de vista da corporação faz da IA open source factível e acessível para o maior conjunto de comunidades, organizações e fornecedores.

Esse ponto de vista em prática é posto em prático por meio do trabalho com as comunidades open source, destacado pelo projeto InstructLab, liderado pela Red Hat e do esforço com a IBM Research na família Granite de modelos open source licenciados. O InstructLab reduz significativamente as barreiras para que pessoas que não são cientistas de dados contribuam com modelos de IA. Com o InstructLab, especialistas de domínio de todas os setores podem acrescentar suas habilidades e conhecimento, tanto para uso interno como para ajudar um modelo open source IA compartilhado e amplamente acessível para comunidades upstream.

A família de modelos Granite 3.0 lida com uma ampla gama de casos de uso de IA, desde geração de código até processamento de linguagem natural para extrair insights de grandes datasets, tudo sob uma permissiva licença open source. Nós ajudamos a IBM Research a trazer a família de modelos de código Granite para o mundo open source e continuamos a oferecer suporte à família de modelos, tanto do ponto de vista open source como parte de nossa oferta Red Hat AI .

A repercussão dos recentes anúncios da DeepSeek mostra como a inovação open source pode impactar a IA, tanto no nível do modelo como além. Obviamente há preocupações sobre a abordagem da plataforma chinesa, principalmente que a licença do modelo não explica como ele foi produzido, o que reforça a necessidade de transparência. Dito isso, a disrupção mencionada reforça a visão da Red Hat sobre o porvir da IA: um futuro aberto, focado em modelos menores, otimizados e abertos, que podem ser customizados para casos de uso de dados empresariais específicos em todo e qualquer local da nuvem híbrida.

Expandindo modelos de IA para além do open source

O trabalho da Red Hat no espaço da IA open source vai muito além do InstructLab e da família de modelos Granite, indo até as ferramentas e plataformas necessárias para de fato consumir e produtivamente usar IA. A empresa se tornou muito ativa no fomento de projetos e comunidades de tecnologia, como por exemplo (mas não apenas):

● RamaLama, um projeto open source que visa facilitar o gerenciamento e a disponibilização locais de modelos de IA;

● TrustyAI, um toolkit open source para a construção de fluxos de trabalho de IA mais responsáveis;

● Climatik, um projeto centrado em ajudar a tornar a IA mais sustentável quando se trata de consumo de energia;

● Podman AI Lab, um toolkit de desenvolvedores focado em facilitar a experimentação com LLMs open source;

O recente anúncio sobre a Neural Magic amplia a visão corporativa sobre IA, fazendo com que seja possível para que organizações alinhem modelos de IA menores e otimizados, incluindo sistema open source licenciados, com seus dados, onde quer que vivam na nuvem híbrida. As organizações de TI podem, então, utilizar o servidor de inferência vLLM para impulsionar as decisões e a produção destes modelos, ajudando a construir uma pilha de IA baseada em tecnologias transparentes e com suporte.

Para a corporação, a IA open source AI vive e respira na nuvem híbrida. A nuvem híbrida fornece a flexibilidade necessária para escolher o melhor ambiente para cada carga de trabalho de IA, otimizando a performance, custo, escala e requerimentos de segurança. As plataformas, metas e organização da Red Hat apoiam estes esforços, juntamente com parceiros do setor, clientes e a comunidade open source, à medida que o código aberto na inteligência artificial seja impulsionado.

Há um imenso potencial para ampliar essa colaboração aberta no espaço da IA. A Red Hat enxerga um futuro que abrange trabalho transparente em modelos, assim como seu treinamento. Seja na próxima semana ou no próximo mês (ou até antes, dada a rapidez da evolução da IA), a empresa e comunidade aberta, como um todo, continuarão a poiar e adotar os esforços para democratizar e abrir o mundo da IA. *Chris Wright é vice-presidente sênior e diretor de tecnologia (CTO) da Red Hat.

Participe das comunidades IPNews no InstagramFacebookLinkedIn e X. 

Newsletter

Inscreva-se para receber nossa newsletter semanal
com as principais notícias em primeira mão.


    Deixe um comentário

    O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *