Intel e outros se comprometem a criar ferramentas abertas de IA generativa para a empresa

A IA generativa projetada para a empresa (por exemplo, IA que autocompleta relatórios, fórmulas de planilhas e assim por diante) pode ser interoperável? Juntamente com um grupo de organizações, incluindo a Cloudera e a Intel, a Linux Foundation – a organização sem fins lucrativos que apoia e mantém um número crescente de esforços de código aberto – pretende descobrir.

A Linux Foundation anunciou na terça-feira o lançamento da Plataforma Aberta para IA Empresarial (OPEA), um projeto para promover o desenvolvimento de sistemas de IA generativos abertos, com vários provedores e componíveis (ou seja, modulares). Sob a alçada da organização LF AI and Data da Linux Foundation, que se concentra em iniciativas de plataforma relacionadas a IA e dados, o objetivo da OPEA será preparar o caminho para o lançamento de sistemas de IA generativos “reforçados” e “escaláveis” que “aproveitem a melhor inovação de código aberto de todo o ecossistema”, disse o diretor executivo da LF AI and Data, Ibrahim Haddad, em um comunicado à imprensa.

“A OPEA abrirá novas possibilidades em IA ao criar uma estrutura detalhada e componível que está na vanguarda das pilhas de tecnologia”, disse Haddad. “Essa iniciativa é uma prova de nossa missão de impulsionar a inovação e a colaboração de código aberto nas comunidades de IA e dados sob um modelo de governança neutro e aberto.”

Além da Cloudera e da Intel, a OPEA – um dos Sandbox Projects da Linux Foundation, uma espécie de programa de incubadora – conta entre seus membros com pesos pesados empresariais como Intel, Red Hat, de propriedade da IBM, Hugging Face, Domino Data Lab, MariaDB e VMware.

Então, o que exatamente eles poderiam construir juntos? Haddad sugere algumas possibilidades, como suporte “otimizado” para cadeias de ferramentas e compiladores de IA, que permitem que as cargas de trabalho de IA sejam executadas em diferentes componentes de hardware, bem como pipelines “heterogêneos” para geração aumentada de recuperação (RAG).

A RAG está se tornando cada vez mais popular em aplicativos empresariais de IA generativa, e não é difícil entender por quê. As respostas e ações da maioria dos modelos de IA generativa são limitadas aos dados nos quais foram treinados. Porém, com o RAG, a base de conhecimento de um modelo pode ser estendida para informações fora dos dados de treinamento originais. Os modelos RAG fazem referência a essas informações externas – que podem assumir a forma de dados proprietários da empresa, um banco de dados público ou alguma combinação dos dois – antes de gerar uma resposta ou executar uma tarefa.

Um diagrama que explica os modelos RAG. Créditos da imagem: Intel

A Intel ofereceu mais alguns detalhes em seu próprio comunicado à imprensa:

As empresas têm o desafio de adotar uma abordagem do tipo “faça você mesmo” (para RAG) porque não existem padrões de fato entre os componentes que permitam às empresas escolher e implantar soluções RAG abertas e interoperáveis e que as ajudem a chegar rapidamente ao mercado.A OPEA pretende resolver esses problemas colaborando com o setor para padronizar componentes, incluindo estruturas, projetos de arquitetura e soluções de referência.

A avaliação também será uma parte fundamental do trabalho da OPEA.

Em seu repositório no GitHub, a OPEA propõe uma rubrica para classificar os sistemas de IA generativa em quatro eixos: desempenho, recursos, confiabilidade e prontidão de “nível empresarial”. Desempenho conforme definido pela OPEA, refere-se a benchmarks “black-box” de casos de uso do mundo real. Recursos é uma avaliação da interoperabilidade, das opções de implantação e da facilidade de uso de um sistema. Confiabilidade analisa a capacidade de um modelo de IA de garantir “robustez” e qualidade. E prontidão empresarial concentra-se nos requisitos para colocar um sistema em funcionamento sem grandes problemas.

Rachel Roumeliotis, diretora de estratégia de código aberto da Intel, diz que a OPEA trabalhará com a comunidade de código aberto para oferecer testes baseados na rubrica, além de fornecer avaliações e classificações de implementações de IA generativa mediante solicitação.

Os outros empreendimentos da OPEA estão um pouco incertos no momento. Mas Haddad mencionou o potencial de desenvolvimento de modelos abertos nos moldes da família Llama, em expansão, da Meta e do DBRX da Databricks. Para isso, no repositório da OPEA, a Intel já contribuiu com implementações de referência para um chatbot alimentado por IA generativa, um resumidor de documentos e um gerador de código otimizado para seu hardware Xeon 6 e Gaudi 2.

Agora, os membros da OPEA estão claramente investidos (e interessados, por falar nisso) na criação de ferramentas para IA generativa empresarial. Recentemente, a Cloudera lançou parcerias para criar o que está apresentando como um “ecossistema de IA” na nuvem. A Domino oferece um conjunto de aplicativos para criar e auditar a IA generativa voltada para os negócios. E a VMware – voltada para o lado da infraestrutura da IA corporativa – lançou em agosto passado novos produtos de computação de “IA privada”.

A questão é se esses fornecedores irão de fato trabalham juntos para criar ferramentas de IA compatíveis entre si no âmbito da OPEA.

Há um benefício óbvio em fazer isso. Os clientes terão prazer em recorrer a vários fornecedores, dependendo de suas necessidades, recursos e orçamentos. Mas a história tem mostrado que é muito fácil se tornar inclinado a se prender a um fornecedor. Esperamos que esse não seja o resultado final aqui.