A startup francesa FlexAI sai da invisibilidade com US$ 30 milhões para facilitar o acesso à computação de IA

Uma startup francesa levantou um grande investimento inicial para “rearquitetar a infraestrutura de computação” para desenvolvedores que desejam criar e treinar aplicativos de IA com mais eficiência.

A FlexAI, como é chamada a empresa, está operando em sigilo desde outubro de 2023, mas a empresa sediada em Paris está lançando formalmente na quarta-feira com € 28,5 milhões (US$ 30 milhões) em financiamento, enquanto provoca seu primeiro produto: um serviço de nuvem sob demanda para treinamento de IA.

Essa é uma grande quantia para uma rodada de capital inicial, o que normalmente significa um pedigree substancial do fundador – e esse é o caso aqui. O cofundador e CEO da FlexAI, Brijesh Tripathi, foi engenheiro de design sênior da gigante da GPU e agora queridinha da IA, a Nvidia, antes de assumir várias funções sênior de engenharia e arquitetura na Apple; Tesla (trabalhando diretamente com Elon Musk); Zoox (antes de a Amazon adquirir a startup de direção autônoma); e, mais recentemente, Tripathi foi vice-presidente da AXG, a plataforma de IA e supercomputação da Intel.

O cofundador e CTO da FlexAI, Dali Kilani, também tem um currículo impressionante, tendo atuado em várias funções técnicas em empresas como Nvidia e Zynga e, mais recentemente, ocupando a função de CTO na startup francesa Lifen, que desenvolve infraestrutura digital para o setor de saúde.

A rodada de sementes foi liderada pela Alpha Intelligence Capital (AIC), Elaia Partners e Heartcore Capital, com a participação da Frst Capital, Motier Ventures, Partech e do CEO da InstaDeep, Karim Beguir.

Equipe da FlexAI em Paris Créditos de imagem: FlexAI

O enigma da computação

Para entender o que Tripathi e Kilani estão tentando com o FlexAI, primeiro vale a pena entender o que os desenvolvedores e os profissionais de IA estão enfrentando em termos de acesso à “computação”; isso se refere ao poder de processamento, à infraestrutura e aos recursos necessários para realizar tarefas computacionais, como processamento de dados, execução de algoritmos e execução de modelos de aprendizado de máquina.

“O uso de qualquer infraestrutura no espaço de IA é complexo; não é para os fracos de coração e não é para os inexperientes”, disse Tripathi ao TechCrunch. “Exige que você saiba muito sobre como criar infraestrutura antes de poder usá-la.”

Em contrapartida, o ecossistema de nuvem pública que evoluiu nas últimas duas décadas serve como um ótimo exemplo de como um setor surgiu da necessidade dos desenvolvedores de criar aplicativos sem se preocupar muito com o back-end.

“Se você é um pequeno desenvolvedor e deseja criar um aplicativo, não precisa saber onde ele está sendo executado ou qual é o back-end – basta ativar uma instância do EC2 (Amazon Elastic Compute Cloud) e pronto”, disse Tripathi. “Não é possível fazer isso com a computação de IA atualmente.”

Na esfera da IA, os desenvolvedores precisam descobrir quantas GPUs (unidades de processamento gráfico) precisam interconectar em que tipo de rede, gerenciadas por meio de um ecossistema de software cuja configuração é de sua inteira responsabilidade. Se uma GPU ou rede falhar, ou se algo nessa cadeia der errado, o ônus de resolver o problema recairá sobre o desenvolvedor.

“Queremos levar a infraestrutura de computação de IA ao mesmo nível de simplicidade que a nuvem de uso geral alcançou – depois de 20 anos, sim, mas não há motivo para que a computação de IA não possa ter os mesmos benefícios”, disse Tripathi. “Queremos chegar a um ponto em que a execução de cargas de trabalho de IA não exija que você se torne um especialista em data center.”

Com a iteração atual de seu produto sendo testada com um punhado de clientes beta, a FlexAI lançará seu primeiro produto comercial ainda este ano. Basicamente, é um serviço de nuvem que conecta os desenvolvedores à “computação heterogênea virtual”, o que significa que eles podem executar suas cargas de trabalho e implementar modelos de IA em várias arquiteturas, pagando com base no uso em vez de alugar GPUs com base em dólares por hora.

As GPUs são engrenagens vitais no desenvolvimento da IA, servindo para treinar e executar modelos de linguagem grandes (LLMs), por exemplo. A Nvidia é uma das principais participantes no espaço da GPU e uma das principais beneficiárias da revolução da IA desencadeada pela OpenAI e pelo ChatGPT. Nos 12 meses desde que a OpenAI lançou uma API para o ChatGPT em março de 2023, permitindo que os desenvolvedores incluíssem a funcionalidade do ChatGPT em seus próprios aplicativos, as ações da Nvidia aumentaram de cerca de US$ 500 bilhões para mais de US$ 2 trilhões.

Agora, os LLMs estão saindo em massa do setor de tecnologia, com a demanda por GPUs disparando ao mesmo tempo. Mas o funcionamento das GPUs é caro, e alugá-las para trabalhos menores ou casos de uso ad hoc nem sempre faz sentido e pode ser proibitivamente caro; é por isso que a AWS tem se envolvido com aluguéis por tempo limitado para projetos menores de IA. Mas alugar ainda é alugar, e é por isso que a FlexAI quer abstrair as complexidades subjacentes e permitir que os clientes acessem a computação de IA conforme a necessidade.

“Multicloud para IA”

O ponto de partida da FlexAI é que a maioria dos desenvolvedores não realmente se importam, na maioria das vezes, com as GPUs ou chips que usam, sejam eles da Nvidia, AMD, Intel, Graphcore ou Cerebras. Sua principal preocupação é poder desenvolver sua IA e criar aplicativos dentro de suas restrições orçamentárias.

É aí que entra o conceito de “computação universal de IA” da FlexAI, em que a FlexAI pega os requisitos do usuário e os aloca em qualquer arquitetura que faça sentido para aquele trabalho específico, cuidando de todas as conversões necessárias entre as diferentes plataformas, seja a infraestrutura Gaudi da Intel, Rocm da AMD ou CUDA da Nvidia.

“Isso significa que o desenvolvedor se concentra apenas na criação, no treinamento e no uso de modelos”, disse Tripathi. “Nós cuidamos de tudo o que está por baixo. As falhas, a recuperação, a confiabilidade, tudo é gerenciado por nós, e você paga pelo que usa.”

De muitas maneiras, a FlexAI está se preparando para acelerar para a IA o que já vem acontecendo na nuvem, o que significa mais do que replicar o modelo de pagamento por uso: Significa a capacidade de usar “várias nuvens”, aproveitando os diferentes benefícios de diferentes infraestruturas de GPU e chip.

A FlexAI canalizará a carga de trabalho específica de um cliente, dependendo de suas prioridades. Se uma empresa tiver um orçamento limitado para treinamento e ajuste fino de seus modelos de IA, ela poderá definir isso dentro da plataforma FlexAI para obter o máximo de computação possível. Isso pode significar recorrer à Intel para obter uma computação mais barata (porém mais lenta), mas se um desenvolvedor tiver uma pequena execução que exija o resultado mais rápido possível, ela poderá ser canalizada pela Nvidia.

Nos bastidores, a FlexAI é basicamente um “agregador de demanda”, alugando o próprio hardware por meios tradicionais e, usando suas “fortes conexões” com o pessoal da Intel e da AMD, garante preços preferenciais que espalha por sua própria base de clientes. Isso não significa necessariamente que a Nvidia seja a líder, mas possivelmente significa que, em grande parte – com a Intel e a AMD lutando pelas sobras de GPUs deixadas no rastro da Nvidia – há um grande incentivo para que elas colaborem com agregadores como a FlexAI.

“Se eu puder fazer isso funcionar para os clientes e trazer dezenas ou centenas de clientes para sua infraestrutura, eles (Intel e AMD) ficarão muito felizes”, disse Tripathi.

Isso contrasta com outros participantes semelhantes de nuvem de GPU no espaço, como a bem financiada CoreWeave e a Lambda Labs, que se concentram diretamente no hardware da Nvidia.

“Quero que a computação de IA chegue ao ponto em que está a atual computação em nuvem de uso geral”, observou Tripathi. “Não é possível fazer multicloud em IA. É preciso selecionar um hardware específico, o número de GPUs, a infraestrutura, a conectividade e fazer a manutenção por conta própria. Hoje, essa é a única maneira de realmente obter computação de IA.”

Quando perguntado sobre quem são exatamente os parceiros de lançamento, Tripathi disse que não podia nomear todos eles devido à falta de “compromissos formais” de alguns deles.

“A Intel é um parceiro forte, com certeza está fornecendo infraestrutura, e a AMD é um parceiro que está fornecendo infraestrutura”, disse ele. “Mas há uma segunda camada de parcerias que estão ocorrendo com a Nvidia e algumas outras empresas de silício que ainda não estamos prontos para compartilhar, mas todas elas estão na mistura e os MOUs (memorandos de entendimento) estão sendo assinados neste momento.”

O efeito Elon

Tripathi está mais do que preparado para lidar com os desafios futuros, pois já trabalhou em algumas das maiores empresas de tecnologia do mundo.

“Eu sei o suficiente sobre GPUs; eu costumava construir GPUs”, disse Tripathi sobre seu período de sete anos na Nvidia, que terminou em 2007, quando ele trocou o barco pela Apple quando esta estava lançando o primeiro iPhone. “Na Apple, passei a me concentrar na solução de problemas reais dos clientes. Eu estava lá quando a Apple começou a construir seus primeiros SoCs (system on chips) para telefones.”

Tripathi também passou dois anos na Tesla, de 2016 a 2018, como líder de engenharia de hardware, onde acabou trabalhando diretamente com Elon Musk nos últimos seis meses, depois que duas pessoas acima dele deixaram a empresa abruptamente.

“Na Tesla, o que aprendi e estou levando para minha startup é que não há restrições além da ciência e da física”, disse ele. “A maneira como as coisas são feitas hoje não é como deveriam ser ou precisam ser feitas. Você deve buscar a coisa certa a fazer a partir dos primeiros princípios e, para isso, remover todas as caixas pretas.”

Tripathi esteve envolvido na transição da Tesla para a fabricação de seus próprios chips, uma iniciativa que desde então foi imitada pela GM e pela Hyundai, entre outras montadoras.

“Uma das primeiras coisas que fiz na Tesla foi descobrir quantos microcontroladores existem em um carro e, para fazer isso, tivemos que literalmente separar um monte dessas grandes caixas pretas com blindagem e revestimento de metal ao redor, para encontrar esses microcontroladores realmente minúsculos”, disse Tripathi. “E acabamos colocando-os em uma mesa, dispusemo-los e dissemos: ‘Elon, há 50 microcontroladores em um carro. E nós pagamos, às vezes, 1.000 vezes mais caro por eles porque estão blindados e protegidos em um grande invólucro de metal’. E ele disse: ‘vamos fazer o nosso próprio’. E foi o que fizemos”.

GPUs como garantia

Olhando para o futuro, a FlexAI também tem aspirações de construir sua própria infraestrutura, incluindo data centers. Isso, segundo Tripathi, será financiado por dívidas, com base em uma tendência recente que tem visto rivais no espaço, incluindo CoreWeave e Lambda Labs, usarem chips da Nvidia como garantia para assegurar empréstimos – em vez de dar mais capital.

“Os banqueiros agora sabem como usar GPUs como garantias”, disse Tripathi. “Por que ceder patrimônio líquido? Até que nos tornemos um verdadeiro provedor de computação, o valor da nossa empresa não é suficiente para nos dar as centenas de milhões de dólares necessários para investir na construção de data centers. Se fizéssemos apenas ações, desapareceríamos quando o dinheiro acabasse. Mas, se de fato o depositarmos em GPUs como garantia, eles poderão retirar as GPUs e colocá-las em outro data center.”