Clarifai veut unifier le déploiement et l’inférence des modèles d’IA sur tous les environnements
Clarifai accélère sa transition vers l’IA générative et agentique
Après douze années consacrées à la computer vision, Clarifai fait évoluer sa plateforme afin de répondre aux nouveaux usages liés à l’IA générative et aux agents IA. L’éditeur américain ambitionne de proposer une solution capable de couvrir l’ensemble du cycle de vie des modèles, de la préparation des données jusqu’à l’inférence.
Une plateforme unifiée pour le multicloud et le on-premise
Clarifai met en avant un plan de contrôle unique permettant de gérer des charges de travail IA sur site, dans plusieurs clouds ou dans des environnements hybrides. La plateforme se veut agnostique vis-à-vis des fournisseurs d’infrastructure et compatible avec les principaux clouds du marché ainsi qu’avec les serveurs et GPU les plus répandus.
Optimisation des ressources GPU et réduction des coûts
Fort de son expérience technique, l’éditeur propose des fonctionnalités avancées telles que l’autoscaling, la gestion des instances spot et le fractionnement des GPU. Cette dernière permet de mieux répartir la mémoire et la puissance de calcul entre plusieurs modèles, afin d’améliorer le taux d’utilisation des infrastructures et de réduire significativement les coûts.
Des performances renforcées pour l’inférence des LLM
Clarifai affirme optimiser finement les configurations des modèles de langage afin d’accélérer l’inférence. Selon l’entreprise, ses optimisations permettent d’augmenter le nombre de tokens traités par seconde, y compris pour des modèles comptant plusieurs milliards de paramètres.
Les « local runners » pour rapprocher l’IA des usages
Avec l’introduction des « local runners », Clarifai étend son approche au-delà des data centers. Les modèles peuvent désormais être déployés et exécutés sur des postes de travail et des serveurs locaux, tout en restant pilotés depuis la même interface. Cette continuité facilite le prototypage, le déploiement progressif et la montée en charge.
Gouvernance, supervision et gestion centralisée des données
La plateforme intègre des fonctions de gouvernance telles que la gestion des accès, l’isolation des environnements, l’audit et l’analyse des usages. Le concept d’« AI Lake » centralise les modèles, les workflows, les évaluations et les données associées afin de garantir une vision cohérente des projets IA.
En combinant orchestration multicloud, déploiement local et optimisation avancée des ressources, Clarifai se positionne comme un concurrent des plateformes IA proposées par les hyperscalers et des acteurs spécialisés du marché, tout en revendiquant une approche indépendante des infrastructures et des fournisseurs.
Lisez plus d’actualités sur cette page web.
Référence : LeMagIT