Craft LLMOps
Votre plateforme d'opérationnalisation de l'IA de confiance
La plateforme de MLOps & LLMOps de Craft AI contient tout ce qu'il faut à un ML Engineer ou un Data Scientist pour construire et opérationnaliser une application d'IA. De l'IA générative au Machine Learning, fine-tunez, déployez et pilotez la performance des modèles.
Divisez par 16 le temps nécessaire pour industrialiser vos IA.
Le LLMOps au service des équipes de Data Science
Sans MLOps, l’industrialisation d’une application d’IA dure 7 mois en moyenne et coûte 500K€ par projet.
Avec une plateforme MLOps, opérationnalisez vos IA en quelques jours seulement.
Déployez vos modèles de ML & vos LLM
Streaming, Real-time, Batch
A/B Testing, Canary
Passez vos modèles à l’échelle
Construisez des IA robustes et utilisées massivement
Pilotez et expliquez vos modèles et LLM
Dérive, Métriques, Toxicité, Biais, Évaluation, Alertes
Déployez et montez des infrastructures
En quelques clics, sans compétence de DevOps
Découvrir la plateforme
Nos fonctionnalités de MLOps & LLMOps
Prenez en main la plateforme de MLOps la plus performante et simple à utiliser du marché.
Le premier outil d'ingénierie de l'IA souverain et européen dédié à l'industrialisation de l'IA Générative et de l'IA Responsable.
Pipeline de Machine Learning
Déployez du code python en production en quelques minutes sans vous soucier de toute la complexité liée à l'industrialisation.
Environnements (CPU / GPU)
Espaces dédiés à l’expérimentation ou à la production composés de bases de données et de serveurs de calcul.
Déploiements
Déployez vos modèles en production en streaming, batch ou real-time, livrez les prédictions aux utilisateurs finaux.
Suivi des exécutions
Obtenez toutes les informations relatives à l'exécution de vos pipelines et de vos déploiements. Retrouvez vos métriques et vos inputs /ouputs.
Pilotage des modèles
Gardez vos modèles performants grâce à un suivi en temps réel des métriques mathématiques, logicielles, des biais et dérives.
Explicabilité (XAI)
Comprenez le pourquoi et le comment de chaque prédiction et gardez l'humain dans la boucle. Expliquez les résultats et évaluez vos LLM.
En savoir plus
Notre plateforme à la loupe
Pipeline de Machine Learning
Développez vos modèles dans un espace de travail compatible avec l’intégralité des librairies open-source. Importez et fine-tunez vos LLM dans des pipelines dédiés ou créez des workflows de RAG. Identifiez les étapes clés de votre code. Assemblez-les au sein de pipelines complets allant de la préparation des données jusqu’à l’entraînement des modèles.
Le pipeline est versionable et facilement déployable. Notre technologie de conteneurisation assure son passage à l’échelle sans reprise de code.
Environnements (CPU / GPU)
Mettez en place en quelques clics des environnements composés de bases de données (vector database) et de serveurs de calcul (CPU & GPU). Paramétrez simplement la taille et la puissance de chaque composant. Pilotez en temps réel les coûts de chaque environnement. Construisez des environnements dédiés à l’expérimentation et à la production.
Les environnements sont aisément paramétrables par les Data Scientists sans compétence de DevOps. Pilotez et maîtrisez votre budget d’infrastructure avec un module de FinOps.
Déploiements
Déployez vos pipelines de Machine Learning en production en quelques clics. Créez un service permettant d’exposer le pipeline par API aux utilisateurs finaux en temps réel. Définissez des conditions d’exécutions (temporelles ou basées sur une métrique) afin d’automatiser les ré-entraînements. Redéployez vos pipelines avec de multiples méthodes : A/B testing, Canary, Shadowing, Failover.
Le déploiement s’effectue en quelques clics, sans compétence en DevOps. Il permet un gain de temps considérable et offre une autonomie totale aux Data Scientists.
Suivi des exécutions
Obtenez le suivi détaillé de vos exécutions, étapes par étapes. Analysez le temps d’exécution de chaque étape ainsi que les ressources utilisées. Visualisez facilement les résultats et les modèles générés par vos pipelines. Retrouvez vos métriques de pipeline et le paramétrage de vos inputs & ouputs. Soyez alertés en cas de défaillance lors de l’exécution d’un pipeline pour procéder au débuggage.
Le suivi des exécutions permet aux Data Scientists de ne plus être à l’aveugle sur le suivi des exécutions et de s’assurer de leur bon fonctionnement.
Pilotage des modèles
Surveillez en temps réel la performance de vos modèles en production. Évaluez la fiabilité de vos LLM (perte de contexte, dérive de l'exactitude, hallucinations ou altération du ton). Détectez automatiquement lorsque vos modèles dérives et perdent en précision. Déclenchez des ré-entraînements afin de corriger les dérives. Pilotez vos infrastructures et vos déploiements en surveillant leur bonne santé. Paramétrez des alertes pour réagir le plus rapidement possible en cas de problème.
L’outil de pilotage des modèles en production permet d’avoir une vue à 360° et en temps réel de la santé de vos applications d’IA.
Explicabilité (XAI)
Analysez le poids de chacune des variables explicatives dans la prédiction. Visualisez vos arbres de décision. Obtenez une explication locale ou globale, agnostique de l’algorithme utilisé avec Shap. Inspectez et analysez le comportement de chacune des variables explicatives ou prédites. Surveillez l’évolution de l’explicabilité même en production.
Expliquez et évaluez les capacités et les performances de vos LLM grâce à notre pipeline de monitoring des LLM présent dans la plateforme.
Grâce au module d’explicabilité des modèles, supprimez le fonctionnement “boîte noire” des algorithmes et gardez l’humain dans la boucle.
Une plateforme compatible avec tout l’écosystème
Get started !
Importez votre code
Depuis votre espace de travail individuel, récupérez votre code existant depuis un dépôt Github ou Gitlab et démarrez un nouveau projet de Data Science, seul ou en équipe. Exécutez simplement votre code sans vous soucier de la configuration du Dockerfile qui est intégrée nativement dans le pipeline.
Créez des pipelines
Construisez vos propres pipelines de Machine Learning en identifiant une série d’étapes pouvant aller de la préparation des données à l’entraînement des modèles. Vous pouvez, par exemple, importer un LLM open-source et réaliser un pipeline de fine-tuning pour spécialiser le LLM puis un pipeline d'inférence pour servir les résultats. Enregistrez et versionnez chaque pipeline dans la plateforme.
Exécutez les pipelines
Lancez l’exécution d’un pipeline directement dans l’espace de travail ou bien sur la plateforme pour disposer de ressources supplémentaires et d’avoir accès aux différentes fonctionnalités de suivi, de pilotage et d’explicabilité.
Déployez les pipelines en production
Une fois que le pipeline est validé, vous pouvez le déployer en production très facilement soit en l’exposant via un endpoint soit en définissant des règles d’exécution. De multiples méthodes de redéploiement sont également à votre disposition.
FAQ
Nous répondons aux questions les plus fréquentes que vous pouvez vous poser sur la plateforme de MLOps.
En quelle(s) langue(s) la plateforme est-elle disponible ?
La plateforme est disponible en langue anglaise dans un premier temps. Nous ajouterons progressivement un mode multi-langue permettant de paramétrer la langue de son choix.
Qu’est-ce que le MLOps et le LLMOps ?
Le MLOps est un ensemble de pratiques qui vise à déployer et maintenir des modèles de Machine Learning en production de manière fiable et efficace. Le LLMOps se base sur le MLOps et ajoute toutes les fonctionnalités permettant de spécialiser, opérationnaliser et piloter des LLM.
Que permet de faire la plateforme de MLOps ?
La plateforme, actuellement en version 1.1, permet de mettre en place des infrastructures de calcul et de stockage ainsi que de créer et de déployer des pipelines de Machine Learning, de fine-tuner, d'opérationnaliser et de piloter des LLM. C'est donc ce qu'on peut appeler une plateforme de MLOps et de LLMOps.
Comment fonctionne l’abonnement / la facturation de la plateforme ?
Vous payez un abonnement qui vous donne accès à toutes les fonctionnalités de la plateforme de MLOps, présentes et à venir. En plus de cela, vous serez facturés chaque mois en fonction de l’utilisation que vous faites des ressources de calcul et de stockage.
Comment rester informé de l’actualité de Craft AI ?
Suivez-nous sur les réseaux Linkedin & Twitter et rendez-vous régulièrement sur notre blog où nous publions régulièrement des articles sur l’intelligence artificielle.
Démarrez l’industrialisation de vos IA
Testez gratuitement notre plateforme de MLOps permettant d’accélérer le déploiement et le pilotage de modèles de Machine Learning et des LLM.
Tester gratuitement