Le LLMOps, qu'est-ce que c'est ?

Copier l'URL

Les grands modèles de langage (LLM) sont des modèles de ML (machine learning ou apprentissage automatique) qui peuvent comprendre et générer du langage humain. Les grands modèles de langage tels que GPT-3, LLaMA et Alert Falcon sont des outils qui apprennent à partir de données pour produire des mots et des phrases. Mais parce que ces outils ne cessent de se développer, les entreprises ont besoin de meilleures pratiques pour les exploiter. C'est là que le LLMOps intervient.

Le LLMOps (Large Language Model Operations) regroupe les méthodes utilisées pour gérer de grands modèles de langage. Cette approche permet de gérer et d'automatiser le cycle de vie des grands modèles de langage, du réglage fin à la maintenance, pour aider les équipes à les déployer, les surveiller et les entretenir.

Découvrir Red Hat AI

Se lancer avec l'IA en entreprise: guide pour les débutants

Parce que les LLM sont un sous-ensemble des modèles d'AA, on peut considérer que le LLMOps est un équivalent du MLOps (Machine Learning Operations) pour les grands modèles de langage. Le MLOps désigne un ensemble de pratiques de gestion des workflows qui vise à rationaliser le déploiement et la maintenance des modèles d'AA. Cette approche a pour but d'établir une évolution continue pour l'intégration des modèles d'AA au développement logiciel. Pareillement, dans le cadre du LLMOps, le cycle de développement et de déploiement des LLM fait continuellement l'objet d'essais, d'itérations, de redéploiements et d'améliorations.

Même s'ils sont assez similaires, le LLMOps et le MLOps présentent des différences, notamment au niveau des points suivants :

Apprentissage : tandis que les modèles d'AA sont souvent créés ou entraînés à partir de rien, les LLM s'appuient sur un modèle de fondation et sont soumis à un réglage fin avec de nouvelles données pour améliorer les performances des tâches.

Réglage : le réglage fin des LLM permet d'améliorer les performances et d'augmenter la précision, en approfondissant les connaissances du modèle sur un sujet en particulier. Le processus de réglage des requêtes améliore les performances des LLM sur des tâches spécifiques. Le réglage des hyperparamètres est également différent. Le réglage des modèles d'AA vise à renforcer leur précision, tandis que le réglage des LLM doit également permettre de réduire les coûts et la puissance de calcul requise pour leur entraînement. Les deux types de modèles bénéficient du processus de réglage, mais les priorités diffèrent. Il existe une autre technique qui s'appuie sur des connaissances externes pour garantir la précision et la spécificité des faits collectés par les LLM et ainsi améliorer la pertinence des réponses : il s'agit de la RAG (retrieval-augmented generation).

Commentaires : l'apprentissage par renforcement basé sur les commentaires humains est un entraînement avancé des LLM. Les performances des LLM dépendent directement des commentaires que formulent les humains. Ces modèles utilisent les commentaires humains pour évaluer la précision, à la différence des modèles d'AA traditionnels qui déterminent la précision à partir d'indicateurs de mesure spécifiques.

Indicateurs de mesure de performances : les modèles d'AA ont des indicateurs de mesure de performances précis, mais les grands modèles de langage ont un ensemble d'indicateurs de mesure différent, comme l'understudy d'évaluation préliminaire (BLEU) et l'understudy orienté mémoire pour l'évaluation (ROUGE) qui requièrent une évaluation plus complexe.

En savoir plus sur le MLOps

Ressources Red Hat

Le LLMOps est en passe de devenir le meilleur moyen de surveiller et d'améliorer les performances. Il existe trois avantages principaux à examiner :

Efficacité : le LLMOps permet aux équipes de développer des modèles plus rapidement, d'améliorer leur qualité et d'accélérer leur déploiement. Grâce à cette approche qui rationalise la gestion, les équipes peuvent collaborer plus facilement sur une plateforme axée sur la communication, le développement et le déploiement.

Évolutivité : le modèle LLMOps contribue à l'évolutivité et à la gestion, car plusieurs modèles peuvent être gérés et surveillés pour l'intégration continue et la distribution/le déploiement continus (CI/CD). Le LLMOps offre également aux utilisateurs une expérience plus réactive en améliorant la communication des données et les réponses. 

Réduction des risques : le LLMOps favorise la transparence et améliore la conformité avec les politiques du secteur et de l'entreprise. Le LLMOps permet d'améliorer la sécurité et la confidentialité en protégeant les informations sensibles et en évitant les risques.

4 tâches essentielles à l'exploitation des modèles d'IA

Le LLMOps peut s'appliquer à différents cas d'utilisation.

Intégration et distribution continues (CI/CD) : les pratiques CI/CD ont pour but de rationaliser, d'accélérer et d'automatiser le cycle de développement des modèles.  Il élimine le besoin d'intervention humaine pour obtenir le nouveau code, ce qui permet de réduire les temps d'arrêt et d'accélérer la publication du code. Des outils comme Tekton, sur lesquels reposent les pipelines Red Hat OpenShift, simplifient les workflows des développeurs en automatisant les déploiements sur plusieurs plateformes.

Collecte, étiquetage et stockage de données : la collecte des données s'effectue à partir de différentes sources pour rassembler des informations précises. L'étiquetage classe les données par catégories et le stockage des données permet de collecter et de conserver les informations numériques associées à un réseau.

Réglage fin, inférence et surveillance des modèles : le processus de réglage fin optimise les modèles pour qu'ils effectuent des tâches spécifiques d'un domaine. L'inférence permet de gérer la production en fonction des connaissances existantes et de déclencher des actions à partir des informations déduites. Le processus de surveillance des modèles (commentaires humains compris) recueille et stocke des données sur le comportement des modèles afin de connaître la réaction de ces derniers en présence de vraies données de production.

Découvrir comment mettre en œuvre l'IA 

Le LLMOps se compose de plusieurs étapes, chacune ayant ses propres meilleures pratiques.

Analyse des données d'exploitation : analyse des données pour préparer le cycle de vie de l'apprentissage automatique en créant des ensembles de données.

  • Collecte des données : première étape d'entraînement des LLM collectés à partir de différentes sources, notamment les archives de code et les réseaux sociaux.
  • Nettoyage des données : étape d'inspection indispensable après la collecte pour préparer les données en vue de l'entraînement, notamment en éliminant les erreurs, en corrigeant les incohérences et en supprimant les doublons.
  • Exploration des données : étape qui permet de mieux comprendre les caractéristiques des données, notamment en identifiant leurs singularités et leurs schémas.

Ingénierie des invites et de la préparation des données : processus de partage des données accessibles entre les équipes et de développement des invites pour les grands modèles de langage.

  • Préparation des données : les données utilisées pour entraîner un grand modèle de langage sont préparées par divers moyens, notamment par le biais de la synthèse et de la conclusion des données collectées.
  • Ingénierie des invites : création d'invites utilisées pour du texte qui garantit la génération de la sortie souhaitée par les grands modèles de langage.

Réglage fin des modèles : utilisation de bibliothèques Open Source courantes telles que Hugging Face Transformers pour régler et améliorer les performances des modèles.

  • Entraînement des modèles : entraînement ou réglage fin des LLM après la préparation des données, à l'aide d'un algorithme d'apprentissage automatique qui permet aux LLM d'apprendre les schémas présents dans les données.
  • Évaluation des modèles : évaluation des performances des LLM avec un ensemble de données différent de ceux utilisés pour l'entraînement.
  • Réglage fin des modèles : en cas de mauvaises performances, les LLM doivent être réglés en modifiant les paramètres pour obtenir de meilleurs résultats.

Examen et gouvernance des modèles : processus de découverte, de partage et de collaboration entre des modèles d'AA à l'aide de plateformes MLOps Open Source telles que Kubeflow.

  • Examen des modèles : examen post-réglage fin des LLM qui doivent être sûrs et fiables, c'est-à-dire exempts de biais et de risques pour la sécurité.
  • Gouvernance des modèles : gestion des LLM tout au long de leur cycle de vie, notamment en suivant leurs performances, en y apportant les modifications nécessaires et en les retirant lorsqu'ils ne sont plus utiles.

Inférence et distribution des modèles : gestion des paramètres de production tels que la fréquence d'actualisation ou le délai des requêtes. 

  • Distribution des modèles : déploiement en production des LLM examinés et approuvés, qui sont mis à disposition via une interface de programmation d'application (API).
  • Inférence des modèles : possibilité pour une application de demander à l'API de générer du texte ou de répondre à une question. Cela peut être fait de différentes manières, par exemple une API REST (Representational State Transfer Application Programming Interface) ou une application Web.

Surveillance des modèles avec commentaires humains : création de modèles et surveillance des données avec alertes en cas de dérive du comportement ou de malveillance d'un utilisateur.

  • Surveillance des modèles : contrôle des performances après le déploiement des LLM, impliquant de suivre les performances, d'identifier les problèmes éventuels et d'apporter les modifications nécessaires.
  • Commentaires humains : amélioration des performances des LLM en commentant le texte généré ou en identifiant les problèmes éventuels liés aux performances.

Qu'est-ce que l'IA d'entreprise ?

Une plateforme LLMOps fournit aux développeurs et équipes un environnement qui favorise la collaboration via l'analyse des données, le suivi des expériences, l'ingénierie des invites et la gestion des grands modèles de langage. Il fournit également des services de transition, de déploiement et de surveillance de modèles gérés pour les grands modèles de langage. Grâce à une meilleure gestion des bibliothèques, la plateforme permet de réduire les coûts d'exploitation et de limiter les tâches techniques hautement qualifiées telles que le prétraitement des données, la surveillance des modèles et le déploiement.

En savoir plus les critères de sélection d'une plateforme pour l'IA et le LLMOps

Que vous cherchiez à comprendre comment utiliser le LLMOps à votre avantage ou simplement à comprendre l'apprentissage automatique, nous pouvons vous fournir les bases pour que votre équipe puisse tirer parti de l'IA.

Red Hat® AI est notre gamme de produits d'IA qui reposent sur des solutions que nos clients utilisent déjà. 

Red Hat AI offre les avantages suivants :

  • Rapidité d'adoption de l'IA et d'innovation
  • Simplification de la distribution de solutions d'IA
  • puis déployez-la dans tous les environnements.

Découvrir Red Hat AI 

Avec un outil LLMOps approprié, vous pouvez gérer et automatiser le cycle de vie de vos grands modèles de langage. Red Hat OpenShift® AI est capable de gérer le cycle de vie des modèles d'IA prédictive et générative dans des environnements de cloud hybride. Les développeurs peuvent déployer, surveiller et entretenir des grands modèles de langage facilement.

Découvrir Red Hat OpenShift AI 

Hub

Le blog officiel de Red Hat

Découvrez les dernières informations concernant notre écosystème de clients, partenaires et communautés.

Tous les essais de produits Red Hat

Profitez de nos essais gratuits de produits Red Hat pour renforcer votre expérience pratique, préparer une certification ou évaluer l'adéquation d'un produit avec les besoins de votre entreprise.

En savoir plus

L'apprentissage automatique, ou machine learning, qu'est-ce que c'est ?

Le machine learning est une technique qui consiste à entraîner un ordinateur à identifier des schémas, à établir des prédictions et à apprendre à partir d'expériences passées sans programmation explicite.

Le deep learning, qu'est-ce que c'est ?

Le deep learning est une technique d'intelligence artificielle (IA) qui apprend aux ordinateurs à traiter des données en utilisant un algorithme qui s'inspire du cerveau humain.

L'IA générative, qu'est-ce que c'est ?

L'IA générative est une technologie d'intelligence artificielle capable de créer des contenus à partir de modèles d'apprentissage profond entraînés avec de grands ensembles de données.

IA/ML : ressources recommandées

Articles associés