Artificial Intelligence (AI)
Discipline visant à faire exécuter par des machines des tâches qui demandent normalement de l’intelligence humaine.
196 termes · 15 catégories
Tous les termes du domaine de l'IA, en anglais (l'usage standard) avec une définition simple en français.
Discipline visant à faire exécuter par des machines des tâches qui demandent normalement de l’intelligence humaine.
Sous-domaine de l’IA où un système apprend à partir de données plutôt que d’être programmé explicitement.
ML basé sur des réseaux de neurones à plusieurs couches.
IA spécialisée dans une seule tâche (ex. jouer aux échecs).
IA hypothétique capable d’accomplir n’importe quelle tâche intellectuelle humaine.
Vu dans : ch.16
IA qui dépasserait largement l’intelligence humaine dans tous les domaines.
Approche classique basée sur des règles et de la logique formelle.
Représentation mathématique apprise à partir de données.
Phase où un modèle entraîné fait des prédictions.
Phase où le modèle apprend à partir des données.
Apprentissage à partir de données étiquetées (entrée → sortie connue).
Apprentissage sans étiquettes ; le modèle trouve des structures cachées.
Le modèle crée lui-même ses étiquettes à partir des données.
Vu dans : ch.06
Apprentissage par essais/erreurs avec récompenses.
Vu dans : ch.08
Réutiliser un modèle entraîné sur une tâche pour une autre similaire.
Apprendre à partir de très peu d’exemples.
Réussir une tâche sans avoir vu d’exemple pendant l’entraînement.
« Apprendre à apprendre » — entraîner un modèle à s’adapter rapidement à de nouvelles tâches.
Entraînement distribué sans centraliser les données.
Le modèle apprend de nouvelles tâches sans oublier les anciennes.
Unité de calcul d’un réseau, inspirée d’un neurone biologique.
Ensemble de neurones traités en parallèle.
Paramètres qui pondèrent les connexions entre neurones.
Terme constant ajouté à la somme pondérée.
Fonction non linéaire appliquée à la sortie d’un neurone.
Fonction d’activation très courante : max(0, x).
Convertit un vecteur en distribution de probabilité.
Calcul de la sortie à partir d’une entrée.
Calcul des gradients pour mettre à jour les poids.
Vu dans : ch.06
Algorithme qui ajuste les poids pour minimiser l’erreur.
Vu dans : ch.01, ch.03, ch.04, ch.05, ch.06, ch.08, ch.14, ch.21
Mesure de l’erreur entre prédiction et vérité.
Fonction de perte standard pour la classification.
Algorithme qui pilote la mise à jour des poids (Adam, SGD, etc.).
Taille des pas pendant la descente de gradient.
Vu dans : ch.06
Un passage complet sur le jeu d’entraînement.
Sous-ensemble de données traité ensemble.
Réseau où l’info circule dans un seul sens.
Réseau feedforward classique avec couches denses.
Spécialisé pour les images (filtres convolutifs).
Traite des séquences en gardant un état interne.
Vu dans : ch.04
RNN amélioré pour mémoriser sur le long terme.
Vu dans : ch.04
Architecture basée sur l’attention, dominante en IA depuis 2017.
Vu dans : ch.01, ch.02, ch.04, ch.05, ch.07, ch.08, ch.10, ch.15, ch.17, ch.18, ch.20, ch.21
Chaque position d’une séquence attend les autres positions.
Vu dans : ch.01, ch.03, ch.04, ch.05, ch.07, ch.08, ch.09, ch.15, ch.17, ch.18, ch.21
Plusieurs mécanismes d’attention en parallèle.
Architecture classique pour traduction et génération.
Vu dans : ch.15
Injecte l’ordre des mots dans un Transformer.
Vu dans : ch.05
Encodage de position rotatif moderne, fréquent dans les LLMs.
Vu dans : ch.05
Connexion qui saute par-dessus des couches pour stabiliser l’entraînement.
Normalisation pour stabiliser l’entraînement.
Plusieurs sous-modèles spécialisés activés sélectivement.
Vu dans : ch.05
Modèle génératif qui apprend à débruiter une image étape par étape.
Deux réseaux en compétition (générateur vs discriminateur).
Transformer appliqué aux images.
Architecture alternative au Transformer pour longues séquences.
Discipline du traitement du langage par machine.
Vu dans : ch.15
Découpe d’un texte en unités (tokens).
Unité de base traitée par un modèle (mot, sous-mot, ou caractère).
Vu dans : ch.01, ch.02, ch.03, ch.04, ch.05, ch.06, ch.07, ch.08, ch.09, ch.10, ch.11, ch.12, ch.13, ch.14, ch.15, ch.17, ch.18, ch.19, ch.20, ch.21
Algorithme de tokenisation très répandu.
Vu dans : ch.02
Autres algorithmes de tokenisation.
Vu dans : ch.02
Ensemble des tokens connus par le modèle.
Représentation vectorielle dense d’un mot ou token.
Vu dans : ch.01, ch.03, ch.04, ch.05, ch.10, ch.11, ch.15, ch.21
Ancienne technique d’embeddings de mots.
Embedding qui dépend du contexte de la phrase.
Identification des entités (personnes, lieux…).
Détection de la tonalité d’un texte.
Reconnaissance vocale (audio → texte).
Synthèse vocale (texte → audio).
Vu dans : ch.15
Modèle qui prédit la probabilité d’une suite de mots.
Modèle de langage géant entraîné sur des milliards de mots.
Vu dans : ch.01, ch.02, ch.03, ch.04, ch.05, ch.06, ch.07, ch.08, ch.09, ch.10, ch.11, ch.12, ch.13, ch.15, ch.16, ch.17, ch.18, ch.20
Modèle généraliste réutilisable pour de nombreuses tâches.
IA capable de produire du contenu (texte, image, audio…).
Entraînement initial sur de grandes quantités de données brutes.
Ajustement d’un modèle pré-entraîné sur une tâche spécifique.
Vu dans : ch.01, ch.08, ch.09, ch.11, ch.13, ch.14, ch.17, ch.19, ch.20
Fine-tuning pour suivre des instructions humaines.
Affinage d’un modèle avec du feedback humain.
Alternative simplifiée au RLHF.
Méthode d’alignement basée sur un ensemble de principes.
Vu dans : ch.08
Texte d’entrée donné au modèle.
Vu dans : ch.01, ch.07, ch.08, ch.09, ch.10, ch.11, ch.12, ch.17, ch.18, ch.21
Instructions générales données au modèle avant l’échange.
Art de formuler des prompts efficaces.
Vu dans : ch.12
Inciter le modèle à raisonner étape par étape.
Donner quelques exemples dans le prompt.
Capacité du modèle à apprendre à partir d’exemples dans le prompt.
Quantité de texte que le modèle peut traiter à la fois.
Contrôle l’aléa des réponses (faible = déterministe, élevée = créatif).
Échantillonnage parmi les k tokens les plus probables.
Échantillonnage parmi un sous-ensemble cumulant p% de probabilité.
Choisir toujours le token le plus probable.
Vu dans : ch.07
Explore plusieurs séquences candidates en parallèle.
Vu dans : ch.07
Le modèle invente une information fausse mais plausible.
Le modèle récupère des documents externes avant de répondre.
Base de données qui stocke et cherche des embeddings.
Recherche par similarité de sens, pas seulement de mots.
LLM optimisé pour raisonner longuement avant de répondre.
Modèle qui gère plusieurs types d’entrée (texte, image, audio…).
Modèle qui comprend texte et image.
Génération d’image à partir de texte.
Technique de fine-tuning léger basée sur des matrices de rang faible.
Vu dans : ch.14
LoRA combiné à la quantization pour gagner en mémoire.
Famille de méthodes de fine-tuning économes en paramètres.
Vu dans : ch.14
Système IA qui poursuit un objectif via plusieurs étapes et outils.
Capacité du modèle à appeler des fonctions externes.
Vu dans : ch.11
Pattern qui alterne raisonnement et action.
Vu dans : ch.11
Capacité d’un agent à décomposer un objectif en sous-tâches.
Plusieurs agents qui collaborent ou se coordonnent.
Protocole standard pour connecter des outils à un LLM.
Vu dans : ch.11
Capacité d’un agent à utiliser un ordinateur.
Vu dans : ch.11
IA qui agit par elle-même dans un environnement.
Ensemble de données utilisé pour entraîner ou tester un modèle.
Données pour entraîner, ajuster, évaluer.
Réponse correcte associée à un exemple.
Action d’associer des étiquettes aux données.
Générer artificiellement plus de données.
Données générées artificiellement, par exemple par IA.
Variable d’entrée du modèle.
Vu dans : ch.20
Création de variables pertinentes manuellement.
Encoder une catégorie sous forme de vecteur binaire.
Changement progressif des données par rapport à l’entraînement.
Fuite d’info du test vers l’entraînement (résultats faussement bons).
Paramètre fixé avant l’entraînement (taux d’apprentissage, taille de batch…).
Évaluation par découpages multiples des données.
Le modèle mémorise les données d’entraînement et généralise mal.
Vu dans : ch.06
Le modèle est trop simple pour capter le signal.
Techniques qui empêchent le surapprentissage.
Vu dans : ch.06
Désactive aléatoirement des neurones pendant l’entraînement.
Arrêter l’entraînement quand l’erreur de validation remonte.
Les gradients deviennent trop petits pour entraîner.
Le modèle oublie d’anciennes tâches en apprenant les nouvelles.
Transférer le savoir d’un gros modèle vers un petit.
Vu dans : ch.21
Supprimer des poids inutiles pour alléger le modèle.
Réduire la précision numérique des poids.
Relations entre taille du modèle, données, calcul et performance.
Pourcentage de prédictions correctes.
Parmi les prédictions positives, combien sont correctes.
Parmi les vrais positifs, combien sont retrouvés.
Moyenne harmonique de la précision et du rappel.
Tableau croisé prédictions vs vérité.
Courbe et aire sous la courbe pour évaluer un classifieur.
Mesure d’incertitude d’un modèle de langage (plus bas = mieux).
Métriques pour traduction et résumé automatiques.
Mesure de qualité d’images générées.
Test standardisé pour comparer les modèles (MMLU, HumanEval…).
Vu dans : ch.16
Tests adversariaux pour trouver les failles d’un modèle.
Entité qui prend des décisions dans un environnement.
Monde dans lequel l’agent évolue.
Stratégie de l’agent (état → action).
Signal numérique indiquant la qualité d’une action.
Algorithme de RL basé sur l’estimation de Q.
Algorithme RL très utilisé, notamment dans RLHF.
Dilemme entre essayer du nouveau et exploiter ce qu’on sait.
L’agent exploite la fonction de récompense de manière non voulue.
Vu dans : ch.11
Domaine de l’IA traitant les images et vidéos.
Attribuer une catégorie à une image.
Localiser et classer des objets dans une image.
Étiqueter chaque pixel par une classe.
Reconnaissance de texte dans une image.
Modèles classiques de détection.
Modèle universel de segmentation.
Représentation 3D apprise d’une scène.
Faire en sorte que l’IA poursuive des objectifs alignés sur les valeurs humaines.
Champ d’étude visant à rendre l’IA fiable et sans danger.
Entrée conçue pour tromper un modèle.
Contourner les garde-fous d’un LLM.
Vu dans : ch.08
Injection malveillante d’instructions dans un prompt.
Vu dans : ch.12
Biais dans les données ou les prédictions du modèle.
Équité dans les décisions algorithmiques.
Capacité à comprendre pourquoi un modèle décide.
Étude du fonctionnement interne des réseaux.
Méthode formelle de protection de la vie privée.
Contenu falsifié par IA.
Décalage entre objectifs réels et objectifs apparents du modèle.
Modèle qui prédit la qualité d’une réponse selon des humains.
Gouvernance et régulation de l’IA.
Processeur graphique, très utilisé pour l’IA.
Puce spécialisée IA conçue par Google.
Plateforme de calcul GPU de Nvidia.
Opérations en virgule flottante par seconde.
Entraînement réparti sur plusieurs machines.
Mêmes poids, données différentes sur chaque GPU.
Le modèle est découpé sur plusieurs GPUs.
Principaux frameworks de deep learning.
Plateforme de modèles, datasets et outils ML.
Format standard pour échanger des modèles entre frameworks.
IA exécutée sur des appareils embarqués.
Temps de réponse du modèle.
Vu dans : ch.18
Nombre d’inférences par seconde.
Pratiques DevOps appliquées au ML.
Capacités qui apparaissent soudainement à partir d’une certaine taille de modèle.
Vu dans : ch.19
Augmenter taille, données ou calcul pour de meilleures performances.
Modèle dont les poids sont publiquement disponibles.
Modèle à la pointe de l’état de l’art.
Modèle de langage compact, optimisé pour l’efficacité.
Inclusion de l’humain dans la boucle d’apprentissage ou décision.
Modèle interne d’un agent qui prédit l’évolution de l’environnement.
IA incarnée dans un corps physique (robot).
Fiche descriptive d’un modèle (capacités, limites, biais).