Dot.Blog

C#, XAML, WinUI, WPF, Android, MAUI, IoT, IA, ChatGPT, Prompt Engineering

Êtes-vous incollable sur les LLM et ChatGPT ? Prouvez-le avec ce QCM stimulant !

Les quiz c'est sympa, mais en été les QCM c'est encore plus détente ! On revient sur les essentiels de ChatGPT et les LLM pour voir si vous avez fait des progrès ! 20 questions pour faire le point...

Le QCM

Ici toujours la même excuse : rendre amusant ce qui devrait être un article un peu rébarbatif. Donc l'objectif c'est d'apprendre des choses, d'avoir envie de creuser, ou simplement de s'informer à une source pas trop farfelue (comme celles qu'on voit partout... Après avoir été des experts en épidémiologie durant le Covid, puis de grands stratèges militaires avec l'Ukraine, les Français découvrent qu'ils ont un doctorat en Intelligence artificielle depuis la sortie de GPT-4 !).

Donc 20 questions. Avec 3 réponses possibles.

Une seule est bonne à chaque fois. Pas de piège.

Les résultats sont regroupés en fin d'article.

Si on veut pousser le jeu jusqu'au bout, comme pour le quiz, mettez-vous un point par bonne réponse, et n'hésitez pas à mettre en commentaire votre score sur 20 !

Ne pas avoir peur, peu seront ceux à dépasser la moyenne je pense. Donc tout le monde peut jouer et personne ne se moquera ;

C'est parti !

Q: 1 Quelle est l'architecture principale utilisée pour les LLM tels que ChatGPT ?

A: Réseau de neurones convolutifs (CNN)

B: Transformateur

C: Réseau de neurones récurrents (RNN)


Q: 2 Quelle est la principale méthode d'entraînement utilisée pour les LLM ?

A: Entraînement supervisé

B: Entraînement non supervisé

C: Entraînement auto-supervisé


Q: 3 Quelle est la principale caractéristique de la méthode d'entraînement des masques (Masked Language Modeling) utilisée dans les LLM comme BERT ?

A: Prédire les tokens masqués à partir de leur contexte

B: Générer du texte en se basant sur des séquences de tokens précédentes

C: Classer les textes en fonction de leur catégorie


Q: 4 Quel est l'objectif principal de la méthode d'entraînement par complétion de texte (Text Completion) utilisée dans les LLM comme GPT ?

A: Prédire la prochaine séquence de tokens dans un texte donné

B: Générer du texte en se basant sur des paires de phrases

C: Classer les textes en fonction de leur catégorie


Q: 5 Pourquoi les LLM sont-ils souvent appelés "modèles de langage" ?

A: Parce qu'ils sont conçus pour générer des images

B: Parce qu'ils sont entraînés pour comprendre et générer du langage naturel

C: Parce qu'ils sont spécialisés dans la traduction de texte


Q: 6 Quelle est la principale différence entre GPT-3 et GPT-4 ?

A: GPT-4 est une version plus petite de GPT-3

B: GPT-4 est une version améliorée et plus grande de GPT-3 avec une capacité accrue à comprendre et générer du langage naturel

C: GPT-4 est une version obsolète de GPT-3


Q: 7 Qu'est-ce qu'un prompt dans le contexte des LLM ?

A: Une interface graphique pour interagir avec le modèle

B: Une entrée textuelle utilisée pour guider le modèle dans la génération de réponses appropriées

C: Un système de notation pour évaluer les réponses du modèle


Q: 8 Quel est l'un des principaux défis de l'utilisation des LLM pour la compréhension du langage naturel ?

A: Les LLM ne peuvent pas traiter les textes longs

B: Les LLM peuvent parfois mal interpréter le contexte ou le sens des mots en raison de leur dépendance aux patrons statistiques appris lors de l'entraînement

C: Les LLM ne peuvent générer que des textes dans un style spécifique


Q: 9 Quel est l'un des principaux avantages de l'utilisation des LLM pour la génération de texte ?

A: Les LLM génèrent du texte plus rapidement que les autres modèles de langage

B: Les LLM sont capables de générer des réponses contextuellement pertinentes et cohérentes

C: Les LLM peuvent générer du texte dans plusieurs langues en même temps


Q: 10 Comment mesure-t-on généralement la qualité des LLM ?

A: En évaluant la qualité des réponses générées par le modèle

B: En calculant la perplexité du modèle sur un ensemble de données de test

C: En mesurant la vitesse de génération de texte du modèle


Q: 11 Qu'est-ce que la perplexité dans le contexte des LLM ?

A: Une mesure de l'incertitude du modèle lors de la prédiction des tokens

B: Une mesure de la qualité des réponses générées par le modèle

C: Une mesure de la vitesse de traitement du modèle


Q: 12 Pourquoi les LLM sont-ils souvent pré-entraînés sur de grands corpus de texte ?

A: Pour apprendre les structures et les connaissances générales du langage naturel

B: Pour minimiser le risque de surinterprétation

C: Pour faciliter la tokenisation du texte


Q: 13 Qu'est-ce que l'entraînement par transfert (transfer learning) dans le contexte des LLM ?

A: L'entraînement d'un modèle sur un corpus de texte spécifique à une tâche

B: La réutilisation d'un modèle pré-entraîné pour des tâches spécifiques en adaptant ses poids grâce au fine-tuning

C: L'entraînement d'un modèle sur plusieurs corpus de texte simultanément


Q: 14 Quelle est l'une des principales raisons pour lesquelles les LLM peuvent générer des informations incorrectes ou inventées ?

A: Le manque de mémoire du modèle

B: Les LLM sont conçus pour maximiser la vraisemblance avec les données d'entraînement, ce qui peut entraîner la génération de réponses plausibles mais incorrectes

C: Les LLM sont incapables de traiter des textes longs


Q: 15 Comment les LLM peuvent-ils être utilisés pour la traduction automatique ?

A: En entraînant le modèle sur des paires de phrases dans différentes langues et en fournissant des prompts de traduction

B: En ajoutant une couche de traduction à la sortie du modèle

C: En utilisant un modèle de langage séparé pour chaque langue


Q: 16 Quelle est l'une des principales limitations des LLM en termes de génération de texte cohérent sur de longues distances ?

A: Les LLM sont incapables de générer des textes cohérents

B: Les LLM peuvent parfois perdre le fil de l'histoire ou répéter des informations en raison de leur dépendance aux patrons statistiques appris lors de l'entraînement

C: Les LLM ne peuvent générer que des textes courts


Q: 17 Qu'est-ce qu'un "tokenizer" dans le contexte des LLM ?

A: Un algorithme utilisé pour diviser un texte en unités de traitement plus petites (mots, sous-mots ou caractères) pour faciliter l'entraînement et l'utilisation du modèle

B: Un dispositif de stockage pour les poids du modèle

C: Un logiciel de visualisation pour les LLM


Q: 18 Comment les LLM peuvent-ils être utilisés pour la réponse à des questions (Question Answering) ?

A: En fournissant un prompt spécifique au modèle indiquant qu'il doit répondre à une question basée sur un texte d'entrée

B: En ajoutant une couche de réponse aux questions à la sortie du modèle

C: En utilisant un modèle de langage séparé pour chaque type de question


Q: 19 Quel est l'un des principaux défis liés à l'utilisation de LLM pour la classification automatique de textes ?

A: Les LLM sont incapables de classer les textes

B: Les LLM peuvent parfois mal classer les textes en raison de leur dépendance aux patrons statistiques appris lors de l'entraînement

C: Les LLM ne peuvent classer que des textes courts


Q: 20 Qu'est-ce que le fine-tuning dans le contexte des LLM ?

A: L'entraînement d'un modèle sur un corpus de texte spécifique à une tâche

B: La réutilisation d'un modèle pré-entraîné pour des tâches spécifiques en adaptant ses poids grâce à un entraînement supplémentaire sur des données spécifiques à la tâche

C: L'entraînement d'un modèle sur plusieurs corpus de texte simultanément

Résultats

C'est le moment de faire le total !
Voici les bonnes réponses :
(1 : B), (2 : C), (3 : A), (4 : A), (5 : B), (6 : B), (7 : B), (8 : B), (9 : B), (10 : B), (11 : A), (12 : A), (13 : B), (14 : B), (15 : A), (16 : B), (17 : A), (18 : A), (19 : B), (20 : B)

Conclusion

L'important c'est de participer, c'est bien connu ! Si en plus vous avez pu apprendre quelques trucs et vous détendre alors c'est génial ! Publier votre score, et n'oubliez pas, les commentaires sont là pour vos questions !


Stay Tuned !

Faites des heureux, partagez l'article !
blog comments powered by Disqus