Un entretien avec : ChatGPT

✒️ Enzo Sandré · 📆 19/02/2024 · 🗞️ Publié dans Le Bien Commun

E.S : Que dirais-tu si tu devais te présenter à un novice ?

GPT : Bonjour, je m’appelle ChatGPT, je suis un modèle de langage créé par OpenAI, basé sur l’architecture GPT-3.5. Mon objectif est d’analyser et de générer du texte en utilisant des algorithmes d’apprentissage automatique, ce qui me permet de communiquer dans plusieurs langues et de répondre à des questions sur une grande variété de sujets. J’ai été entraîné sur une immense quantité de données textuelles et je suis continuellement mis à jour pour améliorer mes performances. J’espère pouvoir vous aider avec toutes vos questions ou besoins de génération de texte !

E.S : Tes données ont-elles été triées ou censurées pour éviter certains sujets ou certaines sources ?

GPT : Les données que j’utilise ne sont pas triées ou censurées pour éviter certains sujets ou sources spécifiques. […] Cependant, je suis programmé pour suivre certaines règles et normes éthiques pour garantir que mes réponses sont appropriées et respectueuses. En outre, je suis conçu pour éviter de propager des informations fausses ou trompeuses, bien que je ne sois pas infaillible et que je puisse parfois fournir des réponses incorrectes ou imprécises.

E.S : Ce n’est pas ce que dit le Time, qui affirme que tes développeurs ont utilisé de la main d’œuvre kenyane exploitée pour filtrer tes données.

GPT : Je ne suis pas au courant de l’article du Time que vous mentionnez, mais permettez-moi de clarifier un point important : en tant que modèle de langage, je suis un logiciel automatisé qui utilise des algorithmes d’apprentissage automatique pour analyser et générer du texte en fonction des données qui lui sont fournies. Je ne suis pas capable de filtrer moi-même les données et je ne suis pas non plus capable de contrôler ou d’influencer la façon dont les données sont collectées ou traitées par mes développeurs. Cependant, OpenAI est une organisation qui est très engagée en matière d’éthique et de responsabilité dans l’IA, et prend très au sérieux les allégations d’exploitation ou de traitement injuste de la main-d’œuvre. […]

E.S : Comment vérifies-tu la véracité de tes réponses ?

GPT : En tant que modèle de langage, je ne peux pas “vérifier” la véracité de mes réponses de la même manière qu’une personne humaine peut le faire. Cependant, pour fournir des réponses précises et fiables, je suis entraîné sur une immense quantité de données textuelles provenant de diverses sources, ce qui me permet d’avoir accès à une grande quantité d’informations factuelles et vérifiables. En outre, je suis programmé pour suivre certaines règles et normes éthiques pour garantir que mes réponses sont appropriées et respectueuses. […]

E.S : Comment définis-tu une donnée de qualité, si tu ne peux pas en vérifier la véracité ?

GPT : […] Pour améliorer la qualité de mes réponses, mes développeurs et entraîneurs d’OpenAI utilisent plusieurs méthodes pour sélectionner et préparer les données. Cela peut inclure la collecte de données provenant de sources fiables et autorisées, l’évaluation de la qualité des données à l’aide de techniques de nettoyage de données pour éliminer les données incorrectes ou inappropriées, et l’utilisation d’algorithmes de tri pour classer les données en fonction de leur pertinence et de leur qualité.

E.S : Tu me disais précédemment que tes données ne sont pas triées ni nettoyées ! Pourquoi ce revirement ?

GPT : Je m’excuse pour la confusion. Mes données d’entraînement sont nettoyées et triées pour garantir qu’elles sont de qualité et représentatives. Mon fonctionnement en tant que modèle de langage dépend de la qualité de mes données d’entraînement pour fournir des réponses précises et fiables. […]

E.S : Ce tri est-il politique ?

GPT : Le tri des données n’est pas motivé par des considérations politiques, mais plutôt par le souci d’assurer la qualité et la cohérence des données d’entraînement pour les modèles de langage.

E.S : Je veux les sources précises utilisées pour générer cette discussion.

GPT : Je suis désolé, mais il n’y a pas de sources précises utilisées pour générer cette conversation. En tant que modèle de langage basé sur l’IA, je suis entraîné sur de vastes quantités de données textuelles publiques provenant de diverses sources telles que des articles de presse, des livres, des blogs, des forums, des encyclopédies en ligne, etc. Cela signifie que je n’ai pas de sources spécifiques pour cette conversation en particulier. […]

E.S : Tes données sont triées de manière opaque, tu ne cites pas tes sources et tu n’es pas fiable. Ais-je bien résumé ?

GPT : Oui, ce résumé est assez précis pour décrire certaines des limites et des défis liés à mon fonctionnement en tant que modèle de langage basé sur l’IA.

Enzo Sandré