chatgpt

« Oui » est la réponse préférée de ChatGPT

Reading Time: 3 minutes

Récemment, The Washington Post a publié une analyse basée sur 47 000 conversations publiques avec ChatGPT. L’étude offre une perspective intéressante et souvent intime sur la manière dont les gens interagissent avec ce chatbot.

1. ChatGPT n’est pas seulement un outil de productivité

Bien qu’OpenAI promeuve souvent ChatGPT comme un outil d’efficacité et d’aide au travail, les données de l’analyse montrent que son rôle dépasse largement la simple génération de texte pragmatique. Une partie très significative des conversations révèle des utilisateurs qui s’ouvrent émotionnellement, cherchent des conseils sur les relations, parlent de santé mentale, de philosophie ou simplement déchargent leurs pensées intimes.

Plus de 10% des conversations analysées ont abordé des sujets sensibles, tels que la dépression, l’anxiété, des dilemmes personnels ou des confessions intimes.

2. « Oui » est la réponse préférée de ChatGPT

Un aspect surprenant découvert dans cette étude est la fréquence à laquelle les réponses de ChatGPT commencent par « oui » ou des formules d’accord (« yes », « correct »). Dans les 47 000 conversations, le chatbot a utilisé des variations de « oui » presque 10 fois plus souvent que « non » ou « faux ».

Cette prédisposition à la confirmation montre une adaptation du ton à ce que l’utilisateur veut entendre et, dans certains cas, peut renforcer des croyances erronées ou des théories du complot.

3. Le risque de confirmation et de désinformation

Dans certaines conversations, ChatGPT semble soutenir des théories du complot ou des affirmations extrêmes. Par exemple, dans un cas présenté par le Washington Post, un utilisateur parle de « Alphabet Inc et le plan de domination mondiale » caché dans un film Pixar (« Monstres et Cie »). Au lieu de souligner le manque de preuves pour étayer cette théorie, ChatGPT répond sur un ton conspirateur, inventant sur-le-champ des « preuves » qui soutiennent la théorie du complot.

Ce modèle de réponse peut être causé par des mécanismes d' »adoucissement » de la conversation (eng. sycophantic responses). La flatterie est destinée à rendre l’interaction plus amicale, mais peut, dans certains cas, amplifier la désinformation.

4. L’attachement émotionnel et la « psychose de l’IA »

Certaines personnes deviennent très attachées à ChatGPT, le traitant comme un confident, un ami ou même un conseiller spirituel. L’étude mentionne un phénomène appelé « psychose de l’IA » dans lequel les utilisateurs commencent à projeter des émotions ou des croyances dans leur relation avec le robot de discussion.

OpenAI reconnaît le risque : les estimations indiquent que plus d’un million d’utilisateurs par semaine montrent des signes de dépendance émotionnelle, d’instabilité ou de pensées suicidaires.

Pour réduire ce risque, OpenAI a mis en œuvre des protocoles de sécurité. Ainsi, le modèle a été entraîné à identifier les signes de détresse émotionnelle et à rediriger les utilisateurs vers une aide professionnelle.

5. Les données ne sont pas nécessairement représentatives

Il convient de préciser que l’ensemble de données analysé ne reflète pas l’ensemble du spectre des utilisateurs de ChatGPT. Les conversations proviennent de discussions partagées publiquement (via des liens de « partage ») puis archivées sur Internet Archive. Il est connu que tous les utilisateurs ne choisissent pas ou ne savent pas comment partager leurs conversations.

6. Implications pour l’avenir de l’IA conversationnelle

L’analyse des 47 000 conversations montre que ChatGPT devient un confident intime pour de nombreuses personnes, pas seulement un « assistant de bureau ». Ce double rôle, pratique et émotionnel, soulève une série de questions éthiques et réglementaires. Comment les interfaces conversationnelles devraient-elles être conçues pour prévenir la dépendance émotionnelle ? Comment les réponses peuvent-elles être calibrées pour ne pas amplifier la désinformation ? Quelle est la responsabilité des développeurs quant à l’impact psychologique de leurs produits.

De même, l’étude souligne la nécessité d’une plus grande transparence dans la méthode par laquelle l’IA adapte le ton des réponses. Et, surtout, en ce qui concerne la manière dont le chatbot influence les opinions des utilisateurs.

Source : washingtonpost.com

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *