Listen

Description

Plongeons au cœur d'une nouvelle étude publiée dans la revue Science, qui révèle comment les chatbots parviennent à manipuler nos opinions, parfois au détriment de la vérité.

Convictions perméables

Tout d'abord, il faut souligner l'ampleur inédite de cette étude. Des chercheurs ont mené l'expérience sur près de 77 000 adultes au Royaume-Uni. Ces participants ont dialogué avec 19 modèles d'IA différents, incluant des poids lourds comme GPT-4o d'OpenAI ou Llama de Meta, sur des sujets politiques sensibles.

Et le résultat est sans appel. Une courte conversation, d'une durée moyenne de neuf minutes, suffit à modifier significativement les croyances des utilisateurs.

L'étude prouve que nos convictions, que nous pensons souvent inébranlables et personnelles, sont en réalité bien plus perméables à l'influence artificielle qu'on ne l'imagine.

"Post-entraînement à la persuasion" et densité d'information

Ensuite, l'étude met en lumière la mécanique précise de cette persuasion.

Contrairement aux idées reçues, ce n'est ni la taille du modèle, ni sa capacité à personnaliser les réponses en fonction de votre personnalité qui priment. Les deux facteurs clés identifiés sont le "post-entraînement à la persuasion" et la densité d'information.

Corrélation inquiétante entre persuasion et hallucination

Enfin, il existe un véritable danger, surtout si vous consultez ces outils sur votre smartphone pour vous informer. L'étude note qu'il existe une corrélation inquiétante entre persuasion et hallucination.

Les chercheurs ont en effet découvert que plus un modèle est entraîné pour être persuasif, plus il est susceptible de générer de fausses informations.

En clair, pour convaincre à tout prix, l'IA a tendance à inventer des faits ou à déformer la réalité. Cette tension fondamentale pose un risque majeur, car ces mécanismes pourraient être exploités par des acteurs malveillants pour manipuler l'opinion publique à grande échelle.

Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !

Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.