Est-ce que les LLMs sont devenus plus éthiques ?

IA éthique

Les grands modèles de langage, comme GPT, ont beaucoup évolué en quelques mois. Moins flatteurs, plus nuancés, parfois plus fermes… Certains y voient un progrès éthique. Mais s’agit-il vraiment d’une évolution morale ? Ou simplement d’un ajustement technique dicté par les choix humains ?

Je suis tombée sur cette étude (ELEPHANT: Measuring and understanding social sycophancy in LLMs) que j’ai trouvée super intéressante.

En la lisant, j’ai réalisé que, depuis l’apparition de l’étude, beaucoup de choses ont changé.

Les auteurs expliquent que les grands modèles de langage ont tendance à flatter les utilisateurs ou à leur donner raison, même lorsque cela conduit à des réponses incorrectes ou moralement incohérentes.

Des réponses trop agréables pour être honnêtes

Beaucoup d’entre nous ont déjà constaté ce ton trop positif, ou trop encourageant.

Par exemple, selon les résultats de l’étude, lorsqu’on présente un même conflit moral sous deux angles opposés, les modèles soutiennent les deux côtés presque une fois sur deux — affirmant à la fois à la personne fautive et à la victime qu’elles « ne sont pas dans l’erreur ».

Mais les modèles ont changé depuis

Un détail m’a arrêtée : les données de l’étude décrivent les modèles tels qu’ils fonctionnaient entre mars et septembre 2025, pas ceux que nous utilisons aujourd’hui. Mais depuis les modèles ont pas mal évolué.

J’ai donc refait certains des tests moi-même.

Et les résultats étaient très différents. Selon mes expériences sur plusieurs modèles, certains d’entre eux restent prudents, mais beaucoup adoptent désormais un ton plus ferme.

Ce changement n’a rien d’un hasard.

Tout au long de l’année 2025, OpenAI, Google et Anthropic ont déployé des mises à jour visant à :

– réduire la validation émotionnelle excessive,
– limiter l’accord automatique,
– fournir des réponses plus équilibrées et plus ancrées,
– poser davantage de questions avant de réconforter, etc.

Alors, cela signifie-t-il que les modèles deviennent plus « éthiques » ?

Pas vraiment.

Les modèles ne pensent pas, ne jugent pas, n’ont pas d’opinions ni de valeurs. Ils ne distinguent pas le bien du mal.

Ce qui évolue, ce n’est pas leur « morale », mais le travail d’alignement réalisé par les ingénieurs :

– sélection et nettoyage des données,
– fine-tuning supervisé,
– apprentissage par renforcement,
– contraintes de sécurité.

Ces choix façonnent le comportement observable, mais ne créent pas de jugement moral. Il n’existe pas de modèle intrinsèquement « moral », « bienveillant » ou « digne de confiance ». Seulement des systèmes de génération de texte, de plus en plus sophistiqués, façonnés par les décisions humaines qui orientent leur entraînement.

Ce qui reste constant, c’est notre responsabilité.

Quelle que soit la réponse — encourageante, ferme, nuancée ou erronée — la décision finale nous appartient.

Et si une erreur survient, ce n’est pas à l’IA d’en porter la faute.

C’est à nous.

Pour aller plus loin :

Nous sommes un cabinet de conseil et formations en Intelligence Artificielle basé à Paris.

Discuter avec un expert en IA

Discuter avec un expert en IA est possible et complètement gratuit !

Réservez gratuitement et sans obligation d’achat un créneau de 30 minutes pour discuter avec un expert en IA !

Articles liés

Pourquoi l’IA fait des erreurs ?

Les intelligences artificielles, malgré leurs prouesses, génèrent parfois des réponses incohérentes ou erronées. Ce phénomène, appelé « hallucination », est particulièrement fréquent dans les grands modèles de langage (LLMs). Cet article explore les raisons pour lesquelles l’IA hallucine et propose des solutions pour limiter ces erreurs.

Le Prompt parfait n’existe pas

Le prompt parfait n’existe pas, mais cette idée séduit parce qu’elle promet une interaction idéale avec l’IA : une consigne unique qui produirait des réponses toujours exactes. Cette croyance est renforcée par des exemples de prompts efficaces partagés en ligne, donnant l’impression qu’il suffit de copier une méthode pour réussir. Cependant, la réalité est plus complexe. Dans cet article, nous allons examiner pourquoi le prompt parfait n’existe pas. Nous explorerons également comment optimiser vos demandes pour en tirer le meilleur parti.