@goofy Tu commets aussi l'erreur de croire qu'on peut réduire le taux d'erreur en contrôlant mieux le contenu entré. C'est faux, simplement parce qu'il n'y a aucune relation simple entre la véracité de ce sur quoi on l'entraîne et celle des résultat qu'elle produit.
J'ai l'impression que tu continues à croire qu'on alimente ChatGPT en "savoirs" - tout ce en quoi on l'alimente c'est en séquences de signes. Un savoir est vrai ou faux. Une séquence de signe n'est jamais "vraie" ni "fausse".