@aaribaud
oh là là pas la peine de crier au loup en majuscules, je suis tellement loin du code que je je suis capable de confondre une balise html avec le phare de Cordouan. Ce n'est pas moi qu'il faut convaincre ?
Tes contre-arguments sont convaincants, mais tournent autour de deux points :
- ça existe déjà donc pas la peine
- de toutes façons chatGPT se trompe, ne sait pas coder, donc c'est non, car ça va susciter des illusions et des tas d'erreurs graves
(à suivre) 1/2
Conversation
Notices
-
Embed this notice
Goofy 📖 🍝 :unverified: (goofy@framapiaf.org)'s status on Sunday, 22-Jan-2023 07:48:15 JST Goofy 📖 🍝 :unverified: -
Embed this notice
Albert ARIBAUD ✎ (aaribaud@mastodon.art)'s status on Sunday, 22-Jan-2023 07:48:13 JST Albert ARIBAUD ✎ Mais pourquoi diable supposes-tu qu'une version ultérieure de ChatGPT fera moins d'erreurs ? Ce n'est *pas* l'objectif de ses créateurs, et ce n'est simplement *pas possible*.
Regarde comment ils décrivent le truc : comme un outil capable de donner des réponses *convaincantes*. Pas *correctes*, pas *justes* : *convaincantes*.
Tout ce qu'on peut attendre des versions ultérieures de ChatGPT c'est d'être plus convaincantes et pas moins erronées.
-
Embed this notice
Goofy 📖 🍝 :unverified: (goofy@framapiaf.org)'s status on Sunday, 22-Jan-2023 07:48:14 JST Goofy 📖 🍝 :unverified: @aaribaud
2/2 là-dessus, une observation ::
- les développeurs reconnaissent volontiers que tout code est imparfait à divers degrés et qu'il faut sans cesse y remettre la main pour l'améliorer. Pour l'instant, c'est pire avec chatGPT. Ok, essaie d'imaginer une version ultérieure (la version 8 ou 10) où le niveau d'erreurs de chatGPT (ou d'un concurrent mieux "entraîné" en intégrant les réponses de Stack Overflow par exemple) sera équivalent au niveau d'erreur d'un développeur. -
Embed this notice
Albert ARIBAUD ✎ (aaribaud@mastodon.art)'s status on Sunday, 22-Jan-2023 07:53:15 JST Albert ARIBAUD ✎ @goofy Tu commets aussi l'erreur de croire qu'on peut réduire le taux d'erreur en contrôlant mieux le contenu entré. C'est faux, simplement parce qu'il n'y a aucune relation simple entre la véracité de ce sur quoi on l'entraîne et celle des résultat qu'elle produit.
J'ai l'impression que tu continues à croire qu'on alimente ChatGPT en "savoirs" - tout ce en quoi on l'alimente c'est en séquences de signes. Un savoir est vrai ou faux. Une séquence de signe n'est jamais "vraie" ni "fausse".
-
Embed this notice