@mmu_man@aaribaud@pablopernot@thierrya le sujet était : est-ce que ça peut écrire du code qui fonctionne, la réponse est : oui. Ensuite, j'ai déjà fait écrire du code Javascript ou même threads quand j'avais la flemme de chercher dans la doc, du code "standalone" ou pour intégrer dans un framework, les 2 marchent. Donc du code que je n'aurais pas su écrire au débotté (au sens comprendre) mais que je sais relire.
@mmu_man@aaribaud@pablopernot@thierrya le sujet est classique, c'est comme un exercice scolaire, il est plus chronophage de faire un exercice que de corriger = lire si la solution est bonne quand on te la donne sur un plateau.
@mmu_man@aaribaud@pablopernot@thierrya après, bien évidemment, si ça atteint un certain niveau de complexité, ça peut aussi te générer des bugs aux limites = le truc va répondre à ta question directe mais va oublier les sujets à la marge... exemple typique, bugs type injection de code, parsing incorrect dans certains cas, débordements etc.
@aaribaud@pablopernot@mmu_man@thierrya je ne sais pas s'il y a une erreur d'argumentation mais de fait l'IA arrive à coder, donc la phrase devient "Je ne suis pas pour l'IA pour plein de raisons, mais elle arrive déjà à coder", donc ça ne sert à rien de contrer l'affirmation initiale, elle est déjà réalisée.
@aaribaud@pablopernot@mmu_man@thierrya elles y arrivent et j'en témoigne. Tu peux le nier tant que tu veux et refuser d'appeler ça du code même si tu le souhaites, ça ne changera rien aux faits :)
@aaribaud@pablopernot@mmu_man@thierrya elle y arrive, donc cette question est caduque. Du coup tu peux te demander comment elle y arrive, à la place, mais même ça : est-ce que tu as besoin de te demander comment, toi, tu écris du code qui fonctionne, pour pouvoir en écrire ?
@aaribaud@pablopernot@mmu_man@thierrya si si, elles arrivent déjà à générer du code qui fonctionne, et cela de manière répétable, ça je peux en témoigner. Alors c'est encore limité mais c'est bien du code qui fonctionne. Par exemple tu peux demander un "snake" en Python.
@bortzmeyer ah oui strictement rien à voir en fait :). chatgpt hallucine des API quand ça l'arrange, c'est marrant. J'ai déjà eu un cas de question ferroviaire complexe sur comment trouver une gare dans l'API IDFM et il m'a juste inventé un appel d'API totalement inexistant mais qui donnait magiquement la réponse en 1 coup 🤣
@pablopernot@mmu_man@thierrya ça fait 40 ans qu'on a ce genre de promesse tous les 10 ans. En fait le problème de fond est l'écriture de spécs précises. Et ce qui fait foi à la fin, c'est le code. D'expérience ça va plus vite dans pas mal de cas de coder soi-même un truc pointu que de chercher à expliquer la même chose en langage naturel à une machine et à boucler n fois en essai/erreur. Mais la machine peut aider.
@thierrya ça va devenir une plaie... au moins lorsque les gens se font faire des images, ils ne vont pas casser les pieds d'un graphiste pour valider ça après.
Bon, "L'IA va remplacer les programmeurs", en pratique à court terme ça va être plutôt "Je ne sais pas programmer et l'IA m'a écrit mon projet, toi qui es programmeur, peux-tu le faire marcher ? Ça te prendra 5 mn je pense, tout est prêt". C'est juste la version moderne de "Toi qui es un dieu de l'informatique, tu peux dépanner mon Windows ? Trois fois rien pour toi sûrement".
Joyeux Noël à tous sauf aux raclures "consultants en sécurité" qui gardent sous le coude des vulnérabilités d'email qu'ils découvrent en juin pour les laisser fuiter UN 24 DÉCEMBRE, obligeant DES DÉVELOPPEURS BÉNÉVOLES À ÉCRIRE ET PUBLIER DES CORRECTIONS PENDANT LA PAUSE DE NOËL, et les administrateurs de serveurs à corriger en urgence. CRÉTINS DÉBILES ET TOXIQUES.
Mise à jour par rapport à mes vidéos précédentes du printemps.
Petit essai en vidéo de #Openchat3.5, un nouveau modèle de #LLM libre utilisable avec #llama.cpp, et qui prétend être comparable à GPT 3.5 Turbo, l'avant-dernier modèle d'OpenAI.
La vidéo est aussi faite pour montrer ce que ça donne en rapidité sur un processeur "normal", sans usage du GPU.