A propos de la Loi de Wirth, je me suis permis il y a quelques années pour faire comprendre les #bloatware, de la coupler à la Loi de Moore et d'en faire le "Loi de Quest" ;)
Le code écrit pour des machines d'il y a 20 ou 30 ans est d'une incroyable efficacité sur les machines d'aujourd'hui.
Il est temps de redécouvrir de qui est sous grep, sed, awk... et leurs compilateurs internes.
PS: mon Apple II boote en 2s avec une carte fash à la place d'un HDD Profile de 5Mo ;)
@nitot Il me semble que Wirth expliquait aussi avoir constaté que ses étudiants optimisaient de moins en moins leur code au fur et à mesure que les années passaient...
La notion de vitesse acceptable d'exécution faisait que l'on n'allait pas plus loin dans l'optimisation et comme les machines sont de plus en plus rapide, on atteint cette vitesse acceptable plus vite.
C'est avant l'ajout de fonctionnalité le principal problème à mon avis, couplé à une méconnaissance grandissante du matériel.
@nitot Rien à voir avec toi, mais je ne suis pas du tout d'accord avec sa citation :
> l’incapacité des utilisateurs à faire la différence entre les fonctionnalités essentielles et celles qui sont juste sympas.
À mon sens, c'est *aussi* une des causes majeures de l'échec du logiciel libre, de penser que les gens ne sont que purs produits rationnels à la recherche de la performance ou de la fonctionnalité pure, sans étude de l'expérience d'utilisation ou le plaisir esthétique.
@cquest@nitot un vieux soft DOS sur un CPU moderne tournera quelques dizaines de milliers de fois plus rapidement... est-on sûr que les nouveaux soft apportent tous la plus-value attendue ? 😜
@frg2m@cquest@nitot On pourrais avoir presque 0 couches que ça serait pareil, par example vu comment la plupart n'optimisent pas du tout les images, ce qui est pourtant le plus simple et efficace, et relativement facile à automatiser (oh non une couche ^^).