November 23rd, 2017

madscientist

Thought leader

Je pense qu'on a aujourd'hui le recul suffisant pour valider de façon définitive la loi d'Eroom. La loi d'Eroom, c'est la constatation empirique que la qualité du code informatique produit est divisée par deux tous les 2 ans. Naguère, un "programmeur", c'était un gentleman avec un aide-mémoire IBM qui dépassait de la poche de sa chemise, et qui tirait parti des spécificités de son processeur et de sa mémoire pour obtenir un résultat optimisé tournant parfaitement sur son matériel. Aujourd'hui, un "développeur", c'est un glandu qui implémente des blocs de merde les uns sur les autres en les ficelant avec des bouts de json malpropre et qui serait au chômage si StackOverflow tombait en rade. Du coup, la performance globale des applications diminue avec le temps, et ce n'est que l'augmentation de la puissance des machines qui fait qu'on ne s'en aperçoit pas.

La mauvaise nouvelle, c'est que les machines ont cessé d'aller plus vite.

Je sens qu'on va droit vers la singularité-vers-le-bas.