Le développement informatique : seul usage moral de l'IA ?

Le développement informatique : seul usage moral de l'IA ?

Vous avez probablement lu mes posts à charge contre l'IA mais s'il y a un domaine où la propriété intellectuelle est souple, et donc la réutilisation plus qu'admise, c'est bien le développement informatique.


Attention, le copyright existe toujours, mais la culture et les implications sont bien différentes d'une autre forme de créativité comme les arts graphiques par exemple.

Source : inconnue ! Le meme aussi correspond à cette culture d'une propriété globale

Alors on va se poser la question ici : est-ce moral d'utiliser des outils d'IA, plus précisément des LLMs pour développer ?

Je vais ici présenter des cas idéaux, par soucis de simplicité. Bien évidemment que la réalité est autrement plus complexe, que les enjeux sont bien plus grands que la petite partie que nous allons détailler dans ce post.

Si l'on considère le mème plus haut, et si on regarde en détail ce qui fait le monde technologique que nous utilisons tous les jours, il est assez facile d'admettre que "le code" est une denrée inépuisable (elle ne se tarit pas avec le nombre croissant de personnes qui l'utilisent) et que l'IA agit ici comme un multiplicateur de force sans précédent. Puisque le logiciel n'est pas soumis aux contraintes de la physique classique, l'utilisation des LLMs permet de briser le goulot d'étranglement de la syntaxe. On ne paie plus pour la frappe au kilomètre, mais pour la conception. En ce sens, l'usage de l'IA est moralement défendable car il démocratise la création technique : il permet à des esprits créatifs de s'affranchir des barrières d'entrée purement techniques pour se concentrer sur la résolution de problèmes concrets. Si l'on part du principe que le progrès technologique doit bénéficier au plus grand nombre, alors accélérer la production de solutions logicielles via l'automatisation n'est pas seulement un gain de productivité, c'est une optimisation du capital intellectuel humain.

Néanmoins, l'IA n'est pas anodine et source de la fontaine de jouvence de notre monde technologico-centré.

Cette dérive vers une automatisation aveugle nous mène directement à ce que l'on pourrait appeler l'atrophie de la pensée logique. Pour comprendre pourquoi le sujet est brûlant, il faut se pencher sur les mécanismes de transmission du savoir.

L'atrophie des compétences : la fin du "faire pour savoir"

Historiquement, on devenait un expert en se confrontant à l'erreur. C’est en passant trois heures sur une parenthèse manquante ou un dépassement de mémoire qu'on intégrait les structures profondes d'un langage. Avec l'IA, cette friction disparaît. On obtient le résultat sans le cheminement.

Le risque est de voir émerger une génération de "superviseurs de boîtes noires" : des développeurs capables d'assembler des modules complexes, mais incapables de réécrire un algorithme de tri ou de comprendre la gestion de la pile. En cas de panne système majeure où l'IA ne peut plus aider (par exemple, parce que le problème est inédit ou lié à une infrastructure physique), nous pourrions nous retrouver face à une paralysie totale par manque de main-d'œuvre qualifiée "au niveau du métal".

La dette technique fantôme

Le code généré par IA est par nature probabiliste, et non déterministe. Il produit ce qui ressemble à une solution. Cela introduit une dette technique d'un genre nouveau : elle est invisible. Là où un humain laisse des commentaires ou une structure qui reflète une intention, l'IA produit une suite d'instructions sans "pourquoi".

À court terme, le projet avance vite. À long terme, on se retrouve avec des millions de lignes de code que personne n'ose toucher, car personne ne les a réellement conçues. On crée des systèmes "hérités" (legacy) en quelques semaines seulement, là où il fallait autrefois des années pour atteindre un tel niveau de complexité indémêlable.

La consanguinité des modèles et l'effondrement de la diversité

Le concept de "boucle de rétroaction" est sans doute le plus inquiétant pour l'avenir de l'innovation. Les LLMs sont entraînés sur le Web. Si, d'ici deux ans, 80 % du code publié sur GitHub est généré par IA, les futurs modèles seront entraînés sur les erreurs et les biais des modèles précédents.

C'est une forme de consanguinité numérique :

  • Uniformisation : Les modèles tendent vers la réponse la plus commune, éliminant les solutions marginales mais brillantes.
  • Amplification des erreurs : Une faille de sécurité subtile introduite par une IA peut être copiée et répliquée par une autre, devenant un standard de fait avant même d'être détectée.
  • Stagnation : L'IA n'invente pas de nouveaux paradigmes de programmation ; elle optimise les anciens. Sans apport humain radical, nous pourrions rester bloqués dans les architectures logicielles des années 2020 pour les cinq prochaines décennies.

Le pillage du "Common" créatif et le péage cognitif

Il faut revenir sur la dimension éthique du coût. En utilisant l'IA pour coder, nous acceptons de transformer un savoir autrefois public (Stack Overflow, documentations, dépôts open source) en un service par abonnement.

C'est un transfert de valeur massif : les géants de la tech ont aspiré gratuitement le travail bénévole de millions de développeurs pour le revendre sous forme de jetons de calcul. Ce mécanisme décourage la contribution directe à l'open source. Pourquoi s'embêter à aider un inconnu sur un forum si c'est pour que vos réponses servent à alimenter un modèle payant qui, à terme, pourrait rendre votre propre emploi obsolète ?

Cette rupture du contrat social entre les développeurs et la communauté menace l'existence même des piliers comme l'exemple que je donnais avec FFMPEG, mais qui n'est malheureusement pas le seul.

Si la source originelle s'assèche (parce que les contributeurs se sentent dépossédés ou croulent sous les pull-request absurdes), c'est tout l'édifice technologique mondial qui reposera désormais sur du sable.

Le "Human-in-the-loop" et la responsabilité de l'expert

Pour ne pas sombrer dans un pessimisme technologique total, il est crucial d'esquisser des pistes de sortie. La solution ne réside probablement pas dans le rejet de l'outil, mais dans une redéfinition radicale de notre relation avec lui.

L'une des premières réponses est le renforcement du concept de Human-in-the-loop (l'humain dans la boucle). Il s'agit de traiter l'IA non pas comme un pilote, mais comme un copilote (Non, pas celui de chez Redmond) dont on vérifie systématiquement chaque commande. Cela implique de sanctuariser le rôle de l'expert : celui-ci doit consacrer le temps économisé par l'IA non pas à produire davantage de code, mais à effectuer une revue de code beaucoup plus stricte. La valeur d'un développeur ne doit plus être mesurée à sa vitesse de livraison, mais à sa capacité à garantir la robustesse et la compréhension du système final.

De nouvelles licences pour protéger l'open source

Face au pillage des communs, le droit d'auteur et les licences logicielles doivent évoluer. On voit émerger des réflexions sur des licences "AI-aware" qui interdiraient l'utilisation du code pour l'entraînement de modèles commerciaux sans une compensation ou un retour obligatoire à la communauté. Si une entreprise comme Google ou OpenAI souhaite utiliser les trésors d'ingénierie de FFMPEG pour muscler ses modèles, il est légitime d'exiger qu'elle finance en retour les mainteneurs ou qu'elle fournisse des ressources de calcul gratuites aux projets piliers de l'Internet.

La nécessité d'une "diététique numérique" des données

Pour éviter l'effondrement des modèles par consanguinité, les chercheurs commencent à travailler sur des techniques de filtrage drastiques. L'idée est de privilégier la qualité sur la quantité : entraîner les futures IA uniquement sur du code vérifié par des humains, des preuves formelles ou des projets de référence. En isolant le "bon code" de la masse de déchets vibe-codés en 1h et non relus, on peut espérer briser la boucle de stagnation et maintenir un niveau d'innovation élevé.

Vers une éducation à la déconstruction

Enfin, l'enseignement de l'informatique doit intégrer la déconstruction des suggestions de l'IA dès le premier jour. Apprendre à coder aujourd'hui, c'est apprendre à lire le code des autres, qu'ils soient humains ou algorithmiques. L'accent doit être mis sur l'esprit critique et l'architecture plutôt que sur la syntaxe que l'IA rend finalement assez simplifiée.


En somme, nous traversons une phase de transition brutale. L'IA nous offre un pouvoir de création démesuré, certes, se chargeant de la partie technique qui freinait les projets visionnaires des moins technophiles.

Mais elle nous déleste aussi peut-être trop brutalement de la nécessité d'une forme de maîtrise technique qui servait de garde-fou.

La moralité de cette nouvelle ère se jouera sur notre capacité à ne pas devenir simples spectateurs d'une technologie qui nous dépasse.

Il est du devoir alors de chacun de continuer à faire l'effort de comprendre ce que l'on crée, avant que nos créations ne nous échappent.