« Arrêtez d’apprendre à coder » : un simple effet d’annonce ou la prophétie qui bouleverse la tech ? Voilà une phrase qui, il y a peu, aurait valu à son auteur de se faire huer à n’importe quel apéro LinkedIn… et pourtant, la voilà sur toutes les lèvres depuis que Jensen Huang, le très médiatique PDG de NVIDIA, a choisi d’envoyer valser la sacro-sainte filière programmation. Mais pourquoi ce conseil fait-il tant débat ?
Le coup de tonnerre signé NVIDIA
Jensen Huang, à la tête de NVIDIA, empire des cartes graphiques et eldorado de l’intelligence artificielle, a récemment profité du haut-parleur mondial offert par le Sommet des gouvernements à Dubaï pour larguer une bombe : il a formellement déconseillé aux parents d’orienter leurs enfants vers l’apprentissage de la programmation. Oui, vous avez bien lu. Celui qui profite pleinement de l’explosion de l’IA et qui distribue ses GPU à tour de bras estime désormais que « savoir coder ne garantira plus un emploi » et que cette compétence sera bientôt rendue archaïque… par l’IA, évidemment.
Depuis dix à quinze ans, la doxa voulait que l’on mette impérativement ses marmots à coder. Pour Huang, c’est périmé. Il invite à porter l’attention sur des domaines comme la biologie, la chimie, ou la finance : bref, les savoirs « de terrain » qui pourraient, selon lui, prendre le relais de la bonne vieille informatique.
L’argument ultime : l’IA va-t-elle tuer le code ?
L’idée phare de Jensen Huang repose sur cette promesse : bientôt, tout le monde sera programmeur grâce à des IA capables de générer du code à la demande, en langage naturel. Il estime déjà que « n’importe qui dans le monde est un programmeur » et imagine qu’à terme, une simple phrase pourra donner naissance à un logiciel aussi perfectionné que ce qu’un humain compétent pouvait coder de A à Z.
Cette perspective s’inscrit dans la continuité de ce qu’il prophétisait déjà lors du Computex de l’an passé : la fin de la fameuse « fracture numérique » et l’avènement d’une informatique accessible à tous, l’IA jouant le même rôle de démocratisation que les interfaces graphiques jadis. En somme, la programmation deviendrait un outil universel, au point d’en rendre presque inutile l’apprentissage traditionnel du code. Audacieux, non ?
Des sceptiques (et pas des moindres) lui répondent
Évidemment, l’avis du PDG star ne fait pas l’unanimité. Patrick Moorhead, analyste chez Forbes, n’a pas manqué de réagir : « Depuis plus de 30 ans, j’entends dire que “XYZ va tuer le codage” et pourtant nous n’avons toujours pas assez de programmeurs. » Il cite une litanie d’innovations censées avoir signé l’arrêt de mort du développement, des compilateurs aux outils no-code, et n’y croit pas une seconde : l’IA, selon lui, ouvrira simplement la programmation à plus de monde, sans la tuer.
Des développeurs interrogés partagent partiellement ce scepticisme. Loin d’être menacés, ils utilisent eux-mêmes l’IA, mais uniquement sur des tâches bien précises. Pour l’instant, aucune solution ne semble capable de générer un programme complexe et fiable sans une participation humaine. Et puis, apprendre l’algorithmique, ce n’est pas seulement écrire du code, c’est aussi aiguiser sa logique… et ça, l’IA n’a pas encore breveté.
L’avenir du codage : disparition, métamorphose… ou simple évolution ?
Faut-il vraiment ranger Python et consorts au placard ? Quelques statistiques rassurent : aux États-Unis, la demande de développeurs a bondi depuis l’apparition de ChatGPT, tandis que la rédaction et la traduction sont les grandes perdantes (-33 % et -19 %). En 2024, mieux vaut donc encore maîtriser le C que le français pour décrocher un contrat.
La réalité est sûrement plus nuancée : certains redoutent le spectre d’une productivité qui détruit l’emploi, d’autres voient dans l’IA une fabrique à opportunités. D’ailleurs, rien n’indique que seuls les codeurs seront bouleversés ; l’administratif, la recherche médicale, et même les métiers littéraires pourraient eux aussi trinquer, le tout à une vitesse sans commune mesure avec la lente mécanisation de l’agriculture (pensée émue pour nos ancêtres paysans).
- Les développeurs devront surtout vérifier et coordonner ce que l’IA génère, rôle stratégique qui ne disparaîtra pas du jour au lendemain.
- Il faudra toujours (pour le moment du moins) des ingénieurs pour inventer la prochaine génération d’IA, surtout que les modèles actuels sont loin d’atteindre l’objectif ultime (l’Intelligence Artificielle Générale).
- Les soft skills et la culture généraliste dans les domaines d’application du code pourraient devenir aussi valorisées que la technique pure.
Pour conclure : Arrêter d’apprendre à coder ? Pas si vite ! L’IA changera la donne, c’est vrai, mais la capacité à comprendre, orchestrer et repérer ce que l’intelligence artificielle propose sera encore, pour longtemps, l’apanage de celles et ceux qui possèdent les bases solides du code. L’agilité et la curiosité demeureront les meilleures clefs d’un futur où, derrière chaque clic de souris, se cache autant d’humain que de machine. À vos claviers (ou à vos prompts), mais ne lâchez pas tout de suite le manuel de Python !