L’IA peut-elle postuler pour votre emploi?

On craint de plus en plus que l'intelligence artificielle ne mette un grand nombre de personnes au chômage. Ces craintes sont exagérées, affirme Carl Frey, universitaire d'Oxford

Image de gaming

Des scénaristes hollywoodiens aux chauffeurs de camion, l’intelligence artificielle inquiète de nombreuses professions. Alors que la technologie fait des progrès très rapides, les implications de l’IA générative pour notre travail, notre tissu social et le monde dans son ensemble suscitent de plus en plus d’inquiétude. Restera-t-il des tâches que les machines ne pourront pas faire? 

Cela fait dix ans que mes collaborateurs et moi-même explorons les ramifications de l’IA. Il y a dix ans, j’ai écrit un article avec Michael Osborne dans lequel nous estimions que près de 47% des emplois aux États-Unis pouvaient, en théorie, être automatisés, car l’IA et la robotique mobile élargissaient le spectre des tâches à portée des ordinateurs. 

Nous avions fondé nos prédictions sur la postulat que, quelles que soient les avancées technologiques disponibles, l’homme continuerait à dominer dans trois grands domaines: La créativité, les interactions sociales complexes et la gestion d’environnements non structurés, comme la maison. 

Pourtant, je dois admettre que des progrès significatifs ont été accomplis, même dans ces domaines. Les grands modèles de langage (LLM) tels que GPT-4 offrent désormais des réactions à l’écrit vraiment proches de celle d’un humain à un large éventail de demandes. À l’ère de l’IA générative, une machine n’aurait aucun problème à signer vos petits mots d’amour. 

Cependant, les domaines difficiles à automatiser que nous avons identifiés il y a dix ans restent pertinents aujourd’hui. Si, par exemple, GPT-4 écrit vos lettres d’amour, vos rendez-vous en face à face seront d’autant plus importants. L’idée cruciale est que, alors que les interactions sociales numériques deviennent de plus en plus indissociables des algorithmes, la valeur des interactions en personne, que les machines ne peuvent pas encore dupliquer, va monter en flèche. 

Par ailleurs, bien que l’IA puisse imiter la verve de Shakespeare dans une lettre, elle en est uniquement capable parce qu’elle puise dans les œuvres existantes de Shakespeare pour apprendre. En général, l’IA excelle dans des tâches définies par des données et des objectifs explicites, telles que l’optimisation des scores à un jeu ou la création de vers shakespearien. Pourtant, lorsqu’il s’agit de créer des contenus innovants au lieu de répéter des idées établies, où placer la barre? C’est souvent là que la créativité humaine entre en jeu. 

De plus, de nombreux emplois ne peuvent pas être automatisés, comme l’a suggéré notre article de 2013. L’IA générative – un sous-ensemble du vaste paysage de l’IA – n’est pas un outil d’automatisation à strictement parler. Elle nécessite une intervention humaine pour lancer le processus et pour peaufiner le résultat, comme contrôler les informations et retravailler le texte. 

Pour finir, la qualité du contenu de l’IA générative est à l’aune des données disponibles pour son apprentissage. Ici non plus, on ne fait toujours pas de l’or avec du plomb. Généralement, ces algorithmes s’appuient sur de vastes ensembles de données, qui ratissent souvent de vastes zones d’Internet, plutôt que sur des ensembles de données soigneusement sélectionnés par des experts. Ainsi, les LLM ont tendance à produire du texte qui reflète les contenus moyens ou les plus courants trouvés en ligne, plutôt que les contenus exceptionnels. Comme Michael et moi l’avons récemment évoqué dans un article paru dans The Economist, le principe est simple : Les données de qualité moyenne livrent des résultats moyens. 

cartographie de l’utilisation de l’AI

L’IA a besoin des humains

Qu’est-ce que cela signifie pour le marché de l’emploi à l’avenir? Pour commencer, la nouvelle vague d’IA nécessitera obligatoirement une surveillance humaine. Bizarrement, les personnes avec les compétences les moins spécialisées pourraient se trouver avantagées, car elles pourront désormais produire des contenus qui répondent à cette norme «moyenne». 

Une question primordiale, bien sûr, reste de savoir si les progrès futurs changeront bientôt cette situation, qui sait, en faisant même entrer l’automatisation dans les domaines créatifs et sociaux. Cela reste toutefois peu probable sans innovations significatives. Pour commencer, les données que les LLM ont déjà ingurgitées représentent vraisemblablement une part considérable d’Internet. Par conséquent, le doute plane à savoir si les données d’apprentissage pourront être suffisamment étoffées dans les années à venir. En outre, la prolifération de contenus de qualité moyenne générés par l’IA pourrait dégrader la qualité globale d’Internet qui deviendrait une source d’apprentissage moins fiable. 

De plus, bien que le monde de la tech table sur une croissance constante énoncée par la loi de Moore (la notion selon laquelle le nombre de transistors sur un circuit intégré double environ tous les deux ans), un consensus s’installe selon lequel ce rythme pourrait se stabiliser d’ici 2025 en raison de limites physiques fondamentales. 

Pour finir, on estime que la facture énergétique du développement de GPT-4 représentait une part considérable des 100 millions de dollars nécessaires à son apprentissage, et c’était encore avant la flambée des prix de l’énergie. Face à la problématique urgente du changement climatique, la question de la durabilité de telles pratiques est regardée de plus près. 

L’IA devra être capable d’apprendre à partir d’ensembles de données plus petits et gérés par des experts, en donnant la priorité à la qualité plutôt qu’à la quantité. Toutefois, ce n’est pas à première vue demain la veille. Une étape tangible consiste à promouvoir un environnement qui favorise l’innovation efficace en termes de données. 

Remontons le temps et changeons de perspective: À l’aube du 20e siècle, les véhicules électriques et le moteur thermique se livraient une lutte sans merci pour dominer le secteur automobile émergent. À l’origine, ils semblaient être au coude à coude, mais la prospection de vastes champs pétroliers a rapidement fait pencher la balance en faveur du moteur thermique. Si une taxe sur les produits pétroliers avait été instaurée à cette époque, l’évolution aurait pu favoriser les véhicules électriques, réduisant ainsi considérablement notre empreinte carbone. De même, la création d’une taxe sur les données pourrait stimuler les efforts visant à rationaliser les processus d’IA en termes de consommation de données. 

Comme je l’ai évoqué dans des écrits précédents, de nombreux emplois vont être automatisés. Pourtant, la faute n’en reviendra pas obligatoirement à la génération actuelle d’IA générative. Sauf découverte révolutionnaire, je prévois que les défis mis en évidence dans notre étude de 2013 persisteront, limitant l’étendue de l’automatisation pour les années à venir. 

Infos investissement

  • par Anjali Bastianpillai, senior client portfolio manager, thematic equities, Pictet Asset Management
  • Selon Bloomberg Intelligence, le marché de l’IA générative devrait atteindre 1 300 milliards de dollars au cours de la prochaine décennie, contre seulement 40 milliards de dollars en 2022. 
  • McKinsey a identifié 63 cas d’utilisation de l’IA générative dans 16 fonctions d’affaires qui pourraient générer entre 2 600 milliards et 4 400 milliards de dollars d’avantages économiques chaque année. 
  • La puissance de calcul nécessaire à l’IA augmente de manière exponentielle avec chaque nouvelle génération de systèmes. Le grand modèle de langage PaLM2 de Google, l’un des systèmes d’IA générative les plus récents, intègre 340 milliards de paramètres (des variables qui sont ajustées pendant la phase d’apprentissage pour établir comment les données entrantes sont transformées en résultats souhaités) et utilise un ensemble de données d’apprentissage de 2 700 milliards de points de données et nécessite 7,34 milliards de petaFLOP de puissance de calcul. Selon Our World in Data, en 2019, le principal moteur d’IA, OpenAI Five, utilisait 159 millions de paramètres, 454 milliards de points de données et 67 millions de petaFLOP.

À propos

Carl Frey

Dr Carl Frey est Oxford Martin Citi Fellow à l’Université d’Oxford où il dirige le cursus Future of Work à la Oxford Martin School. Son dernier livre, The Technology Trap, fait partie de la sélection des meilleurs livres de 2019 du Financial Times. 

Photo of Carl Frey

Pour en savoir plus