11 mars 2020

Les effets de l’automatisation sur le travail s’invitent dans le débat public à chaque fois qu’une technologie se diffuse dans un large éventail de secteurs d’activité. La mécanisation, l’électricité, l’informatique ont, chacune, bouleversé et réinventé le travail et l’organisation sociale. L’intelligence artificielle sera-t-elle la nouvelle « technologie d’usage général », offrant autant de capacités nouvelles que de besoins inédits de protection ?

Cent-vingt millions de personnes. Presque deux fois la population de la France. C’est le nombre de personnes qui, pour garder un emploi, devront changer de métier ou se former à nouveau dans les trois prochaines années, selon un tout récent rapport de l’Institute for Business Value d’IBM, analysant le futur du travail dans les 12 économies les plus avancées.

Ce qui promet de faire monter la vague des reconversions ? L’intelligence artificielle, va, selon les auteurs, modifier en profondeur la nature et la distribution de très nombreux emplois. Les métiers les plus automatisables étant, sans grande surprise, ceux qui se concentrent sur une activité physique routinière, exécutée dans un environnement contrôlé et prévisible, ainsi que ceux consistant à récolter et traiter des données.

Le rapport d’IBM est loin d’être le premier à faire l’annonce d’une société du travail bouleversée par l’automatisation croissante des emplois. Les projections sont souvent controversées, très approximatives (certaines annoncent 10 % d’automatisation, d'autres 50 %), mais elles vont toutes dans le même sens. Citons ainsi l’une des estimations du cabinet McKinsey, dont le Global Institute envisageait, en novembre 2017, dans un de ses scénarios d’adoption des technologies de l’IA, que 375 millions de travailleurs dans le monde devraient « changer de métier pour éviter l’obsolescence » d’ici 2030. Le même cabinet, un an plus tard, estimait, sur la foi du passé, que les reconversions imposées par l’automatisation pourraient compenser la destruction des emplois « obsolètes »… et même en créer davantage. Aux États-Unis, la diffusion de l’informatique, entre 1980 et 2015, aurait ainsi créé plus de 19 millions d’emplois, pour 3,5 millions disparus. L’IA va-t-elle, à nouveau, donner raison à l’économiste Joseph Schumpeter qui, dès les années 1930, soulignait le caractère paradoxal de l’innovation, cette force de « destruction créatrice », qui fait disparaître les pratiques anciennes pour en faire advenir de nouvelles ? Et si tel est le cas, faut-il alors accélérer le mouvement ?

L’automatisation, ça n’est pas automatique

Pas si vite ! L’intérêt de la diffusion massive de l’automatisation intelligente n’est pas … automatique. La faisabilité technique est, bien sûr, un prérequis. Mais confier tout ou partie d’un poste à une IA suppose aussi que l’investissement en développement et déploiement soit compensé par les gains de productivité ou de qualité.

Cela suppose surtout de voir loin. A tout le moins, le transfert de l’activité de l’humain à la machine a de fortes chances de modifier l’organisation du travail, la formation des nouveaux recrutés, la gestion de l’expertise dans l’entreprise… Matt Beane, chercheur associé à l’Institute for Digital Economy du MIT, a ainsi montré qu’automatiser des emplois peu qualifiés, souvent occupés en première expérience, peut ruiner, pour les jeunes travailleurs, les opportunités d’apprentissage, de contacts et de formation. Un phénomène qui vaudrait aussi, selon le chercheur, pour certains métiers à haute qualification – ainsi de la jeune chirurgienne qui ne pourrait s’exercer si un robot assure l’essentiel des interventions.

Admettons que l’IA se révèle authentiquement utile, efficace, sans risque d’effet indésirable sur le secteur dans lequel elle s’insère. Faut-il l’accueillir ? Il semblerait que les salariés y soient prêts. Oracle et Future Workplace ont mené une enquête auprès de plus de 8000 cadres et employés, dans 10 pays. Parmi les résultats, publiés en octobre 2019 : 53 % des personnes interrogées se disent optimistes quant à la possibilité d’avoir un collègue robot; 64 % font davantage confiance à une IA qu’à leur manager. Mais attention, ces ouvertures faites à l’IA ne se font pas les yeux fermés. Parmi les répondants, près des 3/4 (71%) reconnaissent que les enjeux de sécurité les font hésiter à envisager un monde du travail partagé entre IA et humains.

Nouvelles compétences

Si l’IA peut trouver grâce aux yeux salariés, serait-ce qu’elle peut vraiment transformer le travail pour le meilleur ? Possible, répondent les économistes. Mais pas sans accompagner les développements de la technologie. La plupart des exercices de prospective menés dans les pays développés s’accordent à prôner un système d’assurances chômages solide coordonné avec une offre de formation réinventée, offrant la capacité à chacun, à chaque étape de sa vie professionnelle, de s’appuyer sur les technologies pour ne jamais cesser d’apprendre et faire évoluer ses compétences. On retrouve ici la « flexicurité », cet équilibre entre protection et aptitude au changement dont les pays scandinaves seraient passés maîtres. « Investir et innover pour doter les travailleurs de nouvelles compétences est urgent, c’est une réponse indispensable aux défis que doit relever le marché du travail sous l’effet des vagues successives d’automatisation », insistent les experts de la « task force » du MIT sur le travail du futur dans leur dernier rapport.

Dans la pratique, un nombre croissant d'entreprises utilisent des programmes de “re-skilling” ou “up-skilling” pour adapter les compétences de leurs employés à leurs postes, comme avec le programme «Skill'Up» piloté par BNP Paribas Cardif et son partenaire de formation Général Assembly, avec déjà plus de 600 collaborateurs formés et acculturés principalement en Europe, mais aussi en Asie et en Amérique latine. Le NPS (Net Promotor Score) moyen mesuré pour ces 600 employés est supérieur à +60.

Citons également le cas emblématique d’Amazon qui, en juillet 2019, a annoncé investir 700 millions de dollars pour former un tiers de ses employés (soit 100 000 personnes environ). Au cœur de ce programme de formation : la science des données, la création de solutions et l’ingénierie en sécurité. Cela suffira-t-il à offrir à ces dizaines de milliers de salariés une assurance « anti-disruption » ? « Le tableau des effets quantitatifs de l’automatisation associés à l’IA est contrasté », prévient le sociologue Yann Ferguson, dans un article récent. Il relève ainsi que pour l’Office parlementaire d’évaluation des choix scientifiques et technologiques, « ce sont les convictions personnelles qui l’emportent lorsqu’il s’agit d’apprécier globalement l’incidence future de l’intelligence artificielle sur le marché du travail », des convictions que le sociologue estiment « organisées autour du vieux clivage entre « techno-optimistes » et « techno-pessimistes » ». Et les modalités de protection contre les aléas du travail induits par l’IA restent à préciser. Comment qualifier la responsabilité, lorsqu’un patient réagira mal à un traitement administré par un médecin qui aura suivi la recommandation d’un « assistant » virtuel ? Qui faut-il blâmer lorsqu’un système de recrutement automatisé privilégie certains profils : les auteurs du programme, l’entreprise qui l’utilise, les data scientists qui ont sélectionné les données ? Les juristes se sont saisis de ces questions – mais il est encore trop tôt pour que se dégagent des cadres de réponse stables et largement partagés.

Au-delà des responsabilités nouvelles des travailleurs, quid de leur bien-être et de leur sécurité ? A mesure que les IA se chargeront d’apparier profils et emplois, à un rythme toujours plus rapide, la « gig economy » va-t-elle surchauffer, comme l’esquisse avec brio la fiction audio « Dreamstation » ? Faudra-t-il prévoir des assurances « anti burn-out » pour les employés, dont les droits se déclencheraient au-delà d’un seuil de jobs accumulés dans l’année ? Les salariés comme les indépendants auront-ils besoin de protéger leur réputation, leur voix ou encore les traits mêmes de leur visage, pour garder la maîtrise de leurs traces en ligne, pistées par les IA des recruteurs ?

De leurs côtés, les recruteurs auront-ils besoin de produits d’assurance les protégeant des risques d’usurpation de profils et autres faux certificats ? Le fait que certaines universités prestigieuses proposent d’ores et déjà d’enregistrer leurs diplômes sur une blockchain pourrait en être un indice…

Algorithmes recherchent responsables

Un futur où le modèle des plateformes irait s’accélérant, automatisant les rapports entre entreprises et travailleurs, n’est pas certain.Un futur où humains et machines travailleront ensemble l’intelligence humaine s’appuyant sur la puissance des algorithmes, les décisions des humains étant influencées par le comportement des machines, est, par contre, déjà en marche. Et la preuve est déjà faite que l’usage des IA peut être éminemment problématique : discrimination raciale (dans les procédures judiciaires aux Etats-Unis, notamment), mise en danger de personnes vulnérables (décès d’une cycliste percutée par une voiture autonome en Californie), surveillance généralisée (reconnaissance faciale dans les lieux publics).

Les bouleversements dont l’IA est porteuse, positifs et négatifs, dépassent l’enjeu assurantiel. Les cadres à adapter ou inventer touchent à l’organisation de la société et à ses choix éthiques. Ils sont au coeur de très nombreux travaux de recherche, visant notamment à établir des principes de conception d’IA auditables et explicables.Y a-t-il urgence ? En dépit de la fébrilité que peuvent induire l’annonce régulière de nouvelles performances de l’IA et l’intensité des investissements dans le secteur, cela n’est pas si sûr. Comme le rappellent l’économiste Philippe Askenazy et l’informaticien spécialiste du machine learning Francis Bach dans un récent article de la revue « Pouvoirs », les craintes d’impacts drastiques de l’automatisation sur l’emploi étaient les mêmes dans l’Amérique de la Guerre Froide. « La lecture du rapport de la National Commission on Technology, Automation and Economic Progress au président Lyndon Johnson, en 1966, est ainsi troublante. [...] Les auteurs, dont le pdg d’ IBM, James Watson, et le futur prix Nobel d’économie Robert Solow, s’inquiètent alors d’un monde où, au moins transitoirement, l’ampleur des destructions d’emplois par la technologie ne pourra être compensée par des créations ». Troublant ? « L’exercice d’anticipation des impacts sur le travail ou l’emploi est hautement spéculatif tant l’incertitude règne sur l’évolution de la technologie elle-même, son usage social ou industriel et les mécanismes indirects qui accompagnent chaque irruption d’une telle technologie », rappellent utilement les deux auteurs. Mais être humble face au futur n’interdit pas d’anticiper, bien au contraire. « Il est difficile de prédire dans quel monde nous vivrons d’ici cinq, dix ou vingt ans — technologiquement, politiquement, économiquement ou autre, reconnaissait déjà en 2017 DickKepthorne, le Président de la Fédération mondiale des compagnies d’assurance (GIFA), à l’occasion de la 9e conférence de l’organisation. [Mais] tout comme la profession de l'assurance se tient prête à réagir à toute disruption dans la vie de ses assurés, nous sommes également préparés à réagir aux disruptions dans notre secteur, [notamment via] le Disruptive Technology Working Group, groupe de travail sur les technologies disruptrices, [dont] l’objectif est de discuter avec les autorités comme avec les régulateurs, de l’impact des innovations et des disruptions du secteur de l’assurance sur les politiques publiques ».

Des risques inédits avec l’IA

Les technologies de l’IA sont porteuses de risques nouveaux… et nombreux. Le rapport « malicious use of AI » - publié par un consortium de chercheurs (issus notamment de l’université d’Oxford, de l’Electronic Frontier Foundation et de la plateforme Open AI) répertorie une vingtaine de scénarios de dévoiements de l’IA, allant du ciblage automatique des victimes d’arnaques (phishing, email spoofing…) à la prise de contrôle de véhicules autonomes, en passant par l’influence sur les rendez-vous électoraux via la diffusion massive de deepfakes, ces vidéos mettant en scène des individus sans qu’il soit nécessaire de les filmer – autorisant ainsi toutes les manipulations.

Ces risques sont nouveaux, car ils mettent en jeu des technologies informatiques aux capacités d’action inédites, qui confèrent aux données un pouvoir d’influence démultiplié sur le réel. Bien sûr, les entreprises en prennent peu à peu la mesure. La gestion des risques cyber évolue, intégrant peu à peu la complexité des technologies de l’IA dans l’organisation de la prévention, de la détection et de la réponse aux menaces.

Les risk managers, pour faire face aux attaques et incidents inédits que l’IA rend possibles, peuvent d’ores et déjà compter sur des offres d’assurance dédiées à la protection des données, sur des dispositifs de gestion de crise, etc. L’adaptation de la gestion du risque au nouveau monde qu’annonce l’IA va même jusqu’à rechercher le meilleur moyen d’éviter les risques de délits commerciaux (ententes, cartels…) que des IA trop zélées pourraient faire émerger à l’insu même de leurs propriétaires.

 

Présenté par Le Cardif Lab', en partenariat avec Usbek & Rica.