Le calendrier pour l’intelligence artificielle générale (AGI) se resserre, et selon Dario Amodei, PDG d’Anthropic, la fenêtre pour que les décideurs politiques se préparent se ferme plus vite que ce que beaucoup réalisent. Lors d’un panel au Forum économique mondial à Davos, aux côtés de Demis Hassabis, PDG de Google DeepMind, Amodei a averti que l’évolution rapide de l’IA est prête à dépasser la résilience des marchés du travail et des institutions sociales. Amodei a réaffirmé sa prévision agressive selon laquelle une IA au niveau humain ne serait plus qu’une question de années, et non de décennies. « Je ne pense pas que cela va être si loin », a déclaré Amodei, en maintenant sa prédiction selon laquelle une capacité surhumaine pourrait arriver d’ici 2026 ou 2027. « Il m’est très difficile de voir comment cela pourrait prendre plus longtemps que cela. »
Le moteur derrière cette accélération est une boucle de rétroaction croissante où les modèles d’IA ont commencé à automatiser leur propre création. Amodei a noté qu’à Anthropic, le rôle traditionnel de l’ingénieur logiciel est déjà en train d’être redéfini par l’IA. « J’ai des ingénieurs chez Anthropic qui disent : ‘Je n’écris plus de code. Je laisse le modèle écrire le code, je l’édite,’ » a-t-il dit. « Nous pourrions être à six à douze mois du moment où le modèle fera la majorité, voire la totalité, de ce que font [les ingénieurs logiciels] de bout en bout. » Alors qu’Amodei voit les progrès s’accumuler rapidement—limités uniquement par l’approvisionnement en puces et les cycles de formation—Hassabis a proposé une perspective plus mesurée.
« Je pense qu’il y a eu des progrès remarquables, mais certains domaines de l’ingénierie, du codage ou des mathématiques sont plus faciles à automatiser, en partie parce qu’ils sont vérifiables—ce qu’est le résultat », a-t-il dit. « Certains domaines des sciences naturelles sont beaucoup plus difficiles. Vous ne saurez pas nécessairement si le composé chimique que vous avez construit, ou une prédiction sur la physique, est correcte. Vous devrez peut-être le tester expérimentalement, et cela prendra plus de temps. » Hassabis a déclaré que les systèmes d’IA actuels manquent encore de la capacité à générer des questions, théories ou hypothèses originales, même s’ils s’améliorent dans la résolution de problèmes bien définis. « Trouver la question en premier lieu, ou élaborer la théorie ou l’hypothèse, c’est beaucoup plus difficile », a déclaré Hassabis. « C’est le plus haut niveau de créativité scientifique, et il n’est pas certain que nous aurons ces systèmes. » Le chef de DeepMind maintient une « chance sur 50 % » d’atteindre l’AGI d’ici 2030, en évoquant un écart entre calcul à grande vitesse et véritable innovation. Malgré leurs calendriers divergents, les deux leaders ont abouti à un consensus sombre sur les retombées économiques, convenant que les emplois de col blanc sont en ligne de mire. Amodei a déjà estimé que jusqu’à la moitié des rôles professionnels débutants pourraient disparaître d’ici cinq ans, une opinion qu’il a réaffirmée à Davos. Un test de la préparation institutionnelle La principale préoccupation pour les deux dirigeants n’est pas seulement la technologie elle-même, mais la capacité des gouvernements du monde à suivre. Hassabis a averti que même les économistes les plus pessimistes pourraient sous-estimer la rapidité de la transition, en notant que « cinq à dix ans, ce n’est pas beaucoup de temps ». Pour Amodei, la situation est passée d’un défi technique à une « crise » existentielle de gouvernance.
« Cela se produit si vite et constitue une telle crise que nous devrions consacrer presque tout notre effort à réfléchir à comment traverser cela », a-t-il dit. Bien qu’il reste optimiste quant au fait que les risques—allant des frictions géopolitiques à l’usage individuel—sont gérables, il a averti que la fenêtre d’erreur est mince. « C’est un risque que, si nous travaillons ensemble, nous pouvons relever », a déclaré Amodei. « Mais si nous avançons si vite qu’il n’y a plus de garde-fous, alors je pense qu’il y a un risque que quelque chose tourne mal. » Certains analystes du travail soutiennent que la disruption pourrait se manifester moins par un remplacement direct des emplois et plus par une restructuration du travail professionnel lui-même. Bob Hutchins, PDG de Human Voice Media, a déclaré que le problème central n’est pas de savoir si l’IA remplacera les travailleurs, mais comment elle modifie la nature de leurs emplois. « Nous devons cesser de nous demander si l’IA remplacera nos emplois et commencer à nous demander comment elle les dégrade », a dit Hutchins. « Il n’y a pas de menace directe qu’une machine prenne complètement la place d’une personne dans un métier d’écrivain ou de programmeur. La menace, c’est que le travail est décomposé en tâches plus petites et géré par un algorithme. » Selon Hutchins, ce changement transforme les rôles humains de ‘Créateur’ en ‘Vérificateur’. « Cela enlève aux professionnels la capacité de prendre leurs propres décisions et décompose des emplois professionnels significatifs en emplois non qualifiés, à faible salaire, axés sur l’accomplissement de tâches individuelles », a-t-il dit. « Le travail ne disparaît pas, il devient moins évident, moins sécurisé, et beaucoup plus difficile à syndiquer », a-t-il ajouté.