Vitalik Buterin, l’un des co-fondateurs et porte-parole de la deuxième plus grande plateforme blockchain Ethereum, a pris la parole sur son compte sur la plateforme de médias sociaux X pour partager son point de vue négatif sur l’état actuel des produits alimentés par l’intelligence artificielle et en particulier ChatGPT d’OpenAI.
Buterin a publié un article qui révèle son attitude plutôt négative à l’égard du produit phare d’OpenAI, ChatGPT, lorsqu’il s’agit d’écrire des textes et de donner des conseils en général. Ce tweet fait suite à un article de blog publié par Buterin en janvier, dans lequel il partage ses craintes concernant le lancement d’une IA superintelligente dans le futur.
Buterin a commenté une méthode d’écriture d’articles employant l’assistance de ChatGPT, lorsqu’un auteur rédige une liste de points à puces puis la passe à ChatGPT “ pour en faire un article approprié.” Dans ce cas, le cofondateur d’Ethereum estime que « il est souvent préférable de simplement donner les points à puces aux gens ».
Selon Vitalik, le chatbot d’IA développé par OpenAI ajoute beaucoup de « bruit wordcel », rendant un tel article très difficile à lire - « le lecteur doit faire des efforts pour extraire des informations utiles de ce qui ajoute plus de contexte utile.
Par ailleurs, il a partagé son avis général sur tout conseil lié à l’IA, affirmant qu’elle a une “espérance de vie d’environ 6 mois”.
Au tout début de janvier, Buterin a publié un tweet dans lequel il a appelé à une réduction considérable du calcul mondial afin de donner à l’humanité plusieurs années pour se préparer à la singularité. Pour cette raison, il estime que la puissance de calcul mondiale devrait être réduite de 99 %.
Cet objectif ambitieux pourrait être atteint en vérifiant les utilisateurs d’ordinateurs et en fournissant un enregistrement matériel. De plus, selon le co-fondateur d’Ethereum, le matériel informatique à grande échelle devrait être équipé de puces uniquement après que le périphérique est autorisé à fonctionner.
Limiter la puissance de calcul mondiale, selon Buterin, n’affecterait guère les développeurs du monde entier. Mais cela pourrait empêcher l’IA surpuissante de provoquer « une catastrophe ou un désavantage humain irréversible, si la technologie est construite de la mauvaise manière », selon un article de blog qu’il a écrit sur ce sujet. Si des signes indiquent qu’une IA surpuissante se rapproche, ces mesures susmentionnées la ralentiraient considérablement, explique Buterin.