in

La superintelligence, une menace pour l’humanité ? Un appel demande son interdiction

Plus de 700 scientifiques, entrepreneurs et personnalités publiques viennent de signer un appel retentissant pour stopper net la course à la superintelligence artificielle. Parmi eux, des figures comme Steve Wozniak, le cofondateur d’Apple, Geoffrey Hinton, prix Nobel de physique 2024, ou encore le prince Harry. Leur message ? Il faut freiner avant qu’il ne soit trop tard.

Quand les géants de la tech rêvent de dépasser l’humain

Vous avez sans doute remarqué que les patrons de Google, Microsoft ou OpenAI parlent régulièrement d’intelligence artificielle générale, cette fameuse AGI qui surpasserait l’humain dans presque toutes les tâches intellectuelles. Pour certains, c’est le Graal absolu. Pour d’autres, c’est carrément le début d’un cauchemar potentiel.

Ce mercredi 22 octobre, un texte signé par plus de 700 personnes issues d’horizons très variés a fait surface. Le message est direct et sans détour. Ces signataires reconnaissent d’abord les bénéfices possibles de l’IA pour la santé et la prospérité mondiale. Mais ils pointent aussi du doigt un problème de taille : de nombreuses entreprises leaders affichent ouvertement leur intention de créer une superintelligence d’ici une décennie.

Une technologie qui pourrait tout changer

On parle ici d’une machine capable de surpasser l’intelligence humaine dans pratiquement toutes les tâches cognitives. Pas juste pour jouer aux échecs ou générer du texte. Non, on parle de tout. La recherche scientifique, la stratégie militaire, la prise de décisions économiques complexes. Tout.

Le texte de l’appel soulève plusieurs inquiétudes majeures :

  • L’obsolescence économique des humains et la perte massive d’emplois
  • La disparition progressive de nos libertés civiles et de notre dignité
  • Des risques sérieux pour la sécurité nationale des États
  • Dans le pire des scénarios, l’extinction potentielle de l’humanité

Oui, vous avez bien lu. L’extinction. On pourrait croire à de la science-fiction, mais ce sont des prix Nobel et des experts mondialement reconnus qui signent ce texte.

Des signatures prestigieuses pour un appel historique

La liste des signataires donne le vertige. Geoffrey Hinton, souvent appelé le parrain de l’IA moderne et fraîchement nobélisé en physique, figure parmi les premiers noms. À ses côtés, on retrouve Stuart Russell, professeur d’informatique à Berkeley et auteur de référence sur l’IA, ainsi que Yoshua Bengio, professeur à l’université de Montréal et autre figure majeure du machine learning.

Mais ce qui rend cet appel particulièrement intéressant, c’est qu’il ne rassemble pas que des scientifiques. Steve Wozniak, le cofondateur d’Apple, a lui aussi apposé sa signature. Tout comme l’entrepreneur Richard Branson ou même le prince Harry. Cette diversité de profils montre bien que la question dépasse largement le cercle des laboratoires de recherche.

Que demandent-ils exactement ?

Leur revendication tient en une phrase claire : ils exigent l’interdiction pure et simple du développement de la superintelligence. Cette interdiction ne serait levée qu’après avoir obtenu deux choses. D’abord, un large consensus scientifique sur la sécurité et le contrôle de cette technologie. Ensuite, une forte adhésion du grand public.

Autrement dit, ils ne veulent pas qu’on avance à l’aveugle dans ce domaine. Ils souhaitent qu’on prenne le temps de comprendre ce qu’on fait, de mesurer les risques, et surtout de s’assurer qu’on puisse garder le contrôle sur ce qu’on crée. Ce qui, avouons-le, semble être le strict minimum quand on parle d’une technologie potentiellement capable de nous surpasser.

Une course effrénée difficile à stopper

Le problème, et les signataires en sont probablement conscients, c’est que demander un moratoire global sur la superintelligence ressemble un peu à demander à tous les pays du monde d’arrêter simultanément leurs programmes nucléaires. Théoriquement sensé, pratiquement impossible.

Les États-Unis, la Chine et l’Europe se livrent actuellement une compétition féroce dans le domaine de l’intelligence artificielle. Chacun sait que le premier à franchir certaines étapes technologiques obtiendra un avantage stratégique énorme. Dans ce contexte de guerre technologique, qui acceptera de ralentir pendant que les autres continuent ?

Un débat public qui s’intensifie

Malgré ces obstacles, l’appel a le mérite de lancer un vrai débat public. Pendant des années, la question de la superintelligence était confinée aux conférences universitaires et aux blogs spécialisés. Aujourd’hui, avec des signatures aussi médiatiques, le sujet arrive enfin sur la place publique.

Est-ce qu’on veut vraiment créer quelque chose qui pourrait nous dépasser ? Est-ce qu’on a les garde-fous nécessaires ? Qui décide des règles ? Ces questions ne concernent pas seulement les ingénieurs de la Silicon Valley. Elles nous concernent tous, parce que les conséquences toucheront l’ensemble de la société.

Personnellement, je trouve fascinant que des gens qui ont passé leur vie à développer ces technologies soient aujourd’hui les premiers à tirer la sonnette d’alarme. Quand Geoffrey Hinton lui-même exprime ses inquiétudes, ça vaut peut-être la peine d’écouter.

Et maintenant, que va-t-il se passer ?

Concrètement, cet appel ne changera probablement pas grand-chose du jour au lendemain. Aucun gouvernement ne va décréter demain matin l’interdiction de tous les programmes de recherche sur la superintelligence. Les entreprises qui investissent des milliards dans ces technologies ne vont pas abandonner leurs projets sur la base d’une pétition, aussi prestigieuse soit-elle.

Mais ce texte a une valeur symbolique forte. Il montre que la communauté scientifique est loin d’être unanime sur la direction que prend l’IA. Il prouve aussi que certains des plus grands experts mondiaux estiment que nous fonçons tête baissée vers quelque chose de potentiellement dangereux.

Le rôle des citoyens dans ce débat

Les signataires parlent de « forte adhésion du public ». C’est intéressant, parce que ça implique que nous, simples citoyens, avons notre mot à dire. La question n’est plus seulement technique. Elle est politique, éthique, philosophique. Quel monde voulons-nous pour nos enfants ? Sommes-nous prêts à créer des entités qui pourraient être plus intelligentes que nous ?

Le texte publié ce 22 octobre ne sera certainement pas le dernier mot sur le sujet. Mais il représente une étape importante dans la prise de conscience collective des enjeux liés à l’intelligence artificielle superintelligente. Reste à savoir si les décideurs politiques et économiques sauront l’entendre avant qu’il ne soit effectivement trop tard.

Pour l’instant, la course continue. Mais au moins, certaines voix s’élèvent pour rappeler qu’il existe peut-être des choses qu’on ne devrait pas faire, même si on en a techniquement la capacité.

Faut-il attendre l’iPhone 2027 ? Les rumeurs sur le modèle anniversaire annoncent une rupture historique

« Le monstre de Florence » : le true crime parfait pour Halloween