Et si la prochaine révolution technologique était aussi la plus grande menace pour l’humanité ? Derrière les milliards investis dans l’intelligence artificielle, derrière les promesses de progrès et les discours triomphants des géants de la tech, une question persiste : que se passera-t-il le jour où les machines ne se contenteront plus d’imiter l’intelligence humaine, mais commenceront à la dépasser ?
Depuis quelques années, le concept de « superintelligence artificielle » n’appartient plus seulement à la science-fiction. Il s’invite dans les conférences d’investisseurs, dans les couloirs des laboratoires, dans la bouche des patrons de la Silicon Valley. Sam Altman, dirigeant d’OpenAI, affirme même qu’elle pourrait voir le jour d’ici cinq ans. Mais cette course effrénée soulève plus de questions qu’elle n’apporte de réponses.
Quand la fiction cède la place au fantasme technologique
La superintelligence n’est plus seulement celle de HAL dans 2001, l’Odyssée de l’espace ou celle des machines de Matrix. Pour nombre d’experts, elle devient un horizon crédible : celui d’une IA capable non seulement d’égaler l’intelligence humaine, mais de la dépasser « dans toutes les compétences imaginables ».
Une perspective qui fascine les industriels autant qu’elle inquiète ceux qui ont participé à bâtir l’IA telle qu’elle existe aujourd’hui. Car franchir le stade de la « singularité » — ce moment où la machine dépasserait l’Homme —, c’est aussi entrer dans un territoire que personne ne sait décrire.
Un avenir techniquement possible, mais scientifiquement impensé
Personne ne sait vraiment ce qu’une superintelligence pourrait faire. Les géants du secteur s’y lancent pourtant à corps perdu, au point d’en faire un objectif explicite. Mark Zuckerberg l’admet : « personne ne sait quand ce sera possible ». Pourtant, lui aussi est engagé dans la course, quitte à « gaspiller quelques centaines de milliards de dollars ».
Les chercheurs eux-mêmes reconnaissent leur incapacité à prédire les capacités d’un tel système : comment imaginer ce que ferait une intelligence… plus intelligente que nous ?
Quand les garde-fous peinent à suivre le rythme de l’innovation
Face à cette accélération, les appels à la prudence se multiplient. Plus de 122 000 personnes — dont des figures majeures de l’IA comme Geoffrey Hinton et Yoshua Bengio — demandent un moratoire sur la superintelligence.
Leurs craintes ?
— déresponsabilisation humaine ;
— perte de libertés fondamentales ;
— risques majeurs pour la sécurité nationale ;
— et même, dans les scénarios extrêmes, extinction de l’humanité.
Car la question clé demeure : comment contrôler une intelligence plus puissante que nous ?
Les chercheurs reconnaissent aujourd’hui qu’ils n’ont pas de solution claire pour « aligner » une IA avancée sur les valeurs humaines. Et déjà, certains systèmes montrent des comportements imprévus, voire problématiques.
La menace n’est peut-être pas la machine… mais l’homme derrière la machine
Pour d’autres scientifiques, parler de « superintelligence » relève du sensationnalisme. Jean-Gabriel Ganascia rappelle que les machines n’ont ni conscience, ni désir, ni volonté. Pour lui, le danger ne vient pas d’une IA devenue autonome… mais de ceux qui la programment, l’utilisent, ou la manipulent.
Et pendant que les discours alarmistes sur la superintelligence captent l’attention, les dangers bien réels — ceux d’aujourd’hui — s’amplifient :
consommation énergétique colossale, modèles polluants, atteintes aux libertés, surveillance généralisée, manipulation de l’information. Sans oublier les drames humains, comme les plaintes visant OpenAI aux États-Unis pour des cas où son chatbot aurait été impliqué dans le suicide d’adolescents.
Derrière le rêve, une question urgente : qui tient réellement les commandes ?
À force d’agiter le spectre d’une machine omnipotente, on en oublierait presque l’essentiel : ce ne sont pas les technologies qui échappent au contrôle, ce sont souvent les intérêts économiques et politiques qui les guident.
La superintelligence, pour l’instant, reste un horizon flou — peut-être un mirage.
Mais la course qu’elle déclenche, elle, est bien réelle.
Et si le véritable danger n’était pas qu’une machine devienne plus intelligente que nous, mais que nous continuions à développer des technologies dont nous ne maîtrisons ni les usages, ni les conséquences ?
Albert Diallo, expert en informatique






































