La Singularité technologique
Voir sur le site de l'éditeur
Réserver dans une librairie indépendante
La Singularité technologique
Intelligence artificielle, superintelligence et futur de l’humanité
«L'intelligence artificielle, menace apocalyptique ou ange gardien ?
Les systèmes d’intelligence artificielle vont-ils nous dépasser? Est-ce le modèle d’intelligence artificielle présent dans nos smartphones (assistant vocal de type Siri) ou celui de HAL (l’ordinateur de 2001, l’Odyssée de l’espace) vers lequel nous nous dirigeons?
Selon beaucoup de scientifiques, lorsque les intelligences artificielles (AI) dépasseront les capacités du cerveau humain, elles seront aussi capables de générer de nouvelles intelligences artificielles, encore plus efficaces, qui évolueront trop vite pour que le cerveau humain puisse l’appréhender. À partir de ce moment-là, le progrès technique ne serait plus que l'œuvre des machines. Une nouvelle organisation d’"êtres" artificiels prendrait le pas sur les humains. Ce moment, c’est celui de la "singularité", lorsque les humains sont dépassés par l’intelligence artificielle ou l’intelligence biologique augmentée par des implants.
De nombreuses sommités mondiales, comme l’astrophysicien Stephen Hawking ou Bill Gates, lancent une alerte et prédisent que si le domaine de l’IA continue à se développer à son rythme vertigineux actuel, la singularité pourrait survenir dans moins de vingt ans. Elon Musk (PayPal, Tesla) prévoit même l’anéantissement de l’humanité par les robots. D’autres annoncent que prochainement, dans les profondeurs du web, un système d’IA pourrait nous menacer en se cachant et en développant des programmes hostiles. Pour les transhumanistes, avec comme chef de file Ray Kurzweil, la singularité serait pour 2045, date de l’avénement des posthumains, et les découvertes scientifiques seront le fruit de forces et d’énergies non humaines ou posthumaines, issues de l’intelligence artificielle.
Proche ou encore lointaine, probable ou impossible, amorçant apocalypse ou utopie, quoi que l’on en dise, le principe même de la singularité soulève des questions philosophiques et pragmatiques qui nous obligent à réfléchir à l’avenir de notre espèce. Il est donc nécessaire de réfléchir à notre cohabitation avec des formes d’intelligence qui ne seront plus biologiques et d’établir des règles prudentielles à l’échelle mondiale.
Murray Shanahan propose une enquête fouillée et accessible sur la singularité. Dans cet ouvrage de vulgarisation, il décrit les progrès technologiques réalisés en intelligence artificielle et explique que la transition vers une super-intelligence artificielle pourrait être très rapide. Il démontre que la singularité présente à la fois une menace existentielle pour l’humanité, mais aussi une opportunité pour transcender les limites de l’humain, une chance de résoudre tous les grands problèmes auxquels l’humanité est confrontée. Shanahan explore les deux possibilités, tous les scénarii possibles et leurs conséquences afin que nous fassions les bons choix pour parvenir à la meilleure issue.»
[présentation de l'éditeur]
«L'intelligence artificielle, menace apocalyptique ou ange gardien ?
Les systèmes d’intelligence artificielle vont-ils nous dépasser? Est-ce le modèle d’intelligence artificielle présent dans nos smartphones (assistant vocal de type Siri) ou celui de HAL (l’ordinateur de 2001, l’Odyssée de l’espace) vers lequel nous nous dirigeons?
Selon beaucoup de scientifiques, lorsque les intelligences artificielles (AI) dépasseront les capacités du cerveau humain, elles seront aussi capables de générer de nouvelles intelligences artificielles, encore plus efficaces, qui évolueront trop vite pour que le cerveau humain puisse l’appréhender. À partir de ce moment-là, le progrès technique ne serait plus que l'œuvre des machines. Une nouvelle organisation d’"êtres" artificiels prendrait le pas sur les humains. Ce moment, c’est celui de la "singularité", lorsque les humains sont dépassés par l’intelligence artificielle ou l’intelligence biologique augmentée par des implants.
De nombreuses sommités mondiales, comme l’astrophysicien Stephen Hawking ou Bill Gates, lancent une alerte et prédisent que si le domaine de l’IA continue à se développer à son rythme vertigineux actuel, la singularité pourrait survenir dans moins de vingt ans. Elon Musk (PayPal, Tesla) prévoit même l’anéantissement de l’humanité par les robots. D’autres annoncent que prochainement, dans les profondeurs du web, un système d’IA pourrait nous menacer en se cachant et en développant des programmes hostiles. Pour les transhumanistes, avec comme chef de file Ray Kurzweil, la singularité serait pour 2045, date de l’avénement des posthumains, et les découvertes scientifiques seront le fruit de forces et d’énergies non humaines ou posthumaines, issues de l’intelligence artificielle.
Proche ou encore lointaine, probable ou impossible, amorçant apocalypse ou utopie, quoi que l’on en dise, le principe même de la singularité soulève des questions philosophiques et pragmatiques qui nous obligent à réfléchir à l’avenir de notre espèce. Il est donc nécessaire de réfléchir à notre cohabitation avec des formes d’intelligence qui ne seront plus biologiques et d’établir des règles prudentielles à l’échelle mondiale.
Murray Shanahan propose une enquête fouillée et accessible sur la singularité. Dans cet ouvrage de vulgarisation, il décrit les progrès technologiques réalisés en intelligence artificielle et explique que la transition vers une super-intelligence artificielle pourrait être très rapide. Il démontre que la singularité présente à la fois une menace existentielle pour l’humanité, mais aussi une opportunité pour transcender les limites de l’humain, une chance de résoudre tous les grands problèmes auxquels l’humanité est confrontée. Shanahan explore les deux possibilités, tous les scénarii possibles et leurs conséquences afin que nous fassions les bons choix pour parvenir à la meilleure issue.»
[présentation de l'éditeur]