top of page

Face à l'IA pour une intelligence humaine collective

La victoire d’AlphaGo, l’IA de Google, contre le champion de Go sud-coréen Lee Sedol a médiatiquement incarné un tournant dans l’histoire récente de l’Intelligence Artificielle. Après des décennies d’espoirs déçus et de lents progrès, les développements spectaculaires de la robotique, du Deep learning ou des voitures autonomes semblent indiquer que l’IA devient une réalité qui s’immisce partout. Des voix s’élèvent pour dénoncer la menace qu’une telle technologie fait peser non seulement sur l’emploi y compris qualifié, mais également sur la maîtrise de notre destin personnel et collectif, voir sur notre survie en tant qu’espèce.

En s’appuyant sur le travail remarquable réalisé par Olivier Ezratty sur son blog[1] et sur les principes de l’Antifragilité[2], cet article a pour objet de faire un état des lieux synthétique de l’avancée de l’IA, de comprendre les effets de court ou moyen terme qu’impliquent un tel développement technologique et les meilleurs moyens d’en tirer parti, dans une logique Antifragile.



Les trois phases de développement de l’IA

L’Intelligence Artificielle recouvre des approches et des concepts très différents. L’évolution des connaissances et la réorganisation du marché n’a pas encore permis une unification des principes qui concourent à l’IA. Nous sommes dans la phase foisonnante de l’émergence des possibles, ce qui à la fois nous protège de la menace de perte générale de contrôle mais empêche également une vision cohérente de l’ensemble des risques potentiels.


On peut synthétiser le développement de l’IA en trois étapes :


L’Artificial Narrow Intelligence (ANI) correspond à des solutions d’IA spécialisées par domaine d’activités et utilisant des capacités élevées de traitement et de stockage d’informations associées à des moteurs de règles complexes. Les meilleures solutions IA du marché sont actuellement à ce stade.

Ce sont généralement des solutions machines learning basées non plus sur un ensemble de règles définies à l’avance dans des entrepôts de données éventuellement gigantesques, mais sur un (lent) auto apprentissage fondé sur des analyses statistiques corrélant des résultats à des données d’entrées.

L’Artificial General Intelligence (AGI) correspondra à la généralisation des domaines traités par le système intelligent et à l’association de capacités poussées de réflexion et d’analyse de l’environnement (langage, vision, capacité d’apprentissage, souvenirs et expériences, analyse associative et symbolique, etc.).

Certaines de ces capacités d’analyse sont en cours de développement[3].

L’Artificial Super Intelligence (ASI) constituera l’étape ultime où les fonctionnalités de l’AGI se démultiplient par la force de la mise en réseau de l’ensemble des informations et la montée de la puissance de traitement des machines.


Menaces et potentialités

L’arrivée d’un tel système ASI pourrait constituer un point de singularité sans retour pour l’humanité. En effet, la capacité de traitement intelligent de la machine serait alors telle que l’humanité pourrait n’avoir aucune chance de comprendre et d’anticiper l’action d’une telle entité. Cela demeure à ce jour encore largement de la science-fiction mais son émergence d’ici cinquante ans est tout à fait possible compte tenu de la dynamique enclenchée.

De nombreux récits mettent en garde l’humanité contre l’émergence d’une telle super intelligence, au mieux bienveillante à notre égard, mais dont la logique et la capacité d’actions seraient hors de portée de notre compréhension et de notre capacité de contrôle.

Très peu proposent des moyens concrets d’en limiter les effets. La série télévisée Person of Interest a mis en évidence les implications d’une telle ASI et les précautions qui devraient être prises pour maîtriser ses effets sur les destins individuels et collectifs. Elle pose la question fondamentale des limites de capacités à fixer à la machine, non plus sous la forme de lois morales comme chez Asimov[4], principes qui peuvent être interprétés par elle pour finalement en renverser la finalité, mais de contraintes physiques et procédurales dures, limitant la puissance et la portée de l’intelligence.


Bien en deçà de cette question métaphysique qui interroge la capacité de l’humanité à conserver son statut d’espèce dominante, les dirigeants politiques et industriels commencent à réfléchir aux conséquences des techniques IA actuelles, non seulement sur l’emploi, mais également sur nos modes de vie, sur l’indépendance de nos décisions influencées par des flux d’informations générés par des algorithmes plus manipulateurs qu’« intelligents » et sur la transparence de décisions « assistées » par de tels systèmes pré cognitifs.

Nous allons montrer ci-dessous que la généralisation de solutions IA même moyennement « intelligentes » engendrera d’autres problèmes, malheureusement peu souvent évoqués.

Si nous conservons l’organisation sociale actuelle comme cadre de référence, il sera difficile d’éviter les conséquences des « disruptions » promises par l’émergence de l’IA. Dans le cas contraire, une rénovation intelligente de nos contrats sociaux nous permettrait de profiter largement de cette explosion des possibles. Il suffirait que l’intelligence collective humaine fasse preuve du même dynamisme que son pendant artificiel.

L’IA et l’emploi

Le parlement britannique a publié le 12 octobre un très intéressant rapport sur la robotique et l’intelligence artificielle, explorant à la fois les risques et les opportunités associées à ces technologies[5].

La première partie concerne les effets sur l’emploi et sans surprise les deux thèses habituelles se trouvent exposées, celle d’un tsunami destructeur d’emplois et celle de la recomposition de celui-ci par la magie de l’effet de destruction créatrice chère à Schumpeter. Sans trancher formellement entre ces deux possibles, les rapporteurs font preuve d’un franc optimisme.

Les technologies présentées en appui de cette hypothèse favorable ne sont qu’une version finalement peu intelligente de l’IA, s’appuyant sur la « force brute » que lui donne sa capacité rapide de traitement d’hypothèses sur un vaste ensemble de données.

“Drawing on the example of applying AI to the medical sciences, Professor Stephen Muggleton

highlighted how, with “large amounts of data from genome projects and testing, [...] machines [were] able to go through millions of hypotheses and select the best out of a large space and then present it to scientists”. This approach, he explained, did not replace scientists but it could amplify “what they can do, much in the same way as a telescope amplifies what astronomers could do”.

J’ai déjà présenté dans l’article « S’adapter à la révolution numérique dans une économie déflationniste », les conséquences sur l’emploi de l’économie numérique. L’IA, comme l’économie numérique, transformera la nature du travail salarié en en réduisant très fortement le volume.

La dimension « pessimiste » de ce scénario ne tient qu’à notre vision conservatrice de la société. Il faut cesser de réfléchir avec un mode d’organisation qui fut celui de l’industrie ou des services post industriels. L’IA ne détruira pas le potentiel d’activité humaine même si elle portera sans doute atteinte au volume d’emplois. L’opposition entre travail et activité[6] pourrait encore s’accroitre et c’est cette distinction fondamentale qui devra être au cœur de la rénovation sociale dans une société qui augmentera encore sa capacité de production de la valeur.

L’IA et l’impact sur les ressources énergétiques

Lors de ces victoires homériques contre le champion de GO, Alphago a consommé 20 000 fois plus d'énergie que le cerveau humain dans le même exercice (440 KW contre 20W). Une généralisation de solutions aussi énergivores va rapidement poser problème. En effet, la consommation électrique d'internet représente déjà 2% de la puissance électrique mondiale et son volume double tous les 4 ans. Certes, l’efficacité énergétique des solutions s’améliore mais pas au rythme de la croissance possible de la consommation sous une hypothèse de généralisation rapide de ces solutions. De plus, Olivier Ezratty a montré sur son blog que l’amélioration des matériels et des technologies était très loin de suivre la loi de Moore.

L’IA et la fragilité des sociétés

D’autres effets sont également tout aussi probables et dévastateurs pour des sociétés aussi interconnectées et globalisées que les nôtres.

Les solutions actuelles d’IA se caractérisent par leur capacité accrue de traitements ultrarapides d’informations avec application de règles analytiques répondant à une finalité précise. La généralisation de ces solutions d’ANI (qui ne risquent en rien de prendre le contrôle des sociétés humaines) accroît très fortement le volume d’informations, de diagnostics produits et avec lui celui des analystes (humains ou robots).

L’IA change également partiellement la nature de l’information produite. Elle devient pour partie non seulement générée par des traitements sans intervention humaine mais encore créée par un environnement virtuel sans rapport avec la réalité physique ou sociale de celui qui la reçoit. C’est le cas de la réalité virtuelle qui promet d’être un des nouveaux champs de développement de l’IA.

Or cette génération d’informations « hors sol» ne sera pas sans effet sur les représentations collectives et donc sur les ordres imaginaires auxquels implicitement chacun adhère[7]. Il s’agit d’une menace importante et sans aucun doute mal évaluée sur la cohésion sociale.


Mais ce n’est pas la seule. Les entreprises, les organisations et plus largement les sociétés humaines et les sous-systèmes qui les composent sont de plus en plus dépendants et sensibles à l’information. Dans le monde libéral globalisé, la fragilité des sociétés s’accroît avec le volume des informations produites. Et par voie de conséquence, les coûts nécessaires à leur maintien en fonctionnement.

Dans le passé, les informations pouvant être récoltées étaient peu nombreuses et souvent locales. Leur traitement était simple. Elles nécessitaient peu de combinaisons et d'interprétations et leur coût de transport était très faible. Seul, un nombre très limité d'informations circulaient, dans des strates restreintes de la population. En conséquence, les sous-systèmes de la société vivaient sans qu'un afflux d'informations soit nécessaire à leur fonctionnement. Ils étaient robustes à l'information (mais pas Antifragiles pour autant). Les états les plus efficaces étaient ceux qui avaient mis au point un système de transport rapide de l'information prioritaire. Et ceci à un coût marginal très faible.

Dans notre monde moderne, nous avons tellement d'informations interconnectées, de variables corrélées que leur coût complet de traitement (serveurs, systèmes, logiciel de traitement et d'analyse, masse salariale, etc.) explose. Désormais, c’est l’ensemble de nos sous-systèmes de sociétés qui se trouve dépendant d’un flux permanent d’informations. Une tendance inattendue, un événement soudain, même localisé, une erreur d'interprétation ou de simulation et c'est le destin d'une entreprise (ou d’un sous-système) qui peut basculer.


Dans un excellent article[8], Martin Reeves du Boston Consulting Group illustre les conséquences de l’extraordinaire volatilité de l’environnement entrepreneurial. Un tel état de volatilité conduit les entreprises, par extension tout système collectif, à se focaliser sur le court terme et ses évolutions probables.

En étudiant le sort de plus de 35000 compagnies, les auteurs ont montré que leur espérance de vie, quel que soit le domaine d’exercice, s’est considérablement réduite depuis le milieu des années 80. De même, leur risque de mourir est plus élevé, à tout âge.

L’ «agilité » et les capacités d’adaptation tant prônées par les sociétés de consultance ne sont en général que des solutions de court terme proposées en réponse à l’état de stress généré par l’instabilité de l’environnement. Seule, une politique réellement Antifragile permettrait d’assurer la pérennité de ces entreprises. C’est la conclusion de Martin Reeves que nous allons reprendre dans la partie suivante.


Pour une approche Antifragile du développement de l’IA

Compte tenu de son état de développement, l’IA ne représente pas à ce stade une menace pour la survie de l’humanité. Il convient toutefois de se préparer à l’arrivée de l’ASI et de la singularité qu’elle engendrerait.

Et pour cela, il convient d’apporter une réponse Antifragile au développement des applications actuelles qui engendrent d’ores et déjà des facteurs supplémentaires de fragilisation de nos sociétés.

Dans une situation aux implications sous ou mal estimées et profondément imprévisibles, les risques deviennent cumulatifs au fur et à mesure des réactions unilatérales. Nicholas Taleb[9] a montré que dans ces conditions, il est essentiel de revenir à des stratégies ou des tactiques qui réduisent l’exposition aux risques, en adoptant une position dite Antifragile, qui permet de bénéficier au contraire des effets des situations imprévues.


Un système est dit Antifragile s’il répond aux conditions suivantes :

  1. Un système cohérant et innovant : capable d’évoluer, d’intégrer de nouveaux facteurs, de nouvelles tendances, sans porter atteinte à la cohésion globale. C’est le principe de pérennité évolutive.

  2. des sous-systèmes autonomes, diversifiés, en redondance. Ceci afin d’avoir au pire un sous-système qui bénéficie des événements imprévus.

  3. Les sous-systèmes devenus obsolètes ou présentant une exposition critique à un risque certain ou engendrant une valeur négative pour d’autres sous-systèmes ou pour le système dans son ensemble doivent disparaître (ou ne pas naître) : c’est le principe de prudence.

  4. la volatilité, raisonnable, apporte de l’information et donc de la valeur. C’est le principe de diversité.


Les systèmes biologiques sont d’excellents exemples d’Antifragilité. Par contre, il est évident que nos sociétés actuelles sont profondément fragiles. De nombreux sous-systèmes ne survivent que par de fortes injections d’argent générées par l’endettement, une dette sur le futur. Pire, comme nous l’avons montré dans le conflit des ordres imaginaires, de plus en plus de sous-systèmes ne partagent plus la même finalité générale. Transposez au système immunitaire d’un humain, chacun comprendra que l’espérance de vie de l’individu en question en serait profondément réduite.


Comment appliquer ces principes d’Antifragilité au développement de l’IA ?


Nous allons commencer par le troisième principe. Compte tenu de leur important pouvoir d’influence, les générateurs d’informations et d’influence que sont les algorithmes intelligents devraient être audités, non seulement lors de leur déploiement mais plus encore tout au long de leur vie compte tenu de leur capacité d’évolution propre. Ce contrôle doit être officiel et dépendre d’une institution indépendante du créateur ou du principal utilisateur. Cet audit doit être conduit afin de mesurer les impacts potentiels de l’IA sur la fragilité des sociétés. Il s’agit d’une application du principe de prudence consistant non pas à éliminer les évolutions entraînant des effets inconnus mais à éviter de s’exposer sciemment à un risque identifié et délétère. Tout IA conduisant à une fragilisation accrue de sous-systèmes clés de la société devra être désactivée et remplacée.

Dans la série Person of Interest, le concepteur de l’IA détruit 43 fois sa machine avant sa mise en service, les tests pratiqués sur ces prototypes l’ayant conduit à constater l’impossibilité de contrôler sa puissance. Ce n’est qu’une fois celle-ci réellement maîtrisée que sa mise en œuvre est effectuée. Il s’agit d’une véritable ASI mais limitée dans sa capacité d’expression et ses champs d’actions afin d’assurer que l’humanité puisse en contrôler l’utilisation et les effets. C’est une voie très Antifragile, qui ne garantit pas complétement les excès de l'IA mais permet d’en limiter l’ampleur.


Le premier principe Antifragile nécessite la cohérence des actions. Tous les développements technologiques, aussi variés que possibles, doivent concourir à une même finalité positive pour la société humaine. Aujourd’hui, au-delà des annonces publicitaires, cette dimension n’est pas prise en compte, seule la plus-value directe sur le marché visé compte. Il convient de définir précisément cette finalité qui ne se résume pas à un ensemble d’indicateurs (taux de croissance, de chômage etc.), ni à l’ajustement des compétences des membres de la société aux besoins des entreprises.


Nous sommes ici face à la difficulté majeure du principe d’Antifragilité. Sa mise en œuvre nécessite un niveau de coordination globale permettant d’auditer des actions au vu non seulement de leurs effets directs mais plus encore de leurs effets externes sur les autres composantes de la société et sur la pérennité générale. Mais ce niveau de coordination doit rester très souple. Un système Antifragile est par définition un système déconcentré, comprenant peu de règles fixes et sans centralisation de la décision. En effet, un organe centralisateur, vu comme vital pour la survie d’un système, rend l’ensemble très fragile du fait de la rigidité des processus qu'il implique.

Cette nécessité de déconcentration est renforcée par le quatrième principe, celui de la diversité. Comme nous l’avions montré dans la crise identitaire, il convient de ne pas confondre la diversité avec l’essor des particularismes. Le particularisme réduit les capacités d’échanges entre les acteurs et les systèmes et conduit à une perte de sens collectif. C’est un principe profondément fragile. La diversité entraîne au contraire l’exploration des possibles dans un même ensemble de représentations collectives (les ordres imaginaires) et conduit à son évolution naturelle.

Chaque développement technologique doit permettre de soutenir la permanence évolutive des sociétés, en renforçant leur cohésion (celle des ordres imaginaires associés) et leur capacité d’évolution. Les audits évoqués précédemment permettront de s’assurer que les solutions proposées ne mettent pas en danger l’intégrité des sociétés. Par contre, il sera sans doute nécessaire de renforcer la capacité d’évolution cohérente de nos organisations et modes de vie.

Pour cela, il sera absolument nécessaire de modifier profondément les signaux éducatifs transmis par la société. Il faut valoriser à côté de la maîtrise des sujets techniques émergents, les enseignements et les méthodes qui permettent de développer la compréhension profonde des sociétés et de leur évolution ainsi que la créativité.


Les arts, l’histoire, la sociologie etc., sont des savoirs aussi fondamentaux que la maitrise des techniques de l’économie numérique, du deep learning ou des réseaux neuronaux.

La société bénéficiera enfin pleinement des avancées technologiques de l’IA, si chacun de ses membres prend conscience des caractéristiques de la société dans laquelle il vit, de son évolution et des effets de la technologie sur celle-ci.

Une vraie rénovation du contrat social est nécessaire, articulé autour d’un contrat de citoyenneté. La société doit inciter à l’activité créatrice, tout en préservant la cohérence et la capacité d’interactions entre tous. Pour cela, la relation activité – travail – revenu doit être revue dans une optique de favoriser (et de reconnaitre) l’activité créatrice de tous, quelle que soit la nature de cette activité.


C’est le défi que devraient relever nos hommes politiques pour bâtir le contrat social du futur. Il est tout aussi important et exaltant que de favoriser l’émergence d’une intelligence nouvelle.

Références et notes

[1] http://www.oezratty.net/wordpress/2016/avancees-intelligence-artificielle-1/

[2] Cf. mon article « la gestion intégrée du risque »

[3] http://www.silicon.fr/dnc-deepmind-rajoute-les-souvenirs-a-son-intelligence-artificielle-160092.html

[4] Avec notamment les fameuses trois lois de la robotique

[5] Robotics and artificial intelligence Fifth Report of Session 2016–17

[6] Cf. notamment mon article le travail contre l’activité.

[7] CF notamment mon article sur le conflit des ordres imaginaires.

[8] Die Another Day: What Leaders Can Do About the Shrinking Life Expectancy of Corporations. July 02 2015. BCG Perspectives

[9] Nicholas Taleb : Antifragile, les bienfaits du désordre, Les belles lettres




Posts à l'affiche
Posts récents
Recherche par tags
Pas encore de mots-clés.
Rendez vous sur ma page facebook pour échanger...
bottom of page