Deep Learning : beaucoup d’effets d’annonce pour peu d’innovation…

Le deep learning, associé au machine learning et à l’énorme réservoir de Big data a permis de donner naissance à l'Intelligence Artificielle. Un ensemble de technologies très prometteuses si l’on en croit la presse qui ne jure que par elles et leurs applications à tout-va dans nos vies, nos maisons, nos smartphones, nos objets connectés… Mais on ne vous parle que de ce qui marche !

Article en italien de la journaliste Giuditta MOSCA "Deep learning: ancora troppo fumo e poco arrosto, ma si parla solo di quello che funziona", paru le 27  décembre 2018 sur le site Businessinsider.it et traduit par Eric PICHELINGAT avec l'aimable autorisation de l'auteur. 

Trop de battage médiatique autour du deep learning

Commençons donc par expliquer ce qu'est un « hype » et ce qu'est le deep learning. Par« hype » comprenez la rumeur faite sur une personne ou sur un fait, cette voix insistante et puissante qui projette son sujet en tête de l'actualité et des opinions positives. Souvent, cependant, c’est un feu de paille, une mode passagère qui diminue au fur et à mesure que les résultats contredisent les attentes.

tesla car in the space - hype

hype

Le deep learning - apprentissage en profondeur - crée des modèles d'apprentissage à partir des notions qui lui sont transmises par des algorithmes, qu’il organise de de manière pyramidale, ce qui lui permet d'apprendre des concepts plus complexes à partir des plus simples.

Bien qu’il soit correct de dire que le deep learning a fait des pas de géant, il convient d’avoir un regard critique sur la renommée qui lui est faite à travers le battage médiatique dans la presse généraliste et les stratégies de communication déployées par les chercheurs. Tous ces efforts visent à montrer au public seulement les succès obtenus, se concentrant rarement sur les perspectives et les attentes de croissance.

Deux éléments ont contribué à une nette accélération du deep learning : la technologie de plus en plus performante et la facilité avec laquelle on peut trouver des données et des informations (Big data). Classées en entrées et sorties, ces data fournissent ainsi des réponses ciblées au problème posé au deep learning.

Le deep learning est proche de l’âge de la retraite

En 1958, il y a 60 ans, le psychologue Frank Rosenblatt présentait le perceptron, un réseau de neurones contrôlé par un ordinateur de l'époque. Un événement qui exalta les journalistes, certains qu’il suffirait de quelques années pour que les ordinateurs soient capables de parler et d’avoir leur propre conscience. L’objectif de Rosenblatt était d’avoir une machine capable de réduire les erreurs, objectif répété pendant plus d’un quart de siècle avec des fortunes diverses. Le deep learning n'est pas tout jeune et traverse un de ses moments d'or, mais penser qu'il est capable de tout faire est un leurre.

What's the "problème" ?

illustration intelligence artificielle - machine learning - deep learning

Le moment du deep learning associé au machine learning - apprentissage automatique - est propice parce qu’il contribue à cette construction communément appelée l’intelligence artificielle.

Ce sont des milliers de startups qui exploitent les études et les résultats pour s’imposer sur le marché, en ligne avec la prophétie facile de Kevin Kelly, l’écrivain culte aux multiples facettes des sciences digitales. Ce dernier soutenait en 2014 que pour fonder avec succès une entreprise, il suffisait de prendre un objet déjà existant et de le rendre intelligent.

Le fait est que les médias, surtout la presse généraliste, sont trop enclins à montrer ce que le deep learning est capable de faire, sans s’appesantir sur ce qu’il n’est pas encore en mesure de proposer.

Les réseaux de neurones convolutifs

ho-convolutional-neural-networks-see-the-world

Ce sont des réseaux artificiels inspirés du cortex visuel  animal qui organisent le champ de vision pour reconnaître les images et les vidéos. Une étude, dont les conclusions ont été rendues publiques en février 2018 et menée par les chercheurs Matthew Ricci, Junkyung Kim et Thomas Serre, affirme que :

les limites de ces réseaux sont très strictes. Les algorithmes ne sont pas en mesure d'établir des relations entre les images et, confrontés à des problèmes apparemment insolubles, ils entraînent la rupture des réseaux de convolution sur lesquels ils “tournent”.

Il s’agit d’un problème très complexe dont la représentation peut échapper aux lecteurs moins habitués au sujet. Pour donner un exemple (seulement en partie), nous pouvons dire que les systèmes de reconnaissance d’image que nous utilisons déjà, tels que ceux proposés par Google, peuvent archiver les photos que nous prenons avec nos appareils mobiles en fonction de certains paramètres, tels que les personnes ou lieux que nous immortalisons. Mais c'est tout ce qu’ils sont en mesure de faire. Si nous allons au Parc Olympique Lyonnais pour voir le derby, les photos que nous prendrons seront organisées dans répertoire “Parc Olympique Lyonnais” mais Google ne saura pas dire que sur le terrain il y avait Lyon et Saint-Etienne.

reseau de neurones convolutifs - http://penseeartificielle.fr

Vision d’ordinateur

Pour faire en sorte que les voitures à conduite autonome remplissent vraiment nos rues, la vision par ordinateur doit être fiable. Dans ce cas, même en simplifiant grossièrement le concept, deux environnements particuliers entrent en jeu, celui de la détection d’objet et celui de leur classification et de leur localisation. Ces deux environnements, bien accouplés,contribuent à créer une cartographie simultanée qui permet aux voitures à conduite autonome de circuler en toute sécurité sur les routes. Pourtant, en 2016, un système de conduite assistée n’a pas reconnu la carrosserie d’un camion, de couleur trop claire pour être clairement mise en évidence et séparée du ciel, provoquant ainsi un accident mortel.

Le chercheur Zeeshan Zia, expert en vision par ordinateur et en machine learning (construction basée sur le travail effectué par le deep learning) maintenant utilisés par Microsoft, est convaincu que les techniques de cartographie en temps réel ne sont efficaces que dans des environnements statiques et beaucoup moins précises en environnements dynamiques. Autrement dit, le système de reconnaissance visuelle des voitures à conduite autonome est parfait seulement si elles ne bougent pas (ou très lentement). Selon Zeeshan, de grands progrès ont été réalisés ces dernières années, favorisant pour le moment le développement de viseurs pour la réalité augmentée et n’apportant que de petites améliorations à l’application robotique.

Réalité ou fiction ?

Il existe aussi des problèmes abstraits, car en réalité,

le deep learning n'existe que dans la mesure où l'homme alimente les réservoirs de données et, par conséquent, il hérite des imperfections de la pensée humaine.

Le deep learning ne s’interroge pas sur la qualité des données qui lui sont données à digérer et fonctionne en traitant des informations qui peuvent être mauvaises dès le début. Le deep learning fait partie intégrante du machine learning et constitue une partie minime de l'intelligence artificielle. Il est donc facile à comprendre qu'une erreur de marquage due au deep learning se répercutera sur toute la chaîne.

Pour le deep learning, la réalité vaut la fiction, il n’est pas capable de les distinguer, car il considère comme valide une donnée qu’il élabore plusieurs fois et moins valide une donnée à laquelle il est confronté rarement. Les statistiques obtenues peuvent donc être inexactes.

Reinforcement learning : apprendre par renforcement

Le terme reinforcement learning -apprentissage par renforcement- fait référence à une technique par laquelle les systèmes apprennent à s’adapter à l’environnement dans lequel ils se trouvent et réagissent aux changements de l’environnement lui-même. Une voie dans laquelle de nombreux chercheurs se lancent car elle s’adapte à beaucoup de domaines, de la conduite autonome au gaming.

Selon Alex Irpan, chercheur de renom de la Google Brain Team qui s'occupe du développement de l'intelligence artificielle, dans 70% des cas, le reinforcement learning ne fonctionne pas.

La route est encore très longue et les progrès sont de plus en plus significatifs. Mais ce futur qui semble imminent est encore vraiment très lointain.

Pour compléter cet article, je vous invite à lire l'interview très claire sur le sujet de Luc Julia, le père de Siri, l'intelligence artificielle de Apple et auteur du livre "L'intelligence artificielle n'existe pas"

couverture livre luc julia l'intelligence artificielle n'existe pas

“Le pouvoir hacke les esprits” par Yuval Noah HARARI

Nous ne sommes plus nous-mêmes. Ainsi les hackers du pouvoir détournent nos esprits. C’est la thèse choc de Yuval Noah HARARI, le prophète de "Sapiens : une brève histoire de l’humanité".

Article en italien de la traductrice Isabella ZANI "Chi ci crediamo di essere?", paru dans le supplément ROBINSON du journal La Repubblica du 13 janvier 2019. Traduit en français par Eric PICHELINGAT avec l'aimable autorisation de l'auteur, à partir du texte en italien et de la version originale en anglais de Yuval Noah HARARI.

Notre futur

Le pouvoir hacke les esprits, accuse Yuval Noah HARARI, l’auteur de « Sapiens » et « 21 leçons pour le XXIe siècle ». Qu’est-ce que cela veut dire ? Que les nouvelles technologies sont en train de mettre en pièces le vieux libre arbitre. « L’Inquisition et le KGB n’y sont jamais parvenus : ils n’en savaient pas assez en matière de biologie, de big data et d’ordinateur. Mais aujourd’hui le système d’exploitation humain est à risque ». Comment s’en sortir ?

Le mythe de la liberté

La démocratie libérale affronte aujourd’hui une double crise. L’attention est focalisée principalement sur le défi habituel que constituent les régimes autoritaires. Mais les récentes découvertes scientifiques et les nouveaux développements technologiques posent un défi bien plus profond à l’idéal libéral fondamental de liberté humaine. Pendant des siècles, le libéralisme a survécu à de nombreux démagogues et autocrates qui ont tenté d'étouffer la liberté humaine de l'extérieur. Cependant, le libéralisme n'avait qu'une expérience limitée des technologies susceptibles de corroder la liberté humaine de l'intérieur.

Pour appréhender ce nouveau défi, commençons par rappeler ce que veut dire libéralisme. Dans le langage politique occidental le terme « libéral » est souvent utilisé aujourd’hui dans un sens restreint et partisan, comme le contraire de « conservateur ». Pourtant, la plupart des soi-disant conservateurs adoptent également la vision du monde libérale au sens large. L'électeur typique de Trump aurait été considéré comme un libéral radical il y a un siècle. Faites l’essai. Pensez-vous que les gens devraient choisir leur gouvernement plutôt que d’obéir sans discuter à un roi ? Pensez-vous que chacun devrait choisir sa profession plutôt que d'être né dans une caste ? Pensez-vous que chacun devrait choisir son ou sa conjoint.e plutôt que d'épouser la personne indiquée par ses parents ? Si vous avez répondu oui aux trois demandes, félicitations, vous êtes un libéral.

Le libéralisme défend la liberté personnelle parce qu'il présuppose que les êtres humains sont des entités uniques, différentes de tous les autres animaux. Contrairement aux rats et au singes, l'Homo sapiens serait de par lui-même doté du libre arbitre. Ce qui fait des sentiments et des choix humains la plus haute autorité morale et politique du monde. Malheureusement, le libre arbitre n'est pas un fait établi scientifiquement : c'est un mythe que le libéralisme a hérité de la théologie chrétienne, laquelle a conçu l'idée du libre arbitre pour expliquer pourquoi Dieu a raison de punir les pêcheurs pour leurs mauvais choix et de récompenser les saints pour leurs bons choix. En effet si nous ne faisions pas nos choix librement, pourquoi Dieu devrait-il nous punir ou nous récompenser à cause d’eux ? Selon la théologie, Dieu a raison d’agir ainsi parce que nos choix reflètent le libre arbitre de notre âme éternelle, qui est délivrée de tout lien physique ou biologique.

Ce mythe a bien peu à voir avec ce que la science nous enseigne maintenant sur l'Homo sapiens et sur les autres animaux.

Oui, les êtres humains sont certainement dotés d'arbitre : mais il n’est pas libre. Je ne peux décider quels désirs avoir. Je ne décide pas d'être introverti ou extraverti, décontracté ou anxieux, gay ou hétéro.

Oui, les êtres humains accomplissent certainement des choix : seulement ce ne sont jamais des choix indépendants. N’importe quel choix dépend de causes biologiques ou sociales indépendantes de ma volonté. Je peux choisir ce que je mange, avec qui me marier et pour qui voter, mais ces choix sont un reflet de mon bagage génétique, de ma biochimie, de mon sexe, de mes antécédents familiaux, de ma culture nationale, etc. Autant de choses que je n’ai pas choisies.

Ce n’est pas une théorie abstraite, et vous pouvez vous en rendre compte très facilement par vous-même. Contentez-vous d’observer la prochaine pensée qui vous passe par la tête. D’où est-elle venue ? Avez-vous choisi librement de la penser ? Non évidemment. Si vous observez attentivement votre propre esprit, vous réalisez que vous exercez un contrôle minime sur ce qui se passe à l’intérieur et que vous ne choisissez pas librement ce que vous pensez, ce que vous ressentez et ce que vous voulez. Ne vous arrive-t-il jamais la veille d’une réunion importante, de ne pas arriver à vous endormir à cause d’un flux ininterrompu de pensées et de soucis ? Si vraiment il était possible de choisir librement ce que vous pensez, pourquoi ne parvenez-vous pas à cesser ce flot irritant de pensées pour simplement vous relaxer ?

Animaux hackables

Bien que le libre arbitre ait toujours été un mythe, il s’est démontré utile au cours des siècles précédents. Il a donné du courage à ceux qui devaient lutter contre l’Inquisition, contre le droit divin des souverains, contre le KGB et le Ku-Klux-Klan. Qui plus est, ce mythe ne coûtait rien ou presque. En 1776 ou en 1939, ce n’était pas si grave de croire que les sentiments et les choix de chacun étaient le produit d’une certaine « volonté spontanée » plutôt que de la biochimie et de la neurologie. En 1776 ou en 1939, personne ne comprenait très bien ce qu’est la biochimie et la neurologie. Mais...

... aujourd’hui, la croyance dans le “libre arbitre” représente un danger. Si les gouvernements et les entreprises réussissent à hacker le système d'exploitation humain, les personnes les plus faciles à manipuler seront celles qui croient au libre arbitre.

Pour hacker efficacement des humains, vous avez besoin de trois choses : une bonne maîtrise de la biologie, beaucoup de données et beaucoup de puissance de calcul. L'Inquisition et le KGB n'ont jamais été en mesure de pirater des êtres humains, car ils étaient privés des connaissances biologiques, des données et de la puissance de calcul nécessaires. Mais bientôt, les entreprises et les gouvernements pourraient disposer de ces trois éléments, et une fois qu’ils seront en mesure de vous hacker, ils pourront non seulement prédire vos choix, mais aussi manipuler vos sentiments.

Si vous croyez à l'histoire libérale traditionnelle, vous serez tenté simplement de rejeter ce défi.

«Non, cela n'arrivera jamais. Personne ne parviendra jamais à hacker l'esprit humain, car il y a quelque chose à l’intérieur de nous qui dépasse de loin les gènes, les neurones et les algorithmes. Personne ne pourrait prédire et manipuler à volonté mes choix, car ceux-ci reflètent mon libre arbitre ».

Malheureusement, rejeter le défi ne le fera pas disparaître. Cela vous rendra juste plus vulnérable. Une croyance naïve dans votre libre arbitre vous aveuglera. Lorsque vous choisissez quelque chose - un produit, une carrière, un.e conjoint.e, un.e politicien.e - vous vous dites intérieurement : "J'ai choisi cela de mon plein gré". Si c'est le cas, inutile d’aller chercher plus loin. Il n’y a aucune raison de s’interroger sur ce qui se passe à l’intérieur de vous et sur les forces qui ont réellement pesé dans votre choix.

Cela commence par des choses simples. Vous êtes en train de naviguer sur Internet, un titre capte votre attention : «Un gang d'immigrants viole des femmes de la région». Vous cliquez dessus. Au même moment, votre voisin surfe également sur Internet et un titre différent attire son regard : «Trump prépare une frappe nucléaire sur l'Iran». Il clique dessus. Les deux titres sont en fait des fake news - de fausses informations-, peut-être générées par des trolls russes, ou par un site web soucieux d’accroître son trafic pour augmenter ses revenus publicitaires. Votre voisin et vous-même avez le sentiment d’avoir cliqué sur ces titres de votre plein gré. Mais en fait, vous avez tous les deux été hackés.

La propagande et la manipulation ne datent pas d’hier, bien sûr. Mais tandis que dans le passé, elles fonctionnaient avec des tapis de bombes, aujourd’hui elles prennent la forme de missiles téléguidés de haute précision. Quand Hitler prononçait un discours à la radio, il visait le plus petit dénominateur commun, parce qu’il ne pouvait pas adapter son message aux faiblesses spécifiques de chaque cerveau. Maintenant, il devient possible de faire exactement le contraire. Un algorithme peut indiquer que vous avez déjà un parti pris contre les immigrants, alors que votre voisin déteste Trump, ce qui explique pourquoi vous voyez un titre alors qu’il en voit un tout autre. Ces dernières années, certains des esprits les plus brillants de la planète ont travaillé sur le piratage du cerveau humain afin de vous faire cliquer sur des annonces et de vous vendre des produits. Et...

... la meilleure façon de vous faire cliquer est d’appuyer sur les boutons d’activation de la peur, de la haine ou de la cupidité dans votre cerveau.

Maintenant, ces méthodes sont employées aussi pour vous vendre des politiciens et des idéologies. Et ce n'est que le début. À l'heure actuelle, les pirates informatiques s’appuient sur l’analyse des signaux externes : les produits que vous achetez, les lieux que vous visitez, les mots que vous recherchez en ligne. Cependant, d’ici quelques années, des capteurs biométriques pourraient donner aux pirates informatiques un accès direct à votre réalité interne et observer ce qui se passe dans votre cœur.

Pas le cœur métaphorique cher aux fantasmes libéraux, mais plutôt le muscle-pompe qui régule votre pression sanguine et une grande part de votre activité cérébrale. Les pirates pourraient alors corréler votre fréquence cardiaque avec les données de votre carte de crédit, et votre pression sanguine avec votre historique de recherche.

Qui sait ce qu’auraient fait l'Inquisition et le KGB avec des bracelets biométriques qui surveillent en permanence les humeurs et les préférences de chacun ? Malheureusement, nous risquons de le savoir bientôt.

Le libéralisme a développé un arsenal impressionnant d'arguments et d'institutions pour défendre les libertés individuelles contre les attaques externes de gouvernements oppressifs et de religions sectaires. Mais il n'est pas préparé à une situation où la liberté individuelle est subvertie de l'intérieur et où les concepts mêmes de “ liberté” et d’”individu” n'ont plus beaucoup de sens. Pour survivre et prospérer au XXIe siècle, nous devons laisser derrière nous la vision naïve de l’’être humain en tant qu'individu libre - une conception héritée de la théologie chrétienne autant que de l’illuminisme moderne - et accepter ce que les humains sont réellement : des animaux hackables. Nous avons besoin de mieux nous connaître.

Codes défectueux

Bien sûr, ce nouveau conseil n’a rien de nouveau. Depuis toujours, les sages et les saints exhortent chacun au «connais-toi toi-même». Excepté qu’à l’époque de Socrate, Bouddha et Confucius, vous n’aviez pas vraiment de concurrence. En négligeant de vous connaître vous-même, vous demeuriez une boîte noire pour le reste de l'humanité. Par contre aujourd’hui, la concurrence est rude. En lisant ces lignes, les gouvernements et les entreprises s’efforcent de vous pirater. S'ils apprennent à vous connaître mieux que vous-même, ils pourront alors vous vendre tout ce qu'ils veulent, que ce soit un produit ou un politicien.

Il est particulièrement important d’apprendre à connaître vos faiblesses. Ce sont les principaux outils de ceux qui essaient de vous hacker. Les ordinateurs sont piratés à l’aide de failles de programmation préexistantes. Les humains sont piratés par des peurs, des haines, des envie et des préjugés préexistants.

Les pirates ne peuvent pas créer de la peur ou de la haine à partir de rien. Mais quand ils découvrent ce que les gens craignent et détestent déjà, il est facile d’appuyer sur les boutons émotionnels correspondants et de provoquer une colère encore plus grande.

Si les gens ne font pas l’effort d’apprendre à se connaître par eux-mêmes, sans doute que la même technologie utilisée par les hackers informatiques peut être retournée et utilisée pour nous protéger.

Tout comme votre ordinateur est doté d'un antivirus pour surveiller les logiciels malveillants, nous avons peut-être besoin d'un antivirus pour le cerveau. D’une intelligence artificielle capables d’apprendre par expérience quels sont vos points faibles que ce soit les vidéos de chats marrants ou les histoires exaspérantes de Trump - et de les bloquer pour vous.

Mais tout cela n’est vraiment qu’un problème secondaire. Si les humains sont des animaux hackables, et si nos choix et nos opinions ne reflètent pas notre libre arbitre, à quoi devrait servir la politique? Pendant 300 ans, les idéaux libéraux ont inspiré un projet politique visant à donner à autant d'individus que possible la possibilité de poursuivre leurs rêves et de réaliser leurs désirs. Nous sommes maintenant plus près que jamais de réaliser cet objectif, mais nous sommes aussi plus proches que jamais de réaliser que c'est une illusion. Ce sont exactement les mêmes technologies que nous avons inventées pour aider les individus à réaliser leurs rêves qui rendent aussi possible de les reprogrammer. Alors, comment puis-je me fier à mes rêves ?

Cette découverte pourrait offrir aux humains un tout nouveau type de liberté. Jusqu’à présent, nous nous identifions très fortement avec nos désirs et nous recherchions la liberté de les réaliser. Chaque fois qu'une pensée nous venait à l’esprit, nous nous précipitions pour répondre à sa demande. Nous passions nos journées à dévaler comme des fous une montagne russe de pensées, de sentiments et de désirs, censés représenter -du moins le croyions-nous- notre libre arbitre. Que se passe-t-il si nous cessons de nous identifier avec cette montagne russe? Que se passe-t-il quand nous observons attentivement la prochaine pensée qui nous vient à l’esprit et que nous nous demandons «d’où vient-elle ?».

On s'imagine parfois qu’en renonçant à notre foi dans le «libre arbitre», nous deviendrons complètement apathiques et finirons par mourir de faim accroupi dans un coin. En fait, renoncer à cette illusion peut déclencher une profonde curiosité.

Tant que vous vous identifiez fortement aux pensées et aux désirs qui vous viennent à l’esprit, vous n’avez pas besoin de faire beaucoup d’efforts pour vous connaître vous-même. Vous pensez savoir déjà exactement qui vous êtes. Mais une fois que vous réalisez «hé, ces pensées ne sont pas les miennes mais seulement des vibrations biochimiques», alors vous réalisez aussi que vous n'avez aucune idée de qui ou de ce que vous êtes. Ce peut être le début du voyage de découverte le plus passionnant que tout être humain puisse entreprendre.

Philosophie pratique

Il n'y a rien de nouveau à douter du libre arbitre ou à explorer la vraie nature de l'humanité. Entre humains, nous en avons déjà parlé des milliers de fois. Mais nous n’avions jamais eu la technologie auparavant. Et la technologie change tout. Les vieux problèmes de philosophie sont en train de devenir des problèmes pratiques d'ingénierie et de politique. Et bien que les philosophes soient des gens très patients - ils peuvent discuter d’un sujet sans arriver à une conclusion pendant 3000 ans - les ingénieurs le sont beaucoup moins. Et les politiciens sont les moins patients de tous.

Comment faisons-nous fonctionner la démocratie libérale à une époque où les gouvernements et les entreprises peuvent hacker les humains ? Que reste-t-il de la croyance que "l’électeur est le meilleur juge" et que "le client a toujours raison" ?

Comment le vivez-vous quand vous réalisez que vous êtres un animal hackable, que votre cœur peut être un agent du gouvernement, que vos amygdales travaillent peut-être pour Poutine et que la prochaine pensée qui vous vient à l’esprit pourrait être non pas le produit de votre “libre arbitre”, mais d’un algorithme qui vous connaît mieux que vous ne vous connaissez vous-même ? Ce sont les questions les plus intéressantes auxquelles l'humanité doit faire face aujourd’hui.

Malheureusement, ce n’est pas le genre de questions que la plupart des humains se posent. Au lieu d'explorer ce qui nous attend au-delà de l'illusion du «libre arbitre», les gens partout dans le monde reviennent en arrière pour se réfugier dans des illusions encore plus anciennes. Au lieu de relever le défi de l'IA et de la bio-ingénierie, les gens s’agrippent à des fantasmes religieux et nationalistes qui, comparés au libéralisme,i sont encore moins en phase avec les réalités scientifiques de notre époque. Au lieu de nouveaux modèles politiques, ce qui est proposé sont des restes re-packagés du XXe siècle, voire du Moyen Âge.

Lorsque vous essayez de mettre en doute de tels fantasmes nostalgiques, vous vous retrouvez à débattre de sujets comme la véracité de la Bible et le caractère sacré de la nation (surtout si, comme moi, vous vivez dans un endroit comme Israël). En tant que chercheur, c’est une déception énorme. Discuter de la Bible était un sujet brûlant à l'époque de Voltaire et débattre des mérites du nationalisme était d’actualité en philosophie il y a un siècle. Mais en 2018, c’est une perte de temps terrible. L'intelligence artificielle et la bio-ingénierie sont sur le point de changer le cours de l'évolution elle-même, et nous ne disposons que de quelques décennies pour savoir quoi en faire. Je ne sais pas d’où viendront les réponses, mais elles ne viendront probablement pas d’histoires composées il y a deux mille ans par des gens qui en savaient peu sur la génétique et encore moins sur les ordinateurs.

Alors que faire? J’imagine que nous devons nous battre sur deux fronts simultanément. Nous devrions défendre la démocratie libérale non seulement parce qu’elle s’est révélée être une forme de gouvernement plus bénigne qu’aucune de ses alternatives, mais aussi parce qu’elle pose moins de limites au débat sur l’avenir de l’humanité. Dans le même temps, nous devons remettre en question les hypothèses traditionnelles du libéralisme et développer un nouveau projet politique plus en ligne avec les réalités scientifiques et les puissances technologiques du XXIe siècle.

“Comment j’ai fait gagner Trump avec les réseaux sociaux”

Alexander Nix Cambridge Analytica CA

D’après l’article de Riccardo Staglianò, paru dans IL VENERDI du journal Repubblica le 10 février 2017, traduit de l’italien au français par Eric Pichelingat, avec l’aimable autorisation de l’auteur.

Interview de Alexander Nix, Ceo de Cambridge Analytica, qui utilise des tests psychologiques et Big Data pour convaincre les électeurs. Aujourd’hui il travaille aussi pour les politiques italiens. Qui ? C’est un secret.

Londres. Il existe tant de façons de dire la même chose. Dans le cas d’un spot politique testé sur Facebook, plus de quatre mille. Nommez-les Variations Trump. Chaque fois le message était légèrement modifié, avec une cohérence qui s’alimentait des réactions du public. Si la version 15, par exemple était partagée trois fois plus que la 27, pourquoi perdre son temps avec la seconde ? Et ainsi de suite, en perfectionnant. Évidemment ce qui va bien pour l’un ne va pas pour l’autre.

Nouveau marketing politique : l’art d’adapter des messages différents en fonction de chaque cible

Prenons le second amendement, le droit de porter des armes, thème cher aux républicains américains. “Si on veut toucher le point sensible de l’électrice consciencieuse et névrosée, il conviendra de lui montrer l’image d’un cambriolage avec de nombreuses mains menaçantes qui cassent le verre et le slogan “En plus d’un droit, un pistolet et une assurance sur la vie” expliquait Alexander Nix, impeccable en complet noir, chemise couleur glacier et boutons de manchette d’argent, sur la scène du Concordia Summit de New York en septembre dernier.

“Si la cible est plutôt une personne traditionaliste, mais bien disposée envers son prochain, la photo du grand-père et du petit-fils à la chasse fonctionnera mieux, avec un claim (slogan) type “De père en fils, depuis la naissance de notre nation.”

exemples messages electoraux one to one - USA - 2016

À l’époque, l’administrateur délégué de Cambridge Analytica (CA) avait encore besoin de présentation et ne pouvait se vanter que d’un miracle mineur. Avoir extrait le bigot Texan Ted Cruz de la mêlée des 17 challengers républicains et l’avoir transformé, pendant un nombre discret de semaines, en l’unique challenger crédible du controversé milliardaire new-yorkais. Résultat obtenu, au prix de trois millions de dollars, en mêlant savamment analyses psychologiques, Big Data et messages digitaux personnalisés.

“Un autre candidat est en train d’employer notre méthode” avait-il révélé à l’assistance, sans dévoiler le nom : “Nous saurons d’ici sept mois comment les choses auront été.” On connaît la fin. Et l’homme de quarante-et-un ans assis devant moi, dans le bureau entièrement vitré à deux pas d’Oxford Circus, a enfin revendiqué le rôle central de son “approche révolutionnaire” dans la victoire du quarante-cinquième président des États-Unis. Le miracle majeur.

Un savant dosage d’analyses psychologiques, de Big Data et de messages digitaux personnalisés

 

Modèle prédictif électoral data science

Sur l’onde de l’enthousiasme, est-il en train de s’attribuer des mérites exorbitants ou s’agit-il vraiment de l’ingrédient magique ? L’hypothèse générale est ancienne, quasi delphique : “connais ton client”. Que tu veuilles vendre une savonnette ou un politique. Grâce à Internet, alors qu’hier il fallait imaginer à partir de peu d’indices, aujourd’hui il suffit de mettre ensemble les milliers de fiches digitales que chacun de nous laisse derrière lui, composant une mosaïque en hd.

Publicitairement parlant, nous sommes passés du tir dans le tas au tir ciblé avec un fusil de précision. Le point de force de CA et d’avoir ajouté un profilage psychologique de masse. “C’est ta vision du monde qui décide comment tu te comporteras, pas tant le fait que tu sois une femme ou que tu aies tel revenu” explique Nix, sans dissimuler son dégoût pour l’approximation du marketing d’antan.

La personnalité peut se déduire du comportement en ligne, surtout dans les réseaux sociaux. Pour ce faire, ses chercheurs utilisent un test standardisé sur la base de 5 facteurs qui mesurent la prévalence des traits d’ouverture, de la conscience, de l’extraversion, de l’agrément vers le prochain, ainsi que des tests neuro psychologiques qui forment l’acronyme OCEAN.

OCEAN The big five

Notre personnalité peut se déduire de notre comportement en ligne… à partir de 10 like

applymagicsauce-site du psychologue Kosinsky

“Nous avons commencé en proposant des tests sur les réseaux sociaux auxquels ont répondu des centaines de milliers de personnes. Mais malgré certaines reconstructions journalistiques, nous n’avons jamais pris de données de Facebook sans le consentement des utilisateurs”.

Ici entre en scène le polonais Michal Kosinski, pionnier de l’approche qui combine psychométrie et Big Data, d’abord à Cambridge et aujourd’hui à Stanford. Au terme d’une campagne massive de recueil d’informations sur les réseaux sociaux les plus prisés, après avoir développé un modèle mathématique qui individualisait les corrélations entre caractéristiques, il avait démontré être en mesure à partir de 10 like, de prédire certains comportements d’une personne mieux que ses collègues, avec 70, mieux que ses amis, avec 150, mieux que ses parents et avec 300, mieux que sa compagne.

A un certain point, Kosinski, comme l’a reconstruit l’organe de presse suisse Das magazin, fut approché par Alexandr Kogan, autre chercheur à Cambridge, pour le compte d’une entreprise disposée à payer à prix d’or l’accès à ce trésor de données. On découvre ensuite que c’est la Strategic Communication Laboratories (Scl), maison-mère de la CA, qui s’occupe de conseil électoral. Kosinski décline l’offre et il ne reste plus à Kogan qu’à engager des milliers de volontaires sur Mechanical Turk, la plateforme d’Amazon pour les micros travaux, afin qu’ils remplissent les questionnaires en échange d’une micro compensation.

plateforme amazon mechanical turks

Une banque de données sur 230 millions d’américains

Apparemment, car l’app utilisée pour les sondages permet d’obtenir non seulement le nom, le sexe, et l’activité des volontaires, mais aussi de ratisser les données de tous leurs amis (en moyenne 340 par tête). C’est ainsi que Kogan, pour le compte de la Scl (la société admet la collaboration, non le pillage des profils), aurait construit une énorme banque de données. Retournons à New Oxford Street.

Nix nie la reconstruction. Personne n’a rien volé du réseau de Zuckerberg. Ce qui est arrivé en fait, “dans le respect de tous, est la patiente construction sur une période de 3-4 ans d’une banque de données sophistiquée qui contient les résultats des sondages, les achats par carte de crédit et d’innombrables informations commerciales sur environ 230 millions d’américains, pour chacun desquels nous possédons aussi quatre-cinq mille données diverses”.

La Genèse change, pas le résultat. La personne devant moi connaît quatre-cinq mille petites choses sur le compte de chaque américain adulte.

Strategic Communication Laboratories SCL

Le lecteur astucieux peut réagir en haussant les épaules. Si on veut aller par là, Gmail lit nos email et Google connaît l’histoire de toutes nos recherches ! Mais la différence, jusqu’à preuve du contraire, c’est qu’il n’a pas utilisé ces informations pour nous vendre un candidat.

Toujours Nix : “Grâce à notre approche du microtargetting (micro ciblage), nous pouvons délivrer deux messages légèrement différents à l’intérieur de la même famille. Pensez à la publicité d’une automobile. Le mari sera sensible à la puissance du moteur et à l’accélération, l’épouse à la sécurité et à la capacité du coffre. Un spot traditionnel doit choisir un aspect, au risque de mécontenter la moitié de l’échantillon. Nous, au lieu de cela, nous pouvons faire deux spots”. Ou quatre mille.

C’est ce à quoi faisait allusion en 94 le futurologue George Gilder dans le prophétique La vie après la télévision avec le remplacement par les ordinateurs de la tv, coupable de “méconnaître la diversité luxuriante des utilisateurs”. Qui aujourd’hui peut être valorisée. À travers beaucoup de canaux : “Via le téléphone, en parlant avec le mari ou sa femme. Par email distinct. Mais aussi à travers la tv par câble, en montrant certains spots seulement à qui voit certains programmes ou vit dans une certaine zone du pays. Le tout, emphatisant le message qui sonne mieux”.

De la communication de masse au marketing one-to-one

Clinton et les noirs super predateurs en1996 et 2016

Ou même via dark post, des annonces Facebook visibles seulement aux destinataires présentant des caractéristiques spécifiques. Type rappeler la gaffe de Clinton sur les noirs “super prédateurs” exclusivement à un public noir.

C’est ce que sous-entend Nix, quand il assure que “mes enfants ne comprendront pas non plus la signification de mass média, selon laquelle un homme doit supporter un spot pour les soutien-gorges et une femme sur les rasoirs”. Ils recevront seulement et exclusivement des messages pertinents. N’est-ce pas un phénoménal pas en avant ?” Cela dépend. Près de lui, dans le conseil d’administration, siège Steve Bannon, ex-président du site de l’extrême droite complotiste Breitbart news et aujourd’hui principal consultant stratégique de Trump.

Des modèles mathématiques pour prévoir le comportement des électeurs

Alexander Nix lors du Concordia Summit 2016

Dans la pièce il y a aussi une femme de 27 ans aux cheveux châtains tombant sur les épaules et vêtue d’une belle robe noire. Après un diplôme en ingénierie à Oxford et un master en sociologie et data science à Chicago, Federica Nocera a travaillé comme analyste à la Bank of America avant d’arriver ici où elle développe des modèles mathématiques prédictifs, semblables à ceux-ci pour apprécier les futurs possibles ou évaluer le risque des crédits, capables d’individualiser des corrélations dans la mer d’informations que la CA détient sur l’électorat américain.

En simplifiant à l’extrême, si l’on découvre que les femmes des anciens combattants tendent à mettre like sur l’assassin d’un médecin pratiquant l’avortement, pour s’adresser à elles il sera opportun d’omettre que la fille de Trump s’est dite favorable à l’interruption volontaire de grossesse. Nocera, avec deux autres brillants italiens, faisait partie de l’équipe de 4 personnes que CA a détachée au quartier général texan de la campagne de Trump. Leur tâche était d’analyser les données, en se concentrant sur les 80 millions d’Américains des 17 états en balance (“Cela n’avait pas de sens de perdre du temps avec les autres”) pour suggérer aux activistes comment doser les messages.

Créer des”univers de persuasion”

Slogans de campagne presidentielle de Trump

Elle me fait deux exemples réels : “À un public de mères, aussi bien ménagères que femmes actives, d’âge inférieur à 55 ans, nous parlions de mesures de support aux familles (maternité payée, réductions fiscales) soutenues par Donald et Ivanka Trump.

À un public d’hommes au chômage, provenant de zones particulièrement touchées par la crise et les phénomènes de délocalisation industrielle, type Wisconsin et Michigan, le message aurait tourné autour des mesures de création de nouveaux emplois et de taxation sur les sociétés américaines qui exportent le travail à l’extérieur”.

À chacun selon ses propres besoins. Avec la différence, par rapport à l’utopie marxiste, que ces besoins deviennent du coup lisibles aux nouveaux quant de la politique. Nocera parle “d’univers de persuasion” pour se référer aux légions qui, en se basant sur les registres électoraux (pour ceux qui s’étaient inscrits aux élections dans le passé) et sur les comportements digitaux analysés par les modèles dont elle est passée maître, auraient pu choisir le milliardaire aux cheveux étranges. Celui qui à la fin a gagné.

Donald Trump Getty David Duke

Un gain estimé entre 2 et 5% d’électeurs en plus en faveur de Donald Trump 

Mais comment quantifier leur apport ? Nix met les mains en avant : “Evidemment les américains ont voté Trump parce qu’ils ont eu confiance en lui. Mais nous avons fait en sorte que le candidat, dans la gamme des valeurs qu’il exprimait, soit aligné au mieux avec son public. Et nous évaluons notre valeur ajoutée à un pourcentage entre les 2 et 5 pour cent.” Soit la différence entre gagner et perdre. Dit autrement, sans eux, certains thèmes de la campagne n’auraient pas fait mouche. Ou pire, tombés dans les mauvaises oreilles, ils se seraient montrés contre-productifs.

Déjà Obama en 2012 avait utilisé les big data pour mobiliser les électeurs. Y compris une app qui donnait accès (consciemment) aux amis de Facebook de ceux qui la téléchargeaient. Clinton a hérité de cet arsenal digital et disposait de beaucoup plus de ressources que son concurrent. Donc Trump a gagné parce que c’était Trump. With a little help from my friends, pour citer les Beatles.

Un nouveau type de marketing politique qui risque de faire des émules

Campagne electorale ameraicaine Strategic Communication Laboratories SCL

Plus d’un article en Grande Bretagne a parlé du rôle de la maison mère Scl dans la campagne de Nigel Farage, l’ex leader du parti xénophobe Ukip en faveur du Brexit. Sur ce point, Nix ne nie pas ni ne confirme : “Notre siège principal est en Grande Bretagne et nous préférons ne pas commenter des faits aussi controversés.” Je dirai que c’est un oui à quatre-vingt-dix pour cent. Il admet en revanche que désormais ils donnent un coup de main à “huit-dix campagnes par an dans le monde.” Ils ont travaillé également en Italie, depuis 2012, avec des politiques différents dont il se refuse énergiquement de dire les noms.

Une recherche sur les archives des journaux et des agences n’a rien donné : quiconque en a tiré avantage ne tient pas à faire savoir qu’il a bénéficié d’un petit coup de pouce. Qui, entre autre, a dû coûter cher. Trump a déboursé au moins 5 millions de dollars en un mois pour les super pouvoirs télématiques de CA. Certes, cela en valait la peine, mais quand il a décidé d’investir, leur palmarès était beaucoup plus maigre que maintenant. J’imagine que les cent employés entre Londres et New York seront sur un nuage.

A qui le tour ?

Illustration Massimo Bucchi - I have a cream

Qui ne voudrait pas répéter l’enchantement qui a contribué à déménager l’animateur de The Apprentice à la Maison Blanche ? Ce n’est pas un hasard que le site du psychologue Kosinski, où il est possible d’obtenir une évaluation psychologique automatique, basée sur sa propre activité sur Facebook, s’appelle applymagicsauce.com, (ajoute la sauce magique).

Mon essai a été un fiasco colossal. “Vous n’avez pas assez d’activité sur les réseaux sociaux pour un test significatif” m’a notifié le système. Quiconque a un profil digital plus extraverti que moi peut tenter sa chance et risque d’être stupéfait. Il sont peu à connaître mieux que nous, dépositaires de nos biographies involontaires, n’importe quelle recherche, ou le moindre like.

Au cercle restreint des géants du web s’est à peine ajouté une petite mais très puissante officine informatique londonienne. Pour eux, le vote est seulement la somme de tous les autres petits pouces que, quotidiennement, nous affichons sur l’univers du monde.