22/03/2018
États-unis. 200 millions d’électeurs fichés, profilés via Facebook
Pierric Marissal, Journaliste, spécialiste des nouvelles technologies. L'Humanité
Un lanceur d’alerte a révélé comment l’entreprise Cambridge Analytica a orchestré la campagne présidentielle de Donald Trump en aspirant des dizaines de millions de comptes Facebook américains pour créer des profils électoraux.
«Nous avons utilisé Facebook pour récolter des millions de profils de personnes. Et construit des modèles pour exploiter ce que nous savions à leur sujet et cibler leurs démons intérieurs », a expliqué Christopher Wylie, le lanceur d’alerte qui a révélé les pratiques de Cambridge Analytica à l’hebdomadaire britannique The Observer, le week-end dernier.
L’entreprise avait un accord avec Facebook, lui permettant d’accéder aux profils des États-Uniens et de récupérer leurs données, utilisées pour profiler les électeurs et influencer la campagne américaine. « Ce n’est pas une fuite, le réseau social était au courant et n’a révoqué les droits de Cambridge Analytica que la semaine dernière », assure Fabrice Epelboin, spécialiste en cybersécurité et enseignant en géopolitique du numérique à Sciences-Po Paris. Pour autant, les plus de 50 millions d’États-Uniens dont le profil a été absorbé et analysé n’ont jamais donné leur consentement. La sévère chute en Bourse de Facebook ces deux derniers jours en est la conséquence.
« Il y a une transformation du capitalisme, qui devient de surveillance »
De plus, Cambridge Analytica avait lancé un grand jeu concours sur le réseau social : un test de personnalité, présenté comme un travail de recherche réalisé par des psychologues. C’est sur cette application-là que le lanceur d’alerte travaillait. 270 000 personnes ont répondu, ce qui a permis de croiser les données de Facebook avec ces profils psychologiques détaillés. Des milliers de petites mains, payées à la tâche sur des plateformes de microtravail comme Amazon Mechanical Turk, ont permis ensuite de rendre ces monceaux de données digestes pour un algorithme. « Ce qui, dans un second temps, a permis à Cambridge de créer un outil qui, à partir d’un simple compte Facebook, peut donner le profil psychologique de la personne, poursuit Fabrice Epelboin.
Il faut environ 70 likes pour commencer à déduire un profil cohérent : qui est plutôt dépressif, maniaque ou autre… » Outre ce profil psychologique, l’outil peut permettre de déterminer les orientations sexuelles, religieuses et surtout politiques. Entre 2014 et 2016, 200 millions d’électeurs ont ainsi été fichés, profilés via Facebook. « Il suffit ensuite d’envoyer sur le mur d’un homme identifié comme hétérosexuel républicain à tendance paranoïaque une information anxiogène sur l’immigration pour orienter son vote vers Trump. Et des articles, vrais ou non, sur la corruption des Clinton à un électeur de Bernie Sanders un peu déprimé pour le convaincre de s’abstenir », résume Fabrice Epelboin. L’outil de Cambridge Analytica permettait ainsi de sponsoriser des contenus précis sur les murs Facebook des électeurs pour leur adresser l’information voulue.
Ils ont pu mesurer individuellement le niveau d’engagement (si la personne a cliqué, aimé ou partagé l’information) de chaque contenu sponsorisé pour connaître l’efficacité de la propagande. Et la structure même des élections américaines – tous les États ne votent pas en même temps – leur a permis de créer des stratégies locales et d’affiner dans le temps leur campagne.
« Il y a une transformation du capitalisme, qui devient de surveillance, analyse Fabrice Epelboin. Et en changeant, le capitalisme modifie nos structures démocratiques, nos formes de gouvernance. Cette campagne en est une preuve, l’appareil de propagande politique a complètement été bouleversé », poursuit-il. Aux manettes de cette campagne, on trouvait Steve Bannon, suprémaciste blanc qui a amené le soutien du Ku Klux Klan à Donald Trump. Ce membre du conseil d’administration de Cambridge Analytica était également directeur de la campagne du candidat républicain. Mieux, il a aussi été le dirigeant du site Breitbart News, pourvoyeur à grande échelle (50 millions de visiteurs uniques par mois) de fake news très marquées à l’extrême droite.
En 2016, ce même Steve Bannon disait que « la France est l’endroit où il faut être, avec ses jeunes entrepreneurs, les femmes de la famille Le Pen… » et annonçait son intention d’ouvrir une antenne de Breitbart News pour la campagne présidentielle française. Un projet qui a pris du retard, mais il a commis un discours très remarqué lors du dernier congrès du parti il y a dix jours, aux côtés de Marine Le Pen…
11:33 Publié dans Eclairage, Manipulation, Réseaux sociaux | Lien permanent | Commentaires (0) | Tags : facebook, usa, manipulation | | del.icio.us | Imprimer | | Digg | Facebook | |
20/07/2017
Nikos Smyrnaios : « Facebook façonne l’idée que l’on se fait du monde »
Entretien réalisé par Pierric Marissal, L'Humanité
Facebook et Google sont devenus les principaux intermédiaires entre le public et l’information. Un pouvoir politique énorme, soumis à leur quête du profit. Le chercheur Nikos Smyrnaios analyse comment ils ont bâti un tel oligopole.
Nikos Smyrnaios est enseignant-chercheur au laboratoire d’études et de recherches appliquées en sciences sociales de l’université Toulouse-III. Spécialiste de la presse en ligne et de l’utilisation politique des réseaux socionumériques, il vient de publier les Gafam contre l’Internet, une économie politique du numérique (1).
Quel est le pouvoir de Facebook ou Google sur la transmission de l’information aujourd’hui ?
NIKOS SMYRNAIOS Une récente enquête déclarative réalisée sur plusieurs pays montre que 51 % des internautes s’informent en premier lieu via les réseaux sociaux. Mais la mesure du trafic des sites des médias reste la plus précis. On peut y consulter la liste des sources qui ont mené à l’article. Et entre les deux tiers et les trois quarts des visiteurs des sites d’informations arrivent depuis Google et Facebook. Jusqu’en 2012, Google était prédominant, que ce soit le moteur de recherche ou Google Actualités. Des recherches qu’on avait menées à l’époque sur des quotidiens régionaux français montraient que 70 % des visiteurs en venaient. Depuis, Facebook représente la première des sources. Les plus jeunes et les femmes ont tendance à passer davantage par les réseaux sociaux, les hommes et les seniors privilégient l’accès direct ou Google. Plus la thématique de l’information recherchée est professionnelle, importante stratégiquement parlant, plus les visiteurs ont tendance à privilégier l’accès direct, à faire confiance à des sources identifiées. Dès que cela touche des informations plus divertissantes, la domination des réseaux sociaux devient écrasante.
Comment ont-ils conquis ce pouvoir ?
NIKOS SMYRNAIOS Avant le développement d’Internet au début des années 2000, l’économie de l’information comme de l’industrie culturelle était basée sur la rareté du contenu. Aujourd’hui elle est surabondante, et le rapport de forces économique s’est inversé. La rareté, donc la valeur, est désormais du côté du public, qui a besoin d’être guidé. Ce filtrage, cette hiérarchisation, je l’appelle, avec d’autres chercheurs, l’infomédiation. Le producteur du contenu et l’éditeur de presse sont relégués au second plan derrière l’infomédiaire. Cette fonction est devenue centrale sur Internet. Et la plus rentable, car il n’y a pas à supporter les coûts de production de l’information… Des algorithmes de mise en contact suffisent. Puis les infomédiaires collectent les informations du public et la vendent aux annonceurs, selon le modèle publicitaire de Google ou Facebook, ou alors prennent des commissions sur chaque transaction comme Amazon. J’insiste sur le fait que cette info- médiation est large et profonde. Les Gafam (Google, Apple, Facebook, Amazon et Microsoft) vont constituer une offre très large avec des services substituables : Facebook va racheter Instagram et WhatsApp, qui ont des offres similaires à son service. La concentration est aussi verticale puisque ces acteurs possèdent des segments d’activités indispensables en amont de l’infomédiation. Les data center par exemple sont nécessaires à la diffusion des services, et Amazon est le plus gros acteur mondial. On peut également donner l’exemple des smartphones et des ordinateurs (Apple et Microsoft) et des systèmes d’exploitation (Google, Microsoft, Apple). On le sait moins, mais Facebook, dans les pays du Sud, et Google, aux États-Unis, sont également des fournisseurs d’accès à Internet et obligent pour accéder au Web à passer par leur plateforme ou système d’exploitation. On capte le client et on l’enferme.
Comment expliquer leur rentabilité extrême ?
NIKOS SMYRNAIOS Ce sont des oligopoles mondiaux, dominant et globalisant, même si en Chine et en Russie d’autres acteurs existent. Tous les services sont conçus dans la Silicon Valley et vendus dans le monde, sans adaptation aux marchés locaux. C’est l’un des facteurs de bénéfices sans précédent. Le taux de rentabilité de Google ou Facebook varie entre 20 et 40 %. La moyenne de Wall Street est à peine à 10 %. Ainsi, en avril 2017, parmi les six plus grosses capitalisations mondiales, on retrouvait les cinq Gafam. Leur rentabilité s’explique aussi par les nouvelles modalités de travail qu’ils ont réussi à mettre en place. Ils vont dégager des sommes colossales avec très peu d’employés en interne. Les cinq Gafam réunies ont moins d’employés que Volkswagen, et juste un peu plus que Carrefour. Apple arrive à tirer plus de 2 millions d’euros de chiffre d’affaires par salarié et par an. Le travail est externalisé chez des sous-traitants de sous-traitants, précarisé, pressurisé, sous-payé à la tâche, au clic. Ils réduisent le travail à des miettes numériques, l’exploitation de l’activité humaine n’a jamais été aussi sophistiquée. D’autant plus que toute une partie de la valeur de Google et de Facebook vient du travail gratuit effectué par leurs utilisateurs. Facebook est vide au départ. Les utilisateurs et éditeurs génèrent de la valeur pour la plateforme sans travailler directement pour elle. Sans coût pour l’entreprise donc. Et en plus tous ces acteurs pratiquent aussi une optimisation fiscale particulièrement agressive.
Comment Facebook choisit les informations que nous lisons ?
NIKOS SMYRNAIOS Lorsque Facebook a lancé les Fan Page, les éditeurs avaient la garantie que quiconque avait « liké » leur page allait voir leur publication s’afficher sur leur mur. Pour les médias, ce vecteur est devenu une source d’audience majeure, à tel point qu’ils en sont devenus dépendants. Et puis, en 2012, Facebook a unilatéralement changé le fonctionnement et les publications sont apparues de moins en moins. Aujourd’hui seuls 10 % des abonnés en moyenne voient chaque publication. Selon Facebook, il s’agit d’améliorer l’expérience utilisateur. En réalité le réseau social pousse les éditeurs, une fois que l’outil est devenu indispensable, à payer pour promouvoir leur contenu.
Facebook est allé plus loin en créant Instant Articles. En promettant une meilleure visibilité et un partage des ressources publicitaires, l’éditeur publie tout son contenu sur le réseau social, mais plus sur son propre site. Les médias se voient privés des analyses statistiques et de la maîtrise de leur diffusion et de leurs revenus publicitaires. Même chose lorsque Facebook Live fut lancé, le service de vidéos diffusées directement sur la plateforme. Au départ, le réseau social augmente la visibilité de ces contenus par rapport aux autres, donc les rédactions s’organisent pour en produire, puis, lorsqu’elles deviennent dépendantes, Facebook supprime les bonus de visibilité. C’est la loi de Facebook.
Les médias changent donc leurs moyens de produire de l’information ?
NIKOS SMYRNAIOS Dès le début des années 2000 on a constaté les premiers changements, lorsque les rédactions se sont mises au service de Google. Un gros patron de presse me disait que sa rédaction était devenue un esclave du moteur de recherche et obéissait aux ordres. On sait par exemple que plus un site produit de contenu, plus le moteur va le mettre en valeur. Une rédaction qui produit peu sera d’autant moins visible. C’est une incitation à produire toujours plus, à abandonner l’analyse et le reportage et à privilégier le batonnage, c’est-à-dire la reprise, légèrement réécrite, de dépêches ou de communiqués de presse. Cela crée une énorme profusion d’informations, mais pas de pluralisme, puisqu’il s’agit des mêmes contenus retraités à l’infini. Un collègue chercheur, Guillaume Sire, a, lui, montré le rôle central que prennent les spécialistes du référencement dans certaines rédactions. Ce sont eux qui imposent aux journalistes les sujets à traiter, selon ce qui « buzze » sur Internet. Pour Facebook, la valeur n’est pas tant le contenu lui-même que « l’engagement » qu’il génère, à savoir les « like », partages ou commentaires. Les articles ou vidéos les plus rentables pour Facebook font appel à l’affect. Cela va des faits divers les plus dramatiques aux vidéos de chats, mais rarement une analyse sur la financiarisation de l’économie, qui, si elle peut susciter de l’intérêt, ne va pas générer des « like ». La production de contenu à destination de Facebook doit donc s’adapter pour parler à l’affect des gens. Certaines rédactions résistent, d’autres y vont à fond car leur modèle économique en dépend. Tout le monde n’est pas logé à la même enseigne, l’Humanité n’est pas Konbini, et heureusement.
Et cette course à l’engagement profite aux théories complotistes et aux « fake news »…
NIKOS SMYRNAIOS Exactement. Le phénomène des fake news, qui a explosé pendant l’élection présidentielle américaine, proposait à la frange la plus réactionnaire des électeurs des contenus qui confirmaient leurs opinions et généraient de l’affect. Comme cette histoire invraisemblable du « Pizzagate ». Les Clinton étaient accusés d’être à la tête d’un réseau pédophile qui se retrouvait dans une pizzeria de Washington. Des centaines de milliers de personnes ont « liké » ou commenté cette histoire, devenue très rémunératrice pour Facebook, qui l’a automatiquement favorisée. La plateforme n’est pas spécialement complotiste ou pro-Trump, mais elle cherche à maximiser ses profits. Cela conduit à ces dérapages. On retrouve ce mécanisme sur YouTube de manière flagrante, il n’y a qu’à voir comment les vidéos de Soral et de Dieudonné étaient mises en avant dans les vidéos suggérées.
Et le lecteur se retrouve dans une situation passive de récepteur de l’information qu’il ne choisit pas…
NIKOS SMYRNAIOS Il n’est pas passif, mais il ne peut que réagir en fonction de ce qui lui est proposé. Le lecteur se retrouve pris dans des mécanismes d’infomédiation qu’il ne maîtrise pas et qu’il ne comprend pas forcément. Ces multinationales filtrent l’information et décident de ce qui est visible ou non dans l’espace public numérique. Ils façonnent l’idée que l’on se fait du monde. Facebook contrôle ainsi ce que voient plus de 1,8 milliard de personnes, dont 30 millions en France. Un pouvoir politique exorbitant qui échappe à tout contrôle démocratique puisque l’on n’a aucun regard sur comment se décide la mise en avant d’une information ou sa suppression. Tout se fait en interne.
Comment voyez-vous le fait qu’aujourd’hui des fournisseurs d’accès à Internet comme Patrick Drahi ou Xavier Niels deviennent de grands patrons de presse ?
NIKOS SMYRNAIOS Ces acteurs sont aussi des infomédiaires à mon sens. Le « triple play » permet par exemple de contrôler l’information audiovisuelle puisque l’audience d’une chaîne de télévision reste proportionnelle au numéro qui lui est alloué. Autre exemple, des fournisseurs d’accès à Internet ont décidé de ralentir l’accès de leurs abonnés à des services. Free avait bridé l’accès à YouTube et Orange avait essayé de ralentir le partage de pair à pair (P2P). Il est effrayant de se rappeler qu’en 2000 Time Warner absorbait le fournisseur d’accès américain AOL et pesait 10 fois plus que lui. Quinze ans après, le rapport de forces s’est complètement inversé et les contenus n’ont quasi plus de valeur financière.
Votre vision n’apparaît pas très optimiste…
NIKOS SMYRNAIOS Je ne suis pas technophobe, ni ne suis convaincu que, dans les années 1990, lorsqu’on n’avait qu’une poignée de médias, l’information était meilleure. Mais il faut garder un regard critique. D’autant que l’état d’Internet aujourd’hui n’est pas immuable et reflète un contexte ; à savoir un capitalisme néolibéral hégémonique. Cela peut changer, mais pas sans rapport de forces. Certains signes sont plutôt positifs, le public prend conscience de l’exploitation de ses données personnelles et bloque de plus en plus les publicités. Le monde de la recherche s’y penche aussi davantage. Il serait naïf de croire en revanche en l’émergence d’un nouvel acteur, comme lorsqu’Alta Vista a été remplacé par Google dans les années 1990. On n’en est plus là. Le pouvoir des Gafam aujourd’hui est comparable à celui de l’industrie automobile au XXe siècle. Ils ne vont pas disparaître demain. L’ambiguïté de ce capitalisme numérique est qu’à la fois il va utiliser tout ce qu’il peut pour maximiser ses profits, est extrêmement prédateur et accroît les inégalités, mais en même temps il peut se révéler émancipateur. Le mouvement contre la loi travail et même les printemps arabes n’auraient peut-être pas eu la même ampleur sans les réseaux sociaux. Facebook est avant tout un outil d’exploitation, mais peut aussi servir l’émancipation. Ce pourquoi il faut insister sur le pouvoir politique des Gafam.
17:20 Publié dans Actualités, Dossier, Eclairage, Internet, Réseaux sociaux | Lien permanent | Commentaires (0) | Tags : facebook, goggle | | del.icio.us | Imprimer | | Digg | Facebook | |
04/04/2017
Facebook complice de la « chasse aux impies »
Lina Sankari, Humanite.fr
Le réseau social accepte de supprimer les pages « blasphématoires » afin de se conformer à la législation pakistanaise et de ne pas perdre 25 à 30 millions d’utilisateurs actifs.
Pas de doute, en 2015, Marc Zuckerberg était « Charlie ». Deux ans plus tard, le patron de Facebook serait plutôt charia. À tel point que le réseau social a reçu les satisfécits du ministre de l’Intérieur pakistanais, Chaudhry Nisar Ali Khan, pour son engagement à bannir les contenus blasphématoires de ses pages. Au Pakistan, en effet, on ne touche pas au prophète.
Une loi sur le blasphème permet même de condamner à mort ou de prison à perpétuité l’outrage à l’islam, en réalité souvent utilisé dans le cadre de règlements de compte personnels, politiques – à l’encontre des progressistes- des laïcs, des soufis ou de la minorité chrétienne. Le blasphème reste une question extrêmement sensible, et de simples accusations peuvent déclencher des lynchages.
Toute référence à une éventuelle réforme de la loi sur le blasphème donne lieu à des sit-in de plusieurs jours voire à des assassinats. À ce titre, Mumtaz Qadri, meurtrier d’un gouverneur favorable à une réforme, avait été élevé au rang de héros par les islamistes. Actuellement, dix-sept personnes croupissent dans le couloir de la mort pour blasphème, dont la chrétienne Asia Bibi. Le texte condamne « ceux qui, par des paroles ou des écrits, des gestes ou des représentations visibles avec des insinuations directes ou indirectes, insultent le nom sacré du prophète ».
Islamabad n’a pu que se féliciter de voir Facebook rentrer dans les rangs
Qu’à cela ne tienne pour Facebook qui préfère conserver ses 25 à 30 millions d’utilisateurs pakistanais actifs plutôt que de se voir interdit dans le pays. Ainsi, le vice-président du réseau social a-t-il pris soin d’adresser un courrier au ministre de l’Intérieur afin de lui assurer qu’il prenait « très au sérieux les préoccupations soulevées par le gouvernement pakistanais ».
Islamabad n’a pu que se féliciter de voir Facebook rentrer dans les rangs. « Un grand progrès », a-t-il assuré. Pour faire montre de sa bonne volonté, l’entreprise a même donné des gages : une soixantaine de pages bloquées dont quarante-cinq ces derniers jours. En 2015, Facebook avait reçu des menaces d’un islamiste pakistanais pour avoir laissé publier du contenu lié à Mahomet. À l’époque, Marc Zuckerberg assurait qu’il ne laisserait aucun « groupe d’extrémistes faire taire les idées et les différentes voix sur son réseau social ». Il ajoutait même : « je m’engage à construire un service où on peut parler librement sans crainte de la violence ». La preuve !
15:24 Publié dans Informations, Internet, Réseaux sociaux | Lien permanent | Commentaires (0) | Tags : facebook, internet, censure, pakistan | | del.icio.us | Imprimer | | Digg | Facebook | |
13/08/2016
Pourquoi censurer les contenus djihadistes est bien plus difficile qu'une poitrine
Pi.M. Vendredi, 12 Août, 2016 Humanite.fr
La radicalisation djihadiste sur Internet est devenue un point de cristallisation fort du débat, à tel point que des élus LR veulent assigner en justice les réseaux sociaux pour complicité. Il faut pourtant bien comprendre que si Facebook peut supprimer en un clin d’œil une photo de poitrine dénudée, le processus pour repérer un discours djihadiste n’est pas le même.
Si Facebook est (parfois) si rapide pour supprimer une poitrine ou une paire de fesses dénudées, c’est qu’un algorithme veille au grain. Le programme a intégré les caractéristiques mathématiques des parties de l’anatomie qui doivent rester cacher selon sa charte d’utilisation et se révèle relativement efficace. Même si on relève des cas de coudes ou d’aisselles opulentes injustement censurées. Cet algorithme reste une machine qui repère des formes et qu’on peut piéger facilement.
Comment appliquer cette même recette à la propagande djihadiste ? Impossible de le repérer par une caractéristique physique ou anatomique. Et si l’algorithme va chercher des mots, ou des associations de mots comme djihad, kamikaze, Syrie, Daech… Les articles de presse, les prises de parole politique, les interviews de chercheurs, les associations qui luttent pour la resocialisation des djihadistes et bien d’autres encore tomberont sous le coup de la censure aveugle et automatisée. De la même manière bien des œuvres d’art ne passent pas le filtre anti-nudité bête et méchant des réseaux sociaux. Et puis il suffit d’ajouter une faute d’orthographe intentionnelle pour rendre ces détections par mots inopérantes.
Idem pour les images ou les vidéos de propagande -ou même d’exécution- diffusées en masse. Une machine ne peut pas faire simplement la différence avec la bande annonce du dernier blockbuster guerrier américain.
Pour l’instant seule l’intervention humaine, suite au signalement des internautes vigilants ou des autorités est fiable. Et puis cela a créé des centaines d’emplois.
Le gouvernement français d’ailleurs ne chôme pas et a fait fermer 38000 pages Facebook en 2015, de loin en tête de tous les pays. A comparer aux 6500 de Turquie, 550 d’Allemagne, 430 d’Israël ou aux 80 fermées par la Russie…
L’algorithme Deep Text
Après des années de travail, Yahoo! pense pouvoir bientôt lancer chez Facebook son intelligence artificielle capable de censurer tant la nudité que les contenus violents et les discours d’appels à la haine. Une tâche extrêmement difficile puisqu’il faut que la machine comprenne le sens du texte (et donc la langue), son contexte et qui est son auteur. L’algorithme nommé Deep Text est en test et a passé au crible 2 années de commentaires d’articles publiés chez Yahoo! avec un taux de fiabilité de 90%.
Il repère le sens des mots, mais aussi la ponctuation et les formes syntaxiques associées aux injures. Il est capable d’apprendre le sens de mots en argot ou de ne pas se laisser piéger par l’orthographe. Les métaphores en revanche le trompent complètement et il faudra dans tous les cas abandonner l’ironie, le sarcasme et le second degré…
En outre, si cet algorithme pourra supprimer toutes insultes les plus courantes, il lui est impossible en revanche d’aller regarder les vidéos de prêche ou d’exécution pour repérer la propagande djihadiste…
10:08 Publié dans Actualités, Internet, Réseaux sociaux | Lien permanent | Commentaires (0) | Tags : facebook, djihadistes, censure | | del.icio.us | Imprimer | | Digg | Facebook | |