Exécutif de Facebook: nous avons fait élire Trump, et nous ne devrions pas l'arrêter en 2020

Dans une note obtenue par le New York Times et publié publiquement, un responsable de Facebook a déclaré que la plateforme de l'entreprise était responsable de l'élection du président de Donald Trump en 2016, mais il a mis en garde les employés contre l'utilisation du pouvoir de l'entreprise pour arrêter la réélection de Trump en 2020.

Dans la note de service, Andrew Bosworth, l'une des voix les plus éminentes de l'entreprise, a partagé quelques «réflexions pour 2020» avec les employés. La note de Bosworth couvre des années de scandales très médiatisés sur le réseau social, de l'ingérence électorale russe à Cambridge Analytica. Bien qu'il affirme que certains des «détails» qui ont été rapportés publiquement étaient faux – il se demande, par exemple, dans quelle mesure l'ingérence russe a affecté les opinions des électeurs et qualifie le scandale de Cambridge Analytica de «non-événement» – il admet «qu'il y a presque toujours un problème critique »sous-tendant le rapport qu'il juge juste.

La note indique que l'élection présidentielle de 2016 a marqué un tournant dans la perception publique de Facebook et admet que Facebook était responsable du bouleversement choquant de Trump. Bosworth dit qu'il n'est «pas fan de Trump», mais il attribue la stratégie numérique de la campagne Trump à la victoire.

«Facebook était-il donc responsable de l'élection de Donald Trump?», Écrit Bosworth. «Je pense que la réponse est oui, mais pas pour les raisons que l'on pense. Il n'a pas été élu à cause de la Russie ou de la désinformation ou de Cambridge Analytica. Il a été élu parce qu'il a mené la meilleure campagne publicitaire numérique que j'aie jamais vue d'un annonceur. Période."

Bosworth poursuit en disant que l'entreprise ne devrait pas utiliser son énorme portée pour bloquer la réélection de Trump en 2020, comparant l'idée à Le Seigneur des Anneaux, dans lequel les personnages envisagent brièvement d'essayer d'utiliser l'anneau du pouvoir à des fins justes. "Aussi tentant soit-il d'utiliser les outils à notre disposition pour changer le résultat", écrit-il, "je suis convaincu que nous ne devons jamais faire cela ou nous deviendrons ce que nous craignons."

La note complète est ci-dessous.

Réflexions pour 2020

L'élection de Donald Trump a immédiatement mis les projecteurs sur Facebook. Bien que l'intensité et la concentration de ce projecteur puissent être injustes, je pense que ce n'est pas injuste. Un examen minutieux est justifié étant donné notre position dans la société comme le plus important d'un nouveau médium. Je pense que la plupart des critiques qui ont été révélées étaient valables et représentent de véritables domaines pour nous afin de mieux servir notre communauté. Je n’apprécie pas que nos défauts soient exposés, mais je le considère bien mieux que l’alternative où nous ignorons nos lacunes.

Un piège dans lequel je vois parfois les gens tomber est de rejeter tous les commentaires lorsqu'ils peuvent en invalider une partie. Je vois cela avec des commentaires personnels et je vois cela se produire avec la couverture médiatique. La presse se trompe souvent tellement de détails qu'il peut être difficile de faire confiance à la véracité de ses conclusions. Rejeter le tout à cause de défauts de pièces est une erreur. Les médias ont peu d'informations à utiliser (selon notre propre conception!) Et ils se trompent parfois complètement, mais il y a presque toujours un problème critique qui les a motivés à écrire ce que nous devons comprendre.

Il vaut la peine de regarder les élections de 2016 qui ont déclenché cette chaîne d'événements. Je dirigeais notre organisation de publicité au moment des élections et je l'étais depuis quatre ans (et un an après). Il convient de rappeler à tout le monde que les interférences russes étaient réelles, mais qu'elles ne se faisaient généralement pas par la publicité. 100 000 $ en publicités sur Facebook peuvent être un outil puissant mais cela ne peut pas vous acheter une élection américaine, surtout lorsque les candidats eux-mêmes mettent plusieurs ordres de grandeur de plus sur la même plate-forme (sans parler des autres plates-formes).

Au lieu de cela, les Russes ont travaillé pour exploiter les divisions existantes dans le public américain, par exemple en organisant le même jour des événements de protestation Black Lives Matter et Blue Lives Matter dans la même ville. Les personnes qui se présentent à ces événements étaient réelles même si le coordinateur de l'événement ne l'était pas. De même, les groupes d'Américains nourris de contenu partisan étaient réels même si ceux qui les nourrissaient ne l'étaient pas. La portée organique qu'ils ont gérée semble très grande en termes absolus et, malheureusement, les humains ne savent pas contextualiser les grands nombres. Quelle que soit la portée qu'ils ont gérée, cela représente une fraction infinitésimale du contenu global que les gens ont vu au cours de la même période et certainement au cours d'une élection dans tous les médias.

Donc, la plupart des informations qui circulent et qui sont largement considérées comme inexactes. Mais qui s'en soucie? Il est certainement vrai que nous aurions dû être plus conscients du rôle que jouent à la fois le contenu payant et le contenu organique dans la démocratie et en avoir été plus protecteur. En ce qui concerne l'ingérence étrangère, Facebook a fait des progrès importants et bien que nous ne puissions jamais l'éliminer complètement, je ne m'attends pas à ce que ce soit un problème majeur pour 2020.

La désinformation était également réelle et liée, mais pas la même que l'ingérence russe. Les Russes ont peut-être utilisé la désinformation aux côtés de vrais messages partisans dans leurs campagnes, mais la principale source de désinformation était motivée par des raisons économiques. Les gens sans aucun intérêt politique ont réalisé qu'ils pouvaient générer du trafic vers des sites Web chargés de publicité en créant de faux titres et l'ont fait pour gagner de l'argent. Ceux-ci pourraient être décrits plus adéquatement comme des canulars qui jouent sur le biais de confirmation ou la théorie du complot. À mon avis, c'est un autre domaine où la critique est méritée. C'est également un domaine où nous avons fait des progrès spectaculaires et ne nous attendons pas à ce que ce soit un problème majeur pour 2020.

Il convient de noter, comme cela est pertinent à l'heure actuelle, que la désinformation des candidats eux-mêmes n'a pas été considérée comme une lacune majeure de la publicité politique sur FB en 2016, même si notre politique était alors la même qu'aujourd'hui. Ces politiques sont souvent couvertes par la presse dans le cadre d'un but lucratif. C’est un domaine sur lequel je peux vous assurer que les critiques ont tort. Après avoir géré notre activité de publicité pendant un certain temps, ce n'est tout simplement pas un facteur lorsque nous discutons de la bonne chose à faire. Cependant, étant donné que ces conversations sont privées, je pense que nous pouvons tous convenir que la presse peut être pardonnée d'avoir sauté à cette conclusion. Nous pourrions peut-être faire un meilleur travail en exposant le coût réel de ces erreurs pour montrer clairement que la maximisation des revenus aurait nécessité une stratégie complètement différente.

Cambridge Analytica est l'un des cas les plus aigus auxquels je puisse penser lorsque les détails sont presque tous faux, mais je pense que l'examen est globalement correct. Facebook a lancé très publiquement notre plate-forme de développeur en 2012 dans un environnement nous surveillant principalement pour garder les données pour nous. Tous ceux qui ont ajouté une application ont reçu une invite expliquant les informations auxquelles elle aurait accès et, à l'époque, elles comprenaient des informations d'amis. Cela peut sembler fou dans un contexte 2020, mais il a reçu des éloges à l'époque. Cependant, le seul mécanisme dont nous disposions pour assurer la sécurité des données une fois qu'elles étaient partagées était les menaces juridiques qui, finalement, ne représentaient pas grand-chose pour les entreprises qui avaient très peu à perdre. La plate-forme n'a pas créé la valeur que nous espérions pour nos consommateurs et nous avons fermé cette forme en 2014.

La société Cambridge Analytica a commencé par lancer des enquêtes sur Facebook pour obtenir des informations sur les gens. Il a ensuite pivoté pour devenir une société de publicité, faisant partie de notre programme Facebook Marketing Partner, que d'autres sociétés pourraient embaucher pour diffuser leurs annonces. Leur prétention à la gloire était le ciblage psychographique. C'était de l'huile de serpent pure et nous le savions; leurs publicités n'étaient pas meilleures que tout autre partenaire marketing (et dans de nombreux cas, elles étaient moins bonnes). Je regrette personnellement de les avoir laissés sur le programme FMP pour cette seule raison. Cependant, à l'époque, nous pensions que ce n'était qu'une autre entreprise essayant de trouver un angle pour se promouvoir et supposant que de mauvaises performances finiraient par leur faire perdre leurs clients. Nous ne savions pas qu'ils achetaient un ancien ensemble de données Facebook qu'ils étaient censés avoir supprimé (et nous ont certifié par écrit qu'ils l'avaient fait).

Lorsque Trump a gagné, Cambridge Analytica a essayé de prendre le crédit afin qu'ils soient de retour sur notre radar, mais juste pour avoir fait des déclarations de conneries sur leur propre importance. J'étais content lorsque le directeur de campagne Trump, Brad Parscale, les a appelés pour cela. Plus tard, nous avons appris des journalistes qu'ils n'avaient jamais supprimé la base de données et avaient plutôt fait des promesses élaborées sur son pouvoir de publicité. Notre équipe de communication a décidé qu'il serait préférable de devancer les journalistes et de les retirer de la plateforme. C'était une énorme erreur. Ce n'était pas seulement une mauvaise forme (énervant à juste titre les journalistes), mais nous menions également la mauvaise bataille. Nous voulions être clair qu'il ne s'agissait pas d'une violation de données (ce qui, pour être juste pour nous, ne l'était absolument pas), mais la véritable préoccupation était l'existence de l'ensemble de données, peu importe comment cela s'est produit. Nous avons également envoyé aux journalistes des lettres juridiques les conseillant de ne pas utiliser le terme «culasse», qui a été reçu normalement par le NYT (qui a accepté) et agressivement par The Guardian (qui est allé de l'avant avec la mauvaise terminologie, furieux de la lettre) malgré c'est une pratique relativement courante, me dit-on.

En termes pratiques, Cambridge Analytica est un non-événement total. C'étaient des vendeurs d'huile de serpent. Les outils qu'ils ont utilisés n'ont pas fonctionné et l'échelle à laquelle ils les ont utilisés n'était pas significative. Toutes les affirmations qu'ils ont faites d'eux-mêmes sont des ordures. Les données du type qu’elles possédaient ne sont pas si précieuses à vivre et pire, elles se dégradent rapidement, au point d’être effectivement inutiles en 12 à 18 mois. En fait, le Bureau du Commissaire à l'information du Royaume-Uni (ICO) a saisi tout l'équipement de Cambridge Analytica et a constaté qu'il n'y avait aucune donnée provenant de citoyens britanniques! Alors sûrement, c'est celui où nous pouvons ignorer la presse, non? Nan. La plate-forme était une si mauvaise décision que les risques associés devaient être révélés. Le fait que nous l'ayons fermé en 2014 et que nous n'ayons jamais payé la médisance sur sa gravité rend cet examen justifié à mon avis, même s'il est étroitement erroné.

Facebook était-il donc responsable de l'élection de Donald Trump? Je pense que la réponse est oui, mais pas pour les raisons que l'on pense. Il n'a pas été élu à cause de la Russie ou de la désinformation ou de Cambridge Analytica. Il a été élu parce qu'il a mené la meilleure campagne publicitaire numérique que j'aie jamais vue d'un annonceur. Période.

Pour être clair, je ne suis pas fan de Trump. J'ai fait don du max à Hillary. Après son élection, j'ai écrit un post sur les partisans de Trump qui, selon moi, a fait que les collègues qui l'avaient soutenu ne se sentaient pas en sécurité autour de moi (je regrette ce post et supprimé peu de temps après).

Mais Parscale et Trump ont juste fait un travail incroyable. Ils ne faisaient pas de désinformation ou de canulars. Ils ne ciblaient pas ou ne disaient pas des choses différentes à différentes personnes. Ils ont juste utilisé les outils dont nous disposions pour montrer la bonne création à chaque personne. À mon avis, l'utilisation d'audiences personnalisées, de vidéos, de commerce électronique et de nouvelles créations reste la marque la plus haute des campagnes publicitaires numériques.

Cela m'amène au moment présent, où nous avons maintenu les mêmes politiques publicitaires. Il me semble que cela peut très bien conduire au même résultat. En tant que libéral engagé, je me sens désespérément désireux de tirer sur n'importe quel levier à ma disposition pour éviter le même résultat. Alors qu'est-ce qui reste ma main?

Je me retrouve à penser au Seigneur des Anneaux en ce moment. Plus précisément lorsque Frodon offre l'anneau à Galadrial et qu'elle imagine utiliser le pouvoir avec droiture, au début, mais sait que cela finira par la corrompre. Aussi tentant que soit d'utiliser les outils à notre disposition pour changer le résultat, je suis convaincu que nous ne devons jamais faire cela ou nous deviendrons ce que nous craignons.

Le philosophe John Rawls a estimé que la seule façon morale de décider quelque chose est de vous retirer entièrement des spécificités de toute personne impliquée, derrière un soi-disant «voile de l'ignorance». C'est l'outil qui m'amène à croire aux programmes du gouvernement libéral comme les soins de santé universels, l'expansion des programmes de logement et la promotion des droits civils. C'est aussi l'outil qui m'empêche de limiter la portée des publications qui ont conquis leur public, aussi déplaisant que soit leur contenu pour moi et même pour la philosophie morale qui m'est si chère.

Cela ne signifie pas qu'il n'y a pas de ligne. Des choses comme l'incitation à la violence, la suppression des électeurs, etc. sont des choses que la même philosophie morale me permettrait sans risque d'exclure. Mais je pense que mes collègues libéraux sont un peu trop, eh bien, libéraux quand il s'agit d'appeler les gens nazis.

Si nous ne voulons pas de politiciens haineux, nous ne devons pas les élire. S'ils sont élus, nous devons gagner les cœurs et les esprits. Si nous changeons les résultats sans gagner l'esprit des gens qui seront gouvernés, alors nous n'avons qu'une démocratie de nom. Si nous limitons les informations auxquelles les gens ont accès et ce qu'ils peuvent dire, nous n'avons aucune démocratie.

Cette conversation déclenche souvent l'alarme autour des bulles de filtre, mais c'est un mythe facile à dissiper. Demandez-vous combien de journaux et de programmes d'information les gens lisent / regardent avant Internet. Si vous avez deviné «un et un» en moyenne, vous avez raison, et si vous avez deviné que ceux-ci étaient idéologiquement alignés avec eux, vous avez à nouveau raison. Internet les expose à beaucoup plus de contenu provenant d'autres sources (26% de plus sur Facebook, selon nos recherches). C'est celui que tout le monde se trompe.

L'accent mis sur les bulles de filtre amène les gens à manquer le vrai désastre qu'est la polarisation. Que se passe-t-il lorsque vous voyez 26% de contenu en plus de personnes avec lesquelles vous n'êtes pas d'accord? Cela vous aide-t-il à sympathiser avec eux comme tout le monde l'a suggéré? Nan. Cela vous fait encore plus détester. C'est aussi facile à prouver avec une expérience de pensée: quelle que soit votre orientation politique, pensez à une publication de l'autre côté que vous méprisez. Lorsque vous lisez un article de ce point de vente, peut-être partagé par un oncle ou un neveu, cela vous fait-il repenser vos valeurs? Ou cela vous fait-il reculer davantage dans la conviction de votre propre exactitude? Si vous avez répondu à la première, félicitations, vous êtes une meilleure personne que moi. Chaque fois que je lis quelque chose de Breitbart, je suis 10% plus libéral.

Que dit tout cela sur la nature des récompenses algorithmiques? Tout le monde indique que la teneur maximale de 0,1% est fortement polarisée, mais à quel point les courbes sont-elles raides? À quoi ressemblent les 1% ou 5% les plus riches? Et quelle est la portée réelle de ces courbes par rapport à d'autres contenus? Je pense que l'appel à la transparence algorithmique peut parfois être exagéré, mais être plus transparent sur ce type de données serait probablement sain.

Ce que j'attends des gens, c'est que les algorithmes exposent principalement les désirs de l'humanité elle-même, pour le meilleur ou pour le pire. C'est un problème de sucre, de sel et de graisse. Le livre de ce nom raconte une histoire ostensiblement sur la nourriture mais en réalité sur l'efficacité limitée du paternalisme d'entreprise. Il y a quelque temps, Kraft Foods avait un leader qui tentait de réduire le sucre qu'ils vendaient dans l'intérêt de la santé des consommateurs. Mais les clients voulaient du sucre. Au lieu de cela, il a fini par réduire la part de marché de Kraft. Les résultats pour la santé ne se sont pas améliorés. Ce PDG a perdu son emploi. Le nouveau PDG a présenté des Oreos farcis quadruples et la société est revenue en grâce. Donner aux gens des outils pour prendre leurs propres décisions est bien, mais essayer de leur imposer des décisions fonctionne rarement (pour eux ou pour vous).

Dans ces moments, les gens aiment suggérer que nos consommateurs n’ont pas vraiment de libre arbitre. Les gens comparent les médias sociaux à la nicotine. Je trouve cela extrêmement choquant, pas pour moi mais pour les toxicomanes. J'ai vu des membres de la famille aux prises avec l'alcoolisme et des camarades de classe aux prises avec des opioïdes. Je sais qu'il y a une bataille pour la terminologie de la dépendance, mais je suis fermement du côté des neuroscientifiques. Pourtant, bien que Facebook ne soit pas de la nicotine, je pense que c'est probablement comme du sucre. Le sucre est délicieux et pour la plupart d'entre nous, il y a une place spéciale dans notre vie. Mais comme toutes choses, il bénéficie de la modération.

Au bout du compte, nous sommes obligés de nous demander quelle est la responsabilité des individus envers eux-mêmes. Mettez de côté les substances qui modifient directement notre neurochimie de façon artificielle. Rendez les coûts et les compromis aussi transparents que possible. Mais au-delà de cela, chacun de nous doit assumer sa propre responsabilité. Si je veux manger du sucre et mourir d'une mort prématurée, c'est une position valable. Mon grand-père a pris une telle position envers le bacon et je l'admirais pour cela. Et les médias sociaux sont probablement beaucoup moins mortels que le bacon.

Pour boucler cet essai inhabituellement long et sinueux, je voulais commencer une discussion sur les leçons que les gens retirent de la couverture médiatique. Ma conclusion est que nous avons été en retard sur la sécurité des données, la désinformation et les interférences étrangères. Nous devons devancer la polarisation et la transparence algorithmique. Quels sont les autres grands sujets que les gens voient et où en sommes-nous?

Traduit de la source : https://www.theverge.com/2020/1/7/21055348/facebook-trump-election-2020-leaked-memo-bosworth

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.