Es tut mir leid, Mr. Zuckerberg, aber Sie liegen falsch

Bild

Es ist ermutigend zu sehen, dass Sie sich mit Ihrer Rolle bei den Wahlen auseinandersetzen. Wir alle machen das Gleiche. Und wie wir durchlaufen Sie mehrere Phasen der Trauer, jede mit ihren eigenen kognitiven Vorurteilen. Wenn man den handlichen Spickzettel von Buster Benson glaubt, durchläuft man eine bescheidene Version der Heuristik „Anderen die Schuld geben“. Oder zumindest sein wohlwollender Cousin: "Es ist nicht meine Schuld."

(Um ehrlich zu sein, wenn Sie Ihren Beitrag noch einmal lesen, fällt mir auf, dass Sie nie herausgekommen sind und gesagt haben, dass Facebook einen Teil der Schuld nicht verdient hat. Wie gesagt, die Leute sagen mir, dass Sie ein guter Kerl sind. Ich vermute, dass Sie weiß doch, dass Facebook eine gewisse Verantwortung trägt.)

Es gibt viele Schuldgefühle. Ich glaube nicht, dass Facebook für die Wahlen verantwortlich ist. Ich glaube, es verdient vielleicht 1-2% der Schuld. Aber wie wir sehen werden, ist das mehr als genug.

Ich weiß, dass du ein guter Mensch bist. Wir haben viele gemeinsame Freunde und sie alle sagen großartige Dinge über dich. Sie irren sich jedoch zutiefst, wenn Sie die Rolle von Facebook bei dieser Wahl interpretieren.

Kleine Dinge haben große Auswirkungen

Diese Wahl war außerordentlich knapp. Innerhalb eines halben Punktes. Selbst wenn Sie schlecht in Mathe sind, werden Sie hier eine Ähnlichkeit mit dem Zitat "mehr als 99% genau" feststellen. Die Wahrheit ist am Rande.

In den letzten drei Jahren habe ich die gesamte wirtschaftliche und akademische Literatur zu Werbung, Propaganda und Marketing gelesen. Jede empirische Studie - von Verhaltensökonomen wie Kahneman über Studien, die Marketing-Experten wie Proctor und Gamble in Auftrag geben, bis hin zu wackligen Mathe-Nerds, die in Elfenbeintürmen mit begehrten Datensätzen versteckt sind. Zurück zu den 1700er Jahren. Immer wieder hören wir den gleichen Refrain: Dieses Zeug funktioniert, weil es für uns alle nur ein bisschen funktioniert. Wir spüren möglicherweise nicht einmal, dass es funktioniert - weshalb die durchschnittliche Person auf Nachfrage möglicherweise nicht bemerkt, dass ihre Vorlieben zwischen zwei Produkten, die sie nicht einmal interessieren - beispielsweise Cola oder Pepsi -, Ihnen mitteilen wird, dass sie ihre Vorlieben nicht haben geändert, nachdem ein Marketing-Angriff absorbiert wurde. Diese Präferenzen haben sich jedoch geändert - in der Größenordnung von 1–2%. Nun, das macht keinen großen Unterschied in den Soda-Konsumgewohnheiten eines Einzelnen, aber es macht einen großen Unterschied in der Größenordnung. Es ist nicht schwer zu sehen, wie bei diesen Wahlen die gleichen Kräfte im Spiel sind.

Wenn Sie neugierig auf dieses Zeug sind, verweise ich Sie auf die Arbeit von John Philip Jones und seinem Mentor Andrew Ehrenberg. Hier ist eine gute Einführung von Jones, der mehrere großartige empirische Bücher zu diesem Thema geschrieben hat. In der Vergangenheit beschränkten sich diese Dinge hauptsächlich auf die Wissenschaft und die Forschungsabteilungen der großen Konsumgüterunternehmen. Aber ein kürzlich erschienenes Buch des Ehrenberg-Schülers Byron Sharp, How Brands Grow, hat es einem größeren Publikum in der Werbewelt zugänglich gemacht. Ich kann es nur empfehlen. All dies basiert übrigens auf empirischen Beweisen. Studien. Viele Studien. Wiederholbare Studien. Wir sind hier nicht in der Welt der Theorien. Dies ist keine Guru-Rede. Das ist Mathe. (Mein Favorit ist übrigens die Arbeit von Colin MacDonald, die wirklich umwerfend ist, obwohl sie ein Update für das digitale Zeitalter benötigt. Damit kann man Geld verdienen, aber das ist ein Thema für ein anderes Mal.)

(Edit: Ein Freund fragte nach einem Link zu Colin McDonald. Hier ist es. Obwohl dieses Zeug in seiner ursprünglichen Form dicht ist, habe ich an einem Überblicksbuch über dieses Zeug gearbeitet. Aber es wäre großartig, wenn es plötzlich kommen würde 37 Jahre später gab es einen Lauf über Colin McDonald-Bücher bei Amazon. Damit dies keine einmalige Studie ist, untersucht dieses Buch von Jones unzählige Einzelquellen- und Metastudien, die McDonalds grundlegende Ergebnisse bestätigen.

In der Vergangenheit gab es Gründe zu bezweifeln, dass Ehrenbergs Theorien für politische Kampagnen gelten. Ein Grund dafür ist, dass nach den Theorien Werbung im Laufe der Zeit kumulativ wirkt und es schwierig ist, in kurzer Zeit einen großen Unterschied zu machen. Daher funktioniert die Taktik im politischen Bereich nicht so gut. Die empirische Forschung zu Marketing (und seien wir ehrlich - gefälschte Artikel sind Marketing) und Politik war weniger konkret, obwohl sie im Großen und Ganzen ähnliche Ergebnisse zeigt. Doch drei Dinge werden Ehrenbergs Theorien relevanter machen:

  1. Die Kampagnen werden länger und dringen in den Bereich vor, in dem die Arbeit von Ehrenberg / Sharp / Jones gilt - Jahre statt Monate
  2. Die Budgets haben das Niveau der großen CPG-Marken erreicht und übertroffen
  3. Das Marketing gegen Hillary Clinton hat lange gedauert (dies ist ein Thema für ein anderes Mal)

Erwähnenswert ist auch, dass die viralen und sozialen Mechanismen von Facebook die Verbreitung von Inhalten ermöglichen, die weit über das ursprüngliche Medienbudget hinausgehen, wodurch das Problem noch verschärft wird. Dieser eine Punkt allein sollte, nachdem Sie die Forschung gelesen haben, zu ernsthafter Seelensuche führen.

Das Fazit ist, dass ein Unterschied von 1–2% bei den Wahlergebnissen aufgrund des Angriffs auf <1% der gefälschten Nachrichtenartikel auf Facebook ein durchaus plausibles Ergebnis ist. Wir können es natürlich nicht genau wissen, aber es gibt eine echte, harte Wissenschaft, die diese Theorie stützt.

Nicht nur die Nachrichten

In Ihrem Artikel gibt es am Anfang von Absatz 2 eine subtile Verschiebung. Es ist wirklich gut gemacht! Sie haben wirklich gute PR-Leute! (nicht wirklich!). Absatz 2 beginnt: „Nach den Wahlen fragen sich viele, ob falsche Nachrichten zum Ergebnis beigetragen haben und was unsere Verantwortung ist, die Verbreitung von falschen Nachrichten zu verhindern.“ Nun, ja, viele fragen sich, ob falsche Nachrichten zum Ergebnis beigetragen haben. Aber noch mehr Menschen fragen sich, ob Facebook zum Ergebnis beigetragen hat - durch falsche Nachrichten, durch die laxe Überwachung rassistischer Meme, durch seine grundlegende ursprüngliche Lüge, dass nur echte Menschen auf Facebook sind, wenn es mit falschen Accounts überfüllt ist. Gefälschte Nachrichten sind nur eines der Probleme bei Facebook. Tausend "Hillary Clinton ist eine Gaunerin" -Meinungsartikel fallen wahrscheinlich nicht in Ihre Anzahl gefälschter Nachrichten per se (obwohl es erwähnenswert ist, dass ihr Titel Verleumdung darstellen würde und eine Lüge ist). Und Meinungsäußerungen sind für die Polizei sehr viel schwieriger. Aber wir sollten niemals vergessen, dass Hassreden, anstößige Memes und Hits die Hauptursache für Facebook-Politiken sind und vermutlich nicht zu den rosigen 99% gehören. Hier gibt es berechtigte Kritik an den Richtlinien und Implementierungen von Facebook. Wie Sie sagten: „Hier können wir noch mehr tun.“ Da die „Umarmung“ (die kalte, kalte, tödliche Umarmung) von Nachrichten ein aktuelles Facebook-Unternehmen ist, sollten wir uns hier darauf konzentrieren. Daher beschränken wir uns heute auf die Nachrichten.

99% ist ein vollständiger Fehler in den Nachrichten

Um zu den Nachrichten zu gelangen, lassen Sie uns das Offensichtliche sagen. In den Nachrichten zu sagen, dass Sie zu 99% korrekt sind, ist ein völliger Fehler. Können Sie sich die New York Times, das Wall Street Journal, CNN oder, verdammt noch mal, Breitbart vorstellen, die sagen: "Hey, nur etwa 1% unserer Geschichten sind falsch." Sogar eine falsche Nachrichtengeschichte ist eine schreckliche Tragödie - besonders im Maßstab. In Anbetracht der Tatsache, dass Zehntausende von Nachrichten über Facebook gesendet werden, sprechen wir mit 1% von mindestens Hunderten von falschen Nachrichten. Länder sind weniger in den Krieg gezogen. Länder haben Menschen auf weniger hingerichtet.

Denken Sie an das völlige Scheitern, das die New York Times mit der Entdeckung eingestand, dass einer ihrer Journalisten, Jayson Blair, im Laufe eines Jahres in 36 Artikeln Fälschungen und Plagiate begangen hat. Sie nannten den Vorfall „einen tiefen Vertrauensverrat und einen Tiefpunkt in der 152-jährigen Geschichte der Zeitung“. Sechsunddreißig! Das hätte nicht 1% der Geschichten der Times in einer Woche ausgemacht. Außerdem hatte Jayson Blair keine politische Agenda! Dennoch veröffentlichte die Times immer noch sechstausend Worte. Bemerkenswert ist, dass der Abschnitt über die geplanten Maßnahmen zur Behebung des Problems 200 Wörter länger war als Ihr nicht entschuldigender Blogbeitrag. Das sind die Neuigkeiten. Eine Erfolgsquote von 99% ist Scheiße.

1% ist weit mehr als 1%

Die Anzahl der Nachrichten ist nur ein Teil der Gleichung. Ich denke nicht, dass es ein Zufall ist, dass Sie nicht über die Ausbreitungsrate von gefälschten Nachrichten und echten Nachrichten gesprochen haben. Buzzfeed berichtet von einer gefälschten Pro-Trump-Nachricht, die 480.000 Aktien erhielt, und verglich sie mit den 175.000 Aktien, einer echten und sehr wichtigen New York Times-Geschichte, die die Nachrichten über Trumps Steuern brach. Gefälschte Nachrichten verbreiten sich viel schneller als echte Nachrichten, weil es unglaublich ist. Es scheint eine große Sache zu sein, wenn es richtig wäre („riesig, wenn es wahr ist“), und es bestätigt unsere Vorurteile.

Die Idiotie der Massen

Bisher basieren alle von Ihnen vorgeschlagenen Lösungen für diese sehr realen Probleme auf der noch nicht bewiesenen Hypothese, dass sich Gemeinschaften in großem Maßstab selbst überwachen können („Wir haben bereits Arbeiten gestartet, die es unserer Gemeinschaft ermöglichen, Fälschungen und falsche Nachrichten zu melden…“). Dies ist nicht wahr und war noch nie wahr. Nur weil Silicon Valley seit zwanzig Jahren verzweifelt glauben wollte, dass Gemeinschaften sich selbst überwachen können, ist dies nicht der Fall. Zeigen Sie auf ein Beispiel, wo dies funktioniert hat. Twitter ist eine Kloake, der Sie sich schnell anschließen. Google hat vor langer Zeit die einfachen "Weisheit der Menge" -Algorithmen für seine Such-Rankings aufgegeben und den Algorithmus stark gegen Spammer, Cheats und andere Anomalien verstimmt (und Gott weiß, was noch, aber das ist eine andere Geschichte). Bei Tumblr beschäftigten wir echte, lebende Menschen zum Bearbeiten. Auf einer Skala. Es funktionierte. Sind noch falsche Nachrichten aufgetaucht? Ja. Hat es unser „Kuratieren“ genutzt und uns als Plattform zur Verbreitung von Falschem veranlasst? Nein.

Relevanter: Es gibt keine zuverlässige Nachrichtenorganisation, die sich ausschließlich auf Community-Moderationen stützt. Reddit ist vielleicht das nächstgelegene, aber a) es funktioniert kaum und hat ähnliche Probleme wie Sie, b) es stützt sich nicht nur auf die Community als Ganzes, sondern auf befugte Moderatoren, c) es ist nicht in der Nähe von Facebook (Ihre Größe erfordert a) verantwortungsbewussterer Ansatz) und d) es schiebt dir diese Geschichten nicht nur ins Gesicht, wenn du versuchst, mit deinen Freunden zu sprechen. Man muss sie suchen oder sich zumindest für das Thema interessieren. Es scheint mir, dass das Interesse an einem Thema ein gewisses Maß an Verständnis für das Thema bedeutet.

Die Idiotie der Algorithmen

Warten. Verwenden Sie "die Weisheit der Menge" oder Algorithmen? Wir wissen es nicht einmal. Du warst sehr schweigsam darüber, wie Geschichten tatsächlich verbreitet werden. Klar ist jedoch, dass Sie keine Experten-Editoren verwenden. Ihre Nachrichtenbearbeitung ist katastrophal schlecht. Derzeit sind die Trendthemen eindeutig eine Anzeige - "2018 Buick Regal Wagon" - und zwei Prominente, an denen ich kein Interesse habe und die nicht besonders berühmt sind. Wie üblich sind beide, weil eine Berühmtheit etwas getan hat.

Jetzt mag ich Promi-Klatsch genauso wie die nächste Person. Ich liebe Britney Spears und ich möchte, dass sie Erfolg hat. Ich habe sie fünf Mal live gesehen. Ich bin immer bereit für eine Britney-Geschichte. Millionen anderer Menschen auch. Aber weißt du was? Nur weil ich Britney-Nachrichten mag, heißt das nicht, dass ich sie mir ins Gesicht schieben möchte. Aber was noch wichtiger ist: Nur weil 1 Million Menschen eine Britney-Geschichte mochten, heißt das nicht, dass es eine bessere oder wichtigere Geschichte ist als ein Post über Trumps Steuern. Dies nennt man Bearbeiten. Es gibt einen Grund, warum die Times einen Promi-Redakteur und einen internationalen Redakteur hat - denn jedes Thema muss anders bearbeitet werden. Und sie geben jedem Abschnitt eine Platzierung, die seiner Bedeutung entspricht.

Was macht Ihnen das Bearbeiten so schwer? Rahmen? Unsinn. Ihre Skalierung in den USA ist in keiner Weise relevanter als die von NBC und sie kommen gut zurecht (okay, sie kommen besser zurecht als Sie).

Der einzige Grund, warum die Skala ein Problem für Sie ist, besteht darin, dass Sie die Menschen entfernen und personalisierte Nachrichten in der Skala bereitstellen möchten. Dies ist genau das Problem, wenn es um Nachrichten über die Gesellschaft als Ganzes geht. Haben Sie jemals gefragt, ob Geschichten, die die Gesellschaft als Ganzes beeinflussen, überhaupt personalisiert werden sollten? Was kann das schon bringen?

Und wenn es eine große Menge personalisierter gesellschaftlicher Nachrichten gibt und Algorithmen die einzige Möglichkeit sind, dies zu erreichen (keineswegs eine Selbstverständlichkeit), sind Ihre Algorithmen gescheitert. Sie sind gescheitert, weil sie scheinbar lächerlich rudimentär wirken. Ich zögere sogar, dies zu schreiben, weil ich letztendlich glaube, dass Algorithmen der falsche Weg sind, und da ich weiß, was ich über Facebook weiß, gehe ich davon aus, dass Sie nach der Verweigerungsphase entscheiden werden, Algorithmen als die zu verdoppeln Lösung, indem Sie eine Menge Ressourcen einsetzen, um sie zu verbessern. Zum Teufel, ich wette, dass Sie dies trotz Ihrer öffentlichen Proteste bereits tun. Aber okay. Lass uns erforschen.

Wird jeder Facebook-Nutzer gleich behandelt, wenn er eine Geschichte zu einem Thema teilt? Warum? Warum sollten zumindest unser Beruf, unsere akademische Erfahrung und unser allgemeines Fachwissen zu dem betreffenden Thema (abgeleitet aus Ihren häufig geäußerten Daten) nicht in den Algorithmus einbezogen werden? Warum sollte eine Geschichte über zum Beispiel Zölle und Handel von einem Handelsexperten, einem Hersteller, einem Ökonomen und meinem Mobber aus der Junior High gleichberechtigt geteilt werden?

(Update / Edit: Natürlich könnte der Mobber aus der Junior High in diesem Beispiel ein Opfer eines Handelsgeschäfts sein, und seine Stimme sollte gehört werden. Aber wir reden hier nicht über die Erfahrungen meines Mobbers, wir reden über Neuigkeiten, die er teilt. Es gibt einen Unterschied.)

In der realen Welt höre ich gerne die Nachrichten, die meine Freunde lesen, aber es ist mir egal, was ihre Freunde lesen. Und ich würde mich niemals nur auf einen oder zwei übertriebene Freunde verlassen, um mich mit allen Neuigkeiten zu versorgen. Historisch gesehen war das Thema "Soziales" immer nur ein kleiner Teil unseres Nachrichtenverbrauchs und Sie haben uns keinen Grund angegeben, warum sich dies ändern sollte.

Es ist sicher eine gute Idee, einer Nachrichtenorganisation in einem sozialen Netzwerk auf dem Papier zu folgen. Aber Sie haben den Algorithmus durcheinandergebracht. Ich kann der New York Times oder Buzzfeed oder Fox News auf Facebook nicht folgen. "Folgen" ist ein irreführender Begriff. Alles, was ich tun kann, ist auf einen Knopf zu klicken, der sagt: "Hey, wenn eine ihrer Geschichten super beliebt ist, denk vielleicht darüber nach, sie mir zu zeigen." Es ist, als hätte ich eine Zeitung abonniert und anstatt das Ganze lesen zu können, Ich ließ meine verrückte Tante Mable es aufschneiden, kommentieren und nur diese Teile lesen.

Darüber hinaus sollte die Fähigkeit einer Nachrichtenagentur, Ihre lächerlichen, schrägen und undurchdringlichen Algorithmen zu beherrschen, nicht die Grundlage für den Erfolg oder Misserfolg einer Geschichte sein. Sogar Google hat mehr oder weniger versucht, dieses Problem zu beheben.

In jedem Fall ist der Ansatz gerade jetzt gebrochen. Entweder ist die Verwendung von Algorithmen grundsätzlich fehlerhaft, oder Ihre eigenen Algorithmen sind fehlerhaft.

Kann ich einen Silicon Valley-Ansatz für das Thema vorschlagen, wenn Sie sich nicht wirklich mutig fühlen? A-B teste es. Stellen Sie ein paar gute Redakteure ein - einen für jeden "Typ" von Nachrichten - und arbeiten Sie gleichzeitig an Ihren Algorithmen. Stellen Sie echte, seriöse, sozial verantwortliche Erfolgskriterien auf - vielleicht ein Wissensquiz für eine kleine Auswahl von Benutzern vor und nach dem Kauf. Mal sehen, wer gewinnt. Und teilen Sie die Ergebnisse mit uns.

Die Nachrichten sind nicht Ihr Spielplatz

Es ist kein Geheimnis, dass die Nachrichten wirtschaftlich in Frage gestellt werden. Und es hat lange gedauert, bis Facebook auftauchte. Dennoch glaube ich, dass Facebook teilweise - wenn auch nicht so sehr wie Google - für die Dezimierung des Nachrichteneinkommens und eine grundlegende Änderung der Art und Weise verantwortlich ist, wie Menschen Nachrichten konsumieren. Sie haben vorhandene Trends verschlechtert und sogar auf die von Google verzichtet - die von Google! - redaktionelle Sorgfalt. Einige Ihrer Produkte haben sich zwar bemüht, Nachrichtenorganisationen zu helfen, aber auch diese Produkte fördern den selektiven Verbrauch von Nachrichten und verringern die Fähigkeit eines Verbrauchers, die Nachrichten auf ganzheitliche Weise zu betrachten. Und Sie haben kein Interesse daran gezeigt, dieses Problem zu beheben und Medienorganisationen zu helfen, oder an irgendwelchen sozialen Auswirkungen.

Kurz gesagt, Sie treten als Player in den Nachrichtenmedien auf und haben kein Interesse daran, den Nachrichtenmedien tatsächlich zu helfen, oder an der damit verbundenen sozialen Verantwortung. Jetzt sicher. Sie teilen sich die Werbeeinnahmen. Aber nur beliebte Geschichten bringen Werbeeinnahmen. Sie haben das grundlegende Problem mit Internetnachrichten verschärft: Nur die sensationellsten Geschichten generieren den Umsatz. Egal, ob die Einnahmen aus Abonnements oder Anzeigeneinnahmen stammten, früher waren Einnahmen aus einem Papier Einnahmen aus einem Papier. Sicher, ihre Forschungsabteilungen wussten, dass einige Geschichten mehr gelesen wurden als andere - ich gebe zu, es gibt Tage, an denen ich eine Zeitung abhole und nur die Promi-Geschichten lese. Aber ich habe dieses Papier abonniert und mir dieses Exemplar geholt, weil ich an dieses Papier geglaubt habe. Sie hätten helfen können, dies im Internet zu beheben, aber Sie haben es nicht getan. Du hast es noch schlimmer gemacht. Denn nichts davon erklärte in irgendeiner Weise Ihren Wunsch, einen Fuß in die Arena der Nachrichten zu setzen.

Es ist vielleicht nicht Ihre Schuld, aber Sie sind jetzt Teil des Problems und nicht der Lösung. Ich dachte, ihr solltet innovativ sein.

Sie haben sich entschieden, einen Schritt in die Nachrichten zu machen - eine Nachricht, die die Welt nicht wollte oder brauchte - und die anscheinend in erster Linie von Ihrem derzeitigen (sich langsam verbessernden!) Verständnis der Werbebranche getragen wird, das dem Wunsch entspricht, den Gewinn durch Ermutigung zu steigern Menschen, um die Nachrichten auf Ihrer Plattform zu konsumieren, anstatt an anderer Stelle. Nicht, dass jemals jemand danach gefragt hätte.

Dabei haben Sie anscheinend die Erkenntnis gewonnen, dass Facebook das Erlebnis zweifelsohne verbessern würde. An der Oberfläche scheint das keine unvernünftige Annahme zu sein - warum sollten meine Freunde mir nicht interessante Nachrichten erzählen können? Aber am Ende war entweder die Prämisse fehlerhaft oder die Implementierung war fehlerhaft.

Besuchen Sie mit uns das NewCo Shift Forum, in dem sich 400 der besten Köpfe aus Wirtschaft, Technologie und Regierung für zwei Tage zu einem fokussierten, handlungsorientierten Dialog treffen.