HomeArtificial IntelligenceMeta zieht sich von der Faktenprüfung von Inhalten zurück: Was es für...

Meta zieht sich von der Faktenprüfung von Inhalten zurück: Was es für Unternehmen bedeutet

Facebook-Erfinder und Meta-CEO Mark „Zuck“ Zuckerberg erschütterte heute erneut die Welt, als er weitreichende Änderungen an der Art und Weise ankündigte, wie sein Unternehmen benutzergenerierte Beiträge und Inhalte in den USA moderiert und verarbeitet

Zuck nannte die „jüngsten Wahlen“ einen „kulturellen Wendepunkt“, erklärte er grob fünfminütiges Video auf seinem gepostet Facebook Und Instagram berichtet heute Morgen (Dienstag, 7. Januar), dass Meta aufhören wird, unabhängige Faktenprüfer und Faktenprüforganisationen von Drittanbietern zu nutzen, um bei der Moderation und dem Anhängen von Notizen an Benutzerbeiträge zu helfen, die in den sozialen Netzwerken und Messaging-Apps des Unternehmens, einschließlich Facebook und Instagram, geteilt werden , WhatsApp und Threads.

Stattdessen sagte Zuck, dass Meta sich auf einen „Community Notes“-Ansatz verlassen würde, bei dem Informationen von den Benutzern über die Apps von Meta gesammelt werden, um den Beiträgen Kontext und Wahrhaftigkeit zu verleihen, ähnlich wie (und Zuck bestätigte dies in seinem Video) das konkurrierende soziale Netzwerk X ( früher Twitter).

Zuck betrachtete die Änderungen als eine Rückkehr zu Facebooks „Wurzeln“ der freien Meinungsäußerung und als eine Reduzierung der allzu weitreichenden „Zensur“. Die vollständige Abschrift seiner Ausführungen finden Sie am Ende dieses Artikels.

Warum diese Richtlinienänderung für Unternehmen wichtig ist

Mit mehr als 3 Milliarden Nutzer Mit seinen Dienstleistungen und Produkten weltweit ist Meta bis heute das größte soziale Netzwerk. Darüber hinaus nutzten im Jahr 2022 weltweit mehr als 200 Millionen Unternehmen, die meisten davon kleine, die Apps und Dienste des Unternehmens – und 10 Millionen waren den Angaben zufolge aktive zahlende Werbetreibende auf der Plattform eine Führungskraft.

Metas neuer Chief Global Affairs Officer Joe Kaplanein ehemaliger stellvertretender Stabschef des republikanischen Präsidenten George W. Bush – der kürzlich die Rolle übernommen hat, was viele als Signal an die Gesetzgeber und die ganze Welt betrachteten, dass Meta bereit sei, mit dem von der Republikanischen Partei geführten Kongress und dem Weißen Haus zusammenzuarbeiten Wahl 2024 – auch veröffentlichte einen Hinweis auf der Unternehmenswebsite von Meta Einige der Änderungen werden ausführlicher beschrieben.

Einige Führungskräfte wie Shopify-CEO Tobi Lütke scheinen die Ankündigung bereits angenommen zu haben. Als Lutke hat heute auf X geschrieben: „Riesige und wichtige Veränderung.“

Chief Marketing Officer und Tech-Influencer des Founders Fund Auch Mike Solana begrüßte den Schrittschreibt in einem Beitrag auf X: „Die Zensur auf den (M)eta-Plattformen hat bereits dramatisch abgenommen. Aber eine öffentliche Erklärung dieser Art, in der die Wahrheit deutlich zum Ausdruck kommt (die „Faktenprüfer“ waren voreingenommen und die Politik war unmoralisch), ist wirklich und endgültig das Ende eines goldenen Zeitalters für die schlimmsten Menschen der Welt.“

Andere sind jedoch weniger optimistisch und aufgeschlossen gegenüber den Änderungen und sehen darin weniger eine Frage der Meinungsfreiheit als vielmehr eine Gunst bei der neuen Regierung des designierten Präsidenten Donald J. Trump (für seine zweite nicht aufeinanderfolgende Amtszeit) und der Republikanischen Partei -geführten Kongress, wie es offenbar auch andere Wirtschaftsführer und Firmen getan haben.

„Mehr freie Meinungsäußerung in den sozialen Medien ist eine gute Sache“, schrieb die gemeinnützige Organisation Freedom of the Press Foundation im sozialen Netzwerk BlueSky (Offenlegung: Meine Frau ist Vorstandsmitglied der gemeinnützigen Organisation). „Aber basierend auf Metas Erfolgsbilanz scheint es wahrscheinlicher, dass es hier darum geht, sich Donald Trump anzuschließen, als dass es um freie Meinungsäußerung geht.“

Dave Karpf, Professor für politische Kommunikation an der George Washington University, schien dem zuzustimmen: Schreiben auf BlueSky: „Zwei wichtige Fakten darüber, dass Facebook sein Faktencheckprogramm durch Community-Notizen ersetzt: (1) Community-Notizen sind billiger. (2) Das neue politische Regime mag die Überprüfung von Fakten nicht. Daher bereiten Community-Notizen weniger Probleme. Der Rest ist nur Rahmen. Zucks einziger Grundsatz besteht darin, das Beste für Zuck zu tun.“

Und Kate Starbird, Professorin an der University of Washington und Mitbegründerin des UW Center for an Informed Public, schrieb das auf BlueSky: „Meta stellt seine Unterstützung für die Überprüfung von Fakten ein, was nicht nur die Fähigkeit der Benutzer zur Überprüfung von Inhalten beeinträchtigt, sondern im Wesentlichen auch allen kleinen Unternehmen, die daran gearbeitet haben, falsche Online-Inhalte zu identifizieren, die Mittel entzogen wird.“ Aber unsere FB-Feeds sind derzeit im Grunde nur KI-Schwachsinn, also?“

Per E-Mail erreicht: Damian Rollison, Director of Market Insights beim KI-Marketingunternehmen SOCibemerkte auch, dass Zuck und Meta einen freizügigeren Ansatz zur Moderation von Online-Inhalten nachahmten, der von X-Besitzer Elon Musk vertreten wurde:

Wann finden die Änderungen statt?

Sowohl Zuck als auch Kaplan gaben in ihren jeweiligen Video- und Textbeiträgen an, dass die Änderungen an Metas Richtlinien und Praktiken zur Inhaltsmoderation „in den nächsten Monaten“ in den USA eintreffen würden.

Meta wird sein 2016 in den USA gestartetes unabhängiges Faktenprüfungsprogramm zugunsten eines von X (ehemals Twitter) inspirierten Community-Notes-Modells einstellen. Dieses System ist darauf angewiesen, dass Benutzer Notizen schreiben und bewerten. Dabei ist eine Einigung aus verschiedenen Perspektiven erforderlich, um Ausgewogenheit zu gewährleisten und Voreingenommenheit zu verhindern.

Laut seiner Website Meta hatte mit verschiedenen Organisationen zusammengearbeitet „zertifiziert durch die Überparteilichkeit Internationales Netzwerk zur Faktenprüfung (IFCN) oder Europäisches Netzwerk für Faktenprüfungsstandards (EFCSN) „um Inhalte zu identifizieren, zu überprüfen und Maßnahmen zu ergreifen“, die als „Fehlinformationen“ gelten.

Allerdings meinte Zuck in seinem Videobeitrag: „Nachdem Trump 2016 zum ersten Mal gewählt wurde, schrieben die alten Medien ununterbrochen darüber, wie Fehlinformationen eine Bedrohung für die Demokratie darstellten.“ Wir haben in gutem Glauben versucht, diese Bedenken auszuräumen, ohne zu Schiedsrichtern der Wahrheit zu werden, aber die Faktenprüfer waren einfach zu politisch voreingenommen und haben mehr Vertrauen zerstört als geschaffen, insbesondere in den USA.“

Zuck fügte außerdem hinzu: „Es gab eine breite Debatte über mögliche Schäden durch Online-Inhalte. Regierungen und alte Medien drängen zunehmend auf Zensur. Vieles davon ist eindeutig politisch.“

Laut Kaplan zielt die Verschiebung darauf ab, die wahrgenommene Zensur zu verringern, die aus dem vorherigen Faktenprüfungsprogramm resultierte, bei dem legitime politische Äußerungen häufig mit aufdringlichen Etiketten versehen wurden.

Lockerung der Beschränkungen zu politischen und sensiblen Themen

Meta überarbeitet seine Inhaltsrichtlinien, um einen stärkeren Diskurs über politisch sensible Themen wie Einwanderung und Geschlechtsidentität zu ermöglichen. Kaplan wies darauf hin, dass es inkonsistent sei, wenn solche Themen in öffentlichen Foren wie dem Kongress oder im Fernsehen diskutiert würden, auf Metas Plattformen jedoch eingeschränkt.

Automatisierte Systeme, die früher zur Durchsetzung von Richtlinien in einer Vielzahl von Bereichen eingesetzt wurden, konzentrieren sich nun vor allem auf die Bekämpfung illegaler und schwerwiegender Verstöße wie Terrorismus und Ausbeutung von Kindern.

Bei weniger kritischen Problemen verlässt sich die Plattform stärker auf Benutzerberichte und menschliche Prüfer. Meta reduziert auch die Herabstufung von Inhalten für als potenziell problematisch gekennzeichnetes Material, es sei denn, es liegen eindeutige Beweise für einen Verstoß vor.

Die Reduzierung automatisierter Systeme scheint jedoch im Widerspruch zu Metas Förderung von KI als wertvollem Werkzeug in seinen eigenen Geschäftsangeboten zu stehen – warum sollte irgendjemand sonst den KI-Modellen von Meta wie der Llama-Familie vertrauen, wenn Meta selbst nicht damit zufrieden ist? Verwenden Sie sie, um Inhalte zu moderieren?

Kommt es bald zu einer Reduzierung der Inhaltsdeaktivierungen?

Wie Zuck es ausdrückte, ist ein großes Problem der automatisierten Systeme von Facebook die zu weitreichende Zensur.

In seiner Videoansprache erklärte er: „Wir haben viele komplexe Systeme zur Moderation von Inhalten entwickelt, aber das Problem bei komplexen Systemen ist, dass sie Fehler machen, selbst wenn sie versehentlich nur 1 % (der) Beiträge zensieren, das sind Millionen von Menschen und wir.“ „Ich bin an einem Punkt angelangt, an dem es einfach zu viele Fehler und zu viel Zensur gibt.“

Meta räumt ein, dass Fehler bei der Moderation von Inhalten ein anhaltendes Problem darstellen. Kaplan stellte fest, dass zwar weniger als 1 % der täglichen Inhalte entfernt werden, schätzungsweise 10–20 % dieser Aktionen jedoch Fehler sein können. Um dieses Problem anzugehen, plant Meta Folgendes:

• Veröffentlichen Sie Transparenzberichte mit detaillierten Angaben zu Moderationsfehlern und -fortschritten.

• Fordern Sie mehrere Prüfer auf, Entscheidungen zu bestätigen, bevor Inhalte entfernt werden.

• Nutzen Sie fortschrittliche KI-Systeme, einschließlich umfangreicher Sprachmodelle, für Zweitmeinungen zu Durchsetzungsmaßnahmen.

Darüber hinaus verlagert das Unternehmen seine Vertrauens- und Sicherheitsteams von Kalifornien an andere Standorte in den USA, darunter Texas, um der Wahrnehmung von Voreingenommenheit entgegenzuwirken – ein Schritt, über den sich einige auf verschiedenen sozialen Kanälen bereits lustig gemacht haben: Sind die Menschen in Texas wirklich weniger voreingenommen als diese? in Kalifornien?

Die Rückkehr politischer Inhalte – und „Fake News“?

Seit 2021 hat Meta als Reaktion auf Nutzerfeedback die Sichtbarkeit zivilgesellschaftlicher und politischer Inhalte auf seinen Plattformen eingeschränkt.

Allerdings plant das Unternehmen nun, diese Inhalte auf personalisiertere Weise wieder einzuführen.

Benutzer, die mehr politische Inhalte sehen möchten, haben eine bessere Kontrolle über ihre Feeds, da Meta explizite Signale wie „Gefällt mir“-Angaben und implizite Verhaltensweisen wie Beitragsaufrufe verwendet, um Präferenzen zu bestimmen.

Diese Wiedereinführung politischer Inhalte könnte jedoch die Gefahr bergen, dass erneut die Verbreitung politisch motivierter Fehlinformationen von US-Gegnern ermöglicht wird – wie wir im Vorfeld der Wahlen 2016 gesehen haben, als zahlreiche Facebook-Seiten Desinformationen und Verschwörungstheorien verbreiteten favorisierte Republikaner und lehnte demokratische Kandidaten und Politiken ab.

Einer gab zu, der Urheber von „Fake News“ zu sein sagte NPR dass sie zwar versucht hatten, Inhalte sowohl für ein liberales als auch für ein konservatives Publikum zu erstellen, letztere jedoch eher daran interessiert und leichtgläubig waren, gefälschte Inhalte, die ihren Ansichten entsprachen, zu teilen und erneut zu teilen.

Solche „Fake News“ waren so weit verbreitet, dass es so war sogar in den sozialen Medien selbst wurde darüber gescherzt und in .

Meine Analyse, was es für Unternehmen und Markenseiten bedeutet

Ich habe noch nie ein Unternehmen geführt, aber ich habe mehrere Facebook- und Instagram-Konten im Auftrag großer Unternehmen und kleinerer Startups/gemeinnütziger Organisationen verwaltet, sodass ich aus erster Hand weiß, wie viel Arbeit in die Pflege, das Posten und die Vergrößerung ihres Publikums/Followers gesteckt wird .

Ich denke, dass das erklärte Engagement von Meta, mehr Meinungsfreiheit bei seinen Produkten wiederherzustellen, zwar lobenswert ist, die Jury sich jedoch nicht sicher ist, wie sich diese Änderung tatsächlich auf den Wunsch der Unternehmen auswirken wird, mit ihren Fans und Kunden über diese Produkte zu sprechen.

Bestenfalls wird es ein zweischneidiges Schwert sein: Weniger strenge Richtlinien zur Inhaltsmoderation geben Marken und Unternehmen die Möglichkeit, kontroversere, experimentellere und gewagtere Inhalte zu veröffentlichen – und diejenigen, die dies ausnutzen, können mit ihren Botschaften möglicherweise ein breiteres Publikum erreichen. dh „viral werden“.

Auf der anderen Seite könnte es für Marken und Unternehmen jetzt schwierig werden, ihre Beiträge gesehen und darauf reagiert zu bekommen, während andere Seiten noch kontroversere, politisch pointiertere Inhalte veröffentlichen.

Darüber hinaus könnten die Änderungen es Benutzern leichter machen, Marken zu kritisieren oder sie in Verschwörungen zu verwickeln, und es könnte für die Marken schwieriger sein, die Entfernung solch wenig schmeichelhafter Inhalte über sie zu erzwingen – selbst wenn sie unwahr sind.

Was kommt als nächstes?

Die Einführung von Community-Notizen und Richtlinienanpassungen wird voraussichtlich in den kommenden Monaten in den USA beginnen. Meta plant, diese Systeme im Laufe des Jahres zu verbessern und zu verfeinern.

Diese Initiativen, sagte Kaplan, zielen darauf ab, das Bedürfnis nach Sicherheit und Genauigkeit mit dem Kernwert des Unternehmens, freie Meinungsäußerung zu ermöglichen, in Einklang zu bringen.

Kaplan sagte, Meta konzentriere sich auf die Schaffung einer Plattform, auf der Einzelpersonen sich frei äußern können. Er erkannte auch die Herausforderungen bei der Verwaltung von Inhalten in großem Maßstab an und beschrieb den Prozess als „chaotisch“, aber für Metas Mission unerlässlich.

Für Benutzer versprechen diese Änderungen weniger aufdringliche Eingriffe und eine größere Möglichkeit, die Konversation auf den Plattformen von Meta zu gestalten.

Ob es dem neuen Ansatz gelingen wird, Frustrationen abzubauen und einen offenen Dialog zu fördern, bleibt abzuwarten.

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Must Read