Elizabeth Dubois: Ich erforsche den politischen Einsatz neuer Technologien, dazu gehören KI, aber auch soziale Medien, Suchmaschinen und alle möglichen anderen Kommunikationstechnologien, die unsere Wahlsysteme infiltriert haben. Und so habe ich kürzlich einen Bericht geschrieben, der sich mit dem Einsatz von KI in der kanadischen Politik befasst. Aber wie Sie bereits erwähnt haben, habe ich die US-Wahlen offensichtlich verfolgt, um zu sehen, was an der Schwelle steht – und was wir von den nächsten Wahlen erwarten können.
Javier Espinoza: Und ich denke, es ist der perfekte Zeitpunkt für unser Gespräch. Heute haben wir neue Nachrichten und abgesehen von der Wiederwahl von Trump … . . Elon Musk hat sich meiner Meinung nach als die andere große Persönlichkeit, Figur und Akteurin herausgestellt, die Einfluss hat. Ich weiß nicht, in welchem Ausmaß, aber er hat bei dieser Wahl eine Rolle gespielt, wie wir es noch nie zuvor gesehen haben – auch mit X (ehemals Twitter) als Plattform, um zu helfen. Ich weiß nicht, wie viele von Ihnen auf X sind, ich weiß, dass die Zahlen sinken, aber der Algorithmus in meinem X-Profil ist, als wäre ich ein Republikaner. Was denken Sie darüber?
ED: Das ist ein wirklich interessantes Beispiel, weil Menschen mit viel Geld schon seit langem großen Einfluss auf die US-Politik haben. Das ist nicht neu. Und da Social-Media-Unternehmen diese Informationen kontrollieren, entscheiden sie, welche Anreize sie setzen. . . Was Sie in Ihrem Feed priorisieren sollten. Das ist auch nicht neu. Aber die Kombination dieser Dinge hat sich wirklich auf eine Weise entwickelt, auf die wir meiner Meinung nach nicht vollständig vorbereitet oder erwartet hatten.
Sie haben erwähnt, dass Ihr Feed so aussieht, als wären Sie ein Republikaner. Und wir wissen, dass dies in den Feeds vieler Menschen der Fall ist – obwohl es laut Umfragen etwa gleich viele Demokraten und Republikaner gibt, die diese Tools nutzen. Es ist also wirklich interessant, die Leistungsfähigkeit dieser Algorithmen zu sehen. Es zeigt wirklich, dass unsere Informationsumgebung von diesen Systemen kontrolliert wird, und manchmal auch von bestimmten Personen, wenn sie beispielsweise ein großes Unternehmen übernehmen.
IST: Und glauben Sie, wir erfahren gerade erst, welche Auswirkungen X und Musk auf diese Wahl hatten? Glauben Sie, dass es an der Anzahl der Menschen liegt, die er über die Plattform erreichen konnte, oder an der Mobilisierung derjenigen, die bereits konvertiert sind? Worüber denken Sie? . . die Nutzung dieser Plattform und auch Fehlinformationen?
ED: Ja, ich denke, dass An diesem Punkt geht es nicht so sehr darum, ein Missverständnis der Realität bei den Massen zu erzeugen, sondern vielmehr darum, bestimmte Menschen, die sehr aktiv sind und eine laute Stimme haben, dazu zu bringen, diese Informationen zu teilen und sie immer wieder zu teilen.
IST: Ich hatte heute Morgen gerade eine Diskussion mit jemandem aus der britischen Regulierungsabteilung der Regierung, der sagte, dass sie bei ihren Untersuchungen festgestellt haben, dass Menschen möglicherweise absichtlich versuchen, sich Deep Fakes oder Fehlinformationen auszusetzen und das Überprüfbare auszuschließen . . . hochentwickelte Informationen, die die Financial Times und andere Medien täglich produzieren. Ist Ihnen das bei Ihrer Recherche aufgefallen?
ED: Ja. Eines der Dinge bei der Desinformationsforschung ist also, dass wir wirklich davon ausgehen, dass jeder echte Inhalte haben möchte, oder? Wenn wir nur genügend qualitativ hochwertige Inhalte haben, ist das in Ordnung. Aber die Realität ist, dass Menschen gerne unterhalten werden. Menschen mögen es, Gemeinschaft zu spüren. Menschen möchten, dass ihre Ideen unterstützt und bestärkt werden. Es gibt also eine Reihe von Gründen, warum Menschen sich bewusst für eine Art Desinformation entscheiden oder sie einfach nicht in Frage stellen.
IST: Und ich denke, dass dies den Nutzen und die Effizienz, über die wir in Bezug auf . . Konkretisieren Sie einige der von Ihnen identifizierten Arten, wie Menschen, Agenten oder Länder Fehlinformationen nutzen und mit Algorithmen spielen?
ED: Ja. Wenn wir also über KI und Desinformation nachdenken, kommt uns sofort die Idee: „Oh, das sind die Deepfakes.“ Und tatsächlich gibt es Deepfakes. Wir haben Beispiele gesehen, sogar bei dieser US-Wahl. Aber der KI-Einsatz geht darüber hinaus. Was wir auftauchen sehen, sind Menschen, die generative KI-Tools wie ChatGPT als Suchmaschine nutzen, und wir wissen, dass diese Tools oft halluzinieren und oft Informationen produzieren, die Ungenauigkeiten enthalten oder denen Kontextinformationen fehlen.
So erhält man oft „wahre“ Fehlinformationen. Es besteht nicht unbedingt die Absicht, zu schaden, aber dennoch werden beispielsweise Menschen am falschen Tag in Wahllokale geschickt.
IST: Wow. Das ist ziemlich schockierend zu hören. Was gilt Ihrer Meinung nach als KI bei Wahlen? Geben Sie uns ein bisschen mehr. . .
ED: Es gibt viele politische Softwareprogramme, die KI-Technologien in ihre Systeme integrieren, um einer Kampagne dabei zu helfen, potenzielle Wähler – und Menschen, denen man keine Beachtung schenkt – besser anzusprechen oder ein besseres Profil zu erstellen.
Wir haben auch Beispiele dafür, dass KI für Übersetzungen oder die Erstellung von Robocalls eingesetzt wird, um es einfacher zu machen, mehr (mehr) Menschen zu erreichen, was gut sein könnte – wir könnten sehen, dass dies eine sehr hilfreiche demokratische Sache ist, wenn man Communities einbezieht, die bestimmte Themen sprechen Sprachen, die vielleicht kein Kandidat spricht. Aber es kann für Menschen auch sehr trügerisch und verwirrend sein.
Und dann haben wir diese ganze Gruppe von Konversationsagenten oder gesprochenen Bots, die wir allmählich auftauchen sehen. Bei der letzten Präsidentschaftswahl in Mexiko gab es beispielsweise eine Präsidentschaftskandidatin, die einen KI-gestützten „Sprecherbot“ erschuf, der im wahrsten Sinne des Wortes als Sprecherin für sie und ihren Wahlkampf fungierte. Und das verändert die Informationslandschaft wirklich.
IST: Wie effektiv war das? Wurde der Kandidat dadurch gewählt?
ED: Der Kandidat wurde nicht gewählt. Bei all diesen Werkzeugen wird es wirklich schwer zu sagen sein, ob es die KI war, die jemanden gewählt hat oder nicht. Es gibt so viele verschiedene Versionen dieser Art von Tools, und sie sind in wirklich komplexe Kampagnenstrukturen eingebettet.
IST: Wir wissen jedoch, dass es die Art und Weise verändert, wie wir mit politischen Kandidaten interagieren können. Denken Sie – und ich weiß, dass wir die Forschung betreiben müssen, aber lasst uns ein wenig spekulieren … damit wir … zumindest über diese Dinge nachdenken können … Ich meine, wir reden jetzt über KI, aber … … die Brexit-Abstimmung wurde wohl auch von den sozialen Medien und dem Ergebnis beeinflusst. Glaubst du das? . . Sehen wir Ergebnisse bei Wahlen, die wir nicht hätten, wenn wir nicht über diese neu aufkommenden Technologien oder Möglichkeiten zur Verbreitung von Fehlinformationen verfügten?
ED: Es lässt sich absolut nicht leugnen, dass Technologie Einfluss auf Wahlen und die Art und Weise hat, wie Kampagnen durchgeführt werden. Es ist wirklich schwer herauszufinden, was das Ergebnis einer Wahl hauptsächlich verändert hat. Aber es ist ganz klar, dass die Art und Weise, wie diese neuen Technologien in Kampagnen integriert werden, die Art und Weise verändert, wie Kampagnen ablaufen. Es verändert die Art und Weise, wie Journalisten über Kampagnen berichten, und es verändert die Art und Weise, wie die Öffentlichkeit mit den Informationen interagiert, die aus diesen Systemen stammen.
Wir sehen also durchaus jetzt Auswirkungen. Beeinflussen Fehl- oder Desinformationen die Wahlen so sehr, dass wir den Ergebnissen nicht mehr trauen oder die Integrität in Frage stellen können? Ich denke, was wir bisher, insbesondere bei den jüngsten US-Wahlen, gesehen haben, ist, dass die KI im Hinblick auf ihre Täuschungskraft und die Art und Weise, wie sie eingesetzt wird, nicht die Art von Auswirkungen oder die Art von störenden Effekten hat, die sie hat was wir ursprünglich erwartet hatten.
Das bedeutet jedoch nicht, dass sich dies nicht ändern wird, wenn diese Tools weiterentwickelt und in unser tägliches Leben integriert werden.
Publikumsfrage: Was können Ihrer Meinung nach die Plattformbetreiber selbst noch tun, um Fehlinformationen und Desinformation zu bekämpfen?
ED: Ich beginne zunächst mit KI und insbesondere generativen KI-Tools. Meiner Meinung nach müssen sehr klare Sicherheitsvorkehrungen in das System eingebaut werden, damit es nicht in der Lage ist, falsche oder kontextualisierte Informationen zu halluzinieren oder anzubieten, insbesondere wenn es darum geht, wie Menschen wählen können, wann sie wählen sollten und wer antritt ihre Wahlen. Das sind wirklich wichtige Informationen, die die Integrität einer Wahl untergraben.
Dann kommen wir zu der größeren Frage der Verbreitung von Fehl- und Desinformationen über alle Arten von sozialen Medien und bei der Suche, und das ist eine viel kniffligere Frage. Ich denke, eine Möglichkeit besteht darin, mehr Transparenz und Klarheit darüber zu schaffen, wie Priorisierungs- und Depriorisierungsalgorithmen funktionieren. Stellen wir sicher, dass es Vertrauens- und Sicherheitsteams gibt, die diese Unternehmen unterstützen und nutzen, um sicherzustellen, dass sie tatsächlich darauf reagieren, wenn potenziell schädliche Informationen über diese Plattformen verbreitet werden.
Ich denke auch, dass irgendwann eine umfassendere staatliche Regulierung erforderlich sein könnte, da wir wissen, dass diese Plattformen jeweils individuelle Entscheidungen treffen und dass der Führungswechsel in einer dieser Organisationen die Informationsumgebung drastisch verändern kann schnell, was – im Rahmen eines tatsächlichen Wahlkampfs – sehr riskant sein könnte.
Publikumsfrage: Wie wir bei den US-Wahlen gesehen haben, kam es in Bundesstaaten wie Georgia zu echten Unruhen. . . Menschen werden vom Wählen abgeschreckt. Und das hatte schwerwiegende Auswirkungen. Haben Sie allgemeine Anmerkungen dazu, wie wir das noch weiter minimieren und abmildern können?
ED: Bezüglich . . . Georgia, ich würde es noch weiter fassen und sagen: Wenn wir uns die US-Wahlen und mögliche Auswirkungen auf die Wahlfähigkeit der Menschen ansehen, wissen wir, dass sie über den Einsatz von KI hinausgehen. Und es gibt Wahlsysteme, die es beispielsweise für Menschen, die im Ausland leben, schwierig machen, rechtzeitig Stimmzettel zu erhalten. Wenn wir darüber nachdenken, ob die Menschen ausreichend informiert waren, um ihre Stimme abzugeben, spielen meiner Meinung nach verschiedene Dinge eine Rolle. Das ist nichts ganz Neues. Aber es ist etwas, das. . . Fehl- und Desinformationen können zur Verschärfung genutzt werden, da Informationen so schnell verbreitet werden können. Da KI in so vielen verschiedenen Formaten online verfügbar ist, kann es wirklich schwierig sein, den Wahrheitsgehalt zu erkennen und zu wissen, wie man die nächsten Schritte ausführt.
Publikumsfrage: Die Algorithmen in den sozialen Medien belohnen Engagement, oder? Und oft gibt es bei Menschen eine Voreingenommenheit, die dazu führt, dass sie sich eher zu negativen, hasserfüllten und provokativen Inhalten hingezogen fühlen. Daher können die Algorithmen, wie soziale Netzwerke, einfach sagen: „Oh, wir wiederholen nur, was die Leute sehen wollen.“ Und so profitieren Politiker, die Negativität und Hass ausnutzen, davon. Denken Sie, dass die eigentlichen Algorithmen selbst reguliert werden müssen, um sich davor zu schützen?
ED: Das ist ein toller Punkt. Das lässt mich über die Forschung nachdenken, die zu Angriffsanzeigen durchgeführt wurde. Es ist bekannt, dass Anzeigen über politische Angriffe sehr wirksam sind, wenn es darum geht, Menschen dazu zu bringen, dem Angegriffenen nicht zu vertrauen oder nicht für ihn stimmen zu wollen. Aber es gibt einen Rebound-Effekt, bei dem derjenige, der den Angriff verursacht hat, auch in den Umfragen einen Rückschlag hinnehmen muss. Das war also eine gewisse natürliche Abschreckung davor, zu viele negative Kampagnen dieser Art zu betreiben.
Aber was wir in Online-Systemen sehen, ist, dass es für politische Kampagnen viel einfacher ist, sich von solchen Angriffen und solchen angstbasierten Ansätzen zu distanzieren. So können Sie am Ende Ihren Gegner untergraben, ohne den Schlag unbedingt selbst einstecken zu müssen.
Es kann durch verschiedene Arten generativer KI-Tools, die Social-Media-Algorithmen, die es verstärken, noch einmal verschärft werden. Sollten also die Algorithmen selbst reguliert werden? Ich weiß nicht, dass wir unbedingt eine Situation wollen, in der jede Plattform eine bestimmte Art der Priorisierung einhalten muss, sowohl aus geschäftlichen Gründen als auch aus Gründen des Zugangs zu Informationen. Aber ich denke, wir brauchen viel mehr Transparenz darüber, wie diese funktionieren, und wir brauchen zusätzliche Optionen, damit die Menschen verschiedene Arten von Kuratoren für ihre Informationen auswählen können.