logo



[email protected]

Wahljahr 2024: KI könnte Desinformation befeuern

17-01-2024, 05:00

Die Fortschritte in der Künstlichen Intelligenz (KI), die als Grundlage für Programme wie ChatGPT dienen, könnten im Wahljahr 2024 zu umfangreichen Manipulationen und Desinformationskampagnen führen.

"Es war noch nie so einfach, schnell und billig, synthetische, also mit Hilfe von KI erstellte Inhalte zu produzieren", erklärte Merve Hickok, US-Expertin für KI-Ethik und -Politik sowie Präsidentin der Non-Profit-Organisation Center for AI & Digital Policy, im APA-Gespräch.

Fortschritte bei KI könnten im Wahljahr 2024 Desinformationen beflügeln

"Wir werden heuer eine Vielzahl an böswilligen Akteuren sehen, die sich durch Desinformation, Deepfakes und Co. Vorteile verschaffen wollen. Die Hürden sind durch die Fortschritte bei KI so niedrig wie noch nie", sagte Hickok, die heute, Dienstagabend, anlässlich einer Veranstaltung von Außenministerium, TU Wien Informatik und US-Botschaft mit weiteren Expertinnen und Experten über die Auswirkungen von KI auf die Demokratie diskutieren wird. 2024 werde außerdem das Jahr mit den meisten Wahlen weltweit in der Geschichte sein.

Größte Gefahr für Wahlen gehe von Generative AI aus

Die größte Gefahr für Wahlen gehe von Generative AI aus, die sowohl bei nationalen Wahlen, als auch im lokalen Bereich eine zunehmende Rolle spielen werde. Dabei müsse es nicht unbedingt um die Beeinflussung der Wahlergebnisse selbst gehen, etwa indem die Menschen zu diesem oder jenem Kandidaten gedrängt würden. "Ein anderer Ansatzpunkt ist für das Erodieren des Vertrauens in das System, in Politiker oder in Wahlbehörden zu sorgen. Damit wird auch beeinflusst, ob die Gesellschaft die Resultate der Wahl akzeptiert oder nicht. Wir haben schon gesehen, was Misstrauen auslösen kann", so die Expertin.

Entwicklung von technischer und gesellschaftlicher Seite entgegengewirkt

Dieser Entwicklung müsse sowohl von technischer als auch gesellschaftlicher Seite entgegengewirkt werden. Bei ersterem gehe es um die Abwehr von Cyberangriffen und Schadsoftware sowie das Erkennen von synthetischen Inhalten wie Deepfakes, wobei hier massive Investitionen in die Forschung notwendig seien. Diskutiert werde derzeit außerdem über Wasserzeichen und andere Arten der Kennzeichnung von Content, der von bekannten Anbietern wie dem ChatGPT-Entwickler OpenAI kommt. "Es gibt aber auch Open-Access-KI-Modelle, die von böswilligen Akteuren benutzt werden können, um synthetische Medien zu produzieren, die nicht gekennzeichnet sind. Man kann also weiter unter dem Radar bleiben", erläuterte Hickok.

Zugang zu Daten der Plattform wichtig für Forschung

Wichtig für die Forschung sei der Zugang zu Daten der Plattformen, um Manipulationen aufspüren zu können. Aktuell ist das laut der Expertin sehr schwierig und oft mit enormen Kosten verbunden, wodurch sich kaum herausfinden lasse, wie Informationen verbreitet, manipuliert und verstärkt werden. Auf gesellschaftlicher Seite brauche es mehr Wissen und Fähigkeiten im Umgang mit KI sowie groß angelegte öffentliche Kampagnen. "Wir müssen den Leuten zwar den potenziellen Einfluss und die Risiken dieser Technologien vermitteln. Die Menschen sollten sich wegen dieser Risiken aber nicht aus demokratischen Prozessen und Wahlen zurückziehen", so die Gründerin der Plattform AIethicist.org, die unter anderem die EU-Kommission berät.

Beeinflussung von Wahlen durch KI-gesteuerte Desinformation

Erst vor wenigen Tagen hat das Weltwirtschaftsforum (World Economic Forum) einen Bericht vorgestellt, in dem die Beeinflussung von Wahlen durch KI-gesteuerte Desinformation als eines der weltweit größten Risiken in den kommenden zwei Jahren genannt wird. "Auch langfristige Entwicklungen wie die Klimakrise und das Thema Migration werden davon beeinflusst. Denn mit Desinformation kann man die Menschen polarisieren und radikalisieren, egal, um welche politische Auseinandersetzung es geht. Technologie ist die Basis all dieser Konflikte", erklärte Hickok.

Forschungsdaten und Faktenchecks

Sie schlägt eine gemeinsame, umfassende Plattform für Forschungsdaten und Faktenchecks zu wahlrelevanten Informationen vor, die das Bewusstsein der Öffentlichkeit schärfen soll. Hier sei ein gemeinsames Vorgehen notwendig, da ein entsprechendes Angebot nicht von einer Organisation oder einem Land aufgebaut werden kann. Die Nutzung von KI-Systemen zur Manipulation von Wahlen stelle inzwischen ohnehin ein globales Phänomen dar, wie beispielsweise Hinweise von Whistleblowern zum missbräuchlichen Einsatz von Facebook in Lateinamerika zeigen würden. Allerdings gebe es in vielen Regionen zu wenig Ressourcen und Daten, um die konkreten Auswirkungen festzumachen. Hier seien die Lücken noch viel größer als in Europa oder den USA.

Eu-Parlament beschloss Rahmen zu Regulierung von KI

Über den vom EU-Parlament kürzlich beschlossenen Rahmen zur geplanten Regulierung von Künstlicher Intelligenz, den AI Act, zeigte sich die Expertin erfreut. "Wir sind glücklich, dass es eine politische Übereinkunft und eine starke Absicherung der Grundrechte gibt. Das ist ein großartiger Startpunkt", sagte Hickok. Noch müssten aber die Details zur Umsetzung abgewartet werden. Außerdem gebe es eine Vielzahl an Ausnahmen, etwa im Bereich Strafverfolgung und nationale Sicherheit. Dass die Anbieter von Hochrisiko-Technologie selbst einschätzen dürfen, ob ihr Produkt den Regeln und Standards entspricht, kritisierte sie ebenso: "Darüber sind wir sehr besorgt."

"Erfolg für Europa" sei kein Hemmschuh für Innovation

Dieser "große Erfolg für Europa" sei jedenfalls kein Hemmschuh für Innovationen. "Wir sehen Regulierung nicht als limitierenden Faktor. Die KI-Entwickler, darunter viele kleine Unternehmen, haben nun Klarheit darüber, was sie am europäischen Markt machen können und was nicht und welchen Anforderungen sie unterliegen", so Hickok. Regulierung sorge nicht nur für rechtliche Klarheit, sondern auch für eine höhere Produktsicherheit. Das werde weit über Europa hinaus Wirkung zeigen.

Podiumsdiskussion "Fostering Democracy in the Age of AI", 16. Jänner, 18.30 bis 20.00 Uhr, TU Wien

Alle Infos zu den und zu den .

(APA/Red)

Nachrichtenquelle


© 2017-2024 wienpress.at [email protected]