Gefahr für die Glaubwürdigkeit der Medien
Umfrage zum Thema KI: Manipulations-Möglichkeiten von Video, Bild oder Ton durch KI
Täuschend echte Deepfakes: 45 Prozent der Deutschen fürchten, gefälschte Videos nicht (mehr) erkennen zu können - Mehrheit (58,1 Prozent) fordert Kennzeichnungspflicht von manipulierten Inhalten
Ein kurzes Tippen auf das Smartphone – und schon lächelt das eigene Gesicht von Supermans Körper oder aus dem neuen Beyoncé-Musikvideo. Möglich machen dies sogenannte Deepfake-Anwendungen wie "Reface" oder "Faceswap", die mit Hilfe Künstlicher Intelligenz (KI) authentisch wirkende Video-Illusionen erzeugen und vor allem in sozialen Netzwerken beliebt sind. Eine neue repräsentative Umfrage von nextMedia.Hamburg zeigt jedoch: Vielen Menschen in Deutschland bereiten die automatisierten Manipulations-Möglichkeiten von Video, Bild oder Ton durch KI Sorgen. Knapp drei Viertel (71,5 Prozent) der Befragten sehen in Deepfakes eine Gefahr für die Glaubwürdigkeit der Medien. 58,8 Prozent der Umfrage-Teilnehmer fürchten, dass sie für kriminelle Zwecke missbraucht werden.
Denn was bei den lustigen Deepfake-Apps ein großer Spaß ist, kann bei bewussten Täuschungen und manipulierten Nachrichten schnell zum Problem werden: Etwa wenn Identitäten gestohlen oder Politiker Worte in den Mund gelegt werden, die sie nie gesagt haben. Fast jeder Zweite (44,8 Prozent) hat inzwischen Angst, Fälschungen nicht mehr erkennen zu können, weil Deepfake-Algorithmen Gesichtszüge und Stimmen heutzutage nahezu perfekt imitieren. 39,1 Prozent der Befragten zweifeln bereits an der Echtheit mancher Inhalte.
"Bis vor einigen Jahren galten Videos und Tonaufnahmen in der Regel als Belege für Realität. Durch KI-generierte Deepfake-Videos ist es für Konsumenten schwieriger geworden, die grundsätzliche Echtheit von Informationen zu bewerten", so Dr. Nina Klaß, Leiterin von nextMedia.Hamburg. "Viele der Deepfakes, die uns heute in den sozialen Medien begegnen, werden kreativ und für Unterhaltungszwecke entwickelt, aber natürlich gibt es da auch negative Ausnahmen, die vor allem der Täuschung der Öffentlichkeit und der bewussten Verzerrung von Fakten dienen. Deswegen gilt es, Aufklärung darüber zu betreiben, was technisch bereits alles möglich ist und im zweiten Schritt eine Kennzeichnungspflicht von Deepfake-Inhalten einzuführen."
In der Umfrage von nextMedia.Hamburg gaben rund zwei von drei Teilnehmern (61,9 Prozent) zu, nicht genug über Deepfakes zu wissen, um sie einem Freund oder Bekannten erklären zu können. Von denjenigen, die die Technologie verstanden haben, sprach sich eine klare Mehrheit (58,1 Prozent) für eine Deepfake-Kennzeichnungspflicht aus.
Künstliche Intelligenz: Eine Technologie – viele Hoffnungen
Unabhängig vom Thema Deepfakes knüpfen die Menschen in Deutschland überwiegend Hoffnungen an Künstliche Intelligenz als Zukunftstechnologie. Viele glauben, dass KI ihr Leben einfacher (39,4 Prozent) und sicherer (25,3 Prozent) macht. Und jeweils rund jede*r Dritte hofft, dass sich dank KI die Effizienz der eigenen Arbeit erhöht (34,7 Prozent) und Zeit gespart wird (32,2 Prozent). Aber auch Skeptiker gibt es: 34,6 Prozent der Befragten versprechen sich durch KI nichts von alledem.
Das digitale Markt- und Meinungsforschungsunternehmen Civey hat im Auftrag von nextMedia.Hamburg zwischen dem 28. Juni und dem 11. Juli 2021 über 2.500 Menschen in Deutschland befragt. Die Ergebnisse sind repräsentativ für die deutsche Gesamtbevölkerung.(nextMedia.Hamburg: ra)
eingetragen: 23.09.21
Newsletterlauf: 23.11.21
nextMedia.Hamburg: Kontakt und Steckbrief
Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.