Fake-News, Barrieren, wie KI und unsere Abhängigkeit zur Gefahr wird
- Lesezeit: 7 Minuten
Laut Ergebnissen einer repräsentative Forsa-Umfrage, haben bereits jeder und jede zweite Bundesbürger (53 Prozent), generative KI genutzt. Dazu zählen beispielsweise ChatGPT, Google Gemini, MidJourney oder Anthropic Claude. Hinzu kommen Bildgeneratoren oder Anwendungen die ganze Videosequenzen und Sprache, auch von prominenten Personen, echtwirkend generieren.
Weniger öffentlich bekannt, sind die KI- Anwendungen, die über all dessen hinaus gehen und Menschen mit Behinderungen helfen sollen. So ein Startup, dass an Hilfsmitteln für Menschen mit starken Seheinschränkungen helfen soll, ja sogar im Straßenverkehr als Orientierung dient.
Allerdings gehen mit KI-Systemen auch Gefahren aus, denn es ist nicht nur eine Abhängigkeit die zu den Systeme entstehen könnte, vielmehr verstärkt sich dadurch auch die Abhängigkeit zu der dahinter liegenden Infrastruktur. Das wird besonders bei Internetausfällen deutlich, oder dann, wenn sich das Smartphone wieder einmal in einem Funkloch befindet, was selbst in Deutschlands Großstädten nicht ausergewöhnlich ist.
Diese Gefahren sollten uns schon deshalb bewusst sein, weil die dahinter liegende Infrastruktur, dass zeigen aktuelle Ereignisse deutlich, immer der Gefahr ausgesetzt sind, auszufallen oder durch dritte sabotiert zu werden. Wenn genau das passiert, könnten viele Menschen die KI bereits als zwingendes Hilfsmittel nutzen, plötzlich in Bedrängnis geraten, wenn das notwendige KI-System nicht mehr zur Verfügung steht.
Dabei ist KI eben mehr als nur ein Mittel zum Zweck, denn wenn Medizinerinnen und Mediziner KI bereits nutzen um in der Krankheitsdiagnostig Diagnosen aufzustellen, die früher nie möglich gewesen wären, dann ist deutlich erkennbar, inwieweit KI Einfluss auf unser aller Leben haben wird, egal ob substanziell benötigt, oder nur genutzt wird, um sich den Alltag zu versüßen.
Deutschland steht kurz vor einer Bundestagswahl. Die rasante Entwicklung von KI-Systemen wird bei der nächsten Bundestagswahl sicherlich eine Rolle spielen, gerade wenn es darum geht, Inhalte zur Wahl so glaubwürdig zu generieren, dass die Nutzerinnen und Nutzer den publizierten Beitrag für echt einstufen. Allerdings, so eine aktuelle TÜV ChatGBT Studie, gibt es dazu sehr viel Misstrauen.
Prof. Dr. Desirée Schmuck, Universität Wien: „Jugendliche und junge Menschen beziehen politische Informationen und Nachrichten heutzutage hauptsächlich über soziale Medien, wo sie auf eine Vielzahl algorithmisch ausgewählter Inhalte unterschiedlicher Qualität treffen. In den letzten Jahren haben unkonventionelle Quellen wie Influencer, Prominente und andere Meinungsmacher klassische Nachrichtenkanäle überholt und sind auf Plattformen wie TikTok, Instagram und YouTube zu den wichtigsten Informationsquellen für junge Menschen geworden. Das eröffnet Chancen, junge Menschen durch unterhaltsame und leicht verständliche Inhalte (wieder) für Politik zu begeistern. Gleichzeitig ergeben sich durch potenzielle Fehlinformationen oder die Polarisierung von Einstellungen durch einseitige Inhalte auch viele Risiken.“
Laut den Ergebnissen der dritten TÜV ChatGPT-Studie werden in der Bevölkerung die Auswirkungen von KI auf Demokratie und Mediensystem besonders kritisch gesehen, wie der TÜV mitteilte: So befürchten 87 Prozent, dass mithilfe von KI gefälschte Bilder und Videos (Deepfakes) Wählerinnen und Wähler manipulieren können. 83 Prozent sind der Meinung, dass die KI-Technologie die Verbreitung von „Fake News“ massiv beschleunigt. Und 79 Prozent glauben, dass KI-generierte Bilder und Videos von Parteien Wahlergebnisse beeinflussen können. „Im US-Wahlkampf waren Deepfakes ein verbreitetes Mittel, um Wähler zu manipulieren“, sagte Bühler. Laut Umfrage kann ein Großteil der Bundesbürger:innen (81 Prozent) durch den Einsatz von KI kaum erkennen, ob Fotos und Videos echt oder gefälscht sind. 77 Prozent geben an, dass sie den Wahrheitsgehalt eines KI-generierten Textes nicht erkennen können. Und 45 Prozent sind der Meinung, dass die KI-Technologie eine Gefahr für die Demokratie ist. „Um die Risiken von Wahlmanipulation zu verringern, müssen sich die demokratischen Parteien sowie öffentliche Institutionen gegen Desinformation wappnen“, sagte Bühler. „Es braucht klare Leitlinien für den Einsatz von KI im Wahlkampf und freiwillige Selbstverpflichtungen der politischen Parteien zum verantwortungsvollen Umgang mit KI. Die Betreiber von Social-Media-Plattformen müssen konkrete Maßnahmen ergreifen, um demokratische Prozesse zu schützen.“ Darüber hinaus müsse der Referentenentwurf für die deutschen Umsetzungsbestimmungen des EU AI Acts trotz Regierungskrise zügig fertiggestellt werden. Dies schaffe nicht nur Planungs- und Rechtssicherheit für Unternehmen und Prüforganisationen, sondern auch ein höheres Schutzniveau für die Bürgerinnnen und Bürger.
KI-Anwendungen werden zum Arbeitswerkzeug – Skepsis gegenüber den Ergebnissen
Die Umfrage zeigt, dass sich generative KI-Anwendungen zu einem Arbeitswerkzeug entwickeln: Die Hälfte der KI-Nutzenden setzt die Tools ein, um Texte korrekt zu verfassen (50 Prozent). Das sind zehn Prozentpunkte mehr als im Vorjahr. Fast ebenso viele nutzen KI für allgemeine Recherchezwecke oder als Alternative zur Internetsuche (48 Prozent). Gut ein Drittel der Befragten nutzt generative KI für kreative und Prozesse wie Ideenfindung (36 Prozent) sowie zur Lösung von Problemstellungen (34 Prozent). Etwa jede:r Vierte nutzt sie zum Erstellen und Bearbeiten von Bildern und Videos (24 Prozent) und jede:r Fünfte für Übersetzungen (20 Prozent). Immerhin 44 Prozent nutzen KI-Anwendungen aus Spaß beziehungsweise zu Unterhaltungszwecken. Was die Qualität der Ergebnisse angeht, sind die Meinungen geteilt: Knapp die Hälfte der Nutzenden hat nur geringes oder kein Vertrauen in die Richtigkeit der Ergebnisse von KI-Anwendungen (48 Prozent). Dagegen haben genauso viele großes oder sehr großes Vertrauen. 43 Prozent geben an, dass die Ergebnisse nicht konkret genug sind und 31 Prozent, dass sie oft fehlerhaft oder falsch sind. Allerdings wissen sich die meisten zu helfen und überprüfen die Ergebnisse von ChatGPT und Co. durch weitere Recherchen (78 Prozent). Immerhin 44 Prozent fragen die KI nach Quellen, um Ergebnisse zu überprüfen. „Die Skepsis gegenüber der Verlässlichkeit von KI-Ergebnissen verdeutlicht, wie wichtig es ist, Kompetenzen im Umgang mit KI-Technologien zu stärken“, betonte Bühler. „Der Erwerb von KI-Kompetenzen und kontinuierliche Weiterbildung sind der Schlüssel für einen verantwortungsbewussten Umgang mit der Technologie und gegen Manipulation.“
Mehrheit fordert Kennzeichnungspflicht für Künstliche Intelligenz
Um die Gesellschaft vor möglichen Risiken von KI-Systemen zu schützen, hat die EU im August 2024 die europäische KI-Verordnung (EU AI Act) verabschiedet. Der AI Act teilt KI-Anwendungen in vier Risikoklassen mit jeweils unterschiedlichen Anforderungen ein, die in den kommenden Monaten schrittweise erfüllt werden müssen. Die Anforderungen an Transparenz, Risikomanagement und Kennzeichnung von KI-generierten Inhalten treten allerdings erst im August 2026 in Kraft. Eine deutliche Mehrheit der Deutschen fordert Transparenz- und Kennzeichnungspflichten für KI-generierte Inhalte (90 Prozent). Eine verpflichtende Sicherheitsprüfung von KI-Systemen durch unabhängige Prüforganisationen halten 83 Prozent für wichtig, damit Produkte und Anwendungen mit KI sicher und ethisch vertretbar sind. Und 80 Prozent halten eine Regulierung von KI für notwendig, um die Entwicklung und den Einsatz von KI verantwortungsvoll zu steuern. „Jetzt gilt es, zügig einen einheitlichen Leitmarkt für KI-Prüfungen und -Zertifizierungen zu entwickeln, damit vertrauenswürdige KI ‚Made in Europe‘ zu einem Alleinstellungsmerkmal wird“, so Bühler. „Die TÜV-Unternehmen haben das TÜV AI.Lab gegründet, um Prüfmethoden und Prüfwerkzeuge für die Sicherheit von KI zu entwickeln. Jetzt müssen sie als notifizierte Stelle zugelassen werden, um Prüfung und Zertifizierung von KI durchführen zu können. Um reale KI-Risiken gezielt regulieren zu können, ist es wichtig, eine systematische KI-Schadensstatistik aufzubauen. Mithilfe eines evidenzbasierten Bildes realer Schäden mit KI-Beteiligung oder KI-Auslöser, können entsprechende Vorkehrungen gegen diese Risiken getroffen und das Vertrauen der Bürgerinnen und Bürger in die Technologie gestärkt werden.“
Autor: kk / © EU-Schwerbehinderung