Am Mittwoch, den 21. Januar nahmen die Schülerinnen und Schüler des Schmeller-Gymnasiums an einem Workshop des BayernLab teil. Frau Anja Plonner und Herr Stefan Schnurrer klärten die Siebtklässler zu den Themen Fake News, Künstliche Intelligenz und Deep Fakes auf. Organisiert wurde die Veranstaltung, die im Rahmen von „Schule ohne Rassismus – Schule mit Courage“ stattfand, von OStRin Dr. Nadine Kilgert-Bartonek.
Die Medienschulung begann mit einer Folie, auf der Albert Einstein gezeigt wurde. Dieser sagte angeblich: Das Dumme an Zitaten aus dem Internet ist, dass man nie weiß, von wem sie stammen. Dass dies keinesfalls ein Statement von ihm sein konnte, erkannten die Jugendlichen natürlich sofort.
Fake News, so Plonner, sind falsche Nachrichten in Text-, Video- oder Bildform und damit unbewiesene Behauptungen, gezielte Desinformation oder schlichtweg manipulative Lügen. Der Aufbau ähnelt klassischen Nachrichtenbeiträgen. Ihr Ziel ist es, Stimmung für oder gegen eine Sache, eine Person oder Bevölkerungsgruppe zu machen und sie verbreiten sich leider über die sozialen Medien deutlich schneller als wahre Informationen. Dadurch dass sie die öffentliche Meinung beeinflussen, können sie zur Gefahr für die Gesellschaft und die Demokratie werden.
Im weiteren Verlauf stießen die Schüler durchaus auf Schwierigkeiten, Fake News von richtigen Informationen, Werbung, Satire, persönlichen Meinungen oder schlechtem Journalismus zu unterscheiden. Ihnen wurden Webseiten gezeigt und sie mussten abstimmen, in welche Kategorie die von der Referentin gezeigte Folie fiel. Ein Beispiel für Satire aus dem „Postillon“ war der Artikel „Wiener Kunstakademie bietet Donald Trump Studienplatz an.“, wohingegen es sich bei „WAHNSINN! Bald reicht der Strom nicht mehr!“ um Fake News handelte. Danach wurde jeweils besprochen, wie man erkennen kann, um welche Art von Beitrag es sich handelt. So werden in Fake News häufig Großschreibungen und Ausrufezeichen verwendet, der Stil ist meist emotional und die Überschriften werden reißerisch formuliert. Außerdem enthalten sie keine Quellenangabe, die Informationen werden aus dem Zusammenhang gerissen und häufig werden auch alte Bilder in gegenwärtige Kontexte transferiert. Man sollte also immer hinterfragen und nachprüfen, wenn man im Netz auf zweifelhafte Inhalte stößt. Bei einer Webseite kann man beispielsweise das Impressum helfen, Ort, Datum der Veröffentlichung können aufschlussreich sein oder man kann sich bei kostenlosen Faktencheckern (z. B. „Faktenfuchs“) im Internet Auskünfte einholen. Bei Bildern kann die Rückwärtssuche bei Google Bilder zu Rate gezogen werden oder auch ein Check der Foto-Metadaten ist empfehlenswert. Auch hier bekamen die Jugendlichen interessantes Material zu sehen. Wenn beispielsweise nur ein Bildausschnitt von einer mäßig besuchten Veranstaltung gezeigt wird, suggeriert man dem Betrachter, dass eine Menschenmasse anwesend war. Außerdem können Fotos durch veränderte Lichtverhältnisse oder falsche Perspektiven zu Fake News werden. Ein Beispiel hierfür war ein Bild von Prinz William, der von vorne gesehen drei Finger hochhielt, um die Geburt seines dritten Kindes zu signalisieren. Von der Seite fotografiert, hatte es den Anschein, als zeige er den Journalisten den Mittelfinger.
„Wie informiert ihr euch über das aktuelle Weltgeschehen?“, lautete die nächste Frage der Referentin. Manche Schüler schauen tatsächlich noch Nachrichten, aber viele bekommen ihre Informationen über soziale Netzwerke. Soziale Medien seien aber leider die ideale Plattform für Fake News, so Plonner. Jeder könne dort veröffentlichen und dabei auch anonym bleiben. Eine Verfolgung gestalte sich häufig schwierig. Und mit jedem Like, Share oder Kommentar würde der Inhalt weiter verbreitet werden. Teilen bedeutet Verantwortung, warnt die Referentin. Hinzu komme, dass Inhalte häufig nur kurz oder unvollständig angeschaut würden. Das sollten die Schüler natürlich nicht tun.
Die nächste Frage der Referentin an die Schüler lautete: „Was macht ihr, wenn ihr, ohne es zu wissen, eine Falschinformation über WhatsApp weitergeleitet habt und erst später bemerkt habt, dass es sich um Fake News handelte?“ Die Jugendlichen meinten zu Recht, dass man dem Empfänger und dem Absender Bescheid geben und die Nachricht melden sollte. Da auf Social-Media-Plattformen keine redaktionelle Prüfung stattfindet und keine Konten angegeben werden müssen, tummeln sich die Fake News förmlich auf TikTok & Co. Außerdem sind die Nutzer von sozialen Netzwerken sogenannten Filterblasen ausgesetzt. Das heißt, dass die Informationen, die jemand bekommt, vorher mit Hilfe von Algorithmen ausgesiebt werden. Man bekommt nur das zu sehen, was einen vermeintlich interessiert und man wird dadurch immer mehr bestärkt. Dies kann ebenfalls gefährlich sein, wenn sich jemand in eine bedenkliche Richtung bewegt und dadurch permanent in seiner Meinung bestätigt wird. Käufliche Social Bots, also autonome Software-Agenten, könnten zudem zur Gefahr werden. Relativ neu seien Clickbaits, also Klickköder, meist bestehend aus Überschriften, Teasern und Bildern. Sie dienten dazu, Werbeinnahmen zu erzielen, Abos zu verkaufen und Marken bekannter zu machen. Ein Beispiel, das den Schülern gezeigt wurde, lautete: „Hausaufgaben sind in den Ferien verboten“. Im Anschluss daran wurde das Thema Emotionen besprochen. „Emotional Engineering“ bzw. „Framing“ erzeuge gezielt Gefühle bei Menschen durch Bild, Sprache, Ton und Symbole. Das Design, der verbale Ausdruck und die Musik würden dabei ständig an den Zeitgeist angepasst. Fake News bauen bewusst auf Emotionalität. Sie machen einen absichtlich wütend, ängstlich, aggressiv oder traurig schloss die Referentin den ersten Teil des Workshops ab.
Den zweiten Teil der Veranstaltung bestritt Stefan Schnurrer und begann mit der Definition von Künstlicher Intelligenz seitens des Europäischen Parlaments: KI ist die Fähigkeit einer Maschine, menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität zu imitieren. Hierbei seien die Grenzen natürlich schwammig. Der Referent betonte, dass die Anfänge der KI bereits in den 1960er-Jahren lägen. Auf KI basierende Filter sind auf jedem Smartphone zu finden, beispielsweise bei der Gesichtserkennung, der Fokuseinstellung, der Schärferegulierung und der automatischen Voreinstellung zum Verjüngen oder Verschönern einer Porträtaufnahme. Man begegnet also der KI also tagtäglich.
Die KI spielt mittlerweile bei der Bilderkennung eine nicht wegzudenkende Rolle, auch für die Objekterkennung (selbstfahrende Autos, Staubsaugerroboter etc.) oder bei der Qualitätssicherung in der Industrie ist sie unerlässlich.
Schnurrer erklärte weiterhin die Funktion von neuronalen Netzen. So gibt es die Eingabeschicht und die Ausgabeschicht, dazwischen existieren etliche Schichten von Neuronen. Anders formuliert: Was sieht die KI, was macht die KI und wie sieht die Welt aus, in der sich die KI bewegt?
Im weiteren Verlauf des Workshops wurde den Schülern erklärt, wie man die künstliche Intelligenz trainiert. Mittels der kostenlosen Internetseite „teachable machine“ wurden Trainingsdaten per Webcam übermittelt, sodass sich die KI bzw. das neuronale Netz ein Muster für den Daumen nach oben und den Daumen nach unten suchen konnte. Das funktionierte so weit einwandfrei, doch als der Referent im Hintergrund zu sehen war, war sich die KI nicht mehr sicher, um welche Handbewegung es sich handelte. Man muss also einer KI alle möglichen Situationen mittels kategorisiertem Lernen antrainieren und sie muss häufig getestet werden. Daneben gibt es auch unüberwachtes Lernen, das z. B. zur Krankheitserkennung eingesetzt wird. Bei einer trainierten KI gibt es aber immer ein gewisses Restrisiko bei der Fehlererkennung, so Schnurrer.
KI wird auch zur Lokalisierung genutzt, was den Jugendlichen am Beispiel von „Geolocation Estimation“ gezeigt wurde. Bei der Erkennung des Standorts von bekannten Sehenswürdigkeiten schnitt die KI gut ab. Fotos von Tropfsteinhöhlen, kleinerer Inseln oder von Tieren konnte sie allerdings weniger gut oder gar nicht verorten. Da die KI durch das Antrainieren von Daten voreingenommen ist, ist sie folglich nicht in allen Bereichen einsetzbar. So ist sie z. B. für die Prüfung von Kreditwürdigkeit in Banken wenig hilfreich, außerdem für die Auswahl von Bewerbern auf einen Arbeitsplatz, was das Unternehmen Amazon wenig erfolgreich getestet hat.
Natürlich wurde die den Jugendlichen durchaus bekannte generative KI ChatGPT erörtert. Doch der Referent warnte davor, dass sich die von ihr produzierten Texte häufig nur gut anhörten, also schön formuliert seien, jedoch inhaltlich absolut nicht stimmen müssten. Die angegebenen Quellen seien häufig falsch oder nicht auffindbar. Wer also seine Hausaufgaben von ChatGPT erledigen lässt, ist nicht unbedingt gut beraten. Zudem warnte Schnurrer eindringlich davor, persönliche Daten einzugeben.
Der letzte Teil des Workshops hatte sogenannte Deepfakes zum Thema. Deepfakes sind Fotos, Videos oder Audio-Dateien, die mit Hilfe von Künstlicher Intelligenz vorsätzlich verändert werden. Man sieht oder hört Personen, die Sachen tun oder sagen, die diese in Wahrheit gar nie getan oder gesagt haben. Es handelt sich um eine Zusammensetzung aus den Wörtern „Deep Learning“ (Methode, durch die die KI lernt) und „Fake“. Bis vor wenigen Jahren konnte man noch einigermaßen gut erkennen, ob ein Foto echt oder unecht war und die Schüler bekamen auch je zwei Fotos gezeigt: eines von einer realen Person und eines von einer künstlich generierten. Tatsächlich lagen sie aber auch hier teilweise daneben. Heute kann man die Realität von der Fiktion nur noch sehr schwer unterscheiden und man muss wirklich genau hinsehen. Zudem werden die Fotos in Sekundenschnelle generiert. Zur Veranschaulichung versah der Referent sein eigenes Konterfei bei einem Online-Meeting mit den Gesichtern von Olaf Scholz, Friedrich Merz und Markus Söder.
Abschließend zeigte Schnurrer die „aus Text mach Bild“-Methode, indem er die KI mit bestimmten Befehlen fütterte. Die Bilder waren häufig authentisch, zudem könne man bei Bedarf jederzeit nachbessern. Die Qualität von Deepfakes wird also immer besser, was dazu führt, dass man die Fiktion häufig nicht mehr von der Realität unterscheiden kann. Viele Influencer kennzeichneten ihre Videos jedoch nicht mit „not real“. Die Anzahl der Täuschungen stieg mit fortschreitender Entwicklung der KI. So wurde zum Beispiel ein Trickbetrug am Telefon tatsächlich mittels der geklonten Stimme einer Polizeibeamtin, die ein Radiointerview gegeben hatte, durchgeführt.