Von Sniffern und Wasserzeichen – Künstlicher Intelligenz produktiv begegnen
Barbara Körner ist Geschäftsführerin von Coca-Cola Deutschland. Angst vor künstlicher Intelligenz (KI) hat sie nicht, denn dazu ist diese schon viel zu sehr Bestandteil des Alltags der Lebensmittelindustrie. Gerade bei Coca-Cola, wo schon seit Jahren mit Digitalisierung und Automatisierung gearbeitet werde, zum Beispiel mit sogenannten Sniffern. Das sind Messgeräte, die die Verschlüsse und Flaschen kontrollieren und beispielsweise bei Pfandflaschen merken, ob Verbraucherinnen und Verbraucher diese zweckentfremdet haben und sich Fremdstoffe in den Flaschen befinden. Dann werden die Flaschen aussortiert. „Die Sniffer können gut riechen. Die können unglaublich gut tasten. Die können alles Mögliche, viel besser, als ich das kann. Die sind nämlich hypersensibel“, erklärte Körner ihren Mitdiskutanten. Zudem hatte sie für Anna Naether, Government Affairs Manager Google, Christoph Schwennicke, Chefredaktion t-online und Moderator Christoph Minhoff noch eine Überraschung parat. Die „Coke Y3000 Zero Sugar“, die mit Hilfe von KI entwickelt wurde – sowohl der Geschmack als auch die Dose. Dazu seien Kundinnen und Kunden im Vorfeld der Produktentwicklung befragt wurden, wie sie im Jahr 3000 ihre Coke am liebsten trinken würden.
KI unter der historisch-philosophischen Lupe
Bevor diskutiert wurde, eröffnete Prof. Dr. Julian Nida-Rümelin den KI-Abend des Lebensmittelverbands mit einer philosophischen Betrachtung über künstliche Intelligenz und deren Chancen und Risiken. Unter anderem erinnerte er daran, dass der britische Wissenschaftler Alan Turing bereits 1950 mit dem Turing-Test („Imitation Game“) ein Programm entwickelt hatte, mit dem man feststellen konnte, ob ein Computer, also eine Maschine, ein dem Menschen gleichwertiges Denkvermögen haben könne.
Die Podiumsdiskussion kann hier in voller Länge noch einmal angeschaut werden:
Was macht der Bundestag in Sachen KI?
Den Beginn der anschließenden Podiumsdiskussion bestritt Christoph Minhoff zunächst allein mit Tabea Rößner, Vorsitzende des Bundestagsausschusses für Digitales, da diese aufgrund des parallelen Bahnstreiks nur per Skype zugeschaltet werden konnte. Rößner erwähnte, dass der Bundestag sich intensiv mit dem Thema KI beschäftige und Regelungen erarbeite, um die Risiken der KI zu bewerten und zu kontrollieren. Sie betonte, dass die Politik eine wichtige Rolle bei der Schaffung von Regeln habe, um die demokratischen Grundrechte und Fairness zu gewährleisten.
Hat Google Angst vor ChatGPT?
Anna Naether gab im Anschluss Einblicke in die KI-Welt von Google, nachdem Christoph Minhoff die provokante These aufstellte, ob Google überhaupt noch gebraucht werde, wo man doch nun alles ChatGPT fragen könne. Google, so Naether, arbeite mit einer eigenen Lösung namens Google Bard. Sie gab aber zu bedenken, dass beide Systeme, sowohl ChatGPT als auch Bard, generative Systeme seien. Deshalb wären sie gar nicht so gut darin, Fragen zu beantworten, sondern ihre Aufgabe sei es eigentlich, eigenen Content zu erstellen, beim Brainstorming zu helfen und Strukturen zuordnen.
Der KI fehlt die Emotionalität beim Schreiben
Als Journalist muss sich Christoph Schwennicke besonders intensiv mit KI auseinandersetzen. Für ihn war aber nach einem Treffen mit seinem Berufskollegen Kurt Kister klar, dass Kreativität und menschliche Intelligenz unersetzbare Elemente bleiben, die nicht von der KI übernommen werden können. Er wies jedoch zum einen auf die wichtige Frage des Urheberrechts KI-generierter Text hin und darauf, dass die exponentielle Geschwindigkeit der technologischen Entwicklung die Politik und Behörden überholt, was wiederum zu einer Lücke zwischen Technologie und Regulierung führe. Ein Beispiel dafür sei das Leistungsschutzrecht für Verlage, das bereits von neuen Richtlinien wie dem Digital Markets Act und dem Digital Service Act überholt werde. Die Gefahr bestehe, dass diese Lücke es anderen Regionen in der Welt ermöglichen könnte, von unregulierten Technologien zu profitieren.
Kennzeichnung künstlich erzeugter Inhalte
Trotz dieser Herausforderungen gibt es Hoffnung auf die Entwicklung von Lösungen, wie zum Beispiel die Einführung von Wasserzeichen für künstlich erstellte Inhalte, um ihre Authentizität zu überprüfen. Auch YouTuberinnen und YouTuber sollten zukünftig aufgefordert werden, Inhalte, die von einer KI erzeugt wurden, zu kennzeichnen. Besonders wichtig seien in dem Zusammenhang klare Regeln, um Missbrauch zu verhindern, Selbstverpflichtungen von Unternehmen als Vorbild und eine internationale Zusammenarbeit. Nur so könne man die Herausforderungen, die Desinformation und gefälschte Inhalte in der digitalen Welt mit sich bringen, begegnen. Die Runde war sich einig, dass es eine gemeinsame Anstrengung von Unternehmen, Zivilgesellschaft, Politik und anderen Akteuren erfordere, um diese Probleme anzugehen und Lösungen zu finden. Die Diskussion schloss mit der Erkenntnis, dass unser Bildungssystem an die Anforderungen der künstlichen Intelligenz angepasst werden müsse, damit sichergestellt wird, dass jüngere Menschen eigenständiges Lernen nicht verlernen und sich nicht von KI-Systemen abhängig machen, wenn sie demnächst den „Faust“ bearbeiten. Fazit der Podiumsrunde: Ein maßvoller Umgang mit KI könne viele Effizienzsteigerungen ermöglichen, aber rechtliche Rahmenbedingungen müssen klar definiert sein.