re:publica 25
26.-28. Mai 2025
STATION Berlin
Sprachmodelle wie ChatGPT, Llama oder Bard eignen sich hervorragend für einen Zweck, bei dem ihre Mängel gar nicht ins Gewicht fallen: Der Erzeugung von Low-Quality-Content für die Monetarisierung und der Erzeugung von Desinformation. Das gilt in vielleicht noch größerem Maße für Bild- und Videogeneratoren. Tatsächlich ist der manipulative Einsatz solche Machine-Learning-Systeme zur bewussten, ob kommerziell oder politsich motivierten Irreführung, längst im Gang.
Es gibt eine ganze Reihe von Beispielen die zeigen, dass der KI-generierte Desinformationstsunami sich bereits aufbaut. Unsere Gesellschaften und Institutionen sind darauf bislang nur sehr unzureichend vorbereitet. Es gibt Arbeiten, in denen sich Fachleute systematisch mit möglichen Gegenmaßnahmen befasst haben. Aber welche davon sind wirklich realistisch, praktikabel, politisch und regulatorisch umsetzbar? Dieser Talk gibt Antworten.