Generative KI-Tools wie ChatGPT werden im
Unterricht und in außerschulischen MINT-Projekten immer häufiger genutzt, zum
Beispiel zur Erstellung von Arbeitsblättern, Projektbeschreibungen oder
Feedback für Schüler:innen. Sie unterstützen Lehrkräfte im Alltag
und sparen Zeit bei der Vorbereitung. Gleichzeitig nutzen KI-Modelle Inhalte und Muster aus ihren Trainingsdaten. Dadurch können Texte entstehen, die nicht neutral sind, sondern etwa bei Geschlecht, Herkunft oder Rollenbildern bestehende Klischees und Vorurteile wiederholen. Diese Verzerrungen nennt man Biases und sie können sich zum Beispiel in der Wortwahl oder in Beispielen zeigen.
In diesem Lernvideo erfahrt Ihr anhand praxisnaher
Beispiele aus Schule und MINT-Angeboten, wie solche Verzerrungen entstehen und
warum KI nicht automatisch neutral ist. Schritt für Schritt wird gezeigt, wie
gezieltes Prompting hilft, MINT-Arbeitsblätter und andere Materialien mit KI so
zu erstellen, dass sie fachlich verständlich sind und keine einseitigen
Rollenbilder enthalten.
Wer das Thema verantwortungsvolle und diversitätsbewusste KI vertiefen möchte, findet im kostenlosen Kurs unserer Partner-Lernplattform KI-Campus einen strukturierten Einstieg. Der Kurs ist besonders geeignet für alle Personen, die KI in Projekten, Teams oder Organisationen entwickeln, einsetzen oder bewerten und dabei Fairness und Diskriminierungsrisiken mitdenken wollen: Sozialverantwortliche KI-Gestaltung












