Generative KI-Tools wie ChatGPT werden im Unterricht und in außerschulischen MINT-Projekten immer häufiger genutzt, zum Beispiel zur Erstellung von Arbeitsblättern, Projektbeschreibungen oder Feedback für Schüler:innen. Sie unterstützen Lehrkräfte im Alltag und sparen Zeit bei der Vorbereitung. Gleichzeitig nutzen KI-Modelle Inhalte und Muster aus ihren Trainingsdaten. Dadurch können Texte entstehen, die nicht neutral sind, sondern etwa bei Geschlecht, Herkunft oder Rollenbildern bestehende Klischees und Vorurteile wiederholen. Diese Verzerrungen nennt man Biases und sie können sich zum Beispiel in der Wortwahl oder in Beispielen zeigen.
In diesem Lernvideo erfahrt Ihr anhand praxisnaher Beispiele aus Schule und MINT-Angeboten, wie solche Verzerrungen entstehen und warum KI nicht automatisch neutral ist. Schritt für Schritt wird gezeigt, wie gezieltes Prompting hilft, MINT-Arbeitsblätter und andere Materialien mit KI so zu erstellen, dass sie fachlich verständlich sind und keine einseitigen Rollenbilder enthalten.
Wer das Thema verantwortungsvolle und diversitätsbewusste KI vertiefen möchte, findet im kostenlosen Kurs unserer Partner-Lernplattform KI-Campus einen strukturierten Einstieg. Der Kurs ist besonders geeignet für alle Personen, die KI in Projekten, Teams oder Organisationen entwickeln, einsetzen oder bewerten und dabei Fairness und Diskriminierungsrisiken mitdenken wollen: Sozialverantwortliche KI-Gestaltung












