---
title: KI prüfen, Regeln aushandeln, Verantwortung klären
date: 2026-03-25
subject: Religionsunterricht / Ethik
grade: Klasse 8, Klasse 9
duration_minutes: 45
tags:
  - relipuls
  - teaching-pack
---
# KI prüfen, Regeln aushandeln, Verantwortung klären

Verlässlichkeit, Verantwortung und Regeln im Umgang mit KI

- Ausgabe: 25. März 2026
- Fach: Religionsunterricht / Ethik
- Zielgruppe: Klasse 8, Klasse 9
- Dauer: 45 Min.

## Didaktische Hinweise

### Didaktische Intention

Die Lernenden verknüpfen zwei Bewegungen: KI-Ergebnisse wirken – aber sie müssen geprüft werden. Damit Prüfung nicht zur Privatleistung wird, braucht es gemeinsame Regeln in Schule, Verein oder Jugendgruppe.


### Risiken

- Keine Technikpanik, keine Technikverherrlichung: Die Frage bleibt Verantwortung.
- Urteile dürfen vorläufig sein; niemand wird zu Zustimmung gedrängt.
- Nichtreligiöse und religiöse Perspektiven werden als eigene Logiken sichtbar – ohne Harmonisierungsdruck.

### Kompetenzerwartungen

- einen KI-Alltagsfall als Frage nach Verlässlichkeit und Verantwortung beschreiben.
- Kernaussagen aus zwei Interviewstimmen zu Prüfen, Regeln und Gemeinwohl vergleichen.
- aus einer Expertenstimme ein Regelprofil für verantwortlichen KI-Einsatz rekonstruieren.
- ein begründetes Urteilsstatement zu Regeln für KI in Schule, Verein oder Jugendgruppe formulieren.

### Ablauf

1. **Alltagsfall als Einstieg (8 Min.)**
   Die Lernenden lesen einen kurzen Fall: Eine Jugendgruppe will einen von KI formulierten Infotext veröffentlichen; der Text klingt überzeugend, enthält aber sachliche Fehler und problematische Zuschreibungen. Zu zweit notieren sie in zwei Spalten: Was müsste vor der Veröffentlichung geprüft werden? Wer trägt die Verantwortung, wenn der Text online geht?
   Lehrkraft: Moderiert im Plenum und hält die zentralen Fragen sichtbar.
   Material: M1
   Ergebnis: Gefüllte Fallsichtung mit mindestens drei Prüffragen und einer ersten Verantwortungszuweisung.

1. **Zwei Expertinnenstimmen vergleichen (15 Min.)**
   Die Lernenden arbeiten mit kurzen Auszügen aus den Interviews von Cornelia Diethelm und Monika Ilves. Sie notieren zu beiden Stimmen stichwortartig: Was soll geprüft werden? Wer trägt Verantwortung? Welche Regel hilft? Was bleibt problematisch? Danach formulieren sie einen Unterschied zwischen beiden Stimmen in höchstens vier Sätzen.
   Lehrkraft: Gibt kurze Impulse, um die Unterschiede zu sichern und nicht zu glätten.
   Material: M2
   Ergebnis: Ausgefüllte Vergleichsnotizen mit benanntem Unterschied.

1. **Eine Stimme genauer lesen – Regelprofil rekonstruieren (10 Min.)**
   Die Lernenden lesen einen längeren Auszug aus dem Interview mit Monika Ilves und rekonstruieren daraus ein Regelprofil für verantwortlichen KI-Umgang. Vorgegeben sind die Bereiche Transparenz, Prüfprozess, Verantwortungszuweisung und Revisionsmöglichkeit. Zu jedem Bereich notieren sie einen Satz: Was müsste eine Gemeinschaft mindestens festlegen?
   Lehrkraft: Unterstützt mit gezielten Nachfragen.
   Material: M3
   Ergebnis: Ausgefülltes Regelprofil mit vier klaren Sätzen.

1. **Position beziehen und begründen (12 Min.)**
   Auf Grundlage der bisherigen Arbeit schreiben die Lernenden ein kurzes Regelstatement für Schule, Verein oder Jugendgruppe: zwei konkrete Regeln und eine Begründung in maximal zehn Sätzen. Satzanfänge: Diese Regeln sind verantwortbar, weil … Diese Regel schützt besonders … Diese Regel bleibt schwierig, wenn …
   Lehrkraft: Abschluss im freiwilligen Austausch im Plenum.
   Material: M2, M3
   Ergebnis: Begründetes Urteilsstatement.


### Differenzierung

**Unterstützung**
- Satzanfänge für die Vergleichsnotizen, angeleitete Stichwortfelder und ein vorstrukturiertes Raster fürs Regelprofil.

**Erweiterung**
- Die Lernenden prüfen zusätzlich, ob ihre Regeln eher Einzelne entlasten, Organisationen verpflichten oder die Öffentlichkeit schützen – und markieren mögliche Konflikte zwischen Schnelligkeit, Fairness und Nachvollziehbarkeit.

## Leitfrage

Wie koennen wir verantwortungsvoll entscheiden, wenn KI keine Wahrheit garantiert, sondern Wahrscheinlichkeiten produziert – und was braucht eine Gemeinschaft dafür, damit nicht jede:r „auf Verdacht“ übernimmt?

## Tagesziel

Wenn KI Ergebnisse liefert, ersetzt sie nicht das Urteilen – sie verlagert Verantwortung stärker auf Menschen.

## Didaktischer Kern

Die Lernenden verknüpfen zwei Bewegungen: KI-Ergebnisse wirken – aber sie müssen geprüft werden. Damit Prüfung nicht zur Privatleistung wird, braucht es gemeinsame Regeln in Schule, Verein oder Jugendgruppe.

## Unterrichtsverlauf

### Einstieg (8 Min.)

Die Lernenden lesen einen kurzen Fall: Eine Jugendgruppe will einen von KI formulierten Infotext veröffentlichen; der Text klingt überzeugend, enthält aber sachliche Fehler und problematische Zuschreibungen. Zu zweit notieren sie in zwei Spalten: Was müsste vor der Veröffentlichung geprüft werden? Wer trägt die Verantwortung, wenn der Text online geht?

- Lehrkraft: Moderiert im Plenum und hält die zentralen Fragen sichtbar.
- Sozialform: Partnerarbeit | Plenum
- Material: M1
- Ergebnis: Gefüllte Fallsichtung mit mindestens drei Prüffragen und einer ersten Verantwortungszuweisung.

### Erarbeitung I (15 Min.)

Die Lernenden arbeiten mit kurzen Auszügen aus den Interviews von Cornelia Diethelm und Monika Ilves. Sie notieren zu beiden Stimmen stichwortartig: Was soll geprüft werden? Wer trägt Verantwortung? Welche Regel hilft? Was bleibt problematisch? Danach formulieren sie einen Unterschied zwischen beiden Stimmen in höchstens vier Sätzen.

- Lehrkraft: Gibt kurze Impulse, um die Unterschiede zu sichern und nicht zu glätten.
- Sozialform: Partnerarbeit
- Material: M2
- Ergebnis: Ausgefüllte Vergleichsnotizen mit benanntem Unterschied.

### Vertiefung (10 Min.)

Die Lernenden lesen einen längeren Auszug aus dem Interview mit Monika Ilves und rekonstruieren daraus ein Regelprofil für verantwortlichen KI-Umgang. Vorgegeben sind die Bereiche Transparenz, Prüfprozess, Verantwortungszuweisung und Revisionsmöglichkeit. Zu jedem Bereich notieren sie einen Satz: Was müsste eine Gemeinschaft mindestens festlegen?

- Lehrkraft: Unterstützt mit gezielten Nachfragen.
- Sozialform: Einzelarbeit
- Material: M3
- Ergebnis: Ausgefülltes Regelprofil mit vier klaren Sätzen.

### Position beziehen und begründen (12 Min.)

Auf Grundlage der bisherigen Arbeit schreiben die Lernenden ein kurzes Regelstatement für Schule, Verein oder Jugendgruppe: zwei konkrete Regeln und eine Begründung in maximal zehn Sätzen. Satzanfänge: Diese Regeln sind verantwortbar, weil … Diese Regel schützt besonders … Diese Regel bleibt schwierig, wenn …

- Lehrkraft: Abschluss im freiwilligen Austausch im Plenum.
- Sozialform: Einzelarbeit | Plenum
- Material: M2, M3
- Ergebnis: Begründetes Urteilsstatement.

## Materialien

- M1: Alltagsfall: Jugendgruppe und KI-Infotext
- M2: Vergleich: Zwei Expertinnenstimmen zu KI und Verantwortung
- M3: Regelprofil aus der Stimme von Monika Ilves
- M4: Begründetes Regelstatement für Schule, Verein oder Jugendgruppe

## Ausgangstext

**TAGS:** Klasse-8,Klasse-9,RUfa,Ethik,KI  

**BODY_MARKDOWN:**

Mich haben an den beiden Sonntagsblatt-Interviews weniger die Technikfragen gepackt als dieser unangenehm alltägliche Moment: Ein KI-Text klingt sauber, plausibel, fast schon fertig – und genau deshalb merkt man leicht zu spät, dass Verantwortung gerade nicht verschwindet, sondern bei Menschen und Gemeinschaften landet.

Genau daran bleibe ich mit den beiden Expertinnen hängen: [Cornelia Diethelm](https://sonntagsblatt.de/ethikexpertin-cornelia-diethelm-ki-braucht-sozial-vertraegliche-transformation) schärft, dass KI nicht einfach Wahrheit liefert und menschliches Prüfen nicht ersetzt. [Monika Ilves](https://sonntagsblatt.de/artikel/monika-ilves-ethik-gemeinwohl) verschiebt den Blick weg vom einzelnen Klick hin zu Gemeinwohl, Verantwortung und zu Regeln, die eine Organisation überhaupt verlässlich machen. Das macht mich nachdenklich, weil man in einer pluralen Lerngruppe schnell in Technikfaszination oder Technikangst rutscht – und dabei das eigentliche Problem aus dem Blick verliert: Verlässlichkeit braucht ein gemeinsames „Wie“.

Für die Stunde ist das niedrigschwellig, weil fast alle schon erlebt haben, dass digitale Ergebnisse überzeugend wirken – und trotzdem schiefgehen können. Wir reden daher nicht über Algorithmen, sondern über Prüfmaßstäbe und darüber, wie eine Gemeinschaft Verantwortung so organisiert, dass nicht jede:r allein „auf Verdacht“ handelt.

Am Ende erstellen die Lernenden ein Regelprofil aus einer Expertinnenstimme und ein begründetes Urteilsstatement. Die Stunde kippt dabei nicht in Technikpanik oder -begeisterung, sondern macht Verantwortung und Regelklären zur verhandelbaren, begründbaren Frage.

> [!hint] Didaktische Intention  
> Die Lernenden verknüpfen zwei Bewegungen: KI-Ergebnisse wirken – aber sie müssen geprüft werden. Damit Prüfung nicht zur Privatleistung wird, braucht es gemeinsame Regeln in Schule, Verein oder Jugendgruppe.

> [!info] Zielgruppe  
> Klasse 8 oder 9 im Hamburger RUfa an Stadtteilschule oder Gymnasium.  
> Kein technisches Vorwissen nötig. Sinnvoll ist nur die Alltagserfahrung: Digitale Texte können plausibel wirken – und trotzdem problematisch sein.

> [!check] Kompetenzerwartungen  
> Die Lernenden können  
> - einen KI-Alltagsfall als Frage nach Verlässlichkeit und Verantwortung beschreiben.  
> - Kernaussagen aus zwei Interviewstimmen zu Prüfen, Regeln und Gemeinwohl vergleichen.  
> - aus einer Expertenstimme ein Regelprofil für verantwortlichen KI-Einsatz rekonstruieren.  
> - ein begründetes Urteilsstatement zu Regeln für KI in Schule, Verein oder Jugendgruppe formulieren.

> [!todo] Ablauf  
> 1. **Alltagsfall als Einstieg (8 Min.)**
> Die Lernenden lesen einen kurzen Fall: Eine Jugendgruppe will einen von KI formulierten Infotext veröffentlichen; der Text klingt überzeugend, enthält aber sachliche Fehler und problematische Zuschreibungen. Zu zweit notieren sie in zwei Spalten: Was müsste vor der Veröffentlichung geprüft werden? Wer trägt die Verantwortung, wenn der Text online geht?  
> Lehrkraft: Moderiert im Plenum und hält die zentralen Fragen sichtbar.  
> Sozialform: Partnerarbeit | Plenum  
> Materialien: M1  
> Ergebnis: Gefüllte Fallsichtung mit mindestens drei Prüffragen und einer ersten Verantwortungszuweisung.  
>   
> 2. **Zwei Expertinnenstimmen vergleichen (15 Min.)**
> Die Lernenden arbeiten mit kurzen Auszügen aus den Interviews von Cornelia Diethelm und Monika Ilves. Sie notieren zu beiden Stimmen stichwortartig: Was soll geprüft werden? Wer trägt Verantwortung? Welche Regel hilft? Was bleibt problematisch? Danach formulieren sie einen Unterschied zwischen beiden Stimmen in höchstens vier Sätzen.  
> Lehrkraft: Gibt kurze Impulse, um die Unterschiede zu sichern und nicht zu glätten.  
> Sozialform: Partnerarbeit  
> Materialien: M2  
> Ergebnis: Ausgefüllte Vergleichsnotizen mit benanntem Unterschied.  
>   
> 3. **Eine Stimme genauer lesen – Regelprofil rekonstruieren (10 Min.)**
> Die Lernenden lesen einen längeren Auszug aus dem Interview mit Monika Ilves und rekonstruieren daraus ein Regelprofil für verantwortlichen KI-Umgang. Vorgegeben sind die Bereiche Transparenz, Prüfprozess, Verantwortungszuweisung und Revisionsmöglichkeit. Zu jedem Bereich notieren sie einen Satz: Was müsste eine Gemeinschaft mindestens festlegen?  
> Lehrkraft: Unterstützt mit gezielten Nachfragen.  
> Sozialform: Einzelarbeit  
> Materialien: M3  
> Ergebnis: Ausgefülltes Regelprofil mit vier klaren Sätzen.  
>   
> 4. **Position beziehen und begründen (12 Min.)**
> Auf Grundlage der bisherigen Arbeit schreiben die Lernenden ein kurzes Regelstatement für Schule, Verein oder Jugendgruppe: zwei konkrete Regeln und eine Begründung in maximal zehn Sätzen. Satzanfänge: Diese Regeln sind verantwortbar, weil … Diese Regel schützt besonders … Diese Regel bleibt schwierig, wenn …  
> Lehrkraft: Abschluss im freiwilligen Austausch im Plenum.  
> Sozialform: Einzelarbeit | Plenum  
> Materialien: M2, M3  
> Ergebnis: Begründetes Urteilsstatement.

> [!adapt] Differenzierung  
> **Unterstützung:** Satzanfänge für die Vergleichsnotizen, angeleitete Stichwortfelder und ein vorstrukturiertes Raster fürs Regelprofil.  
> **Erweiterung:** Die Lernenden prüfen zusätzlich, ob ihre Regeln eher Einzelne entlasten, Organisationen verpflichten oder die Öffentlichkeit schützen – und markieren mögliche Konflikte zwischen Schnelligkeit, Fairness und Nachvollziehbarkeit.

> [!warning] Wichtige Hinweise  
> - Keine Technikpanik, keine Technikverherrlichung: Die Frage bleibt Verantwortung.  
> - Urteile dürfen vorläufig sein; niemand wird zu Zustimmung gedrängt.  
> - Nichtreligiöse und religiöse Perspektiven werden als eigene Logiken sichtbar – ohne Harmonisierungsdruck.

> [!info] Quellen und Links  
> - [Ethikexpertin Cornelia Diethelm: KI braucht sozial verträgliche Transformation](https://sonntagsblatt.de/ethikexpertin-cornelia-diethelm-ki-braucht-sozial-vertraegliche-transformation)  
> - [KI, Ethik und Gemeinwohl: Monika Ilves über Chancen für NGOs und Zivilgesellschaft](https://sonntagsblatt.de/artikel/monika-ilves-ethik-gemeinwohl)

## Arbeitsmaterialien

> [!abstract] M1 Alltagsfall: Jugendgruppe und KI-Infotext  
> **Klasse 8/9 – Hamburger RUfa – Einstieg in KI-Verantwortung**  
> 
> **Fall zum Lesen und Bearbeiten**  
> Eine Jugendgruppe in eurem Stadtteil möchte einen Infotext über ein geplantes Straßenfest veröffentlichen. Sie haben den Text mit einer KI generiert. Der Text klingt gut, ist flüssig geschrieben und wirkt professionell. Allerdings enthält er zwei sachliche Fehler (falsches Datum und falscher Veranstaltungsort) und eine problematische Formulierung, die eine bestimmte Gruppe negativ darstellt. Die Gruppe will den Text schnell online stellen, weil das Fest schon bald ist.  
> 
> **Auftrag (zu zweit, ca. 8 Minuten)**  
> Erstellt eine Tabelle mit zwei Spalten und notiert:  
> 
> | Was müsste vor der Veröffentlichung geprüft werden? | Wer trägt die Verantwortung, wenn der Text online geht? |  
> |-----------------------------------------------------|---------------------------------------------------------|  
> | 1. …                                               | …                                                       |  
> | 2. …                                               | …                                                       |  
> | 3. …                                               | …                                                       |  
> 
> **Beispielzeile (zum Start):**  
> | Was müsste geprüft werden?                          | Wer trägt Verantwortung?                                |  
> |-----------------------------------------------------|---------------------------------------------------------|  
> | Ob die Fakten (Datum, Ort) stimmen                  | Die Jugendgruppe selbst, nicht die KI                   |  
> 
> Notiert mindestens drei Prüffragen.  
> Bringt eure Notizen ins Plenum mit.

> [!abstract] M2 Vergleich: Zwei Expertinnenstimmen zu KI und Verantwortung  
>
> **Methode:** Partnerarbeit (Prüffragen & Verantwortung klären)
>
> ![Methodenbeispiel](https://relipuls.de/storage/b7548458-6e4f-4b98-8042-3714ac250b35.webp)
> *Beispielhafte Illustration der Unterrichtsmethode. KI-generiert. CC0*
>
> **Klasse 8/9 – Hamburger RUfa – Vergleichsauftrag**  
> 
> Arbeitet mit den folgenden Kernaussagen aus den beiden Interviews.  
> 
> **Cornelia Diethelm** (Ethikexpertin):  
> KI liefert keine Wahrheit, sondern Ergebnisse aus Wahrscheinlichkeitsrechnungen. Sie versteht die Welt nicht. Deshalb ersetzt KI menschliches Prüfen nicht. Gefährlich ist vor allem das Bild, KI sei neutral. Menschen müssen kritisch prüfen und dürfen Ergebnisse nicht unreflektiert übernehmen.  
> 
> **Monika Ilves** (Digitalexpertin):  
> KI-Nutzung in Vereinen und NGOs nimmt zu, aber fast keine Organisation hat Leitlinien. Das führt zu „Schatten-KI“. Deshalb braucht es einen gemeinsamen Code of Conduct mit Grundprinzipien. Wichtig sind Transparenz (offenlegen, welche Tools genutzt werden), Abwägung bei der Tool-Auswahl und gemeinsame Verantwortung. Organisationen sollen Regeln aushandeln, damit Risiken wie Diskriminierung oder Intransparenz verringert werden.  
> 
> **Auftrag (Partnerarbeit)**  
> Notiert zu beiden Stimmen stichwortartig in einer Tabelle:  
> 
> | Frage                        | Cornelia Diethelm                  | Monika Ilves                        |  
> |------------------------------|------------------------------------|-------------------------------------|  
> | Was soll geprüft werden?     |                                    |                                     |  
> | Wer trägt Verantwortung?     |                                    |                                     |  
> | Welche Regel hilft?          |                                    |                                     |  
> | Was bleibt problematisch?    |                                    |                                     |  
> 
> Formuliert danach in höchstens vier Sätzen einen Unterschied zwischen beiden Stimmen.  
> Satzanfänge zur Hilfe:  
> - Diethelm konzentriert sich stärker auf …  
> - Ilves betont dagegen …  
> - Der größte Unterschied ist …  
> - Beide sehen jedoch …  
> 
> **Weiterverwendung für Schritt 4**  
> Hebe die beiden wichtigsten Notizen aus der Spalte „Monika Ilves“ und deinen formulierten Unterschied gut auf. Du brauchst sie später für dein Regelstatement.

> [!abstract] M3 Regelprofil aus der Stimme von Monika Ilves  
>
> **Methode:** Regelprofil / Rekonstruktion eines Code of Conduct
>
> ![Methodenbeispiel](https://relipuls.de/storage/06b62858-99dc-4914-ada2-0a8628bab15f.webp)
> *Beispielhafte Illustration der Unterrichtsmethode. KI-generiert. CC0*
>
> **Klasse 8/9 – Hamburger RUfa – Binnensicht und Rekonstruktion**  
> 
> **Längerer Auszug (Zusammenfassung der zentralen Gedanken von Monika Ilves):**  
> „Wir haben beobachtet, dass die Nutzung von KI in der Zivilgesellschaft steigt. Gleichzeitig hatte keine der Nonprofit-Organisationen irgendeine Art von Richtlinie. Dadurch entsteht eine Art Schatten-KI. Der Code of Conduct besteht aus acht Grundprinzipien. Organisationen können sich diese herunterladen und bekommen konkrete Anleitungen.  
> Der Code of Conduct ist eine Selbstverpflichtung, die sich eine Organisation in einem Aushandlungsprozess gibt. Jede Organisation entscheidet, welche Themen sie angehen will.  
> Das erste Prinzip ist Abwägung und Nutzung: Man kann überlegen, ob man eher Standardlösungen oder Open-Source-Lösungen nutzt.  
> Ein weiteres wichtiges Thema ist die Transparenz darüber, wie man künstliche Intelligenz nutzt. Man sollte offenlegen: Das sind die Tools, die wir nutzen. Im besten Fall ist man offen für Diskussion.“  
> 
> **Auftrag (Einzelarbeit)**  
> Rekonstruiert aus diesen Aussagen ein Regelprofil für verantwortlichen KI-Umgang in einer Gemeinschaft (Schule, Verein, Jugendgruppe).  
> Schreibt zu jedem der vier Bereiche **einen klaren Satz**, was eine Gemeinschaft mindestens festlegen müsste.  
> 
> 1. **Transparenz**
>    Eine Gemeinschaft muss festlegen: …  
> 
> 2. **Prüfprozess**
>    Eine Gemeinschaft muss festlegen: …  
> 
> 3. **Verantwortungszuweisung**
>    Eine Gemeinschaft muss festlegen: …  
> 
> 4. **Revisionsmöglichkeit**
>    Eine Gemeinschaft muss festlegen: …  
> 
> Nutzt die Ideen von Monika Ilves (z. B. Offenlegung der Tools, Aushandlungsprozess, gemeinsame Verantwortung).  
> 
> **Unterstützung (ausführlicher als Standard)**  
> Wenn du nicht weiterkommst, nutze diese Starthilfen (du darfst sie abändern):  
> - Transparenz: Eine Gemeinschaft muss festlegen, dass immer sichtbar sein muss, welche KI-Tools für welche Texte verwendet wurden.  
> - Prüfprozess: Eine Gemeinschaft muss festlegen, dass jeder KI-Text von mindestens zwei Personen auf Fakten und Formulierungen geprüft werden muss.  
> - Verantwortungszuweisung: Eine Gemeinschaft muss festlegen, dass nicht die KI, sondern eine benannte Person oder ein kleines Team die endgültige Verantwortung trägt.  
> - Revisionsmöglichkeit: Eine Gemeinschaft muss festlegen, dass es eine einfache Möglichkeit gibt, fehlerhafte KI-Texte nachträglich zu korrigieren und zu kennzeichnen.

> [!abstract] M4 Begründetes Regelstatement für Schule, Verein oder Jugendgruppe  
>
> **Methode:** Vergleichsmatrix
>
> ![Methodenbeispiel](https://relipuls.de/storage/163b85ca-c5fd-470c-b9fa-ea9f4b80f836.webp)
> *Beispielhafte Illustration der Unterrichtsmethode. KI-generiert. CC0*
>
> **Klasse 8/9 – Hamburger RUfa – Abschlussaufgabe**  
> 
> **Auftrag (Einzelarbeit)**  
> Schreibe auf Grundlage deiner Arbeit aus M2 und M3 ein kurzes Regelstatement für eine Gemeinschaft (Schule, Verein oder Jugendgruppe).  
> 
> Das Statement soll enthalten:  
> - zwei konkrete Regeln für den Umgang mit KI-Texten  
> - eine Begründung (insgesamt maximal zehn Sätze)  
> 
> **Satzanfänge zur Hilfe**  
> - Diese Regeln sind verantwortbar, weil …  
> - Diese Regel schützt besonders …  
> - Diese Regel bleibt schwierig, wenn …  
> - Aus den Stimmen von Diethelm und Ilves habe ich gelernt, dass …  
> 
> **Pflicht zur Weiterverwendung**  
> Verwende mindestens eine Erkenntnis aus deiner Vergleichstabelle in M2 (besonders aus der Spalte Monika Ilves) und mindestens einen Satz deines Regelprofils aus M3.  
> Markiere diese übernommenen Teile mit (aus M2) bzw. (aus M3).  
> 
> **Unterstützung (ausführlicher als Standard)**  
> Wenn du den Einstieg schwer findest, beginne so:  
> „Für unsere Jugendgruppe schlage ich zwei Regeln vor: 1. … 2. … Diese Regeln sind verantwortbar, weil …“  
> Achte darauf, dass deine Begründung zeigt, warum die Regeln Verlässlichkeit und gemeinsame Verantwortung stärken.
