Thema: Operante Konditionierung

1. Einführung
1.1 Was ist operante Konditionierung?
1.2 Praxisbeispiel operante Konditionierung
1.3 Praxisbeispiel operante Konditionierung
2. Operante Konditionierung nach Thorndike
2.1 Denkanstöße / Praxisbeispiele für das operante Konditionieren
2.1.1 Zitate zum Lernen durch Versuch-und-Irrtum nach Thorndike
2.2 Merkmale der operanten Konditionierung nach Thorndike
2.2.1 Gesetz der Bereitschaft (engl.: 'law of readiness')
2.2.2 Gesetz der Übung (engl.: 'law of exercise')
2.2.2 Gesetz der Auswirkung (engl.: 'law of effect')
3. Operante Konditionierung nach Skinner
3.1 Denkanstöße / Praxisbeispiele für die operante Konditionierung nach Skinner
3.2 Zitate zur operanten Konditionierung
3. 3 Merkmale der operanten Konditionierung nach Skinner
3.3.1 Diskrimination / Differenzierungslernen
3.3.2 Löschung
3.3.3 Verstärkung
3.3.4 Verstärker differenziert nach der Wirkung
3.3.4.1 Positive Verstärkung
3.3.4.2 Negative Verstärkung
3.3.4.3 Positive Bestrafung
3.3.4.3 Negative Bestrafung
3.4 Lernen durch Bestrafung
3.5 Verstärker differenziert nach der zeitlichen Wiederkehr / Auftreten der Verstärker
3.5.1 Kontinuierliche Verstärkung / Immer-Verstärkung
3.5.2 Intermittierende Verstärkung / Manchmal-Verstärkung / Partielle Verstärkung (engl.: 'intermittent reinforcement')
3.6. Arten der Verstärker 3.7 Merkmale der Verstärkung 3.7.1 Shaping (stufenweise Annäherung) 3.7.2 Lernübertragung 4. Erzieherische und therapeutische Anwendungen der operanten Konditionierung
1. Einführung
1.1 Was ist operante Konditionierung?
Definition: „Lernen am Erfolg = operante Konditionierung = instrumentelle/instrumentale Konditionierung. Wir sprechen von "instrumentell", weil das Verhalten das Instrument oder Mittel ist, das die entsprechende Konsequenz hervorruft. In der Regel wird erst durch häufig wiederkehrende, gleichförmige Konsequenzen allmählich ein stabiles instrumentelles Verhalten gelernt.
Es lassen sich vier Formen des instrumentellen Lernens unterscheiden:
• positive Verstärkung(dem Verhalten folgt ein positives Ereignis);
• negative Verstärkung (dem Verhalten folgt das Verschwinden eines aversiven - unangenehmen - Ereignisses);
• Bestrafung: (dem Verhalten folgt ein unangenehmes Ereignis);
• Löschung (dem Verhalten folgt weder ein angenehmes noch ein unangenehmes Ereignis).
Instrumentelles Lernen ist motivationsabhängig. Die Konsequenzen eines Verhaltens führen nur dann zum Auf- oder Abbau dieses Verhaltens, wenn sie einem bestimmten Motiv entsprechen. Instrumentelles Lernen ist situationsabhängig. Der Lernprozess findet unter bestimmten situativen Bedingungen statt, und das Verhalten wird später nur in ähnlichen Situationen gezeigt. Das instrumentelle Lernen führt zu einem gewohnheitsmäßigen Verhalten. Es ist motiviert und zielgerichtet, aber eng an bestimmte Situationen gebunden und erscheint deswegen relativ starr“
Ein Individuum zeigt ein Verhalten (z.B. ein lautes Aufstoßen bei Tisch) und wird je nach Reaktion der Umwelt dieses Verhalten zukünftig häufiger oder weniger häufig (gar nicht mehr) zeigen. Eine bestimmte Verhaltensweise mit einer bestimmten Konsequenz verknüpfen.
Operantes Verhalten ist ein Verhalten, das durch nichts bedingt (ausgelöst) wird. Man operiert durch eine Handlung in der Umwelt. Aufgrund der Auswirkungen auf diese Handlung verändert sich das Verhalten.
"Das operante Konditionieren geht davon aus, dass das Individuum aktiv in seiner Umwelt agiert und Verhaltensweisen hervorbringt, auf welche die Umwelt reagiert."
"Beim operanten Konditionieren lernen Menschen und Tiere bestimmte Verhaltensweisen, weil sie von ihrer Umwelt dafür Verstärkung erhalten."
"Es sind vielmehr von "innen" herauskommende Wirkreaktionen, die die Lernumgebung zum Vorteil (Futteraufnahmemöglichkeit) oder zum Nachteil (Bestrafung) verändern." Angermeier (1991, 55)
"Verhalten wird als Instrument eingesetzt, um etwas zu bewirken."
Ein Mensch wird als reaktives, passives Wesen angesehen, dessen Verhalten durch Manipulation der Verhaltenskonsequenzen (Belohnung / Bestrafung) kontrollierbar und veränderbar ist.
"Thorndike interessierte sich für das Anpassungsverhalten von Tieren. Skinner suchte demgegenüber Antwort auf die Frage, wie sich Kontrolle über das Verhalten von Tieren und Menschen gewinnen lässt." Mietzel (1998 b, 176)
"(...) Bei operanten Therapieverfahren erteilen die Therapeuten konsistent Belohnungen für angemessenes Verhalten und enthalten sie für unangemessenes Verhalten vor." Comer (1995, 164)
Operantes Lernen wird auch als instrumentelles Lernen bezeichnet: Man setzt sein eigenes Verhalten wie ein Instrument ein, um eine gewünschte Verhaltenskonsequenz (wieder) zu erlangen. Das Instrument dient also als Mittel zu Befriedigung.

1.2 Praxisbeispiel operante Konditionierung:
P. gibt ständig an. Mit seinen Schulnoten, mit dem Auto seines Vaters, ...
Als es den anderen Schülern zuviel wird, ignorieren sie sein Verhalten. Da P. für sein Verhalten (das Angeben) nicht mehr belohnt wird (durch Aufmerksamkeit), unterlässt er es in Zukunft.
Er wurde operant konditioniert.
2. Operante Konditionierung nach Thorndike
E. L. Thorndike war fasziniert von der Darwin'schen Evolutionstheorie, die erklärt, auf welche Weise sich Lebewesen im Verlauf von Millionen Jahren den sich ständig verändernden Bedingungen angepasst haben.
Thorndike promovierte (1898) über die Intelligenz von Tieren. In seinen Experimenten, die etwa zur selben Zeit stattfanden wie die eines russischen Physiologen namens I. P. Pawlow, versuchte er einen Zusammenhang zwischen Lernen und der Darwin'schen Theorie zu finden. Demnach würden Tiere (es ging zunächst nur um Tiere) sich im Laufe der Zeit durch Lernen an ihre Umwelt anpassen, um besser mit - und in ihr - zu agieren.
1898 begann Edward Thorndike mit Katzen zu experimentieren. Er versuchte herauszufinden, wie sich Verhaltenskonsequenzen (also das Resultat auf eine Verhaltensweise) auf das Verhalten selbst auswirken:
Trial-and-Error (Lernen durch Versuch und Irrtum)
Thorndike konstruierte den sogenannten 'Problemkasten', ein Gefängnis für Katzen. In diesem Problemkasten befanden sich einige Hebel. Einer dieser Hebel öffnete durch einen intelligenten Mechanismus die Tür. Es wurde dem Tier ermöglicht, durch das Betätigen dieses Hebels aus dem Gefängnis zu entkommen und an das Futter zu gelangen, welches Thorndike bei seinen Versuchen vor den Käfig stellte, um der Katze einen Anreiz zu bieten, aus dem Gefängnis zu entkommen.
Sobald Thorndike eine Katze in den Käfig setzte, beschwerte sich das Tier über den Freiheitsentzug durch Kreischen, Kratzen und Beißen. Wahllos versuchte die Katze sich aus dem Käfig zu befreien, wobei das Futter anscheinend nur eine untergeordnete Rolle spielte - es schien als wäre es dem Tier wichtiger, sich aus der Gefangenschaft zu befreien.
Nach einiger Zeit betätigte das Tier zufällig den richtigen Hebel und gelangte in die Freiheit. Bei jedem weiteren Versuch gelang es der Katze immer schneller, den richtigen Hebel zu betätigen und in Freiheit bzw. zu dem Futter zu gelangen. Nach einigen Wiederholungen betätigte das Tier den Hebel sofort, nachdem sie in den Käfig gesperrt wurde. Durch das Futter wurde die Handlung (eigene Befreiung) verstärkt.


"Wenn man sie in den Käfig steckt, zeigt die Katze offensichtliche Anzeichen des Unbehagens und entwickelt einen Impuls, der Gefangenschaft zu entfliehen. Sie versucht, sich durch jede Öffnung zu zwängen; sie krallt und beißt sich an den Gitterstäben oder Drähten fest; sie schlägt ihr Pfoten durch jede Öffnung hinaus und krallt sich an alles, was sie erreichen kann ... Sie schenkt dem Futter außerhalb des Käfigs kaum Beachtung (der Belohnung für die hungrige Katze), sondern scheint einfach instinktiv danach zu streben, der Gefangenschaft zu entkommen. Die Vitalität, mit der sie kämpft, ist außerordentlich. Zehn Minuten lang hört sie nicht auf, zu krallen, zu beißen, sich hinauszuzwängen ... Sei es, dass der Impuls zu kämpfen aus einer instinktiven Reaktion auf das Gefangensein herrührt oder von einer Assoziation, er wird wahrscheinlich dazu führen, dass die Katze dem Käfig entkommt. Die Katze, die in ihren impulsiven Anstrengungen alles ankrallt, was im Käfig ist, hat irgendwann der Draht oder den Knopf in ihren Krallen, der die Tür öffnet. Und allmählich werden all die anderen erfolglosen Versuche ausgelöscht und der besondere Impuls, der zu der erfolgreichen Ausführung führte, wird durch die erreichte Befriedigung eingeprägt, bis nach vielen Durchgängen die Katze, wenn sie erneut in den Käfig gesteckt wird, sofort den Knopf oder Draht auf unzweideutige Weise betätigt." E. Thorndike, 1898, S. 13 zitiert nach Zimbardo (1992, 240)
Lernen findet statt, indem erfolglose Verhaltensweisen, die nicht zu einer erwünschten Konsequenz führen, seltener oder gar nicht mehr gezeigt werden und solche Verhaltensweisen, die zur gewünschten Konsequenz führen, werden häufiger gezeigt.
Ob ein emittiertes Verhalten in Zukunft häufiger gezeigt wird, hängt von den Konsequenzen - der Reaktionen bzw. dem Ergebnis auf dieses Verhalten ab. Verhaltensweisen ergeben zufällig eine gewünschte oder erfolglose Konsequenz, d.h. sie entstehen nicht durch Denken, sondern durch Ausprobieren.
"Verhaltensweisen oder Reaktionen, die bestimmte Folgen haben, dienen also als Mittel oder Instrument, den Organismus in der Wiederholung eben dieses Verhaltens zu bestärken oder zu entmutigen." Davison & Neale (1998, 48)
Positive Konsequenzen auf ein Verhalten bezeichnete Thorndike als Satisfier und negative Konsequenzen auf ein Verhalten als Annoyer. Für Thorndike ist Aktivität ein Mittel zur Erreichung einer bestimmten Konsequenz. Es ist notwendig, Verhaltensweisen zu emittieren (Versuche zu unternehmen), um zu einer Lösung zu gelangen bzw. nicht hilfreiche Versuche zu unterlassen.
Fällt Ihnen eine Verhaltensweise ein, die Sie selbst aufgrund der Thorndike'schen Theorie erlernt haben?
2.1 Gedanken, die das operante Konditionieren genauer erklären
Hat man Ihnen erklärt, in welche Richtung man eine Schraube drehen muss - oder haben Sie es ausprobiert und die richtige 'Drehart' erlernt?
Mit einer Behinderung am Bein oder Fuß sind Sie auf Gehhilfen angewiesen. Den für Sie günstigsten Umgang mit diesen temporären Ersatzbeinen haben Sie vielleicht auch durch Ausprobieren erlernt.
Viele bringen sich Fähigkeiten im Umgang mit Computersoftware selbst bei. Einiges mag selbsterklärend sein - verschiedene Funktionen erkunden wir jedoch, indem wir sie ausprobieren und dieselben Funktionen wieder anwenden, wenn sie sich schon einmal bei derselben Problemstellung als hilfreich erwiesen.
2.1.1 Aussagen von Psychologen zum „Lernen durch Versuch-und-Irrtum“ nach Thorndike:
"Thorndike glaubte, dass Reaktionen, denen eine Belohnung unmittelbar folgt, "Befriedigung" erbrachten. Als Resultat dessen würden sie verstärkt oder "eingeprägt", nicht belohnte Reaktionen hingegen würden geschwächt oder "gelöscht"." Zimbardo (1992, 240)
"Thorndike beschrieb seine Befunde folgendermaßen: "Die Ergebnisse aller unter allen Bedingungen zustande gekommenen Vergleiche besagen ausnahmslos, dass eine belohnte Verbindung immer beträchtlich verstärkt wird, dass dagegen bei Bestrafung nur eine geringe oder überhaupt keine Schwächung eintritt" (1932 b, Seite 58)." Hilgard & Bower (1973, 42)
"Für Thorndike bestand Lernen in der Bindung von Reiz-Reaktions-Verbindungen als Funktion ihrer Wiederholung oder der Konsequenzen der Reaktionen. Er bezeichnete den Prozess des Lernens als "Einstanzen" ("stamping-in"), Vergessen kommt durch "Ausstanzen" ("stamping-out") zustande." Lefrancois (1994, 211)
"Für ihn besteht Lernen in der Vermehrung von physiologischen Verbindungen zwischen Reizen und Reaktionen. Diese Verbindungen werden durch Übung und wegen der angenehmen Konsequenzen eingestanzt - oder umgekehrt, durch Nichtgebrauch und wegen der unangenehmen Konsequenzen geschwächt oder ausgestanzt." Lefrancois (1994, 27)
"Da Thorndike den Lernvorgang als mechanistisch ansah, spielen in seiner Theorie Bewusstseinsinhalte keine Rolle. Trotzdem glaubte er an den Einfluss der Einstellung des Organismus zum Lernprozess als wichtigen motivierenden Faktor." Angermeier (1978, 12)
"In allen Fällen waren Thorndikes Experimente so arrangiert, dass die Folgen vom Verhalten der Vp abhängen. Diese Art des Lernens war immer "instrumentell" in dem Sinne, dass sich dadurch die Umweltbedingungen für die Vp änderten, und deshalb spricht man manchmal von "instrumentellem" Konditionieren." Krech & Crutchfield (1992, Band 2, S. 31)
2.2 Merkmale und wichtige Grundbegriffe der operanten Konditionierung nach Thorndike
2.2.1 Gesetz der Bereitschaft (engl.: 'law of readiness')
Die Bereitschaft zum Lernen muss vorhanden sein. Diese Bereitschaft ist ein Bedürfnis, welches befriedigt werden soll. Lernen ist nach Thorndike nur möglich, wenn ein Individuum einen angenehmen Zustand herstellen oder eine unangenehmen Zustand vermeiden will.
"Es gibt nach Thorndike drei derartige Umstände (1913 a, Seite 128):
1. Wenn eine verknüpfungsfähige Einheit zum Vollzug der Verknüpfung bereit ist, so wirkt diese Verknüpfung lustbetont, sofern der Ablauf dieses Vorganges nicht beeinträchtigt wird.
2. Wenn eine zur Verknüpfung bereitete Einheit die Verknüpfung nicht vollzieht, dann wirkt dies unlustbetont und ruft die jeweilige von der Natur für diesen besonderen Mangelzustand vorgesehene Reaktion hervor.
3. Wenn eine nicht zur Verknüpfung bereitete Einheit zum Vollzug der Verknüpfung gezwungen wird, so wirkt dies unlustbetont." Hilgard & Bower (1973, 33)
Beispiel Gesetz der Bereitschaft:
Die Katzen lernten in diesem Versuch nur sich zu befreien, wenn sie entweder hungrig waren oder aus der unangenehmen Enge des Käfig entkommen wollten um wieder frei zu sein. Hätte es den Tieren im Käfig (aus welchen Gründen auch immer) gut gefallen, und die Katzen hätten nicht das Bedürfnis verspürt, aus dem Käfig zu kommen, wäre ein Lernprozess ausgeblieben.

2.2.2 Gesetz der Übung (engl.: 'law of exercise')
Die Verhaltensweise muss wiederholt werden, um sie dauerhaft zu erlernen. In Thorndikes Versuch mit dem Problemkäfig wird die Katze bei jedem Mal schneller, sie benötigt in jedem weiteren Durchgang weniger Zeit, um sich zu befreien. Der Katze ist es jedoch nicht möglich, nach ein oder zwei Durchgängen sofort den Hebel zu betätigen. Es erfordert wiederholte Ein-Übung des erfolgbringenden Verhaltens.
"Das Gesetz der Übung betrifft einerseits Verstärkung von Verknüpfungen durch Übung (Gesetz des Gebrauchs: law of use), andererseits deren Schwächung, also das Vergessen, wenn die Übung nicht fortgeführt wird (Gesetz des Nichtgebrauchs: law of disuse)." Hilgard & Bower (1973, 34)

2.2.3 Gesetz der Auswirkung (engl.: 'law of effect')

Definition: Das Gesetz der Auswirkung besagt, dass Lernen als Resultat einer Verhaltenskonsequenz auftritt: Führt eine Verhaltensweise (z.B. Händewaschen vor einer Mahlzeit) zu einer positiven Konsequenz (z.B. Lob durch die Eltern), so wird die Verhaltensweise häufiger wiederholt. Führt die Verhaltensweise jedoch nur zu einer negativen Konsequenz (z.B. vom Freund ausgelacht werden), so wird die Verhaltensweise als unbefriedigend erlebt und seltener oder gar nicht mehr wiederholt.
Die durch die Verhaltenskonsequenz entstehende Motivation steht im Vordergrund.
Thorndike unterstellte, dass es für die Katze eine positive Konsequenz bedeutete, aus dem Käfig zu entkommen. Um diese positive Konsequenz wiederzuerlangen, wenn sie in den Käfig gesetzt wurde, versuchte das Tier, das erfolgversprechende Verhalten zu wiederholen.
Die Häufigkeit des gezeigten Verhaltens hängt demnach von den Konsequenzen ab, die nach dem jeweiligen Verhalten eintreten. Jeder Organismus ist bestrebt, seine Verhaltensweisen so anzulegen bzw. zu erlernen, dass dieses Verhalten mit einer positiven Konsequenz belohnt oder eine negative Konsequenz vermieden wird.
Fehlschläge werden eliminiert, und das Verhalten wird danach ausgerichtet, die gewünschte Befriedigung zu erlangen: "Aus einer großen Gesamtmenge möglicher Verhaltensweisen werden einige bestimmte als Folge von Ereignissen in der Umwelt ausgewählt.
"Wenn eine modifizierbare Verknüpfung entsteht und dies von einem lustbetonten Zustand begleitet oder gefolgt wird, dann erhöht sich die Stärke der Verknüpfung. Wenn das Zustandekommen der Verknüpfung dagegen zu einem unlustbetonten Zustand führt, so ergibt sich eine Schwächung." Hilgard & Bower (1973, 35)
Beispiel Gesetz der Auswirkung:
Ein Schüler möchte von seinen Eltern mehr Taschengeld bekommen. Er probierte verschiedene Möglichkeiten aus, um dieses Ziel zu erreichen:
Eine Diskussion über 'gestiegene Kosten für Teenager', das Versprechen mehr im Haushalt zu helfen, etc.
Die Eltern waren aber erst bereit, das Taschengeld des Jungen zu erhöhen, als er deutlich bessere Schulnoten mit nach Hause brachte. Die Bedürfnisse des Schülers werden also befriedigt, wenn dieser gute Leistungen in der Schule erbringt. Er wird bestrebt sein, dieses Verhalten (ein guter Schüler zu sein) weiterhin zu zeigen, um durch die Konsequenz des Verhaltens seine Bedürfnisse zu befriedigen.
3. Operante Konditionierung nach Skinner
Operante Konditionierung – von Thorndike zu Skinner
"Nachdem Thorndike mit dem "Lernen am Erfolg" das Prinzip der Verstärkungstheorien entdeckt hat, beschreibt Skinner (1978) etwa ab 1930 die operante Konditionierung, die heute auch instrumentelles L. genannt wird. Beim instrumentellen L. entscheiden die Konsequenzen, die dem Verhalten folgen, über dessen zukünftiges Auftreten." Asanger & Wenninger (1999, 394)
Die operante Konditionierung beschäftigt sich mit dem eingreifenden Verhalten: Ein Individuum unternimmt einen Eingriff ('Operation'), indem es eine Verhaltensweise zeigt, und erhält dafür eine Reaktion aus dem Umwelt. Ist diese Reaktion der Umwelt positiv, zeigt das Individuum diese Verhaltensweise in Zukunft häufiger. Wird die Reaktion der Umwelt als unangenehm empfunden, wird das Verhalten in Zukunft seltener gezeigt.
"Bei operanter oder instrumenteller Konditionierung (...) muss der Organismus erst eine Reaktion hervorbringen, bevor diese dann verstärkt werden kann. Innerhalb dieses Paradigmas steigt entweder die Häufigkeit, mit der eine spezifische Reaktion auftritt, weil sie positive Konsequenzen hat, oder aber sie sinkt, weil sie negative Konsequenzen bewirkt." Stroebe, Hewstone & Stephenson (1997, 258)
Bestimmte Verhaltensweisen werden mit bestimmten Konsequenzen assoziiert.
B. F. Skinner teilte Thorndikes Ansicht, dass jegliches Verhalten durch bisher erlebte Verhaltenskonsequenzen beeinflusst werde. 1930 beschrieb Skinner seine Experimente mit der (nach ihm benannten) Skinnerbox. Skinner stützte sich dabei zunächst auf Thorndikes Arbeiten und entwickelte seine Theorien weiter: Er experimentierte an Ratten und später an Tauben. Während sich Thorndike auf das grundlegende Versuch-und-Irrtum-Verhalten konzentrierte, rückte Skinner verschiedene Arten von Verstärkern in den Mittelpunkt seiner Forschung.
Skinner sperrte eine Versuchsratte in einen Käfig, in welchem sich einige Signallampen zum Testen der Differenzierung und Generalisation sowie ein Fressnapf, der von außen gefüllt werden konnte, befand. Weiterhin gab es in diesem Käfig einen Hebel, der je nach Versuchstier und Versuchsanordnung eine andere Konsequenz darbot:
operante Konditionierung
Ratte 1 bekam Futter, wenn sie den Hebel betätigte, Ratte 2 konnte durch das Betätigen des Hebels Strom abschalten, der durch das Bodengitter (siehe Grafik) floss und Ratte 3 erhielt einen Stromschlag, wenn sie den Hebel betätigte.
Nach mehreren Versuchen betätigten Ratte 1 und Ratte 2 immer wieder den Hebel, während Ratte 3 den Hebel nicht mehr betätigte.
Die Ratten hatten gelernt, Verhalten mit positiven Konsequenzen (Futter bekommen, Strom abschalten) zu wiederholen und negative Konsequenzen (Stromschlag) zu vermeiden. Skinner nannte diesen Lerneffekt: 'Lernen durch Verstärkung' oder auch 'Lernen am Erfolg': das Verhalten (z.B. Strom des Käfigbodens abschalten) befriedigt das Bedürfnis und verstärkt das Verhalten.
Skinner unternahm weitere Versuche in Verbindung mit Signallampen:
Beispielsweise bekam das Tier nur Nahrung, wenn es den Hebel betätigte und die Deckenlampe brannte.

So konnte das Tier auf verschiedene Zusatzelemente konditioniert werden: Es gilt nicht nur eine Tätigkeit auszuführen (den Hebel betätigen), um die Reaktion auszulösen, muss eine zweite Bedingung (Brennen der Lampe) erfüllt sein.
Die Versuchstiere (in der Skinnerbox) hatten gelernt, durch das eigene Verhalten positive bzw. angenehme Konsequenzen (satisfier) herbeizuführen und unangenehme Konsequenzen (annoyer) zu vermeiden bzw. zu verringern.
"In Skinners Perspektive kann das Verhalten des Tieres vollständig durch äußere Erfahrungen (Stimuli aus der Umwelt) erklärt werden - durch die Einsatz von Nahrungsmitteln als Verstärkung." Zimbardo & Gerrig (1999, 208)
Bei der operanten Konditionierung erfolgt eine Verstärkung auf eine bestimmte Verhaltensweise. Als Verstärkung zählt eine positive Konsequenz. Skinners Lerntheorie basiert auf positiver Verstärkung nach Zeigen der erwünschten Verhaltensweise.
Operant bedeutet, an bzw. in seiner Umwelt zu operieren. Durch das Emittieren einer Verhaltensweise ist es einem Individuum möglich, die Umwelt zu beeinflussen. "Im wörtlichen Sinne bedeutet operant "die Umwelt beeinflussend" oder "in ihr wirksam werdend" (Skinner 1938)." Zimbardo & Gerrig (1999, 219)
Ein Verhalten wird gezeigt (vorgenommen, gemacht), um die Reaktion der Umwelt zu beeinflussen.
Fällt Ihnen ein Verhalten ein, das Sie selbst aufgrund operanter Konditionierung erlernt haben?
• 3.1 Nach Skinner könnten das folgende Tätigkeiten sein:
• In die Schule gehen,
• Briefe schreiben,
• Fragen beantworten,
• Fischen,
• Segeln,
• mit einem Hund spielen

Beispiel 1 für operante Konditionierung im Alltag: Ein Schüler soll sich auf ein Referat mit einer bestimmten Literatur vorbereiten. Er sichtet nicht nur die angegebene Literatur, sondern bedient sich auch noch anderer Quellen, um hervorragend vorbereitet zu sein.
(a) Er wird vom Lehrer und seinen Mitschülern gelobt. Um diese positive Konsequenz (satisfier) wieder zu erhalten, wird er in Zukunft ebenso handeln.
(b) Seine Mitschüler lachen ihn aus und titulieren ihn als Streber. Um diese negative Konsequenz (annoyer) nicht wieder zu erhalten, wird er sein Verhalten zukünftig ändern.
Beispiel 2 für operante Konditionierung im Alltag: Ein weinendes und schreiendes Kind wird abends von den Eltern auf den Arm genommen. Die Eltern versuchen somit einen aversiven Reiz (das unangenehme Weinen und Schreien am Abend) zu unterbinden. Das Kind wird jedoch verstärkt: Durch lautes Weinen und Schreien kann es am Abend die Aufmerksamkeit und die Zuwendung der Eltern bekommen. Tagsüber reagieren die Eltern vielleicht anders. Es muss also Abend sein, um über das Schreien und Weinen die positive Konsequenz zu erreichen. (In diesem Beispiel ist sowohl Verstärkung (Aufmerksamkeit und Zuwendung), als auch die zweite Bedingung (es muss Abend sein) enthalten!)
"Ich tue das, weil ..."
"Damit Du Ruhe gibst, mache ich das für Dich!"

Beispiel 3 für operante Konditionierung im Alltag: In einem Dialog quittiert F. Themen, die er gerne mag, mit einem bestätigenden "mhm" oder einem "ja". Er lenkt somit indirekt die Themenwahl, da sein Gesprächspartner für die jeweilige Thematik verstärkt wird.
3.2 Aussagen zur operanten Konditionierung:
"Die Verstärkung wird durch die Reaktion bedingt." Hilgard & Bower (1973, 131)
"Eine Verhaltensweise wird somit zu einem "Instrument", eine angenehme Konsequenz herbeizuführen und eine unangenehme zu vermeiden. Diese Formulierung ist der Hintergrund des Begriffs der "Instrumentellen Konditionierung": Eine Aktivität ist Mittel zur Erreichung einer bestimmten Konsequenz." Mietzel (1998 a, 134)
"Diese Abhängigkeit von dem nachfolgenden verstärkenden Reiz verleiht dem Begriff "Wirkreaktion" seine Bedeutsamkeit ... Die Wirkreaktion ... gewinnt für das Verhalten eine Bedeutung und nimmt eine identifizierbare Form an, wenn sie auf die Umwelt in dem Sinne einwirkt, dass ein verstärkender Reiz hervorgebracht wird (1938, Seite 22)." Hilgard & Bower (1973, 132)
"Wir belohnen Menschen, wir verstärken Verhalten." Skinner (1986), zitiert nach: Mietzel (1998 a, 137)
3. 3 Merkmale der operanten Konditionierung nach Skinner

3.3.1 Diskriminaton / Differenzierungslernen
In Skinners Versuch lernte die Ratte, dass es nur Futter gibt, wenn die Lampe leuchtet und der Hebel umgelegt wird. Das Tier kann demnach zwei Zustände voneinander differenzieren: Licht aus = keine Möglichkeit an Futter zu gelangen oder Licht an = Möglichkeit an Futter zu gelangen (durch das Umlegen des Hebels).
Im Gegensatz zu der Generalisation wird das Verhalten nur in bestimmten Fällen belohnt.

3.3.2 Löschung
Löschung / Extinktion: Erhielten die Ratten keine Verstärkung mehr für das gezeigte Verhalten, so konnte Skinner nach einer gewissen Zeit der Nichtverstärkung das Verhalten immer seltener beobachten. Die Verhaltenshäufigkeit nimmt also langsam ab, wenn das Verhalten nicht verstärkt wird.
Auf eine gezeigte Verhaltensweise erfolgt kein Verstärker mehr, die erwünschte Konsequenz bleibt somit aus. Aufwand und Dauer einer Löschung sind abhängig von der Lerngeschichte und von der Art der Verstärker (siehe unten).
"Unter Löschung versteht man beim operanten Konditionieren das Ausbleiben der positiven Konsequenz auf ein bestimmtes, durch die positiven Konsequenzen kontrolliertes Verhalten." Linden & Hautzinger (1996, 223)
Das Ausbleiben eines erwarteten Verstärkers kann auch als Strafe aufgefasst werden. Eine Schwierigkeit ist das Ausfindigmachen der Verstärker, da diese auch irrational versteckt sein können.
Es kann vorkommen, dass bei Ausbleiben der positiven Konsequenzen zunächst diese Verhaltensweise in deutlich stärkerer Form gezeigt wird.
Beispiel: Ein Kind schreit und bekommt die Zuwendung der Mutter. Wenn die Mutter dem Kind auf das Schreien nun keine Zuwendung mehr schenkt, kann es vorkommen, dass das Kind kurzfristig noch deutlich klangvoller schreit, um doch noch in den Genuss der positiven Konsequenz (der Zuwendung) zu kommen.


Definitionen: "Skinner z.B. versteht Vergessen als Verschwinden von Verhaltensweisen aufgrund eines zeitbedingten langsamen Zerfallsprozesses." Lefrancois (1994, 163)
"Unter Extinktion (Löschung) versteht man die Abnahme der Häufigkeit eines gelernten Verhaltens aufgrund von Nichtverstärkung, bis es schließlich nur noch zufällig auftritt. "

Unter spontaner Erholung (spontaneous recovery) versteht man das Zeigen von Verhaltensweisen, die durch ausbleibende Verstärkung bereits abgeschwächt wurden. Mitten im Prozess der Löschung wird das Verhalten ohne logische Begründung noch einmal gezeigt, obwohl es nicht mehr verstärkt (konditioniert) wurde.

3.3.3 Verstärkung
Skinner leitete aus seinen Experimenten das Prinzip der Verstärkung ab: "Verstärkung ist der Prozess, der dazu führt, dass ein spontan gezeigtes Verhalten vermehrt auftritt."
Beispiele Lernen durch Verstärkung:
- Ein Kind hilft seiner Mutter, weil es dafür Schokolade bekommt.
- Der Ehemann kocht, weil er dafür von seiner Frau gelobt wird.
- B. erfüllt sich seine Wünsche durch Ladendiebstähle, da er bisher noch nicht ertappt wurde.
- D. beteiligt sich aktiv am Grundschulunterricht.
Unter Verstärkung versteht man eine angenehme Folge.
Beispiele für eine angenehme Folge:
- Schokolade, die ein Kind für eine Leistung erhält.
- Lob, das ein Ehemann für seine Küchenaktivitäten bekommt.
- erfüllte Wünsche durch den Ladendiebstahl.
- Fleißkärtchen für besonders gute Leistungen in der Grundschule.
"Erfolgt direkt auf ein Verhalten etwas, was als angenehm empfunden wird oder was zum Erfolg führt, dann tritt dieses Verhalten in Zukunft häufiger auf. Es ist durch die angenehme Konsequenz oder Folge verstärkt worden. Angenehme Folgen eines Verhaltens bezeichnen wir daher als Verstärkung. Eine Verstärkung erhöht die Häufigkeit einer Verhaltensweise oder die Stärke einer Einstellung." Schmitt (1999, 4)
Statt positiver Verhaltensweisen können auch negative Verhaltensweisen verstärkt werden.
Beispiel Verstärkung negativer Eigenschaften:
"Ein Betrunkener pöbelt in der Kneipe jemanden an und meint, der könne ihm ruhig mal ein Bier ausgeben. Um ihn zur Ruhe zu bringen, bezahlt der Mann ihm das Bier. Das Verhalten "andere anpöbeln, um ein Bier zu bekommen" wird dadurch verstärkt. Der Betreffende wird diese Verhaltensweise, sich kostenlos ein Bier zu beschaffen, wahrscheinlich zukünftig häufiger anwenden." Schmitt (1999, 4)
Man strebt danach, eine angenehme Folge wieder zu erleben und versucht aufgrund vergangener Situationen ein Verhalten anzupassen.
3.3.4 Verstärker differenziert nach der Wirkung
3.3.4.1 .Positive Verstärkung
Eine Verhaltensweise führt zur gewünschten positiven Konsequenz.

Definition 1:Unter positiver Verstärkung versteht man ein Verhalten, dass in einer bestimmten Situation wiederholt gezeigt wird, weil die bisherigen Reaktionen auf dieses Verhalten positive Konsequenzen brachten. Dem Verhalten folgt ein positives Ereignis. Definition 2: Ein positiver Verstärker ist ein Reiz, der zu einem Anstieg der Auftretenswahrscheinlichkeit einer Wirkreaktion führt, wenn er zu einer Situation hinzutritt. Beispiele für positive Verstärker sind Futter, Wasser, sexueller Kontakt usw."
Definition 3: "Unter positiven Verstärkern versteht man Reize und Ereignisse, deren reaktionskontingente (d.h. unmittelbar anschließende) Darbietung dazu führt, dass die Frequenz einer Verhaltensweise ansteigt (...)
Beispiel für positive Verstärkung:
- jemanden anlächeln, der sofort zurück lächelt
- etwas bestellen, was ich sofort erhalte
- Herr N. fährt oftmals zu schnell. Trotz der permanent überhöhten Geschwindigkeit wird er weder von der Polizei angehalten, noch passiert ihm ein Unfall, was dazu führen wird, dass Herr N. weiterhin zu schnell fährt.
Aus pädagogischer Sicht stellt die positive Verstärkung eine sinnvolle Methode dar, um über Belohnung und Erfolg die Häufigkeit des Auftretens eines Verhaltens zu erhöhen.

3.3.4.2 Negative Verstärkung
Eine Verhaltensweise führt dazu, dass eine unangenehme (aversive) Konsequenz ausbleibt (Flucht).

Definition 1: Negative Verstärkung bedeutet ein Verhalten in einer bestimmten Situation wiederholt zu zeigen, weil unangenehme Konsequenzen in der Vergangenheit durch dieses Verhalten vermieden oder beseitigt werden konnten.
Dem Verhalten folgt das Ausbleiben eines unangenehmen (aversiven) Ereignisses, d.h. es kommt nicht nur zu keiner Strafe für das Verhalten - einer Strafe wird durch vorsorgliches Verhalten aus dem Weg gegangen. Definition 2: Ein negativer Verstärker ist ein Reiz, der die Auftretenswahrscheinlichkeit einer Wirkreaktion erhöht, wenn er aus einer Situation herausgenommen wird. Beispiele hierfür sind etwa starker Lärm, ein sehr helles Licht, extreme Hitze oder Kälte, ein elektrischer Schlag usw."
Definition 3: (...) unter negativen Verstärkern versteht man Reize und Ereignisse, deren reaktionskontigente Entfernung bzw. Beendigung dazu führt, dass die Frequenz einer Verhaltensweise ansteigt (...)."
Beispiel negative Verstärkung:
- langsam fahren, um nicht 'geblitzt' zu werden
- Aufsetzten der Sonnenbrille, um nicht mehr geblendet zu werden
- Herr M. fährt sehr vorsichtig und langsam. Ihm passiert kein Unfall und er bekommt keine Probleme mit der Polizei, was er auch verhindern möchte. Herr M. wird weiterhin vorsichtig fahren, um evtl. negativen Konsequenzen vorzubeugen.
- A. hat sich angewöhnt, seiner Nervosität durch autogenes Training zu begegnen.
- B. hat die Erfahrung gemacht, dass sich seine Prüfungsangst vermindert, wenn er Beruhigungstabletten nimmt.

3.3.4.3 Positive Bestrafung
Eine Verhaltensweise führt zu einer unangenehmen Konsequenz.
Beispiel positive Bestrafung:
- G. rennt auf einem nassen Flur, fällt hin und verstaucht sich den Knöchel.
- H. spielt aus Langeweile mit einem Messer und fügt sich eine Schnittwunde zu.
3.3.4.4 Negative Bestrafung
Eine Verhaltensweise führt dazu, dass eine angenehme Konsequenz ausbleibt.
Beispiel negative Bestrafung:
- J. ist gegenüber einer Kollegin gestern aggressiv gewesen und wird (dafür) heute von ihr nicht begrüßt.
- L. beschwert sich über das Essen seiner Freundin, welche sich dafür in den kommenden Wochen gänzlich weigert zu kochen.
3.4 Lernen durch Bestrafung
Folgt einem Verhalten eine unangenehme Folge, spricht man von Bestrafung. Durch Bestrafung sollen unerwünschte Verhaltensweisen/Einstellungen abgebaut werden. Durch die Bestrafung wird eine unerwünschte Verhaltensweise/Einstellung jedoch nicht dauerhaft beseitigt, sondern nur kurzfristig unterdrückt oder abgeschwächt (Verhaltensunterdrückung).
Oft lernt man nur, die Bestrafung durch geschickteres Verhalten zu vermeiden. Ein angemesseneres, günstigeres Verhalten wird aber nicht gelernt.
Beispiel Verhaltensunterdrückung als Resultat der Bestrafung:
P. hat ein starkes Bedürfnis nach schnellen Autos. Da er sich ein solches Auto finanziell nicht leisten kann, stiehlt er immer wieder Sportwagen. Schließlich wird er erwischt und von einem Gericht zu einer erheblichen Geldstrafe verurteilt. Nach einem halben Jahr klaut er wiederum Sportwagen, jedoch macht er es dieses Mal geschickter, um nicht ertappt zu werden. Seine Einstellung gegenüber der Art der Beschaffung von schnellen Autos hat sich nicht geändert und war zwischenzeitlich nur abgeschwächt und unterdrückt.
Anstatt eines unerwünschten Verhaltens kann aber auch ein erwünschtes Verhalten bestraft werden.
Beispiel Bestrafung von erwünschten Verhalten:
Der Mitarbeiter R. kritisiert in angemessener Weise eine Anordnung seines Vorgesetzten, die er nicht für gut hält. Einige Zeit später wird er mit einer fadenscheinigen Begründung in eine andere Abteilung versetzt. Das eigentlich erwünschte Verhalten 'offen seine Meinung sagen' wurde durch diese Versetzung bestraft. Der Mitarbeiter wird nun wahrscheinlich seine Kritik lieber für sich behalten und vielleicht seinen Ärger zu Hause ablassen.
Bestrafung kann aber auch darin bestehen, dass angenehme Folgen, die man auf bestimmte Verhaltensweisen/Einstellungen erwartet hat, nicht mehr eintreten oder entzogen werden. Der Entzug von Verstärkern stellt somit eine unangenehme Folge dar (Entzug von Verstärkern = Bestrafung).
Ein Verhalten, das nicht mehr die erwartete Verstärkung ergibt, wird dann als sinnlos aufgegeben und nicht mehr gezeigt.
Beispiel Bestrafung durch den Entzug der erwarteten Verstärker:
Die Schülerinnen bzw. der Schüler M. versucht durch Angeberei und Prahlerei Zuwendung von ihren Klassenkameraden zu bekommen. Da die Mitschüler ihre Prahlerei jedoch satt haben, ignorieren sie ihr Verhalten. Da C. auf diesem Wege keine Zuwendung bekommt, unterlässt sie das Prahlen.
"Bestrafung führt jedoch niemals
- zu einer Verstärkung eines erwünschten Verhaltens,
sondern immer nur
- zu einer kurzfristigen Abschwächung oder Unterdrückung eines unerwünschten Verhaltens (4)
Die Auftrittswahrscheinlichkeit einer Verhaltensweise kann mit Bestrafung, besser jedoch mit dem Entzug von Verstärkern gesenkt werden. Aus dem Lernen durch Bestrafung leitet sich z.B. die Aversionstherapie her:
"Unter Aversionsbehandlung fasst man eine Reihe verschiedener Behandlungsverfahren zusammen, denen gemeinsam ist, dass ein aversiver Reiz zeitlich unmittelbar an ein klinisch unerwünschtes Verhalten gekoppelt wird. Das Ziel solcher Behandlungsverfahren ist, das zukünftige Auftreten des unerwünschten Verhaltens zu reduzieren." Linden & Hautzinger (1996, 93)

3.5 Verstärker differenziert nach der zeitlichen Wiederkehr / Auftreten der Verstärker
3.5.1 Kontinuierliche Verstärkung / Immer-Verstärkung
Jedes Zeigen der gewünschten Verhaltensweise führt zu einer Belohnung (Verstärker). Kontinuierliche Verstärkung bedeutet jedesmal zu verstärken, wenn das gewünschte Verhalten gezeigt wird.
Der Erwerb veränderter Verhaltensweisen erfolgt zwar schnell, die Stabilität ist jedoch gering, d.h. das Verhalten wird schneller wieder verlernt.
Beispiel kontinuierliche Verstärkung:
- Y. bekommt für jeden Handgriff im Haushalt ein kleines Stückchen Schokolade.
- S. wird für jede Form der Höflichkeit gegenüber Fremden gelobt.
3.5.2 Intermittierende Verstärkung ( =manchmal-Verstärkung ) (engl.: 'intermittent reinforcement')
Das erwünschte Verhalten wird ab und zu verstärkt. Es wird nicht nach jeder gewünschter Verhaltensweise verstärkt, sondern von Zeit zu Zeit.
Veränderte Verhaltensweisen werden zwar langsamer erlernt, bleiben jedoch langfristiger erhalten und sind nicht (wie bei der kontinuierlichen Verstärkung) von einer permanenten Verstärkung abhängig.
Beispiel intermittierende Verstärkung:
- Der Hund A. wird mit zunehmenden Alter immer seltener gestreichelt, wenn er auf den Befehl 'Komm!' auch zu seinem Herrchen gekommen ist. Der Verstärker (Streicheln) wird unregelmäßig erteilt.
- Der Satz "Dein Essen schmeckt zwar immer gut, heute ist es aber super! Was ist denn da drin?" lobt einer hervorragende, unübliche Leistung der Köchin/des Kochs und motiviert selbige(n), ein solches Mahl häufiger zu bereiten.
"Zu den wichtigsten Erkenntnissen Skinners zählt die Entdeckung, dass Lernen im Anfangsstadium durch kontinuierliche Verstärkung erleichtert wird, dass aber die Löschungszeit durch intermittierende Verstärkung verlängert wird. Obwohl die meisten seiner Experimente an Tieren durchgeführt wurden, wird angenommen, dass diese Resultate im allgemeinen auch auf menschliches Verhalten übertragbar sind." Lefrancois (1994, 211)
"Löschung braucht länger, wenn das zu löschende Verhalten unter wechselnden, ungleichmäßigen (sog. intermittierenden) Verstärkungsbedingungen gelernt und aufrechterhalten wurde." Linden & Hautzinger (1996, 223)
Intermittierende Verstärkung bedeutet das Verhalten nur ab und zu zu verstärken. Neues Verhalten wird langsamer erworben, wird jedoch stabiler eingeprägt, d.h. das erlernte Verhalten bleibt länger erhalten.
Unterteilung in: Quotenverstärkung (engl.: 'fixed ratio inforcement')
Ein gewünschtes Verhalten wird mit einer mathematischen Quote verstärkt.
Z.B. muss eine Taube zehn mal dieses Verhalten zeigen, um einmal verstärkt (belohnt) zu werden ('10:1 Häufigkeitsverstärkung').
Intervallverstärkung (engl.: 'interval reinforcement')
Verhalten wird in bestimmten Zeitintervallen belohnt. Eine feste Anzahl von Verstärkern wird auf eine bestimmte Zeitspanne verteilt. Z.B. soll eine Verhaltensweise (sofern sie denn auch gezeigt wird) 3 mal pro Stunde verstärkt werden - nicht häufiger.
"Bei der fixierten Intervallverstärkung wird vom Tier verlangt, jeweils nach Ablauf einer festgelegten Zeit zu picken, um dann belohnt zu werden. Alle Reaktionen innerhalb des vorgegebenen Zeitraumes werden, wie häufig sie auch sein mögen, nicht belohnt." Angermeier (1991, 62)
Optimales Verhalten:
Eine Mutter gibt ihrem Kind jedesmal ein Bonbon und lobt es, wenn es versucht hat, sich allein anzuziehen. Sie baut dadurch das Verhalten "sich selbständig anziehen" durch Immer-Verstärkung auf. Je besser das Kind das Verhalten beherrscht, desto seltener bekommt es ein Bonbon. Schließlich braucht die Mutter auch nur noch hin und wieder zu loben. Das Verhalten ist selbstverständlich geworden und das Kind ist stolz auf seine Leistung. Die Mutter geht also zur Machmal-Verstärkung über und fördert so die Selbstverstärkung durch das Kind.
Drei wesentliche Merkmale der Selbstverstärkung:
"- Das Individuum verabreicht sich selbst die Verstärker. Im Gegensatz zu den bisher besprochenen Beispielen sind Subjekt und Objekt in einer Person vereint.
- Das Individuum muss frei über die Verstärker verfügen können.
- Das Individuum verstärkt sich nicht nach Belieben, sondern nur nach Auftreten spezifischer Verhaltensweisen."
Nicht alle Verhaltensweisen/Einstellungen werden durch Selbstverstärkung aufrechterhalten. Es gibt auch Verhaltensweisen/Einstellungen, die durch regelmäßige materielle Belohnung (z.B. Berufsausübung) oder soziale Anerkennung (z.B. Ehrenämter) aufrechterhalten werden. Die Verstärkung ist demnach 'wertvoller', wenn man sie nicht zu oft erhält und abstumpft.
Dadurch, dass der Verstärker nur noch ab und zu vergeben wird, verliert er weniger seinen Wert und es kommt nicht so leicht zu einer Übersättigung; das Verhalten wird unabhängiger von den äußeren Folgen und wird nicht so schnell aufgegeben, wenn die Verstärkung hin und wieder ausbleibt; dadurch, dass äußere Folgen für eine Verhaltensäußerung an Bedeutung abnehmen, wird der Lernende auch unabhängiger von der Verstärkung durch Andere (Fremdverstärkung). Damit wird gleichzeitig der Übergang zur Selbstverstärkung gefördert. Bei der Selbstverstärkung fördern innere Folgen wie z.B. "Stolz" oder "Zufriedenheit" die Verhaltensweisen/Einstellungen, die zu diesen angenehmen Gefühlen führten. Die Kontrolle und auch die Verantwortung über ein geäußertes Verhalten liegt in der betreffenden Person und nicht mehr wie bei der Fremdverstärkung bei anderen Personen. Somit ist die Förderung der Selbstverstärkung mit ihren positiven Auswirkungen auf die Persönlichkeitsentwicklung (Selbständigkeit, Unabhängigkeit) ein erwünschtes Erziehungsziel.

3.6. Arten der Verstärker (5)
Als primäre Verstärker dienen Konsequenzen, die zur Befriedigung von physiologischen (Grund-) Bedürfnissen führen (wie z.B. Wasser, Nahrung, sexueller Kontakt, ...).
Sekundäre Verstärker sind nicht lebensnotwendig (z.B. Lob, Noten, Erlaubnis zum Spielen zu gehen, ...).
Materielle Verstärker: Wie der Begriff schon sagt, bestehen sie aus 'Material' (z.B. Geld, Blumen, Süßigkeiten, Musik-CD, ... auch das Gehalt eines Angestellten stellt einen materiellen Verstärker dar).
Diese Art von Verstärkern sind in der Regel mit finanziellem Aufwand verbunden und fördern daher auch eine materielle Abhängigkeit. Handlungsverstärker bestehen in angenehmen Tätigkeiten oder Handlungen (z.B. Kinobesuch, Fernsehen, Lesen, Schwimmen gehen, Spielen, Musik hören, ...)
Soziale Verstärker (auch: Handlungsverstärker): Diese Verstärker sind nicht immer an Kosten gebunden und werden häufig im Beisein von anderen Personen ausgelebt. Sie verhindern eher eine materielle Abhängigkeit und fördern Freizeitaktivitäten und Sozialverhalten. Soziale Verstärker bestehen aus einem angenehmen zwischenmenschlichen Kontakt (z.B. Lob, Streicheleinheiten, aufmerksames Zuhören, Beifall klatschen, ...).
"Diese Form der Verstärkung kann am einfachsten und unmittelbarsten vergeben werden und kostet kein Geld. Sie wirkt sich am günstigsten auf die Entwicklung eines angemessenen Sozialverhaltens und einer reifen Persönlichkeit (Selbstwertgefühl, Selbstbewusstsein, Verhaltensbewusstsein, usw.) aus. Die Ablösung von materieller Verstärkung durch soziale Verstärkung sollte Ziel jeder Verstärkerplanung sein. Ein neu gelerntes Verhalten sollte möglichst durch den Einfluss natürlicher mitmenschlicher Beziehungen aufrechterhalten werden."
Arbeitsaufgabe: Stellen Sie die verschiedenen Verstärker in Form eines Schaubildes dar.

3.7 Merkmale der Verstärkung
Bei der Verstärkung sollte man beachten, dass nicht jedes Individuum mit den gleichen Verstärkern belohnt werden kann: Die grundlegende Haltung und die Präferenzen des jeweiligen Individuums legen die Verstärker individuell fest. Z.B. kann ein Junge, der keinen Spinat mag, nicht mit dieser Speise verstärkt werden. Der Spinat stellt für den Jungen keine angenehme Folge dar.
Weiterhin kann ein einziger Verstärker in verschiedenen Situationen unterschiedlich wirken: Ob eine Folge eine verstärkende Wirkung hat, hängt also von unserer Bedürfnislage, unseren Ansprüchen und unseren Erwartungen ab.

Beispiele zur Tauglichkeit eines Verstärkers:
- Wenn K. gerade einen großen Eisbecher gegessen hat, freut sie sich deutlich weniger über einen weiteren Eisbecher als vor dem ersten.
- Wenn E. allein und einsam ist, freut er sich über einen Anruf. E. ärgert sich dagegen über einen Anruf, wenn er dadurch bei einer interessanten Fernsehsendung gestört wird.
Weiterhin sind Verstärker kulturabhängig: In unserer Kultur werden beispielsweise Prestige, sozialer Status, Macht, Reichtum, Berühmtheit, Stärke und Intelligenz hoch angesehen.
Auch die Person, die ein Verhalten verstärkt, spielt eine Rolle: Bedeutungsvolle Personen (z.B. Vorgesetzter, bester Freund, Ehepartner, ...) besitzen einen höheren Verstärkungswert als Personen, die dem Lernenden unwichtig oder gleichgültig sind.
Z.B. ist ein Lob für eine gute Arbeit vom Vorgesetzten für die betroffene Person deutlich mehr wert (im Sinne der Verstärkung) als dasselbe Lob vom Auszubildenden der Unternehmung, der in der Firmenhierarchie unter ihm selbst steht.

3.7.1 Shaping (stufenweise Annäherung)
Bei Anpassungsleistungen wurde oft beobachtet, dass sich die Verhaltensweisen, die erlernt bzw. angeeignet werden sollen, schrittweise einstellen. Komplexe Verhaltensweisen sind oftmals (besonders bei Kindern) unmöglich auf einmal zu erlernen. Deshalb muss das (Ziel-) Verhalten in kleine Unterschritte aufgeteilt werden, die es nacheinander zu durchlaufen gilt. Nachdem ein Teilschritt erfolgreich abgeschlossen wurde, werden die Anforderungen leicht erhöht. Unter Verhaltensformung versteht man einen sukzessiven (= nacheinander, schrittweise) Aufbau eines erwünschten, komplexen Verhaltens, indem jede Annäherung an das gewünschte Verhalten verstärkt wird.
Skinner bezeichnete die schrittweise Verhaltensmodifikation als "shaping of behavior" (Verhaltensformung).
Beispiel: Verhaltensformung (‚Shaping of behavior’)
Ein Kleinkind soll lernen, sich selbst die Schuhe mit einer Schleife zuzubinden:
Schritte, die jeweils verstärkt werden: Das Kind hält ein Schuhband fest, das Kind legt die Schuhbänder übereinander, das Kind macht eine Schlaufe für die Schleife, das Kind bindet sich den Schuh mit einer Schleife.
Ist schließlich das Zielverhalten erreicht oder aufgebaut worden, so bedarf es noch der Aufrechterhaltung und Verfestigung. Ein Verhalten wird am wirksamsten aufrechterhalten, wenn die Immer-Verstärkung von der gelegentlichen Verstärkung (Machmal-Verstärkung) abgelöst wird.
"Dresseure kennen sich in dieser Methode gut aus. Als eine Art Bravourleistung habe ich, angeregt durch neuere Untersuchungen an Menschenaffen, einer Ratte eine komplizierte Reaktionsabfolge beigebracht. Das Verhalten besteht darin, dass das Tier an einer Leine ziehen muss, um eine Murmel von einem Gestell herunterzuholen. Sodann ist die Murmel mit den Vorderpfoten aufzuheben, zu einer zwei Zoll über den Boden des Käfigs hinausragenden Röhre zu tragen und schließlich dort hineinzuwerfen. Jede Phase dieses Vorganges musste in mehreren Näherungsschritten eingeübt werden, weil die darin enthaltenen Reaktionen nicht zum ursprünglichen Repertoire der Ratte gehörten (1938, Seite 339-340)." Hilgard & Bower (1973, 150)
"Bei der stufenweisen Annäherung handelt es sich um eine Methode, bei der aufeinanderfolgende Annäherungen differentiell verstärkt werden (Skinner, 1951). Der Versuchsleiter verstärkt hierbei jeden Schritt, der das Tier der endgültigen Reaktion näher bringt, ..." Lefrancois (1994, 41)
"Unter Benutzung der von ihm so bezeichneten Methode der sukzessiven Annäherungen oder der Verhaltensformung gelang es Skinner, Tauben das Ping-Pong-Spiel zu lehren." Krech & Crutchfield (1992, Band 3, S. 36)
"Sein (Skinners) Programm war so aufgebaut, dass es den Lernenden durch eine Reihe sorgfältig geplanter Lernschritte führt. Die Reihenfolge der einzelnen Lernschritte legt das Programm fest. Es besteht aus einer größeren Anzahl von Lerneinheiten, oder Frames, wie man in Anlehnung an die englischsprachige Terminologie auch sagt. Innerhalb eines Frames wird jeweils eine Information dargeboten, deren erfolgreiche Speicherung geprüft wird, bevor die nächste Lerneinheit bearbeitet wird." Mietzel (1998 a, 21)
Arbeitsaufgabe: Erklären Sie wichtige Begriffe und Aussagen der Operanten Konditionierung (Lösungsvorschläge am Ende dieses Bandes)

3.7.2 Lernübertragung (Vgl. Schmitt (1999 a, 9))
Man spricht von Lernübertragung, wenn ein Verhalten (eine Einstellung), die unter bestimmten Bedingungen verstärkt wurde, auch in anderen, ähnlichen Situationen auftritt.
Beispiel Lernübertragung:
Ein Klient, der in der Gruppenstunde eines Sozialarbeiters gelernt hat, sich mit Konflikten verbal auseinander zusetzen, wird sich wahrscheinlich zukünftig in Konfliktsituationen ähnlich verhalten.
4. Erzieherische und therapeutische Anwendung der operanten Konditionierung
Operante Verfahren zielen auf die Veränderung des Symptoms mittels der Veränderung der Konsequenzen des Symptoms ab. Im wesentlichen wird dabei der Abbau symptomatischen Verhaltens und Aufbau von alternativen Verhaltensweisen, die Stabilisierung dieser Verhaltensweisen und das Kontingenzmanagement unterschieden. Diese operanten Methoden können sowohl vom Therapeuten, vom Patienten (i.S. einer Selbstkontrolltherapie) oder über Mediatoren angewendet werden (z.B. durch Eltern im Rahmen eines Elterntrainings oder durch das Pflegepersonal im Rahmen eines Token Economy Programms bei chronisch schizophrenen Pat.). Entsprechend werden praktische Methoden des Shaping, Chaining, Prompting, Fading, der Kontingenzverträge und generell der positiven Verstärkung mittels sozialer und materieller Verstärker eingesetzt. Diese Methoden kommen bei der Therapie von Störungen des Sozialverhaltens bei Kinder und Jugendlichen, in der Paartherapie, beim Alkoholismus, bei Ess-Störungen, bei Verhaltensstörungen geistig Behinderter oder in der Schizophreniebehandlung zur Anwendung.
Die Strategien der Selbstkontrolle haben sich aus den operanten Verfahren entwickelt und stellen streng genommen einen eigenen Bereich dar. Wesentliche Vorgehensweisen sind: Selbstbeobachtung, Stimulus- und Kontingenzkontrolle, häufig mittels Verhaltensverträgen zwischen Therapeut und Pat. Als weitere Methode wird die Selbstverstärkung bzw. –bestrafung angewandt. Häufig eingesetzt werden entsprechende Methoden bei Verhaltensexzessen, die durch einen Annäherungs-Vermeidungskonflikt bedingt werden. Der Annäherungs-Vermeidungskonflikt ist häufig mit kurzfristig positiven und langfristig negativen oder kurzfristig negativen und langfristig positiven Konsequenzen verbunden (z.B. Nikotinmissbrauch, Übergewicht oder Zahnarztängsten).

Unterrichtsidee/Arbeitsaufgabe: Bilden Sie eine Zweier-Gruppe und erstellen Sie für das Thema „operante Konditionierung“ entsprechend dieser Ausarbeitung ein Mind-Map. Dieses Mind-Map sollte mindestens doppelte DIN A3-Größe haben. Benutzen Sie bitte das Inhaltsverzeichnis als Strukturierungshilfe
Unterrichtsidee/Arbeitsaufgabe: Was ist unter „Lernen durch Versuch-und-Irrtum“ nach Thorndike zu verstehen? Erklären Sie anhand eines Praxisbeispiels aus Ihren persönlichen Erfahrungen in den Praktika.
Unterrichtsidee/Arbeitsaufgabe: Was ist operante Konditionierung? Nennen Sie eine Definition dieses Begriffes und mindestens zwei entsprechende Praxisbeispiele!

Unterrichtsidee/Arbeitsaufgabe: Beschreiben Sie die operante Konditionierung nach Thorndike! Benennen und erklären Sie dabei auch die Merkmale ( also die Gesetze) der operanten Konditionierung nach Thorndike

Unterrichtsidee/Arbeitsaufgabe: Beschreiben Sie die operante Konditionierung nach Skinner. Benennen und erklären Sie dabei auch die Merkmale ( also die Gesetze) der operanten Konditionierung .

Unterrichtsidee/Arbeitsaufgabe: Erklären Sie die Begriffe „Verstärkung“, differenziert nach ihrer Wirkung und „Lernen durch Bestrafung“.

Unterrichtsidee/Arbeitsaufgabe: Welche Arten von Verstärker gibt es? Erklären Sie!
Unterrichtsidee/Arbeitsaufgabe: Stellen Sie sich vor Sie geben Nachhilfeunterricht in dem Fach Erziehungswissenschaft. Sie müssen folgende Schaubilder einem Schüler anhand praktischer Beispiele erklären und verdeutlichen. Notieren Sie Ihre Ausführungen ausführlich:
Abhängige und unabhängige Variablen in den Behavioristischen Lerntheorien
Klassisches Konditionieren
Operantes Konditionieren

unabhängige Variablen die Bedingungen, unter denen der mit dem unkonditionierten Reiz gekoppelte, zu konditionierende Reiz dargeboten wird (z.B.: Dauer oder Zeitpunkt des Aufleuchtens einer Lampe und der Futtergabe) Art der Verstärkung; Bedingungen der Verstärkung (Verstärkermenge; Zeitpunkt der Verstärkung; Verstärkungspläne)
abhängige Variablen Ausmaß der durch den konditionierten Reiz ausgelösten Reaktion (z.B. Menge des Speichelflusses) Verhaltens- bzw. Reaktionsrate (z.B. Häufigkeit des Hebeldrückens) wird in der Regel in folgenden Phasen erfaßt:
• vor der Konditionierung: baseline
• während der Aneignungsphase: Akquisitionsrate
• in der Löschungsphase: Extinktionsrate
________________________________________
Änderung der Auftretenswahrscheinlichkeit von Verhalten
Verstärkung
= Auftretenswahrscheinlichkeit des Verhaltens nimmt zu Bestrafung
= Auftretenswahrscheinlichkeit des Verhaltens wird unterdrückt Ignorieren
= Löschung des Verhaltens
positiv negativ Typ I Typ II x
angenehmer Stimulus wird hinzugefügt unangenehmer Stimulus wird reduziert unangenehmer Stimulus wird zugefügt angenehmer Stimulus wird weggenommen auf gezeigtes Verhalten folgt kein Stimulus (Reaktion)
Verstärker
primäre Verstärker: Verstärkungskraft ist angeboren
sekundäre Verstärker: ehemals neutrale Reize, die durch Kopplung mit einem primären Verstärker ihre Bekräftigungswirkung erhalten haben
kontinuierliche Verstärkung: dient zum Verhaltensaufbau
intermittierende Verstärkung: dient zur Verhaltensstabilisierung
• nach Quotenplan ( fest oder variabel)
• nach Zeitintervall ( fest oder variabel)



Unterrichtsidee/Arbeitsaufgabe: Bearbeiten Sie folgenden Lückentext, indem Sie die fehlenden Begriffe an der richtigen Stelle eintragen:
Verhalten ist durch seine _____________________beeinflusst.

Das Gesetz der Wirkung sagt, dass Verhalten das positive Konsequenzen verursacht (Verstärkung), oder negative Konsequenzen beendet (Flucht) oder vermeidet (Vermeidung) in Zukunft des ________________gezeigt wird. Verhaltensweisen, die negative Konsequenzen produzieren (Bestrafung) oder positive verhindern (Auslassung), treten in Zukunft _____________auf.

Wenn die Verstärkung nicht mehr erfolgt, nimmt die _________________der operanten Verhaltensweise ____(Extinktion).

Lebewesen können zwischen verhaltensabhängigen und verhaltensunabhängigen Verstärkungen unterscheiden.

Lebewesen können Kontingenz von Kontiguität unterscheiden, tun es aber nicht immer.
(...)_____________können mittels Pavlovscher Konditionierung zu Verstärkern konditioniert werden. Je nachdem wie unsicher die Lebewesen sind und wieviel der konditionierte Verstärker über den unkonditionierten Verstärker aussagt, sind sie bessere oder schlechtere Verstärker.
Um ein positiver _____________ zu werden, muss ein Stimuli nicht nur Informationen liefern, sondern: Die Informationen müssen auch noch eine positve Valenz aufweisen (gilt zumindest für Tauben, jedoch nicht für Menschen).

Manchmal sind ____________________Verstärker auch ein Mittel, um damit unkonditionierte Verstärker zu erlangen
Auszuwählende Wörter: positive, Häufigkeit,Neutrale, ab, Verstärker ,Konsequenz; seltener


10. Bei der operanten Konditionierung wird ein Verhalten
ohne_____________________________________________________________________gezeigt und über die darauf folgenden Konsequenzen die zukünftige Auftretenswahrscheinlichkeit bestimmt.

11. Thorndike entdeckte, dass durch das ___________und__________________-Verhalten die Lösung in jedem weiteren Durchgang schneller genutzt werden konnte. In seinem Versuch benötige eine Katze jeweils deutlich weniger Zeit zum Entkommen aus einem Käfig, als in dem vorausgehenden Versuch.
12. Thorndike entwickelte drei wichtige Gesetze, die für seine Lerntheorie relevant sind:
Gesetz der_____________________________________________________________________________

13. Der Begriff operante Konditionierung wurde von ___________________________geprägt. Er stützte sich auf die Theorien von E. L. Thorndike.

14. H. meldet sich wiederholt im Unterricht. Handelt es sich dabei um operante Konditionierung?
Antwort:______________________________________________________________________________

15. ___________________________bedeutet den Entzug der Verstärkung. Das Verhalten wird somit abgeschwächt und gelöscht.

16. Ein bestimmtes Verhalten führt zu einer gewünschten Konsequenz (z.B. der Mutter im Haushalt helfen und dafür Schokolade bekommen): dies ist eine____________________________
Das Gegenteil wäre eine Verhaltensweise, bei der eine unerwünschte Konsequenz ausbleibt (man geht etwas 'aus dem Weg').


17. Eine Verhaltensweise führt dazu, dass eine angenehme Konsequenz ausbleibt (z.B. der Mutter nicht im Haushalt helfen und nicht zu den Spielkameraden nach draußen dürfen): Dies ist eine_____________________________

18..Das Gegenteil wäre eine Verhaltensweise, die zu einer unangenehmen Konsequenz führt.
Inter__________________________/____________________/_____________________________bedeutet ein Verhalten ab und an zu verstärken. Eine auf diesem Wege verstärkte Verhaltensweise ist langlebiger gegenüber einer Extinktion, also gegenüber dem Ausbleiben einer Verstärkung.

19. Verstärker können unterteilt werden in: ___________________________/_____________________, ____________________und__________________________________ .

20
Ein Verhalten wird schrittweise aufgebaut, indem jeder Schritt in Richtung des gewünschten Zielverhaltens verstärkt wird.Wie wird dieses Verhalten genannt? . _______________________/_________________________________/___________________________________ .
21. Stellen Sie die wichtigsten Begriffe und Aussagen des operanten Konditionierens dar.

22. Zeigen Sie ausführlich die Bedeutung des operanten Konditionierens für die Erziehung auf.

23. Stellen Sie das Prinzip der Verstärkung am Beispiel von Skinners Experimenten mit Ratten dar.

24. (A) Erklären Sie ausführlich mit Hilfe der klassischen und operanten Konditionierung den Erwerb von negativen Einstellungen gegenüber Ausländern. Benutzen Sie dabei die Begriffe und Aussagen der gewählten Theorie.
(B) Zeige auf der Grundlage der von Dir gewählten Theorie Möglichkeiten zur Änderung dieser negativen Einstellung.
25. Fallbeispiel:
.Dennis griff Personen an und machte die Möbel, wann immer er nur konnte, kaputt. In der Klinik konnte er nicht zu den anderen Kindern in den Tagesraum oder auf den Spielplatz gelassen werden. Er wurde deshalb von hilflosen "Betreuern" an eine Tür im Flur angebunden, wodurch er nur zufällig vorbeikommende Kinder angreifen und schlagen konnte. Verschiedene Beruhigungsmittel hatten keinen Einfluss auf sein schon seit langer Zeit bestehendes auffälliges Verhalten.
Daraufhin begann die Behandlung: Während einer 17tägigen Beobachtungszeit, in der auch die Medikamente abgesetzt wurden, konnte sich Dennis jeweils 30 Minuten lang im Tagesraum aufhalten. Für die anschließende Therapiephase, in der er ebenfalls täglich jeweils eine halbe Stunde mit den anderen Kindern zusammen sein konnte, wurde im Tagesraum ein oben offener Holzkasten aufgestellt. Mit dem Personal wurde vereinbart, dass Dennis jedes Mal, sobald er sich aggressiv verhält, sofort und ohne Kommentar in den Kasten gebracht wird, den er nach zwei Minuten wieder verlassen konnte. Andererseits erhielt er jedes Mal, wenn er außerhalb des Kastens zwei Minuten lang kein Kind geschlagen, gekratzt oder getreten hatte, einen Schluck Milch oder ein Plätzchen, beides Dinge, die er gern mochte.
Das Ergebnis spricht für sich: Während Dennis anfangs in der jeweils halbstündigen Beobachtungszeit durchschnittlich 45 aggressive Handlungen vollbrachte, war die Häufigkeit nach elf "Behandlungstagen" auf Null gesunken.

Aufgabenstellung zur Bearbeitung dieses Fallbeispiels:

a) Benennen Sie aus dem beigefügten Text unter Berücksichtigung relevanter Theorien die zentralen Probleme und
belegen Sie Ihre Analyse mit den entsprechenden Textstellen
(zum Beispiel: siehe Zeile ...)

b)formulieren Sie darüber hinaus theoriegeleitete Maßnahmen, um negative Entwicklungen wie im Fallbeispiel
beschrieben, zu vermeiden,

c) entwickeln Sie ein eigenes pädagogisches – also ebenfalls entsprechend relevanter Theorien - Handlungskonzept, mit dem Sie als Mitarbeiter bzw. als neue Mitarbeiterin die Situation konstruktiv verändern
können. Zeigen Sie dabei zentrale Ziele auf, veranschaulichen Sie realistische und konkrete Handlungsschritte.
Bitte begründen Sie dabei Ihre Aussagen .

25.
c) Vergleichen Sie die Ihnen bekannten Lerntheorien.
d) Welche Konsequenzen für Erziehung ergeben sich Ihrer Meinung nach aus den im Unterricht behandelten Lerntheorien?

Lösungsbogen für die Fragen 10 –20. Nur für den Lehrer:

10. Bei der operanten Konditionierung wird ein Verhalten gezeigt und über die darauf folgenden Konsequenzen die zukünftige Auftretenswahrscheinlichkeit bestimmt.

11. Thorndike entdeckte, dass durch das -Verhalten die Lösung in jedem weiteren Durchgang schneller genutzt werden konnte. In seinem Versuch benötige eine Katze jeweils deutlich weniger Zeit zum Entkommen aus einem Käfig, als in dem vorausgehenden Versuch.

12. Thorndike entwickelte drei wichtige Gesetze, die für seine Lerntheorie relevant sind: .

13. Der Begriff operante Konditionierung wurde von geprägt. Er stützte sich auf die Theorien von E. L. Thorndike.

14. H. meldet sich wiederholt im Unterricht. Handelt es sich dabei um operante Konditionierung? .

15. bedeutet den Entzug der Verstärkung. Das Verhalten wird somit abgeschwächt und gelöscht.

16. Ein bestimmtes Verhalten führt zu einer gewünschten Konsequenz (z.B. der Mutter im Haushalt helfen und dafür Schokolade bekommen): Dies ist eine .
Das Gegenteil wäre eine Verhaltensweise, bei der eine unerwünschte Konsequenz ausbleibt (man geht etwas 'aus dem Weg').


17. Eine Verhaltensweise führt dazu, dass eine angenehme Konsequenz ausbleibt (z.B. der Mutter nicht im Haushalt helfen und nicht zu den Spielkameraden nach draußen dürfen): .

18..Das Gegenteil wäre eine Verhaltensweise, die zu einer unangenehmen Konsequenz führt.
bedeutet ein Verhalten ab und an zu verstärken. Eine auf diesem Wege verstärkte Verhaltensweise ist langlebiger gegenüber einer Extinktion, also gegenüber dem Ausbleiben einer Verstärkung.

19. Verstärker können unterteilt werden in: .
20
Ein Verhalten wird schrittweise aufgebaut, indem jeder Schritt in Richtung des gewünschten Zielverhaltens verstärkt wird.Wie wird dieses Verhalten genannt? . :
Lösungstext- Antwort auf: Verhalten ist durch seine Konsequenz beeinflusst.

Das Gesetz der Wirkung sagt, dass Verhalten das positive Konsequenzen verursacht (Verstärkung), oder negative Konsequenzen beendet (Flucht) oder vermeidet (Vermeidung) in Zukunft des öfteren gezeigt wird. Verhaltensweisen, die negative Konsequenzen produzieren (Bestrafung) oder positive verhindern (Auslassung), treten in Zukunft seltener auf.

Wenn die Verstärkung nicht mehr erfolgt, nimmt die Häufigkeit der operanten Verhaltensweise ab (Extinktion).

Lebewesen können zwischen verhaltensabhängigen und verhaltensunabhängigen Verstärkungen unterscheiden.

Lebewesen können Kontingenz von Kontiguität unterscheiden, tun es aber nicht immer.
(...)
Neutrale Stimuli können mittels Pavlovscher Konditionierung zu Verstärkern konditioniert werden. Je nachdem wie unsicher die Lebewesen sind und wieviel der konditionierte Verstärker über den unkonditionierten Verstärker aussagt, sind sie bessere oder schlechtere Verstärker.
Um ein positiver Verstärker zu werden, muss ein Stimuli nicht nur Informationen liefern, sondern: Die Informationen müssen auch noch eine positve Valenz aufweisen (gilt zumindest für Tauben, jedoch nicht für Menschen). Manchmal sind positive Verstärker auch ein Mittel, um damit unkonditionierte Verstärker zu erlangen