Intelligenz – Teil 4: Was messen IQ-Tests und worin besteht ihre Berechtigung?

Nachdem es in Teil 3 darum ging, wie sich der so genannte „IQ“ berechnet und wie er zu interpretieren ist, widmet dieser Artikel sich der Frage: Wie lässt sich Intelligenz messen? Und messen Intelligenztests tatsächlich Intelligenz?

Die verschiedenen Arten von Intelligenztests lassen sich ganz grob in zwei Gruppen einteilen. Anhand ihrer Verbreitung und Etabliertheit habe ich diese zwei Kategorien einmal „untypisch“ und „typisch“ getauft.

„Untypische“ Vertreter

In diese Kategorie fallen zu allererst einmal die so genannten elementaren kognitiven Aufgaben (kurz EKAs). Hierbei handelt es sich um eine Reihe relativ einfacher Aufgaben, z.B. die Identifikation von präsentierten Reizen (Kreis oder Quadrat?), die Unterscheidung von Reizen (Welcher der zwei Töne ist höher?) oder die Erinnerungsleistung in Kurzzeitgedächtnisaufgaben (z.B. maximale Zahl von Zahlen, die jemand, unmittelbar nachdem er sie gehört hat, in derselben Reihenfolge wiedergeben kann). Die Variablen, die hier als Maß für Intelligenz herangezogen werden, sind unter anderem die Reaktionszeit, die so genannte inspection time (Zeit, die jemand benötigt, um z.B. zu sagen, welche von zwei Linien länger ist) oder aber auch mit dem EEG gemessene ereigniskorrelierte Potenziale, wobei die Dauer bis zum Auftreten des Pozentials im EEG (die so genannte Latenz) als Maß für die Verarbeitungsgeschwindigkeit herangezogen wird, die wiederum Intelligenz widerspiegeln soll. Zur Validität der EKAs (also der Frage, in wiefern diese tatsächlich Intelligenz messen), liegen divergierende Befunde vor. Untersucht wurde diese Fragestellung, indem der lineare Zusammenhang (die Korrelation) zwischen der Leistung in EKAs und der Leistung in „typischen“ Intelligenztests berechnet wurde. Diese Korrelation allerdings schwankt in den verschiedenen Studien zwischen 0,35 und 0,70 – mit anderen Worten: Der Zusammenhang ist nicht bombig, und es ist wenig naheliegend, die Leistung in EKAs als alleinigen Indikator für Intelligenz zu betrachten. Ähnliches gilt für die Gehirngröße (gemessen z.B. per MRT bei lebenden oder aber direkt am Objekt  bei toten Menschen), die laut einer Metaanalyse von McDaniel (2005) eine Korrelation von 0,33 mit der Leistung in typischen Intelligenztests aufweist. Dass hier kein so besonders großer Zusammenhang besteht, ist wenig verwunderlich, wenn man bedenkt, dass die Art der synaptischen Vernetzung in unserem Gehirn sehr viel wichtiger für die reibungslose Verarbeitung von Informationen ist als dessen einfaches Volumen.

Zweitens wären da eine Reihe von Tests, die offenkundig „typischen“ Vertretern ähneln, sich aber dadurch von diesen unterscheiden, dass sie den Generalfaktor g ablehnen, d.h. nicht von einem, allen Facetten übergeordneten allgemeinen Intelligenzfaktor ausgehen, sondern von mehreren voneinander unabhängigen Faktoren. In der Tat stellen die von diesen Tests postulierten Faktoren meist elementare kognitive Funktionen (ähnlich den EKAs) dar – und keine Intelligenzkomponenten, wie in den in Teil 2 beschriebenen Modellen aufgeführt. In diese Kategorie fallen z.B. das Cognitive Assessment System (CAS) und die Kaufman-Tests (z.B. das „K-ABC“). Während das CAS u.a. die Faktoren Planung (Strategien zur Problemlösung entwickeln) und Simultanität (getrennte Objekte zu etwas Ganzem integrieren) erfasst, unterscheidet das K-ABC zwischen erworbenen Fertigkeiten (Rechnen und Schreiben), simultaner Verarbeitung (Matrizen-Aufgaben der Sorte „Welches Bild ergänzt das Muster?“) und sequenzieller Verarbeitung (z.B. Zahlen nachsprechen). Wichtig beim K-ABC: Nur diese letzten zwei Faktoren sollen die kognitive Leistungsfähigkeit widerspiegeln; erworbene Fähigkeiten werden isoliert hiervon betrachtet.

„Typische“ Vertreter

Zu den typischen Vertretern gehören alle psychometrischen Tests, d.h. solche, die in der Regel auf einem bestimmten Intelligenzmodell (siehe Teil 2) basieren, eine Reihe verschiedener Aufgabentypen beinhalten, die normiert sind (damit die Leistung der getesten Person mit der von hinsichtlich Alter und Geschlecht ähnlichen Personen verglichen werden kann) und (das ist zentral) deren Gütekriterien (Objektivität, Reliabilität, Validität) überprüft wurden und als gesichert gelten.

Die meisten dieser Tests basieren auf Modellen, die einen g-Faktor annehmen, und ermöglichen daher auch die Berechnung eines allgemeinen Intelligenzquotienten. Ein Beispiel hierfür sind die Wechsler-Intelligenztests, z.B. der WIE (Wechsler-Intelligenztest für Erwachsene) oder der HAWIK-IV (Hamburg-Wechsler-Intelligenztest für Kinder, 4. Auflage). In den Wechsler-Tests gibt es u.a. die typischen Aufgabenbereiche Allgemeines Wissen, Finden von Gemeinsamkeiten, Matrizen ergänzen, Mosaike legen, Zahlen nachsprechen (vorwärts und rückwärts) und Kopfrechnen. Während die Wechsler-Tests sowohl die Berechnung der allgemeinen Intelligenz als auch verschiedener Unterfacetten ermöglichen, erlauben die so genannten Raven-Tests, die ausschließlich aus Matrizenaufgaben bestehen, nur die Berechnung eines allgemeinen IQs. Der Intelligenzstruktur-Tests (IST-2000-R), der auf dem Modell von Thurstone basiert, ermöglicht hingegen nur die Berechnung von IQ-Werten für die Bereiche schlussfolgerndes Denken (verbal, figural und numerisch) und Merkfähigkeit (verbal und figural). Zusätzlich gibt es einen Wissenstest, der aber nicht obligatorisch ist und am ehesten kristalline Intelligenz widerspiegelt.

Wozu das ganze? Der Sinn der Intelligenzmessung.

Nun kann man sich fragen, was es einem bringt, die Intelligenz einen Menschen (bzw. das, was diese ganzen Tests vorgeben, zu messen) zu erfassen. Die selbstwertregulierende Funktion liegt auf der Hand (es ist natürlich schön, von sich sagen zu können, dass man intelligenter als 99% der restlichen Menschheit ist), aber das ist zum Glück nicht alles.

Diagnostik von Intelligenzminderung & Hochbegabung

In der Tat sind Intelligenztests ein extrem wichtiges diagnostisches Instrument, das in vielen Bereichen zum Einsatz kommt. Im Bereich der pädagogischen Psychologie sind da z.B. die Diagnostik von Teilleistungsstörungen wie Lesestörungen, Rechtschreibstörungen und Dyskalkulie (Rechenstörung) zu nennen, zu deren Diagnose nämlich die Leistung im jeweils beeinträchtigten Bereich mindestens zwei Standardabweichungen (also deutlich) unterhalb der allgemeinen Intelligenz liegen müssen (um auszuschließen, dass es sich um eine generelle Intelligenzminderung oder gar eine geistige Behinderung handelt). Aber auch am anderen Ende der Skala ergibt sich ein wichtiges Anwendungsfeld: die Hochbegabtendiagnostik. Die ist deshalb so wichtig, weil es bei solchen Kindern von großer Bedeutung ist, diese hohe Intelligenz zu fördern, um Unterforderungserleben zu verhindern, das sonst leicht zu Problemen führen kann (z.B. weil das Kind den Unterricht stört oder sich zurückzieht). Vielleicht denken Sie hierbei auch gleichzeitig an die Diagnose einer ADHS. Das ist völlig richtig, denn auch zu dieser Diagnose muss eine Hochbegabung (genauso wie eine geistige Behinderung) als Ursache des unangepassten Verhaltens des Kindes ausgeschlossen werden.

Bewerberauswahl und Vorhersage des Schulerfolgs

Die weiteren Anwendungsgebiete von Intelligenztests ergeben sich aus der breitgefächerten prädiktiven Validität von Intelligenztests, d.h. aus der Tatsache, dass sich durch die Intelligenzleistung zu einem bestimmten Zeitpunkt bestimmte andere Variablen ziemlich gut vorhersagen lassen. So zeigte z.B. eine Metaanalyse von Schmidt und Hunter aus dem Jahr 1998, dass die allgemeine Intelligenz zu 0,54 mit dem späteren Arbeitserfolg bzw. der beruflichen Leistung korrelierte – damit sind Intelligenztests diejenige Methode mit der besten Vorhersagekraft für Berufserfolg. Trotz dieser Erkenntnis bevorzugen die meisten Unternehmen bei der Bewerberauswahl jedoch die sehr viel teureren Assessment-Center, wobei die Argumente hierfür denkbar schwach sind: Die Leistung in diesen korreliert nämlich im Mittel nur zu 0,37 mit späterem Berufserfolg. Ähnliche Korrelationen ergeben sich für die Beziehung von Intelligenz und Schulerfolg, gemessen z.B. durch die Schulnote. Diese schwanken nach Deary und Kollegen (2007) zwischen 0,43 im Fach Kunst und 0,77 im Fach Mathematik (und das ist in der Psychologie eine wirklich verdammt hohe Korrelation). Als Anwendungsfeld ergibt sich hierbei z.B. die Verteilung von Kindern auf verschiedene Schulformen, um eine jeweils optimale Förderung zu ermöglichen.

Von Haftstrafen bis Krebs

Die Vorhersagekraft der allgemeinen Intelligenz ist jedoch noch sehr viel größer. Eine große Zahl von Längsschnittstudien (d.h. solchen, die z.B. in der Kindheit den IQ messen und dann über die folgenden 20 Jahre weitere Variablen erfassen) wurde zu diesem Thema durchgeführt und führte zu verblüffenden Ergebnissen. So zeigte sich, dass mit steigendem IQ das Risiko für Arbeitslosigkeit und Armut abnimmt, ebenso wie für Scheidungen und Haftstrafen. Zudem ergab sich, dass sogar Krebsdiagnosen umso unwahrscheinlicher sind, je intelligenter der Mensch ist. Bei vielen dieser Zusammenhänge gibt es sehr wahrscheinlich so genannte vermittelnde Variablen, d.h. solche, die den Zusammenhang zwischen IQ und der jeweils anderen Variable erklären. So ist der Zusammenhang mit Arbeitslosigkeit und Armut sicherlich darauf zurückzuführen, dass ein höherer IQ höhere Bildungsabschlüsse ermöglicht, die dann wiederum das Risiko für Arbeitslosigkeit und Verarmung reduzieren. Ähnliches gilt für den Fall der Krebsdiagnosen: Menschen mit höherem IQ haben in der Regel einen gesünderen Lebensstil (trinken z.B. weniger Alkohol und rauchen nicht), was dann wiederum das Krebsrisiko niedrig hält.

Messen Intelligenztests wirklich Intelligenz?

Hier bewegen wir uns auf die Frage nach der Validität dieser Tests zu. Um die Frage aus der Überschrift zu beantworten, müssen wir jedoch verschiedene Aspekte des Konstrukts „Validität“ auseinander halten. Zunächst kann man davon ausgehen, dass bei Intelligenztests im Allgemeinen die Augenscheinvalidität (auch Inhaltsvalidität genannt) gegeben ist. Diese bezieht sich allerdings nur auf die einzelnen Untertests und meint nicht mehr, als dass die Aufgaben offenbar das erfassen, was sie vorgeben zu erfassen – z.B. dass man bei Rechenaufgaben rechnen muss, dass Wortschatzaufgaben die Größe des Wortschatzes erfassen, etc. Allerdings muss man zugeben, dass diese Inhaltsvalidität bei komplexeren Aufgaben wie Matrizenergänzungen durchaus nicht so einfach zu beurteilen ist, weil die Frage nach den Prozessen, die zur Lösung der Aufgaben bewältigt werden müssen, so groß ist, dass sie ein eigenes Forschungsfeld darstellt.

Wenn man jedoch den gesamten Test heranzieht und sich fragt, ob dieser das Konstrukt „Intelligenz“ misst, ist die Antwort schon weniger eindeutig. Dafür, dass zumindest die meisten Intelligenztests annähernd dasselbe messen, sprechen die ziemlich hohen Korrelationen zwischen den Ergebnissen derselben Person in verschiedenen Intelligenztests. Dies bezeichnet man auch als diagnostische Validität. Und dafür, dass mit diesen Tests offenbar etwas gemessen wird, das Auswirkungen auf extrem viele andere Lebensbereiche (Berufserfolg, Gesundheit, etc.) hat, liegen ebenfalls zahlreiche Belege vor (prädiktive Validität). Mit anderen Worten: Irgendetwas muss ganz offensichtlich dran sein an diesem Konstrukt.

Es gibt aber natürlich auch jede Menge Kritik an der gesamten Intelligenzmessung. An dieser Stelle sei noch einmal deutlich betont, dass es sich, wie in Teil 1 beschrieben, bei Intelligenz lediglich um ein Konstrukt handelt – und nicht um eine vom Himmel gefallene und unumstößlich definierte Begebenheit. So wird von Kritikern z.B. eingeworfen, dass klassische Intelligenztests viele Aspekte gar nicht berücksichtigen, z.B. sozio-emotionale Kompetenzen. Zudem wird häufig angemerkt, dass Intelligenz auch die Aneignung von Fertigkeiten und Wissen im kulturellen Kontext bedeutet – was die Tests allesamt nicht erfassen.

Letztendlich handelt es sich bei der Frage, was Intelligenztests messen, also um eine, die die Wissenschaft nie endgültig wird beantworten können, weil dies unmöglich ist. Man kann als Fazit allerdings zweierlei festhalten: Dass Intelligenztests das messen, was sie vorgeben zu messen, scheint auf Basis der Befunde zur Inhalts-, diagnostischen und prädiktiven Validität sehr wahrscheinlich – ebenso wie dass dieses Konstrukt, wie auch immer man es nennen mag, offenbar große Auswirkungen auf unser Leben hat. Ob diese Tests aber tatsächlich Intelligenz messen, lässt sich nicht beantworten, da es sich hierbei um ein höchst unterschiedlich definiertes Konstrukt handelt.

Bleibt der IQ immer gleich? Die Frage nach der Stabilität.

Auch diese Frage hat wiederum zwei Facetten. Die erste ist die Frage, ob Intelligenztests zuverlässig messen, d.h. reliabel sind. Im Wesentlichen ist hiermit die Frage verknüpft, wie genau Intelligenztests messen. Nun, ein psychometrischer Test misst nicht so genau wie eine Waage, das ist klar. Aber die meisten Intelligenztests haben Reliabilitäten von über 0,90, was ziemlich gut ist. Am geläufigsten ist hierbei die so genannte Retest-Reliabilität, d.h. die Frage nach der Übereinstimmung der Testergebnisse, wenn Personen denselben Test zweimal hintereinander bearbeiten. Hierbei muss das Zeitintervall natürlich groß genug sein, um auszuschließen, dass die Person die richtigen Lösungen bei der Bearbeitung lediglich erinnert. Der zeitliche Abstand darf aber auch nicht zu lang sein, da es sonst möglich ist, dass eine große Abweichung der Testwerte darauf zurückgeht, dass die tatsächliche Intelligenzleistung der Person sich verändert hat (was besonders bei Kindern der Fall ist, die einen schnellen Zuwachs verzeichnen).

Die zweite Frage ist die, ob die Intelligenzleistung selbst stabil ist. Hier bietet die Forschungslage erfreulicherweise einen relativ eindeutigen Befund: Obwohl IQ-Werte auch tagesformabhängig sind (logisch, da man sich nicht immer gleich gut konzentrieren kann), sind die Fluktuationen ziemlich gering, und Intelligenz erweist sich insgesamt als ziemlich stabile Eigenschaft. Stabil meint hierbei allerdings nicht, dass immer gleich viele Punkte im selben Test erreicht werden, sondern dass eine Person im Vergleich zur alters- und geschlechtsspezifischen Normstichprobe gleich gut bleibt. Als Beispiel: Natürlich wird ein zehnjähriges Kind im HAWIK mehr Punkte erzielen als mit sechs Jahren, aber es behält trotzdem denselben IQ, weil es bei den beiden Messungen mit unterschiedlichen Normstichproben verglichen wird. Verschiedene Untersuchungen zeigen sogar eine erstaunliche Stabilität des IQ über sehr lange Zeitspannen: So ergab sich in einer Studie von Deary und Kollegen (2000) eine beachtliche Korrelation von 0,77 zwischen den IQ-Werten einer Stichprobe, die zum ersten Mal 1932 und zum zweiten Mal 1995 an demselben Test teilgenommen hatte.

Interessant ist diesbezüglich übrigens der sehr unterschiedliche Verlauf von fluider und kristalliner Intelligenz über die Lebensspanne. Studien aus diesem Bereich zeigen, dass, während die kristalline Intelligenz (im Wesentliches also erworbenes Wissen) im Laufe des Lebens zunimmt bzw. stagniert, die fluide Intelligenz (logisches Denken etc.) abnimmt. Neuere Untersuchungen zeigen jedoch, dass der Rückgang der fluiden Intelligenz auf etwas anderes zurückzuführen ist – nämlich auf die mit dem Alter geringer werdende Erfahrung mit den Aufgabenformaten typischer Intelligenztests, die stark an die von Schulaufgaben angelehnt sind. Insgesamt kann man also sagen: Intelligenz ist ziemlich stabil, aber eben nicht perfekt stabil. Und das liegt maßgeblich daran, dass wir entgegen der weitläufigen Meinung nicht mit einem festgelegten IQ geboren werden – was Thema des fünften Teils der Intelligenz-Reihe sein wird.

 © Christian Rupp 2014

Warum werden Menschen abhängig? – Die psychosoziale Seite.

In diesem zweiten Teil soll es um die Frage gehen, welche psychischen und sozialen Faktoren die Entwicklung einer Abhängigkeitserkrankung bedingen. Hierzu habe ich vier Aspekte herausgegriffen, die mir als die wichtigsten erscheinen.

Veränderte Selbstwahrnehmung

Zu diesem Punkt liegen verschiedene Theorien vor, deren Gemeinsamkeit darin besteht, dass sie davon ausgehen, dass Alkoholkonsum zu einer veränderten Wahrnehmung der eigenen Person führt und so z.B. bei sozial ängstlichen Personen bewirkt, dass diese sich weniger schüchtern und offener in soziale Interaktionen begeben.

So postuliert z.B. die Self Awareness-Theorie, dass Alkohol die selbstbezogene Aufmerksamkeit verändert. Generell gilt: Je höher die selbstbezogene Aufmerksamkeit, desto besser stimmen externe und interne Verhaltensstandards überein, d.h. umso mehr orientiert sich das eigene Verhalten an gesellschaftlichen Normen. Unter Alkoholeinfluss reduziert sich laut dieser Theorie die Aufmerksamkeit auf die eigene Person, und in der Folge verhalten sich Menschen eher entgegen jener Normen – d.h. sie tun Dinge, die ihnen unter intakter Selbstaufmerksamkeit viel zu peinlich wären (auf dem Tisch tanzen, den Chef auf einer Betriebsfeier anbaggern, etc.). Zu dieser Theorie ist die empirische Befundlage leider sehr mager, sodass sie nicht als bestätigt angesehen werden kann.

Die Alcohol-Myopia-Theory besagt derweil, dass Alkohol dazu führt, dass bei der Entscheidung, welchem von zwei Handlungsimpulsen aus der Umwelt man folgt (z.B. auf der Betriebsfeier eher hemmungslos abtanzen oder sich aufgrund der Anwesenheit des Chefs eher zurückzuhalten)  immer derjenige gewählt wird, der weniger kognitive Verarbeitung erfordert und der am meisten hervorsticht. In diesem Beispiel wäre der dominierende Impuls „Party“, und die Verarbeitung des weniger hervorstechenden Aspekts „Chef ist anwesend“ würde aufgrund des Alkoholkonsums unterdrückt, sodass der erste Impuls das Verhalten steuert und man beispielsweise wild auf dem Tisch tanzt. Für diese Theorie liegen tatsächliche einige Belege vor.

Das Appraisal-Disruption-Modell besagt etwas sehr Ähnliches. Es geht davon aus, dass Alkohol verhindert, dass bei der Wahrnehmung eines bestimmtes Reizes in der Umwelt (z.B. „Chef da drüben“) die damit assoziierten Aspekte im Gedächtnis („nicht blamieren“) aktiviert werden, was aber für eine adäquate Bewertung des Reizes und somit angemessenes Verhalten unerlässlich ist. Die Theorie sagt somit aber vorher, dass Alkohol sich nur dann auf Selbstwahrnehmung und Sozialverhalten auswirken sollte, wenn er konsumiert wird, bevor man mit dem zu bewertenden Reiz konfrontiert wird (da er sich nur dann auf die Aktivierung im Gedächtnis auswirken kann) – eine Vorhersage, die bislang nicht bestätigt wurde.

Insgesamt kann man die Forschungsergebnisse zum Aspekt der veränderten Selbstwahrnehmung so zusammenfassen: Als bestätigt gilt, dass Alkoholkonsum die Selbstwahrnehmung verbessert, was man z.B. daran erkennt, dass sich Probanden nach dem Konsum von Alkohol positivere Eigenschaften zuschreiben (gemessen mit dem so genannten Impliziten Assoziationstest). Weiterhin wurde die Frage untersucht, ob sich durch Alkoholkonsum tatsächlich die soziale Ängstlichkeit reduziert. Hier konnte gezeigt werden, dass sozial ängstliche Probanden nach Alkoholkonsum und der Ankündigung, z.B. vor anderen eine Rede halten zu müssen, zwar subjektiv weniger Angst und Stress angaben, dies aber nicht durch objektive physiologische Messwerte, die mit Angstreaktionen einhergehen (Herzrate, Hautleitfähigkeit…) widergespiegelt wurde. Insgesamt ist aber gerade aufgrund der subjektiv wahrgenommenen Angstreduktion davon auszugehen, dass die leichter fallende Interaktion mit anderen bei sehr schüchternen Personen einen wesentlichen Beitrag dazu leistet, dass sich eine Abhängigkeit entwickelt – was dazu passt, dass sich bei Patienten mit einer sozialen Phobie häufig sekundär eine Alkoholabhängigkeit entwickelt.

Suchtbezogene Grundannahmen

Dieser Aspekt beruht auf der kognitiven Theorie bzw. der kognitiven Therapie nach Aaron Beck, der als Kern der Abhängigkeit bestimmte kognitive Strukturen (Überzeugungen, Grundannahmen) ansieht, die sich aus den Erfahrungen des Individuums in der Vergangenheit gebildet haben. Suchtbezogene Grundannahmen haben gemeinsam, dass die allesamt die Vorteile des Alkoholkonsums betonen. So könnten typische Annahmen z.B. lauten: „Ohne Alkohol kann ich keinen Spaß haben“, „Ohne Alkohol kann ich nicht entspannen“, „Ohne Alkohol wirke ich nicht attraktiv“, „Nur mit Alkohol kann ich mich ohne Angst mit Fremden unterhalten“ oder „Nur mit Alkohol komme ich auf richtig gute Ideen“. Wie man sieht, können diese Annahmen vielfältig sein und natürlich auch die Aspekte der oben beschriebenen veränderten Selbstwahrnehmung beinhalten.

Das Modell nach Beck sieht nun vor, dass diese Grundannahmen in Risikosituationen (wie z.B. einer generell schlechten Stimmung) aktiviert werden, was dann bestimmte automatische Gedanken auslöst (z.B.: „Geh los und trink was“). Dies erzeugt dann starkes Verlangen nach der Substanz (hier Alkohol), was schließlich zu einem erlaubniserteilenden Gedanken führt („Mir bleibt nichts anderes übrig als zu trinken, weil niemand da ist, mit dem ich reden könnte“) – und letztlich zum erneuten Alkoholkonsum.  In der Therapie bestünde daher ein wichtiger Ansatz darin, diese Grundannahmen durch Techniken der kognitiven Therapie zu verändern.

Abstinenz-Verletzungssyndrom

Dieser recht unschöne Begriff bezeichnet ein Phänomen, das bei abhängigen Patienten häufig nach einem Rückfall auftritt, nachdem sie es bereits einige Zeit geschafft haben, abstinent zu sein, also nichts von der Substanz zu konsumieren.  Das Abstinenz-Verletzungssyndrom (kurz AVS) ist gekennzeichnet durch starke Resignation und Minderwertigkeitsgefühle auf Seiten des Patienten, der den Rückfall als Beleg für die eigene Schwäche wertet – sowie dafür, ein Versager zu sein. Typische Gedanken, die Patienten in solchen Situationen häufig kommen, sind: „Ich bekomme es einfach nicht hin, mit dem Trinken aufzuhören“, „Dass ich einen Rückfall hatte, zeigt, dass ich dafür einfach zu schwach bin“ und „Im Prinzip kann ich gleich aufhören, es weiter zu versuchen und wieder trinken wie bisher“. Daraus erklärt sich die große Gefahr, die das AVS birgt – nämlich wieder komplett in das alte Trinkverhalten zurückzuverfallen, „weil man es ja eh nicht schafft, ganz aufzuhören“. In der Therapie ist es daher enorm wichtig, zwischen einem einmaligen Rückfall (im Englischen „lapse“) und einem wirklichen Rückfall in das alte Trinkmuster (im Englischen „relapse“) zu unterscheiden und dem Patienten klar zu machen, dass es gerade wichtig ist, nach einem lapse nicht in einen relapse zu verfallen. Tatsächlich brauchen die meisten Patienten 4-5 Anläufe, bis es dauerhaft mit der Abstinenz klappt – eine Erkenntnis, die für Patienten sehr entlastend sein kann.

Veränderungen in der Familie

Zuletzt möchte ich noch auf einige soziale Aspekte eingehen, die die mit einer Abhängigkeitserkrankung einhergehenden Veränderungen in der Familie des Patienten betreffen. So kommt es infolge der Abhängigkeit häufig dazu, dass sich die Familie nach außen hin abschottet – in der Regel aus Scham und der Angst, von Verwandten, Freunden und Bekannten abgewertet zu werden. Die dadurch weniger werdenden sozialen Kontakte brechen somit als wichtige Ressource weg, was der Patient typischerweise durch gesteigerten Konsum kompensiert.

Hinzu kommt, dass in den betroffenen Familien das Thema „Abhängigkeit“ oft lange Zeit vermieden und mit aller Mühe versucht wird, es z.B. vor Partner oder Kindern zu verheimlichen. Selbst wenn jeder Bescheid weiß, wird das Thema oft lieber totgeschwiegen als offen angesprochen, meist aus Unsicherheit und Hilflosigkeit der Familienmitglieder. Zudem kommt es häufig vor, dass z.B. Partner dem Abhängigen sogar entgegenkommen, indem sie beispielsweise Alkohol besorgen – natürlich in dem Bestreben, dem geliebten Partner in seinen Qualen behilflich zu sein. Hierdurch passiert natürlich langfristig das Gegenteil: Die Abhängigkeit wird aufrecht erhalten, und die Lage spitzt sich zu.

Letztlich kommt es in solchen Familien auch oft zu gravierenden Veränderungen der Rollenverteilung, z.B. wenn ein älteres Kind die Mutterrolle für jüngere Geschwister übernimmt, weil die alkoholabhängige Mutter nicht mehr in der Lage ist, für ihre Kinder zu sorgen. Solche Veränderungen halten nicht nur die Abhängigkeitserkrankung aufrecht, sondern sind außerdem hochgradig ungünstig für die Entwicklung der betroffenen Kinder. Deshalb gehört zu einer allumfassenden Therapie von Abhängigkeitserkrankungen immer auch der Einbezug der Familienmitglieder und die genaue Betrachtung der sozialen Bedingungen, in denen sich der Patient befindet.

Fazit

Wie ich in diesem und dem vorherigen Artikel hoffentlich habe zeigen können, sind die Ursachen dafür, warum Menschen eine Abhängigkeit entwickeln, sehr vielfältig – und nur durch die Berücksichtigung sowohl biologischer als auch psychischer und sozialer Aspekte lässt sich diese sehr ernste Erkrankung überhaupt verstehen.

© Christian Rupp 2013

Warum werden Menschen abhängig? – Die biologische Seite.

Abhängigkeitserkrankungen („Süchte“) stellen eine schwerwiegende, sehr qualvolle und gesellschaftlich extrem stigmatisierte Gruppe von psychischen Störungen dar. Und sie sind alles andere als selten: So leiden pro Jahr z.B. ca. 3% der Bevölkerung an einer Alkoholabhängigkeit und 0,5% bis 1% an einer Drogen – oder Medikamentenabhängigkeit (Nikotinabhängigkeit außen vor gelassen).

Im Hinblick auf illegale Drogen sind hierbei vor allem die sedierend wirkenden Opioide (in der Regel das aus Schlafmohn gewonnene Heroin), das stimulierend wirkende Kokain (aus den Blättern des Coca-Strauchs gewonnen, entweder als Koks in Pulverform geschnupft oder als Crack geraucht) sowie die ebenfalls stimulierenden Amphetamine (im Wesentlichen synthetisches Kokain, hierunter fällt auch Methylamphetamin, bekannt als „Crystal Meth“) und das sedierend wirkende Cannabis (in Form von Haschisch oder Marihuana) zu nennen. Nicht zu vernachlässigen sind auch Medikamentenabhängigkeiten, insbesondere von Benzodiazepinen, die meist als Schlafmittel eingenommen werden und schon nach nur dreiwöchigem Gebrauch abhängig machen.

Hinzu kommen außerdem die so genannten nicht stoffgebundenen Abhängigkeiten, worunter vor allem das pathologische Glücksspiel („Spielsucht“) fällt, bezüglich dessen neuere Forschungsergebnisse darauf hindeuten, dass die Wirkung im Gehirn der von „echten“ Substanzen enorm ähnelt. Bezüglich aller Abhängigkeitserkrankungen gilt das Gegenteil dessen, was bei den meisten anderen psychischen Störungen gilt, nämlich dass Männer deutlich häufiger betroffen sind als Frauen.

Woran erkennt man eine Abhängigkeit?

Die Symptome einer Abhängigkeitserkrankung sind die folgenden:

  • Toleranzentwicklung (d.h., es muss mit der Zeit mehr von der Substanz konsumiert werden, um dieselbe Wirkung zu erzeugen)
  • Entzugserscheinungen (Bei nicht erfolgtem Konsum kommt es zu Entzugssymptomen wie Übelkeit, Schmerzen, Unruhe oder auch Halluzinationen und epileptischen Anfällen)
  • Die Substanz wird häufiger oder in größeren Mengen konsumiert als beabsichtigt
  • Es besteht der anhaltende Wunsch, den Konsum zu reduzieren oder zu kontrollieren; bisherige Versuche sind aber gescheitert
  • Der Betroffene verbringt sehr viel Zeit mit dem Konsum, der Beschaffung und der Erholung vom Konsum der Substanz
  • Der Betroffene setzt den Konsum trotz eines bestehenden körperlichen oder psychischen Problems fort
  • Der Betroffene vernachlässigt wichtige soziale, familiäre oder berufliche Pflichten aufgrund des Substanzkonsums

Im Folgenden werde ich nun verschiedene Faktoren beleuchten, die dafür verantwortlich sind, dass Menschen von Substanzen abhängig werden. Die dargestellten Ansätze dienen dabei vor allem dazu, die beiden bedeutendsten Symptome zu erklären: die Toleranzentwicklung und die Entzugssymptome. Ich orientiere mich bei der Darstellung am Beispiel der besonders relevanten Alkoholabhängigkeit – die meisten Prozesse haben jedoch eine ebenso große Bedeutung für andere Substanzen.

Metabolische Toleranz

Hiermit sind Anpassungsprozesse auf Ebene der Leber gemeint, wo der größte Anteil des Alkohols abgebaut (d.h. metabolisiert) wird. In der Tat passt sich die Leber bei fortwährendem starken Alkoholkonsum dadurch an, dass zusätzliche Enzyme zum Abbau des Alkohols gebildet werden. Bei sehr starkem Konsum wird zudem auch das Enzym MEOS gebildet, das neben Ethanol (was den Hauptbestandteil dessen ausmacht, was wir als „Alkohol“ bezeichnen) auch die noch wesentlich gefährlichere Substanz Methanol abbaut und dem eine wichtige Bedeutung hinsichtlich der sich auftürmenden Nachwirkungen (siehe unten) zukommt.

Insgesamt kommt es also durch die Anpassungsprozesse in der Leber zu einem immer schnelleren Abbau in der Leber und somit dazu, dass eine immer größere Menge Alkohol nötig ist, um die gewünschte Wirkung zu erzielen.

Warum einem von Alkohol übel wird

Dass einem nach starkem Alkoholkonsum übel wird, ist auf das Produkt der ersten Abbaustufe in der Leber zurückzuführen, das so genannte Acetaldehyd, das dann zu Essigsäure und schließlich zu Kohlendioxid und Wasser abgebaut wird. Vielen asiatisch stämmigen Menschen fehlt das Enzym zum weiteren Abbau von Acetaldehyd, was deren generelle Unverträglichkeit gegenüber Alkohol erklärt.

Pharmakologische Toleranz

Dieser Begriff beschreibt die andere Facette der Toleranz und bezieht sich auf Anpassungsprozesse im Gehirn. Jede Substanz wirkt durch die Interaktion mit jeweils einer bestimmten Sorte von Rezeptoren, die normalerweise auf körpereigene Neurotransmitter („Botenstoffe“) ausgerichtet sind, die bezüglich der chemischen Struktur eine große Ähnlichkeit mit der jeweiligen Substanz aufweisen. Alkohol z.B. erzeugt an den entsprechenden Rezeptoren genau die gleiche Wirkung wie der allgemein sedierend wirkende Neurotransmitter GABA (Gamma-Aminobuttersäure). Bei fortwährendem Alkoholkonsum kommt es nun zu zwei Phänomenen: Erstens finden Umbauprozesse auf Basis der Rezeptoren statt, die sowohl in ihrer Zahl zunehmen als auch weniger empfindlich für die mit ihnen interagierenden Stoffe werden. Dies hat ebenso zur Folge, dass eine höhere Dosis der Substanz erforderlich ist, um die gewohnte Wirkung zu erzielen. Die zweite Wirkung ist die, dass durch die Allgegenwärtigkeit des Alkohols im Nervensystems der natürliche Neurotransmitter GABA „überflüssig“ wird und folglich in geringeren Mengen produziert wird – ein Aspekt, der im übernächsten Abschnitt intensiver behandelt wird.

Warum Alkohol in geringen Dosen stimulierend wirkt

Wie auch der Neurotransmitter GABA wirkt Alkohol als solcher sedierend, d.h. dämpfend und beruhigend. Gleichzeitig wirkt er sich aber auch sekundär auf das dompaminerge Transmittersystem aus, das auch unter dem Namen „Belohnungssystem“ bekannt ist. Alkohol bewirkt eine Enthemmung dieses Systems und führt somit zu dessen Aktivierung; die Folge ist (wie immer, wenn das Dopaminsystem aktiviert wird) eine stimulierende, euphorisierende und enthemmende Wirkung. In geringen Dosen überwiegt diese stimulierende Wirkung. Ist eine gewisse Blutalkoholkonzentration (in der Regel über 1 Promille) jedoch überschritten, überwiegt die eigentliche Wirkung, und die Euphorie weicht einem gedämpften Bewusstseinszustand und einer zunehmenden Müdigkeit.

Craving

„Craving“ bezeichnet das starke Verlangen nach der Substanz und die Omnipräsenz der Substanz in den Gedanken der Person. Dieses starke Verlangen tritt auf, wenn die Substanz längere Zeit nicht konsumiert wurde und die Person dann mit Dingen in Kontakt kommt, die mit der Substanz assoziiert sind (z.B. Alkoholwerbung bei Alkoholabhängigen oder rauchende Zeitgenossen bei Nikotinabhängigen). Craving ist daher maßgeblich für gescheiterte Abstinenzversuche verantwortlich. Der Grund hierfür liegt sehr wahrscheinlich, wie im vorherigen Abschnitt beschrieben, auf Basis der Veränderungen im Nervensystem, präziser gesagt an der heruntergefahrenen Produktion der körpereigenen Neurotransmitter (im Falle von Alkohol ist dies GABA). Diese Reduktion der Produktion ist die automatische Folge bei jedem Substanzkonsum, ist also mit diesem assoziiert (lerntheoretisch spricht man von einem klassischen Konditionierungsprozess). Ebenso ist der Substanzkonsum aber mit anderen substanzbezogenen Reizen assoziiert, wie z.B. mit dem Bild einer Schnapsflasche oder dem Geruch von Wein.

Wenn die Person nun mit substanzbezogenen Reizen in der Umwelt in Kontakt kommt, kommt es im Sinne einer konditionierten Reaktion schon vorab zu einer Reduktion der Neurotransmittermenge. Dadurch dass somit zu wenig GABA vorhanden ist, der Alkohol als Ersatz aber noch fehlt, kommt es zu dem starken Verlangen nach eben diesem. In der Regel folgt hierauf der erneute Konsum, um dieses Verlangen zu „befriedigen“. Bleibt dieser aus, kommt es zu starken Entzugssymptomen aufgrund des Defizits an Neurotransmittern. Diese Entzugssymptome stellen typischerweise das Gegenteil der direkten Wirkung der Substanz dar – beim generell sedierend wirkenden Alkohol sind die Folgen z.B. eine ausgeprägte Unruhe, ein hoher Puls und starkes Schwitzen. Aufgrund dieser Gegensätzlichkeit wird die Theorie, auf der diese Erklärung beruht, auch als opponent process theory bezeichnet.

Die tödliche Dosis Heroin

Die opponent process theory bietet auch eine Erklärung dafür, warum ein und dieselbe Dosis z.B. bei Heroin je nach Ort des Konsums entweder normal oder tödlich wirken kann. Der typische Ort des Konsums ist mit dem Konsum selbst assoziiert, und somit bewirkt schon das Eintreffen an dem jeweiligen Ort eine Reduktion der körpereigenen Transmittermenge (bei Heroin generell auch GABA), sodass der Körper auf die Aufnahme des Heroins vorbereitet wird. Wird die gleiche Dosis Heroin jetzt plötzlich an einem ungewohnten Ort konsumiert, fehlt dieser konditionierte Reiz, und es kommt nicht vorab zu einer Reduktion der körpereigenen GABA-Produktion. Folglich ist der Körper nicht auf die Substanz vorbereitet, und die gleiche Dosis wie zuvor kann in diesem Fall „zu viel“ sein und tödlich wirken. Ein anderer Grund ist derweil der, dass Heroin eine sehr unterschiedliche Zusammensetzung haben und mal mehr, mal weniger gepuncht sein kann, was auch eine unterschiedliche Wirkung derselben Dosis erklärt.

Sich auftürmende Nachwirkungen

Dieser Aspekt der Abhängigkeit ist womöglich derjenige, der am eigängigsten und daher am besten verständlich ist. Was vielen Menschen nicht unbedingt bewusst ist, ist, dass der erwünschten positiven (in geringen Dosen stimulierenden und in höheren Dosen sedierenden) Wirkung des Alkohols eine deutlich länger andauernde negative Wirkung gegenübersteht, die jedoch schwächer ausgeprägt ist als die unmittelbare Wirkung. Hierzu gehören ein generelles Unlustgefühl, Reizbarkeit und depressiver Verstimmung. Diese sind noch abzugrenzen von den Kopfschmerzen im Rahmen des „Katers am nächsten Morgen“, die schon früher vorüber sind. Diese negativen Folgewirkungen sind auch zu unterscheiden von Entzugserscheinungen, da sie im Gegensatz zu diesen nicht nur bei Menschen mit einer Abhängigkeit, sondern bei allen Konsumenten auftreten.

Warum kommt es zu diesen Folgeerscheinungen? Dies liegt wiederum stark an biologischen Abbauprozessen. Wie oben bereits erwähnt, wird Alkohol zunächst zu Acetaldehyd abgebaut. In Verbindung mit dem Hormon und Neurotransmitter Adrenalin bilden sich hieraus die Substanzen TIQ und THBC, zu deren Bildung außerdem das Enzym MEOS beiträgt, das bei sehr langem und intensivem Konsum entsteht. Die Substanzen TIQ und THBC beeinträchtigen nun wiederum das körpereigene Endorphinsystem und das Dopaminsystem („Belohnungssystem“), was für die oben beschriebenen Symptome verantwortlich ist.

Der Bezug zur Abhängigkeit ist nun der, dass die Betroffenen dazu neigen, diese negativen Folgewirkungen nicht „auszusitzen“ und zu warten, bis sie vorüber sind, sondern stattdessen erneut trinken, um diese zu kompensieren. Die Folge ist die, dass die negativen Nachwirkungen sich von Mal zu Mal auftürmen, weil die relevanten Stoffe im Körper (vor allem TIQ und THBC) nie richtig abgebaut werden können. Dies führt dazu, dass nach einiger Zeit die gleiche Menge Alkohol gerade einmal ausreicht, um wieder einen Normalzustand herbeizuführen – um die gleiche positive Wirkung wie zu Beginn hervorzurufen, muss hingegen dann schon die doppelte Menge Alkohol konsumiert werden. Somit bietet diese Perspektive eine weitere Erklärung für die Entwicklung einer Toleranz gegenüber der Substanz.

© Christian Rupp 2013