Computergestützte Psychotherapie

Chancen und Risiken

Peter Schulthess

https://doi.org/10.30820/8245.11

Wie im Bericht über den Psy-Kongress 2018 erwähnt, ist das Referat von Dirk Helbling zum Thema «Einsatz von Cognitive Computing in der Psychotherapie: Chancen und Risiken» eine ausführliche Zusammenfassung wert. Dirk Helbling ist Professor of Computational Social Science an der ETH Zürich.

Das Thema muss uns Psychotherapeuten echt beschäftigen und zu denken geben, wir können es nicht einfach ignorieren, da Cognitive Computing, so wie in anderen Bereichen des Gesundheitswesens, auch in der Psychotherapie zur Anwendung kommen wird bzw. bereits in Anwendung ist.

IT-basierte Datenmengen ermöglichen neue Möglichkeiten zur Optimierung der Leistungsfähigkeit der Medizin, sie bergen aber auch Risiken. Stichworte sind: Personalisierte Medizin, optimierte Diagnosestellung und Behandlungs­assistenz anhand von Leitlinien. Und natürlich haben an der Nutzung dieser Daten auch die Kostenträger ihr Interesse zur Senkung der Gesundheitskosten oder zur Risikoselektion der Versicherer.

Das World Wide Web (WWW) ist ein weltweites Nachrichtennetz (ursprünglich für militärische nachrichtendienstliche Zwecke erfunden) und bildet einen globalen Markt für Daten. Soziale Netzwerke sind Knoten im WWW, wo Daten generiert und weiter geliefert werden. Die Datenmenge ist derart immens, dass einzelne Personen diese unmöglich auswerten können. Zur Auswertung wird künstliche Intelligenz ein­gesetzt. In einer Minute erfolgen weltweit 700.000 Google-Abfragen und 500.000 Face­book-Posts. Unsere Bewegungen erzeugen Datenspuren, die sogar in Echtzeit eingesehen werden können.

Das Big Data Paradigma lautete: Wenn wir nur genügend Daten hätten, dann bräuchten wir keine Theorien mehr, die Daten würden die Wahrheit enthüllen. Seither werden so viele Daten wie möglich gesammelt, um Gehirn und Psyche zu verstehen. Das ist ein Traum und zugleich ein Albtraum!

Das Internet wird ausgelesen: Es wird aufgezeichnet, wie lange Sie wo beim Surfen verweilen, was sie lesen. Und wenn es Lücken in der Sicherheit ihrer Hardware gibt: Es kann gar ausgelesen werden, was Sie alles tippen. Daten entblössen alles. 64.000 Social Providers werden ausgewertet. Die NSA kann mit künstlicher Intelligenz über unsere Stimme alles Mögliche erfassen. Die Kamera des Smartphones oder Computers ist ein Browser zur Datenlieferung an Google. «Die» wissen nicht nur, wo Sie sind, «die» wissen auch wo Sie waren und mehr oder weniger, was Sie denken. Über jeden von uns wird ein digitales Double erzeugt. Zum Beispiel wertet IBM Watson (Gesundheits-)Daten auf Mac-Geräten aus und kann Rückschlüsse auf unseren Gesundheitszustand ziehen.

Natürlich will man damit Gutes tun und die Gesundheit verbessern, den Menschen helfen. Diagnosen sind oft zuverlässiger (z. B. bei Hautkrebs) als bei vielen Ärzten. Wir wissen gar nicht, dass wir so beobachtet und untersucht werden – ohne je um unser Einverständnis gefragt worden zu sein.

Bedeuten mehr Daten mehr Wissen? Mehr Wissen mehr Macht? Mehr Macht mehr Erfolg? Nein, das gilt nicht generell. Je mehr Daten vorliegen, umso grösser ist die Gefahr, dass man vor lauter Bäumen den Wald nicht mehr sieht. Es entstehen bei den Auswertungen Zufallskorrelationen: Etwa wo mehr Schokolade gegessen wird, gibt es mehr Waldbrände. Oder: Mehr Eis essende Kinder – mehr Waldbrände. Das sind zwar möglicherweise mathematisch korrekte Korrelationen, daraus einen ursächlichen Zusammenhang zu konstruieren, ist jedoch absurd. Oft aber werden Korrelationen als solche bewertet (auch in der Psychotherapieforschung), insbesondere wenn sie statistisch signifikant sind. Das grosse Geheimnis der künstlichen Intelligenz ist: Auch sie ist nicht perfekt.

Algorithmen diskriminieren, unbeabsichtigt. Gen-Pro­ben wurden an unterschiedliche Firmen zur Auswertung versandt: Es gab verschiedene Diagnosen und Prognosen. Denken Sie an Angelina Jolie: Sie hat sich beide Brüste abnehmen lassen aufgrund einer mathematischen Wahrscheinlichkeit, errechnet durch einen Algorithmus.

Sollen alle Frauen flächendeckend vorsorglich gescreent und auf Vorzeichen eines Krebses untersucht werden? Es gibt eine Fehlerrate in den Diagnosen und Prognosen. Ist das nun mehr Nutzen oder Schaden? Daten sind das neue Öl. Es gilt sie zu raffinieren und zu destillieren, um sie nützlich zu machen.

Ein Beispiel, wo Daten nützlich verwertet werden können: Die Auswertung von Passagieren auf Verbindungsflügen mit verschiedenen Flughäfen können schon Aussagen darüber erlauben, wie sich eine Grippewelle verbreitet. Das sind Hilfen für Entscheidungsträger.

Die Rechnerleistungen verdoppeln sich heute alle 18 Monate. Aber: Die Datenmenge wächst noch viel schneller: Sie verdoppelt sich alle zwölf Monate. In einem Jahr werden so viele Daten generiert wie vorher in der ganzen Menschheitsgeschichte!

Cambridge Analytica ist ein Datenanalyse-Unternehmen. Es hat im Mai Insolvenz anmelden müssen. Das Unternehmen sammelte und analysierte in grossem Stil Daten über potenzielle Wähler mit dem Ziel, durch personalisierte Informationen das Wählerverhalten zu beeinflussen (Mikrotargeting). Ein Nachfolgeunternehmen ist bereits in Betrieb: Emerdata.

Im Bereich der Psychiatrie/Psychotherapie können solche Datenauswertungen mit dem Ziel der Verhaltenssteuerung und -änderung ein weites Betätigungsfeld kriegen. Maschinen kennen uns besser als viele Menschen in unserem Umfeld. Freunde suchen wir uns in der Regel gut aus, um uns in guten Händen zu wissen, wenn wir Persönliches offenbaren, doch die Firmen, die unsere Daten verwalten und in der Lage sind, uns zu manipulieren, kennen wir nicht mal mit Namen.

Beispiel Crystal: Das ist eine App, um Persönlichkeitsassessments zu machen und ein personalisiertes Kommunikationsverhalten den betreffenden Personen gegenüber zu entwickeln. Es wird zunehmend in der Personalführung angewendet.

Ähnliche Tools sind für die Psychotherapie und Psychiatrie denkbar: Der Computer als Assistent für eine individualisierte Behandlung und Verhaltenssteuerung im Hinblick auf eine erwünschte Veränderung des Verhaltens, Denkens und Fühlens. Da müssen bei uns alle Alarmglocken läuten: Wohin driften wir?

Der Referent Dirk Helbling meinte, er sei nicht als Psychotherapeut hier, um zu bewerten, ob diese neuen Datenverarbeitungsmöglichkeiten zum Nutzen oder zum Schaden seien. Er sei Datenanalytiker und stelle uns sein Wissen über Cognitive Computing zur Verfügung. Er meine, es sei an der Zeit, dieses Thema auch im Fachbereich der Psychiatrie und Psychotherapie öffentlich und ernsthaft zu diskutieren.

Mit Cognitive Computing ist es unter Verwendung aller über uns gesammelten Daten möglich, unsere Aufmerksamkeit, unser Denken und Fühlen, unsere Entscheidungen und unser Verhalten zu beeinflussen. Anwendungen im Alltag und in der Psychotherapie sind denkbar. Es existieren hochdetaillierte Daten über Persönlichkeitseigenschaften über hunderte von Millionen Menschen. Wir alle werden ins Visier genommen. Die Schätzungen laufen auf 500 Megabytes bis mehrere Gigabytes an Daten pro Person und Tag, die gesammelt werden.

«Neuromarketing» bedeutet Beeinflussung durch personalisierte Informationen auf unbewusstem Wege dank dieser Persönlichkeitsprofile. Personalisierte Werbung ist gang und gäbe, selbst Ergebnisse von Suchanfragen in Suchmaschinen folgen einer Reihenfolge, die auf jeden von uns personalisiert ist, um uns zu manipulieren.

Unser Gehirn arbeitet energiesparsam, nimmt Ab­kürzungen, was oft zu etwas vorschnellen Schluss­folgerungen führt. Diese Arbeitsweise kann durch künstliche Intelligenz zur Manipulation durch personalisierte Informationen ausgenutzt werden. Man kann heute unser Denken, Fühlen und Handeln mit solchen Methoden teilweise beeinflussen. Manchmal schlägt das aber auch fehl.

Solche Methoden können auch zum Guten verwendet werden. Es gibt heute Computer, die können besser debattieren als Menschen, besser überzeugen. Man kann also Menschen nicht nur austricksen, sondern auch umstimmen. Es gibt viele Bereiche, in denen Cognitive Computing uns über Smartphones und andere Devices helfen kann, bestimmte Probleme zu lösen oder Marotten aufzugeben, so etwa mit dem Rauchen aufzuhören, das Essverhalten zu kontrollieren oder gar Stress abzubauen und Traumata zu überwinden. Virtual Reality kann etwa bei starken Schmerzen helfen: Man zeigte Verbrennungsopfern über eine Virtual Reality-Brille Schneelandschaften und tatsächlich sank das Schmerzempfinden erheblich, besser als durch alle eingesetzten Schmerzmittel. Es lassen sich auch «out-of-body experiences» simulieren, die manchen helfen, die Angst vor dem Sterben zu reduzieren.

Man möchte heute die Medizin und auch die Psychiatrie personalisieren, was mehr Informationen braucht und auch die sogenannte kollektive Intelligenz berücksichtigt. Patientenforen sind gute Datenlieferanten für die kollektive Intelligenz, da sie erlauben, Informationen aus verschiedenen Perspektiven zu Krankheitsbildern zu erhalten.

Dank Virtual Reality und Mixed Reality-Technologien können Charaktere aufgebaut werden, die als Virtual Friends oder als Guides, wie man sich in unterschiedlichen Kulturen bewegen kann, dienen können. Auch die Idee, dass ein Computer mit künstlicher Intelligenz die Person des Psychotherapeuten ersetzen könnte, ist da und an solchen Computerprogrammen wird gearbeitet.

Dirk Helbling endete mit dem Thema Ethik. Wie kann diese neue Technologie ethisch und zum Vorteil der Menschen genutzt werden? Nur ethische Leitlinien können verhindern, dass sie zum Schaden der Menschen eingesetzt werden.

Patienten sind Menschen, die Freiheitsrechte haben, die beachtet werden müssen. Mit Virtual Reality ist natürlich auch viel Missbrauch möglich, man kann in seinem Weltbild eingeschränkt werden oder an fiktive Realitäten zu glauben beginnen und so zu Handlungen gebracht werden, die man ohne diesen Glauben nicht tun würde.

Der Referent zog auch einen Vergleich zu den Skinner’schen Experimenten mit Tieren in den 30er Jahren des letzten Jahrhunderts und meinte, dass Vergleichbares via Google, Facebook und etwa Dating-Plattformen heute mit Menschen gemacht wird: täglich ungezählte Experimente, die in unser Leben eingreifen. Je mehr unser Denken gelenkt wird, umso weniger kommen wir auf neue eigene Ideen. Virtual Engineering nennt man die Bearbeitung von Menschen in ihrem Denken, Fühlen und Handeln. Heute gibt es glücklicherweise auch in Silicon Valley von Mitarbeitern in solchen Foren kritische Debatten zu deren Missbrauch.

Grundrecht und Menschenwürde verlangen, dass Menschen eben nicht wie Tiere behandelt und auf Datenlieferanten reduziert werden dürfen. Es ist auch verboten, Menschen durch Firmen oder Staaten durch Datensammlung so zu beengen, dass sie wie eine Sache behandelt würden. Die Menschenwürde ist gemäss Grundgesetz und Menschenrechtskonvention auch gegenüber Dritten, Firmen und Staaten zu verteidigen.

Offensichtlich ist das von einigen Firmen nicht beachtet worden und es stellt sich die Frage, wem eigentlich unser digitaler Zwilling gehört, der ohne unser Wissen und unsere Einwilligung aufgrund unserer Daten erstellt wurde. Es wird heute überlegt, ob über alle diese Profile eine Plattform gelegt werden müsste, zu der jeder von uns ein Passwort erhält, um über die Verwendung der Daten mitbestimmen zu können.

Eine mögliche künftige Entwicklung stellt sich folgendermaßen dar: In Amerika gibt es ein Brain Projekt, in dem es um die gleichzeitige Messung und Manipulation von Tausenden oder gar Millionen Neuronen geht. Das sind Eingriffe ins Gehirn, die nicht mehr nur virtuell sind, sondern die wirklich unser Gehirn in seiner Funktionsweise verändern. Man könnte mit solchen Technologien also verschiedene Gesellschaften bauen – möge man doch eine menschliche und demokratische konstruieren!

In der Diskussion wird nach einem sozialen Experiment in China (Citizen Score) gefragt, das der Referent noch etwas erläutert. Basierend auf Massenüberwachung werden Daten über die Einwohner und deren Verhalten gesammelt, wobei diese mit Plus- und Minuspunkten bewertet werden. Jeder hat einen bestimmten Punktestand, der massgeblich beeinflusst, welche Jobs oder welche Wohnung man erhält, in welche Länder man reisen darf oder gar, ob man bestimmte Verkehrsmittel noch benutzen darf. Unter anderen werden für dieses, sozusagen, Sozialkredit-System eine Million Uiguren in Lager gebracht, dort überwacht und zu «guten» Bürgern umerzogen.

Die Technologie stammt übrigens aus dem Westen, Edward Snowden hat darüber berichtet. Solche Überwachungssysteme wurden zum Beispiel in England entwickelt, aber dort dann doch nicht in diesem Ausmass eingesetzt. Mit digitalen Mitteln kann man den digitalen Kommunismus bauen, den digitalen Faschismus, den digitalen Feudalismus. Das chinesische Modell hat Elemente aller dieser Systeme. Man kann aber auch die digitale Demokratie bauen, oder den Kapitalismus upgraden.

Es kommt darauf an, was wir wollen, weswegen es so dringlich ist, dass wir darüber diskutieren und nach Wegen suchen, wie wir das beeinflussen können. Das chinesische Modell ist wohl nicht als Modell für die Welt geeignet, doch am Beginn der Entwicklung solcher Modelle stand tatsächlich die Idee, damit unsere Zukunftsprobleme lösen zu können, insbesondere auch die Klima- und Ressourcenprobleme.

 

Peter Schulthess ist Vorstandsmitglied der ASP.