Künstliche Intelligenz

Die Maschine, dein Seelsorger

Facebook setzt auf Algorithmen, um Menschen in Suizidgefahr zu schützen. Erfahrene Regensburger Experten sind skeptisch.

Ein offenes Ohr haben und Hoffnung schenken – darauf kommt es an, wenn ein Mensch sich das Leben nehmen will, sagt Josef Stautner. Der Leiter der Telefonseelsorge Ostbayern hat oft mit Personen zu tun, die nicht mehr weiterwissen und keinen Sinn mehr im Leben sehen. Stautner betreut Menschen, die in Selbstmordgefahr schweben. Er weiß aus beruflicher Erfahrung, dass in solchen Krisengesprächen vor allem die menschliche Aufmerksamkeit zählt: Alarmsignale ernst nehmen und Hinweise offen ansprechen.

Auch Mark Zuckerberg sorgt sich um suizidgefährdete Menschen. Zumindest stellt es der Facebook-Gründer so dar. Zuckerberg teilte Anfang März mit, dass Facebook in der Suizidprävention aktiv wird. Das Netzwerk hat 1,9 Milliarden aktive Nutzer weltweit. 349 Millionen davon leben in Europa, 30 Millionen in Deutschland. Wo sich viele Menschen aufhalten, gibt es auch Schattenseiten und seelisches Leid. Zuckerberg sagt: „Dass unsere Gemeinschaft sicher und unversehrt bleibt, ist ein wichtiger Teil unserer Mission.“

Hier sehen Sie den Facebook-Eintrag von Mark Zuckerberg, in dem er mitteilt, dass der Konzern in der Suizidprävention aktiv wird: 

Josef Stautner und Mark Zuckerberg haben, so scheint es, ein gemeinsames Anliegen: Menschen in psychischen Notlagen schützen und ihnen Hilfe bieten. Dennoch trennen die zwei Männer Welten: Stautner vertraut auf das persönliche Gespräch, das sich in vielen Jahren seelsorgerischer Tätigkeit bewehrt hat. Zuckerberg setzt auf technische Hilfsmittel. Sein milliardenschwerer Konzern hat sogenannte Tools eingeführt, um seine Nutzer zu schützen – auch vor sich selbst.

Ki Suizidpraevention 4
Mark Zuckerberg wirbt mit Hilfsangeboten bei Suizidgefahr - und will damit auch das Facebook-Image stärken. Foto: dpa

Facebooks technische Hilfsmittel sollen Menschen mit Selbstverletzungs- oder Suizidgedanken Unterstützung bieten. Das Angebot richtet sich auch an besorgte Freunde oder Familienangehörige, die um das Wohl eines lieben Menschen fürchten. Mithilfe der neuen Tools können Nutzer eine Person kontaktieren, wenn sie Beiträge teilt, die auf Suizidgedanken hinweisen. Die Beiträge können auch direkt an das Unternehmen gemeldet werden. „Sie werden dann von einem Team rund um die Uhr geprüft“, teilt ein Facebook-Sprecher auf Nachfrage mit. Mit dem Prüfen allein ist es nicht getan: In Fällen, in denen Unterstützung nötig sei, würden die Betroffenen direkt kontaktiert werden, heißt es.

Wir wollen Vertrauen aufbauen, Zuversicht spenden und herausfinden, wo Kraftquellen liegen, die man ausbauen kann. Josef Stautner, Leiter der Telefonseelsorge Ostbayern

Auf den persönlichen Kontakt setzen auch Josef Stautner und seine Mitarbeiter. Bei ihren Telefonberatungen achten die Seelsorger darauf, Hinweise auf einen drohenden Selbstmord offen anzusprechen. Nicht verschleiern, direkt nachfragen – das ist ein Leitgedanke. „Wir wollen Vertrauen aufbauen, Zuversicht spenden und herausfinden, wo Kraftquellen liegen, die man ausbauen kann“, sagt Stautner. Dass Facebook in diesem Bereich aktiv wird, löst bei dem früheren Pastoralreferenten Bedenken aus. Er bezweifelt, dass ein Technologiekonzern bei Suizidgefahr professionelle Hilfe bieten kann: „Nehmen die Meldungen bei Facebook überhaupt Menschen entgegen?“, fragt er. Aus seiner Sicht komme es darauf an, Hilferufe und Ängste im zwischenmenschlichen Kontakt ernst zu nehmen. Und nicht, auf die Technik zu vertrauen.

Ki Suizidpraevention 10
Josef Stautner setzt auf den persönlichen Kontakt zu suizidgefährdeten Menschen. Foto: privat

Gemeldete Beiträge werden bei Facebook tatsächlich von Mitarbeitern bearbeitet, das teilt zumindest der Facebook-Sprecher mit. Allerdings sitzen dort an den Computern keine psychologischen Fachkräfte. Wenn eine konkrete Selbstmordgefahr besteht, rufe das Unternehmen dazu auf, örtliche Behörden zu verständigen oder einen Notruf zu wählen, sagt der Sprecher. Die Plattform empfehle auch Seelsorge-Telefone. All diese Hilfsangebote seien gemeinsam mit internationalen Gesundheitsorganisationen wie Forefront und Save.org sowie Experten und Betroffenen entwickelt worden.

Facebook geht noch einen Schritt weiter

Facebook testet derzeit den Einsatz von Künstlicher Intelligenz in der Suizidprävention. Hinter diesen Tests, die bislang nur in den USA laufen, steht folgende Annahme: Wenn es laut Experten klare Anzeichen gibt, die auf Suizid hinweisen, dann können diese nicht nur von Menschen erkannt werden, sondern auch von Maschinen. Die Algorithmen werden so programmiert, dass sie suizidverdächtige Inhalte herausfiltern. Mithilfe intelligenter Computer sollen Muster in Beiträgen erkannt werden, die auf eine Selbsttötung hinweisen. Die Systeme lernen aus bereits gemeldeten Beiträgen und ziehen Rückschlüsse auf mögliche Suizidanzeichen anderer Nutzer.

Ein Psychotherapeut kann kurzfristig gut einschätzen, wie groß die Wahrscheinlichkeit zum Suizid ist. Die langfristige Prognose ist schwieriger. Da kann ein System bessere Prognosen liefern als der Mensch. Andreas Mühlberger, Professor für Klinische Psychologie und Psychotherapie an der Universität Regensburg
Ki Suizidpraevention 18
Laut Andreas Mühlberger können Algorithmen ein Suizidrisiko erkennen, wenn sie entsprechend programmiert sind. Foto: privat

Andreas Mühlberger hält es für plausibel, dass sich Suizidrisiko mit technischen Mitteln erkennen lässt. Der Professor für Klinische Psychologie und Psychotherapie an der Universität Regensburg bestätigt, dass es konkrete Merkmale gibt, die auf eine drohende Selbsttötung hinweisen. Dazu gehören Suizidwünsche und -pläne, aber auch psychische Vorerkrankungen wie Depressionen und Borderline-Störungen oder Suchterkrankungen. Laut Mühlberger ließen sich Algorithmen darauf trainieren, Risikofaktoren zu kombinieren und daraus ein Suizidrisiko abzuleiten. Mit lernfähigen Maschinen sei das möglich, sie seien sogar sehr effektiv. „Ein Psychotherapeut kann kurzfristig gut einschätzen, wie groß die Wahrscheinlichkeit zum Suizid ist“, sagt Mühlberger. „Die langfristige Prognose ist schwieriger. Da kann ein System bessere Prognosen liefern als der Mensch.“

Mit Erfolgen in der langfristigen Suizidvorhersage schmückt sich auch eine Forscherin der Universität Florida. Die US-Amerikanerin Jessica Ribeiro hat sich maschinelles Lernen, einen Teilaspekt der künstlichen Intelligenz, zunutze gemacht. Ribeiro konnte mit 80- bis 90-prozentiger Genauigkeit vorhersagen, wer aus einer Risikogruppe innerhalb der nächsten zwei Jahre einen Selbstmordversuch unternehmen würde. Die Algorithmen würden noch genauer, je näher ein potenzieller Suizid rückt, heißt es in Ribeiros Studie. Als Datenbasis nutzte sie anonymisierte, elektronische Patientenakten. Laut der Untersuchung könnten die daraus gewonnen Informationen genutzt werden, um ein Frühwarnsystem für Kliniken zu entwickeln. Ein Notarzt könnte alarmiert werden, der weitere Schritte einleitet, so die Idee.

Das US-amerikanische Start-up Cogito in Boston hat sich auf intelligente Stimmanalysen spezialisiert. Mit Algorithmen analysiert das Unternehmen die Stimme eines Menschen und trifft so Aussagen über dessen psychische Gesundheit und Depressionsneigung – und das in Echtzeit.

Die alles entscheidende Währung des Fortschritts
sind Daten

Die Technologie entwickelt sich rasant, mit erstaunlichen Erfolgen. Die alles entscheidende Währung des Fortschritts sind Daten. Denn Algorithmen allein können keine Analyse treffen, ohne Datenquellen zu verarbeiten. Je mehr Informationen ausgewertet werden, desto besser lässt sich vorhersagen, ob jemand in Suizidgefahr schwebt oder die Tat konkret plant.

Nicht jedes Leben, das man retten könnte, rechtfertigt selbstverständlich die Möglichkeit, alle Daten zu nutzen. Andreas Mühlberger, Professor für Klinische Psychologie und Psychotherapie an der Universität Regensburg

Während wissenschaftliche Studien wie die aus Florida Personendaten anonymisieren, kann Facebook sie mit Nutzerprofilen verknüpfen. Psychologie-Professor Mühlberger ist skeptisch. „Was will Facebook mit den Daten machen?“ Der Konzern habe nicht selbstverständlich das Recht, die Suizidalität einer Person zu bewerten, auch wenn der Zugriff auf die Daten technisch möglich ist. Die Nutzer müssten selbst darüber bestimmen können, ob Facebook ihre Beiträge auf Selbstmordgefahr hin überprüfen dürfe. Laut Mühlberger müssten Persönlichkeits- und Bürgerrechte mit der Relevanz der Datennutzung abgewogen werden. „Nicht jedes Leben, das man retten könnte, rechtfertigt selbstverständlich die Möglichkeit, alle Daten zu nutzen.“ Mit diesen brisanten Fragen müsste sich unsere Gesellschaft jetzt auseinandersetzen.

Facebook-Gründer Zuckerberg stellt diese Fragen nicht. Er wirbt stattdessen großherzig mit mehr Sicherheit für seine Netz-Gemeinde. Natürlich will Zuckerberg auch das Image seines Unternehmens aufpolieren. Er will zeigen: Seht her, wir sorgen uns um euch! Emotionen sind eben auch eine wertvolle Währung.

Suizidprävention vor Ort

  • Der Krisendienst Horizont in Regensburg bietet persönliche Beratungen und ein Krisentelefon für Menschen in Notlagen an. Viele Menschen, die Horizont kontaktieren, haben Suizidgedanken. Erfahrene Psychologen schaffen dort einen Raum, um offen und vertrauensvoll zu reden. Betroffene Menschen bleiben anonym.
  • Das Krisentelefon ist unter (09 41) 5 81 81 erreichbar. Dort kann ein Gesprächstermin vereinbart werden.
  • Eine weitere Kontaktstelle ist die bundesweite Telefonseelsorge: (08 00) 1 11 01 11 und (08 00) 1 11 02 22. Die Telefonseelsorge Ostbayern finden sie auch im Netz, wenn Sie hier klicken!
Teilen