Diese in Art und Umfang bisher beispiellose Digitalisierung unserer Lebenswelt durchzieht allerdings nicht nur private Lebensbereiche. Auch in wichtigen gesellschaftlichen Handlungsfeldern nimmt die Bedeutung von bereichsspezifischen KIs immer mehr zu. Beobachten lässt sich diese Entwicklung unter anderem in der medizinischen Versorgung und Pflege von älteren Menschen mit geistigen Einschränkungen. Schlagworte wie „Ambiente Intelligenz“ oder „Smarte Umgebungen“ bezeichnen längst nicht mehr nur technische Spielereien zur Steigerung des persönlichen Komforts, wie die quasi autonome Steuerung der häuslichen Unterhaltungsmedien. Hinter diesen Etiketten verbergen sich vielmehr ebenfalls ambitionierte Versuche, Pflege-Assistenzsysteme zu entwickeln, die etwa Pflegebedürftige mit Demenzerkrankung in den eigenen vier Wänden auf intelligente Art und Weise in ihrer selbstständigen Lebensführung unterstützen sollen.
Auch das vom Bundesministerium für Bildung und Forschung (BMBF) geförderte Forschungsvorhaben „Design Adaptiver Ambienter Notifikationsumgebungen“ (DAAN) arbeitet an digitalen Lösungen für dieses analoge Problem. Über unterschwellige Signale in ihrer Umgebung – sogenannte ambiente Notifikationen – sollen die Benutzer zum selbstständigen Denken und Handeln angeregt werden. Das System nutzt dafür die Aktivierung habitueller Routinen und autobiographischer Erinnerungen, die als zentrale Orientierungsinstanzen normalerweise trotz einer fortschreitenden Demenzerkrankung noch lange Zeit erfolgreich angesprochen werden können. Dabei gehen die Projektpartner von der leitenden Idee aus, dass eine dezentrale Vernetzung relevanter Ein- und Ausgabemedien im Haushalt der Betroffenen wichtige kognitive Aspekte der Entscheidungsfindung und Handlungskontrolle unterstützen und so fördern kann, dass der Abbau geistiger Fähigkeiten verlangsamt oder gar gestoppt wird. Die Idee eines alle Lebensbereiche umspannenden Internets der Dinge und Dienstleistungen wird somit mehr und mehr zu einer realistischen Vision. Das ist das Schöne und zugleich Erschreckende an der Situation, wie wir sie heute erleben.
Die Vorteile von solchen „smarten“ Lösungen für die Pflege geistig erkrankter Menschen liegen nicht zuletzt in Anbetracht des demographischen Wandels auf der Hand: Anstatt sie aus ihrer gewohnten Umgebung zu reißen, können die hier angedachten Assistenzsysteme Betroffene dabei unterstützten, so lange wie möglich eigenständig im eigenen Haushalt zu leben, ohne dass das Wohlbefinden der Erkrankten darunter leidet. Wer in einer intelligenten Notifikationsumgebung lebt, so die visionäre Hoffnung, der kann länger (und vielleicht sogar besser) selbstbestimmt auf eigenen Beinen stehen.
Doch auch für gesunde Menschen ist ein gewisser alltäglicher Nutzen ambienter Intelligenz offenkundig. Schon heute nutzen wir zahlreiche technische Hilfsmittel, um unseren Tag zu strukturieren. Intelligente Technologien können diese Aufgabe noch wirkungsvoller erledigen. Stellen Sie sich für einen Moment vor, Sie würden immer zur richtigen Zeit an Ihre beruflichen Termine und privaten Verabredungen erinnert, würden niemals wichtige Ereignisse wie ihren Hochzeitstag oder die Geburtstage enger Freunde und Geschäftspartner vergessen und nach dem Einkauf würde Ihnen nie auch nur eine Zutat für ihr geplantes Abendessen fehlen. Fest steht: Zahlreiche kleinere und größere Lebenskrisen könnten so vermieden werden.
Ihr Nutzen für den täglichen Gebrauch erschöpft sich jedoch nicht schon darin, die persönlichen Termine ihrer Benutzer zweckdienlich zu verwalten. Eine langfristige Interaktion zwischen Mensch und Maschine erlaubt es einem adaptiven, lernenden Assistenzsystem darüber hinaus, seinen Nutzern wie ein guter Freund bei der Persönlichkeitsentwicklung zur Seite zu stehen. Hier geht es primär darum, eingefahrene Muster sichtbar zu machen und Alternativen aufzuzeigen. Kurz, eine intelligente Umgebung kann Menschen mit und ohne geistige Einschränkungen dabei unterstützten, ihr Leben auch so zu leben, wie es ihren eigentlichen Wünschen und Überzeugungen am besten entspricht.
Man sieht daran: Was die Entwicklung und den Einsatz smarter Umgebungen unter anderem so attraktiv macht, ist ihr Potential, die Autonomie des Menschen zu erhalten oder gar zu verbessern. Unter Autonomie lässt sich nämlich die Fähigkeit verstehen, sich selbstbestimmt, und das heißt gegebenenfalls auch im Angesicht manifester Hindernisse prinzipienfest zu verhalten. Menschen wie Martin Luther, Nelson Mandela oder Edward Snowden gelten nicht nur deshalb als große Persönlichkeiten, weil sie erheblichen Einfluss auf eine positive gesellschaftliche Entwicklung ihrer Zeit genommen haben. Sie geben uns darin auch ein beeindruckendes Zeugnis autonomer Lebensführung, weil sie trotz erheblicher Widerstände für ihre Überzeugungen eingestanden sind. Um es auf eine einfache Formel zu bringen, könnte man also auch sagen: Wenn jemand über die Fähigkeit verfügt, überzeugend zu begründen, warum man sich im Regelfall so verhalten sollte wie er es faktisch tut, handelt es sich um eine autonome Person.
Spätestens an dieser Stelle melden sich allerdings auch Bedenken gegen die angedachte technische Entwicklung zu Wort. Die eigene Meinungs- und Willensbildung unter dem permanenten Einfluss kontrollierender Technologie zu vollziehen, stellt nämlich gerade das genaue Gegenteil autonomen Handelns und Entscheidens dar – oder zumindest könnte es auf den ersten Blick so scheinen. Denn selbst wenn wir es hierbei mit noch so gutmeinenden Maschinen zu tun haben, untergräbt jede externe und in diesem Sinne fremde Einflussnahme auf den Handelnden die Autonomie der betroffenen Person. Wenn das stimmt, kann man durch den Einsatz technischer Hilfsmittel also überhaupt nicht positiv auf die Autonomie einer Person einwirken, weil jeder Versuch dazu bereits einen empfindlichen Eingriff in selbige darstellt. Intelligente Umgebungen können Menschen vielleicht dazu bringen, klügere Entscheidungen zu fällen – zu autonomeren Menschen machen sie sie damit indes nicht. Im Gegenteil: Durch diesen Effekt würde der Einsatz intelligenter Pflege-Assistenzsysteme nicht nur den mit ihnen angestrebten Nutzen konterkarieren, er würde damit gleichzeitig auch erhebliche moralische Probleme aufwerfen.
Das zentrale Problem, vor dem wir damit stehen, lässt sich wie folgt zusammenfassen: Senioren mit altersbedingten kognitiven Einschränkungen fällt es zusehends schwer, selbstbestimmte Entscheidungen über die eigene Lebensführung zu treffen. Gemessen an ihren eigenen Interessen, Wünschen und Zielen ist ihr Verhalten häufig unvernünftig. Bei unwichtigen Alltagsentscheidungen wiegt irrationales Fehlverhalten zwar oftmals nicht allzu schwer. Jedoch können solche Irrtümer in Bezug auf wichtige Lebensentscheidungen schwerwiegende Konsequenzen haben. Eine Möglichkeit ihre Situation zu verbessern, ohne sie ihrer Eigenständigkeit zu berauben, besteht darin, ihnen durch intelligente technische Systeme in ihrem Haushalt einen Weg zu eröffnen, die Kontrolle über die eigene Lebensführung weitestgehend zu behalten. Denn durch niedrigschwellige Eingriffe in die Entscheidungssituation lassen sich problematische Handlungsverläufe vermeiden. Allerdings besteht die Gefahr, dass technische Systeme die Autonomie ihrer Nutzer, die sie eigentlich befördern sollen, durch ihre Funktionsweise bereits empfindlich einschränken. Mit anderen Worten: Ihr Einsatz wäre in erheblichem Maße paternalistisch.
Konstrukteure und Designer smarter Umgebungen müssen sich daher fragen, wie es möglich ist, Assistenzsysteme so zu gestalten, dass die ethisch problematischen Implikationen vermieden werden können, ohne damit zugleich auch ihren positiven Nutzen über Bord zu werfen. Ein erster wichtiger Schritt in diese Richtung besteht darin, den Konflikt, den das beschriebene Dilemma darzustellen scheint, mittels philosophischer Analyse zu entschärfen. So lässt sich zeigen, dass Autonomie und Selbstbestimmung durch technologische Einflüsse nicht per se in Frage gestellt werden müssen. Selbstverständlich gibt es auch problematische Formen der Manipulation, aber nicht jede Einschränkung des persönlichen Entscheidungsspielraums stellt bereits eine unzulässige Autonomieverletzung der Betroffenen dar.
Die Befürchtung, dass es technisch induzierte Autonomie grundsätzlich nicht geben kann, löst sich auf, wenn zwischen a) Autarkie und b) Autonomie unterschieden wird. Während sich „Autarkie“ mit Unabhängigkeit übersetzen lässt und die Eigenschaft einer Person bezeichnet, in ihrem Handeln nicht auf Andere angewiesen zu sein, meint „Autonomie“ demgegenüber die Fähigkeit zu wohlbegründetem Verhalten. Wer autonom ist, der ist also dazu in der Lage, sein Verhalten an normativen Gründen auszurichten. Für Autonomie ist Autarkie jedoch ebenso wenig notwendig wie umgekehrt.
Das Vermögen der Autonomie heißt Vernunft und wer sich autonom verhalten möchte, muss von ihr Gebrauch machen. Demnach handelt ein rationaler Akteur, der in einer bestimmten Situation eine Option x statt einer Option y wählt, autonom genau dann, wenn sich die Entscheidung für x und gegen y auf sein eigenes Urteil über die gegebenen normativen Gründe zurückführen lässt. Wenn die äußeren Umstände die Handlungsoptionen x und y zulassen, und der Akteur aufgrund seines wohlbegründeten Urteils x wählt, dann kann man sagen, er hätte y zwar tun können, habe dies jedoch nicht gewollt.
Die Autonomie einer Person ist dabei nicht auf Unabhängigkeit angewiesen. Um eine autonom gewählte Option x auch erfolgreich verwirklichen zu können, kann der Handelnde vielmehr durchaus auf Unterstützung angewiesen sein. Zur Verwirklichung bestimmter Ziele mit anderen Akteuren zu kooperieren, stellt eine Form sozialer Freiheit dar, in der die Kooperationspartner füreinander wechselseitige Ermöglichungsbedingungen zur Realisierung der eigenen Lebenspläne darstellen. Die komplementäre Abhängigkeit ist in diesen Fällen nur kooperativ zu erreichender Ziele keine Einschränkung, sondern konstitutive Bedingung autonomer Lebensführung. Die Tatsache, dass im Fall demenziell Erkrankter eine selbstständige Lebensführung nur durch die Unterstützung intelligenter Maschinen möglich ist, stellt also keinen Selbstwiderspruch dar.
Allerdings könnte die Art und Weise der Interaktion zwischen Mensch und Maschine noch immer moralisch falsch sein. Wenn man versteht, wie es zu den systematischen Fehlern im Entscheidungsprozess der Betroffenen kommt, können entsprechende Situationen zwar so gestaltet werden, dass das durchschnittliche Verhalten der Beteiligten rationaler wird. Sogenannte Nudges verhelfen dazu, Situationen derart zuzuschneiden, dass sie zu rationalem Verhalten einladen. Sie definieren Richard Thaler und Cass Sunstein in ihrem Buch „Nudge: Improving Decisions About Health, Wealth and Happiness“ folgendermaßen:
„A nudge […] is any aspect of the choice architecture that alters people’s behavior in a predictable way without forbidding any options or significantly changing their economic incentives. To count as a mere nudge, the intervention must be easy and cheap to avoid. Nudges are not mandates. Putting the fruit at eye level counts as a nudge. Banning junk food does not.”
Doch auch Nudging kann eine moralisch problematische Form der Manipulation darstellen, wenn sie sich ausschließlich an externen Zielen orientiert. So wäre technische Assistenz unter anderem dann moralisch problematisch, wenn dadurch die Entscheidungsfreiheit der Nutzer eingeschränkt würde. Werden Entscheidungssituationen so konstruiert, dass eine Handlungsoption x statt einer Option y nicht aufgrund eines eigenen, wohlbegründeten Urteils gewählt wird, sondern weil psychologische oder soziale Effekte ausgenutzt werden, die den Mechanismus der Entscheidungsfindung manipulieren, verletzt dies die rationale Selbstbestimmung der handelnden Person und damit ihre Autonomie. Solch ein bevormundender Eingriff in die Autonomie der Betroffenen wäre eine Missachtung ihres moralischen Rechts darauf, eigenverantwortlich zu entscheiden. Anders ausgedrückt: Pflege-Assistenzsysteme dürfen nicht paternalistisch sein.
Ein möglicher Lösungsweg für dieses Problem besteht in der Notifikation vorhandener Routinen: Menschen führen in ihrem Leben viele wiederkehrende Aufgaben und Tätigkeiten durch. Für den Einzelnen sind diese Handlungsmuster durch eine große Kontinuität gekennzeichnet. Sie werden zur Gewohnheit. Solche habitualisierten Routinen zeichnen sich dadurch aus, dass typische Situationen mit passenden Verhaltensreaktionen assoziiert werden, die dann ohne bewussten Willensakt abgerufen werden können: Aus einem Wasserglas wird getrunken, ein Ball mit dem Fuß gespielt, die Türklinke heruntergedrückt, der Lichtschalter betätigt usw. Die bedeutungstragende Umgebung legt dem Handelnden in diesem Sinne also quasi „von selbst“ adäquate Handlungsoptionen nahe. Diesen, normalerweise in den individuellen Persönlichkeitsapparat des Einzelnen integrierten, Aufforderungscharakter der wahrnehmbaren Umwelt gilt es durch gezielte Notifikation in die Aufmerksamkeit der Betroffenen zu rücken.
Sobald sich individuelle Handlungsmuster technisch erkennen und individuieren lassen, können in potentiell schwierigen Entscheidungssituationen typische Handlungsoptionen präsentiert werden, die zu den Präferenzen (Interessen, Wünschen oder Zielen) des Handelnden passen. Durch eine angemessene Präsentation lassen sich beim Benutzer Erinnerungen wecken, auf deren Grundlage er dann eigene Handlungsziele entwickelt. Damit behalten die Nutzer ihre Wahlfreiheit und können zwangsfrei eigene Entscheidungen für die von ihnen bevorzugten Handlungen treffen. Die Rolle des Systems besteht dann lediglich darin, die möglichen Handlungsoptionen automatisch zu erkennen, und diese in einem gegebenen Kontext sichtbar zu machen.
Sind ambiente Notifikationen damit nicht genauso manipulativ wie die zuvor kritisierten problematischen Formen des Nudging? In einem gewissen Sinne schon. Das erwartbare Verhalten der Handelnden wird durch ambiente Notifikationen, ähnlich wie beim Nudging, ebenfalls durch die gezielte Gestaltung der Entscheidungssituation verändert. Allerdings unterscheidet sich die Einflussnahme durch ambiente Notifikationen in Bezug auf zwei wichtige Punkte von ethisch problematischen Formen des Nudgings: a) Die präsentierten Handlungsoptionen orientieren sich an den eingespielten Routinen des Nutzers und sind daher durch ihn autorisiert. Es geht lediglich darum, sein Entscheiden im Rahmen der eigenen personalen Präferenzen zu unterstützten. b) Die Notifikation ruft dafür ausschließlich naheliegende Handlungsmöglichkeiten in Erinnerung. Die letzte Entscheidung für die Wahl einer dieser Optionen liegt noch immer bei dem Handelnden. Die resultierenden Handlungen sind damit doppelt autorisiert – durch die früheren und durch die aktuellen Entscheidungen des Benutzers.
Auch unter Bedingungen eines fortgeschrittenen Autonomieverlusts von stark beeinträchtigten Patienten, kann durch das gezielte Ansprechen vorhandener Routinen eine quasi selbstbestimmte Entscheidung ermöglicht werden. Verwendet das eingesetzte Empfehlungssystem erlernte Zusammenhänge aus der früheren Interaktion des gesunden Benutzers, um so eine sinnvolle Liste von Vorschlägen für spätere mögliche Handlungen zu bestimmen, bleiben die resultierenden Optionen durch die selbstbestimmten Entscheidungen des einstmals gesunden Patienten autorisiert. Eine nach diesem Muster gestaltete Entscheidungssituation knüpft an den ursprünglich autonom getroffenen Entscheidungen des Handelnden an und verhilft ihm so dazu, seine Handlungsfreiheit auch im Krankheitsfall aufrechtzuerhalten. Da die Nutzer dabei nicht extern gesteuert, sondern unterschwellig an frühere Entscheidungen erinnert werden, geht die Wahl für ein bestimmtes Verhalten letztlich auf sie selbst zurück.
Weil und sofern die resultierenden Handlungen durch die eigenen Gründe des Akteurs bestimmt werden, stellen ambiente Notifikationen also keine Einschränkungen seiner Autonomie dar. Auch in Zeiten intelligenter Technologien lässt sich also am Ideal selbstbestimmter Lebensführung festhalten.
–
Der Artikel und die Visualisierungen sind im Rahmen des vom Bundesministerium für Bildung und Forschung (BMBF) geförderte Forschungsvorhaben „Design Adaptiver Ambienter Notifikationsumgebungen“ (DAAN) entstanden.