Dr. Alexander Dix (LL.M.) ist stellv. Vorsitzender der Europäischen Akademie für Informationsfreiheit und Datenschutz sowie Berliner Beauftragter für Datenschutz und Informationsfreiheit a.D.

ZD 2025, 1 „Sire, geben Sie Gedankenfreiheit!“ Diese berühmte Forderung des Marquis von Posa in Schillers „Don Carlos“ stammt aus der Zeit vor der Französischen Revolution. Schiller richtete sie an die absolutistischen Herrscher seiner Zeit. Aber noch Joseph Fouché als Napoleons Polizeiminister hätte gern eine funktionierende Gedankenpolizei gehabt, sein Spitzelsystem kam ihr durchaus nahe. Aus der Zeit kurz vor 1800 soll der Text des Volkslieds „Die Gedanken sind frei“ stammen, dessen heute bekannte Fassung Hoffmann von Fallersleben, der Dichter des Deutschlandlieds, verfasst hat. In zeittypischer Selbstbescheidung heißt es im Liedtext weiter: „Ich denke, was ich will, und was mich beglücket, doch alles in der Still, und wie es sich schicket.“
Sprung ins 21. Jahrhundert: Am 28.9.2024 hat der kalifornische Gouverneur Newsom ein Gesetz unterzeichnet, mit dem im seit 2020 geltenden kalifornischen Datenschutzgesetz (California Consumer Privacy Act von 2018 - CCPA) die Legaldefinition der besonders schutzwürdigen (sensitiven) personenbezogenen Daten um den Begriff der „neuralen Daten“ erweitert wird, der neben dem Begriff der biometrischen Daten steht (Senate Bill No. 1223, Chapter 887). Als „neurale Daten“ definiert der kalifornische Gesetzgeber Daten, die durch Messung der Aktivitäten des zentralen oder peripheren Nervensystems eines Menschen erzeugt werden und auf die nicht mithilfe von nicht-neuralen Daten geschlossen werden kann (Sec. 1798.140 CCPA).
Diese Daten dürfen - wie alle anderen sensitiven Daten - nur ausnahmsweise und unter engen Voraussetzungen verarbeitet werden. Insofern ähnelt der CCPA der europäischen Datenschutz-Grundverordnung (Art. 9 DS-GVO), die allerdings neurale Daten nicht ausdrücklich erwähnt.
Ist das neue kalifornische Gesetz ein Fall von fehlgeleitetem legislativem Alarmismus oder eine sinnvolle gesetzgeberische Vorsorge angesichts des schnellen Fortschritts im Bereich der Neurowissenschaften?
Schon früh wurden Computer (Personal Computer) und später Smartphones als „ausgelagerte Gehirne“ ihrer Nutzer bezeichnet. Das, was Menschen früher ihren Tagebüchern anvertraut haben, halten sie heute in ihrem Tablet oder Handy fest, sei es als Notizen, Nachrichten oder Bilder. Diese ausgelagerten Verkörperungen von Gedanken sind unter bestimmten Bedingungen dem Zugriff Dritter (Unternehmen, Sicherheitsbehörden oder Hacker) ausgesetzt. Das Datenschutzrecht, das Sicherheits- und Strafrecht sollen diesen Zugriff begrenzen.
Inzwischen richtet sich das Interesse privater und staatlicher Stellen aber nicht mehr nur auf solche digital verkörperten Gedanken, sondern auch auf Gesichter und in ihnen zum Ausdruck kommende Emotionen. Die Gesichtserkennung steht ganz oben auf der Wunschliste der Sicherheitsbehörden, durch Iris-Erkennung wollen die Hardwarehersteller zunehmend Passwörter als Zugriffskontrolle ersetzen. MasterCard will das Bezahlen durch ein Lächeln oder eine Handbewegung ermöglichen. Mithilfe der Emotionserkennung sollen darüber hinaus sowohl Kaufentscheidungen beeinflusst werden (Neuromarketing) als auch - im Bereich der Robotik - die Kommunikation zwischen Menschen und Maschinen durch „empathic computing“ verbessert werden. Bereits jetzt sollen Internetnutzer durch manipulatives Webdesign (dark patterns) zu bestimmten ungewollten Entscheidungen verleitet werden.
In der Medizin werden schon seit geraumer Zeit Messungen durch Implantate im menschlichen Körper sowohl zu diagnostischen als auch therapeutischen Zwecken erhoben. Herzschrittmacher und Gehirnschrittmacher retten häufig Leben oder verbessern die Lebensqualität wesentlich. Elon Musks Unternehmen Neuralink hat nach eigenen Angaben inzwischen zwei querschnittsgelähmten Patienten mit dem Locked-In-Syndrom Chips (Brain Computer Interfaces) im Gehirn implantiert, die es ihnen ermöglichen, mit der Außenwelt zu kommunizieren und Computer mit ihren Gedanken zu steuern. Musk will diese für kranke Menschen zweifellos essenziellen Fortschritte der Medizintechnologie auch auf gesunde Menschen ausdehnen.
Bereits 2016 hatte ein anderes US-Unternehmen einem nach einem Unfall gelähmten Patienten einen Chip implantiert, mit dessen Hilfe er seine Roboterhand bewegen und den Händedruck von Barack Obama wie mit einer echten Hand fühlen konnte. Auch ein australisches Unternehmen arbeitet an vergleichbaren Computer-Hirn-Schnittstellen. Die EU hat das „Human Brain Project“ 2013-2023 mit mehr als 600 Mio. EUR gefördert. Im Rahmen dieses breit angelegten Forschungsprogramms wurden auch Bereiche wie die Robotik und „neuro-inspirierte künstliche Intelligenz“ gefördert (European Commission, Human Brain Project - 10 Years Assessment (2024).
Hirnströme sind keine Gedanken. Das Lesen von Gedanken ist gegenwärtig noch nicht möglich. Der Hirnforscher Prof. Haynes von der Berliner Charité sagt jedoch: „Wir können mit modernen Hirnforschungstechniken zu einem gewissen Grad erkennen, was jemand denkt.“ (https://www.nationalgeographic.de/wissenschaft/2024/08/hirnforschung-koennen-wir-bald-gedanken-lesen). Mithilfe von neuro-bildgebenden Verfahren (etwa der funktionellen Magnetresonanztomografie), Mustererkennung und Künstlicher Intelligenz können Hirnaktivitäten schon jetzt bestimmten Gedanken zugeordnet werden. Nach Angaben von Haynes können Forscher nicht in Hirnaktivitäten lesen wie in einem Buch, aber sie können Gedanken auslesen und dechiffrieren. Der mit „Brain-reading“ oder „thought identification“ bezeichnete Forschungszweig macht ständig weitere Fortschritte.
Die Neurowissenschaften beschäftigen sich aber nicht nur mit der Zuordnung von Hirnsignalen zu Gedanken, sondern gehen darüber hinaus: Neurale Daten können Aufschluss über mentale Zustände geben, deren sich die betroffenen Personen (noch) nicht bewusst sind. Auch die Psychoanalyse befasst sich seit geraumer Zeit mit dem Unterbewussten, allerdings setzt sie voraus, dass Patienten ihre Gedanken und Emotionen freiwillig offenlegen. Mittlerweile rückt auch die Beeinflussung und Veränderung von Gedanken mittels Brain Computer Interfaces in den Bereich des Möglichen, nachdem es in Versuchen gelungen ist, Halluzinationen in den Gehirnen von Mäusen zu erzeugen.
Diese - bisher in der allgemeinen Öffentlichkeit zu wenig registrierte - Entwicklung wirft eine ganze Reihe rechtlicher wie ethischer Fragen auf, die den Kern menschlicher Autonomie betreffen. Auch wenn bei Verabschiedung des GG die Möglichkeiten der Hirnforschung bei weitem nicht so weit entwickelt waren wie heute, schützt die deutsche Verfassung in Art. 4 und 5 GG die Freiheit, eine bestimmte religiöse Überzeugung oder eine Meinung zu haben (forum internum), ebenso wie die Freiheit, sie zu äußern (forum externum). Wenn die Automatisierung und Datenerhebung jetzt gewissermaßen die letzte Grenze in das menschliche Gehirn überwindet, so wird man das im Bereich der Medizin so lange akzeptieren können, wie dem eine informierte Einwilligung des Patienten zugrunde liegt (wobei sich im Fall eines Komapatienten, der nicht vorab eine entsprechende Behandlung verfügt hat, zusätzliche Fragen stellen).
Je mehr Informationen über Hirnaktivitäten erhoben und entschlüsselt werden können, desto mehr wächst das Risiko, dass diese Informationen auch für andere als therapeutische (zB kommerzielle) Zwecke verwendet werden können. Im Sicherheitsbereich könnte diese Entwicklung staatliche Allmachtsfantasien befördern, wenn kriminelle oder auch nur potenziell gefährliche Gedanken frühzeitig erkannt und sanktioniert werden können, wie es Steven Spielberg in seinem Science-Fiction-Film „Minority Report“ dargestellt hat.
Der britische Information Commissioner hat zudem auf die Gefahr der „Neurodiskriminierung“ hingewiesen, bei der Arbeitgeber bestimmte mentale und emotionale Zustände von Stellenbewerbern als nachteilig klassifizieren könnten (Information Commissioner, ICO Tech Futures: Neurotechnology (2023), 18 f.).
Angesichts dieser hier nur angedeuteten Fragen muss sich die Gesellschaft darüber verständigen, welche ethischen und rechtlichen Grenzen für die Neurowissenschaften gelten sollen. Die Reaktion des kalifornischen Gesetzgebers, der neurale Daten unter einen besonderen Schutz gestellt hat, ist nicht die erste dieser Antworten. Der Entwurf für eine neue chilenische Verfassung von 2020 enthielt u.a. ein Recht auf „Neuroprotektion“, also den Schutz der mentalen Privatsphäre, er fand allerdings in einer Volksabstimmung keine Mehrheit.
Mehrere internationale Organisationen haben im Bereich des „soft law“ Empfehlungen zu Rahmenbedingungen für die Neurowissenschaften gegeben: Die OECD hat 2019 die Recommendation on Responsible Innovation in Neurotechnology verabschiedet und sie 2024 um einen Neurotechnology Toolkit ergänzt. Die UNESCO hat 2024 einen ersten Entwurf zur Ethik der Neurotechnologie vorgelegt.
Auch der Europarat hat einen Expertenbericht an den beratenden Ausschuss nach der Europäischen Datenschutz-Konvention veröffentlicht, der die Anwendung dieser Konvention auf die Hirnforschung und ihre Konsequenzen erörtert (Bertoni/Ienca, The privacy and data protection implication of the use of neurotechnology and neural data from the perspective of Convention 108 (2024)).
Die bisher in der EU geltenden verbindlichen Regelungen beantworten die aufgeworfenen Fragen nur unvollständig: Die DS-GVO untersagt zwar prinzipiell die Verarbeitung biometrischer Daten, zu denen man auch neurale Daten zählen könnte, allerdings nur soweit diese Daten der eindeutigen Identifikation einer Person dienen sollen und nicht zu anderen Zwecken erhoben werden, Art. 9 Abs. 1 DS-GVO.
Das neue kalifornische Gesetz enthält eine solche Einschränkung nicht, allerdings lässt selbst dieses Gesetz den Rückschluss auf neurale Daten aufgrund von anderen Daten zu. Die gerade in Kraft getretene KI-VO verbietet den Einsatz von Systemen der Künstlichen Intelligenz zur Emotionserkennung nur am Arbeitsplatz und in Bildungseinrichtungen, lässt ihn allerdings auch dort aus medizinischen Gründen oder Sicherheitsgründen zu, Art. 5 Abs. 1 lit. f KI-VO.
Insgesamt sind die ersten Versuche, der Erhebung von Daten über Hirnaktivitäten und letztlich Gedanken einen ethischen und rechtlichen Rahmen zu geben, noch lückenhaft, was nicht verwunderlich ist bei Regelungen, die Vorsorge für künftige Risiken treffen und zugleich die Chancen für den medizinischen Fortschritt nicht blockieren sollen. Werden Brain Computer Interfaces - wie es Musk offenbar vorschwebt - auch zur Nutzung im nicht-medizinischen Bereich zur „Neuroaugmentation“ angeboten, stellt sich zudem alsbald die Frage, wann eine solche Nutzung zur sozialen Norm wird.
Schiller behält nach alledem Recht: Die Gedankenfreiheit ist niemals „gegeben“, sie muss stets neu eingefordert und verteidigt werden.