top of page

Dobrindts illibertärer Angriff auf das Grundgesetz und Demokratie - Sicherheitspaket 2.0 als trojanisches Pferd

  • Autorenbild: Richard Krauss
    Richard Krauss
  • vor 6 Tagen
  • 15 Min. Lesezeit

Die Bundesrepublik Deutschland steht an einem Scheideweg. Nach Ereignissen wie dem Anschlag in Magdeburg im Dezember 2024  oder der Festnahme der ehemaligen RAF-Terroristin Daniela Klette im Februar 2024 fordern Stimmen eine signifikante Stärkung der Sicherheitsbehörden. 

ree


Diese Debatten münden in Forderungen nach sogenannten Sicherheitspaketen, wie sie etwa von der Union oder der Gewerkschaft der Polizei (GdP) erhoben werden. Die GdP beklagt, der Datenschutz erhalte einen zu hohen Standard, der die Arbeit der Polizei behindere. Dieses politische Klima nährt die Vorstellung, eine massive Ausweitung polizeilicher Befugnisse sei alternativlos, um die Sicherheit der Bürger zu gewährleisten.


Die Festnahme von Daniela Klette, nach Jahrzehnten im Untergrund, erwies sich als Katalysator für diese Forderungen. Sie wurde nicht durch staatliche Ermittlungen, sondern durch investigative Journalisten aufgespürt, die private Gesichtserkennungstools wie PimEyes nutzten, um ihre Bilder im Internet zu finden.


Unmittelbar nach diesem Erfolg erhob sich die politische Forderung: „Was Journalisten dürfen, muss auch die Polizei dürfen“Diese Argumentationsfigur, die sich auf die Erfolge privater Akteure stützt, ist trügerisch und birgt Risiken für den Rechtsstaat.


Tools wie PimEyes oder Clearview AI operieren durch das massenhafte, anlasslose Scraping von Daten aus dem Internet , eine Praxis, die in Europa als gravierender Verstoß gegen die Datenschutz-Grundverordnung (DSGVO) gilt und mit hohen Bußgeldern geahndet wird. 


Würde der Staat sich diese privaten Methoden zu eigen machen, würde er Praktiken legalisieren, die für jedermann rechtswidrig sind


Dies würde eine Erosion des Rechtsstaatsprinzips bedeuten, indem die Beweislast von der Notwendigkeit einer Maßnahme auf die bloße technische Machbarkeit verlagert wird. Ein solcher Zweck-Heiligt-Die-Mittel-Ansatz hat in einer liberalen Demokratie keinen Platz.


Die aktuellen Gesetzesentwürfe und Überwachungspläne stellen nicht bloß eine Anpassung an neue Technologien dar, sondern einen massive Angriff auf das Grundgesetz. Insbesondere ist das in Art. 2 Abs. 1 in Verbindung mit Art. 1 Abs. 1 GG verankerte Recht auf informationelle Selbstbestimmung bedroht. 


Der Vorwurf, das Bundesinnenministerium interessiere sich für privat aufgenommene Bilder von Grillpartys, klingt absurd, ist aber ernst gemeint. Er verdeutlicht die strategische Rahmung der Debatte. Indem die Initiative „Gesichtserkennung stoppen“ die staatliche Reichweite in alltägliche private Lebensbereiche hervorhebt, wird die abstrakte biometrische Überwachung für die breite Öffentlichkeit greifbar und alarmierend.


Dies verschiebt den Fokus von einer rein technischen oder rechtlichen Diskussion hin zu einer Frage der alltäglichen Privatsphäre, was die öffentliche Besorgnis und den Widerstand verstärkt. Dies erschwert es den Befürwortern, Vertrauen zu gewinnen, da der Vorschlag bereits als Angriff auf das Privatleben der Bürger wahrgenommen wird.


Die Verlockung, mit moderner Technologie Sicherheitslücken zu schließen, ist groß. Doch die Einführung neuer Überwachungsinstrumente birgt Gefahren für die Grundrechte und die Struktur unserer offenen Gesellschaft.


Die US-Firma Palantir bewirbt ihre Software als Mittel zur Erkennung terroristischer Gefahren und zur Prävention von Straftaten. In Deutschland wird Palantir bereits in Hessen unter dem Namen „HessenData“ und in Nordrhein-Westfalen eingesetzt. 


Die Software spielte eine Rolle bei den Ermittlungen gegen die Reichsbürger-Gruppe um Prinz Reuß. Auch Bayern hat einen Rahmenvertrag für die Verfahrensübergreifende Recherche- und Analyseplattform (VeRA) abgeschlossen, der anderen Bundesländern den Bezug der Software ohne Vergabeverfahren ermöglicht. 


Trotz der angeblichen Effizienz warnen Datenschützer und Bürgerrechtler vor dem Einsatz dieser Software. Sie kritisieren die Abhängigkeit von einem US-Anbieter, dessen ethische Standards als bedenklich gelten und dessen Führungspersonen autokratischen Ideologien nahestehen. Zudem besteht die Sorge vor potenzieller Diskriminierung durch die Algorithmen und der mangelnden Nachvollziehbarkeit der Analyseschritte, was effektiven Rechtsschutz erschwert. 


Das Bundesverfassungsgericht (BVerfG) hat im Februar 2023 in einem Urteil (1 BvR 1547/19, 1 BvR 2634/20) die landesrechtlichen Ermächtigungen zur automatisierten Datenanalyse (Hessen, Hamburg) eingeschränkt. Das Gericht stellte klar, die automatisierte Datenanalyse stelle einen eigenständigen, schwerwiegenden Eingriff in das Recht auf informationelle Selbstbestimmung dar. 


Es forderte vom Gesetzgeber, den grundlegenden Rechtsrahmen für Art und Umfang der nutzbaren Daten und der zulässigen Verarbeitungsmethoden selbst zu bestimmen und eine effektive technische Kontrolle zu gewährleisten. 


Wenn die Funktionsweise komplexer Algorithmen nicht nachvollziehbar ist – eine Black Box –, können Betroffene nicht verstehen, wie Entscheidungen über sie getroffen wurden oder warum sie ins Visier gerieten. Dies untergräbt das rechtsstaatliche Prinzip des effektiven Rechtsschutzes.


Ohne Transparenz und Nachvollziehbarkeit der algorithmischen Prozesse wird es für Bürger nahezu unmöglich, sich gegen fehlerhafte oder diskriminierende Ergebnisse zu wehren.


Die Beweislast verschiebt sich vom Staat, der seine Maßnahmen rechtfertigen muss, zum Individuum, das die Fehlerhaftigkeit eines undurchsichtigen Systems belegen soll.


Dies schafft einen Raum, in dem Grundrechtseingriffe erfolgen können, ohne dass eine wirksame gerichtliche Überprüfung möglich ist.


Der Einsatz von Staatstrojanern, also Software zur Quellen Telekommunikationsüberwachung (TKÜ) und Online-Durchsuchung, bleibt ein Dauerbrenner in der Sicherheitsdebatte.


Das Bundesverfassungsgericht hat den Einsatz dieser Spähsoftware in Teilen für unzulässig erklärt und Grenzen gesetzt, insbesondere bei leichteren Straftaten. Das Gericht betonte die Notwendigkeit einer sorgfältigen Abwägung bei Grundrechtseingriffen.


Auch wenn der Einsatz bei schweren Straftaten grundsätzlich erlaubt ist, bleibt das technische Risiko der Schwächung der Cybersicherheit bestehen.


Das Urteil des Europäischen Gerichtshofs für Menschenrechte (EGMR), das die generelle Schwächung der Ende-zu-Ende-Verschlüsselung (E2EE) verbietet, beleuchtet eine zentrale Spannung. Staatstrojaner erfordern oft das Ausnutzen oder Offenhalten von Sicherheitslücken in Hard- und Software.


Auch wenn Staatstrojaner auf spezifische Ziele ausgerichtet sind, führt die Praxis, Sicherheitslücken zu nutzen oder zu schaffen, zu einer systemischen Schwächung der digitalen Infrastruktur für alle.


Wenn der Staat Hintertüren fordert oder ausnutzt, werden die Geräte und Kommunikationswege aller Bürger anfälliger für Angriffe durch Kriminelle oder feindliche Staaten. Im Namen der Sicherheit untergräbt der Staat so die kollektive Cybersicherheit seiner Bevölkerung, was zu einem paradoxen Nettoverlust an Sicherheit im digitalen Raum führt.


Die jüngsten Entwürfe der Ampel-Koalition sehen vor, dass Bundeskriminalamt (BKA), Bundespolizei und das Bundesamt für Migration und Flüchtlinge (BAMF) biometrische Daten (Gesichter, Stimmen) mit öffentlich zugänglichen Daten aus dem Internet abgleichen dürfen. 


Diese Befugnis soll weitreichend sein und Zwecke wie Identitätsfeststellung, Aufenthaltsermittlung, Gefahrenabwehr und Strafverfolgung umfassen. Kritiker warnen, dies ermögliche die Erstellung umfassender Persönlichkeits- und Bewegungsprofile von einer unbegrenzten Anzahl an Personen. 


Dies betrifft nicht nur selbst hochgeladene Bilder, sondern potenziell jeden Touristenschnappschuss, durch den man im Hintergrund gelaufen ist. Der Begriff „öffentlich zugänglich“ ist dabei weit gefasst und könnte auch Daten umfassen, die erst nach einer Anmeldung abrufbar sind. Die technische Umsetzung einer solchen Massenüberwachung erfordert das Herunterladen und die Vorab-Speicherung des gesamten zu durchsuchenden Datenbestands in einer zentralen Datenbank. 


Firmen wie Clearview AI und PimEyes haben durch massenhaftes Scraping von Fotos aus dem Internet riesige Gesichtsdatenbanken aufgebaut.


Diese Praktiken wurden von Datenschutzbehörden in mehreren europäischen Ländern (Niederlande, Frankreich, Griechenland, Großbritannien, Italien) mit hohen Bußgeldern belegt und als Verstoß gegen die DSGVO eingestuft, da sie ohne Einwilligung erfolgen. 


Die geplante Legalisierung solcher Methoden für staatliche Behörden wird scharf kritisiert, da der Staat keine rechtswidrigen Angebote Dritter nutzen dürfe. Die Kenntnis, dass jede Bild- oder Tonaufnahme, ob bewusst geteilt oder zufällig erfasst, dauerhaft gespeichert, indexiert und staatlich analysiert werden kann, führt unweigerlich zu einem sogenannten Chilling Effect. 


Menschen werden sich selbst zensieren, auf das Teilen von Fotos und Videos verzichten oder die Teilnahme an öffentlichen Veranstaltungen (Demonstrationen, politische Versammlungen) meiden, bei denen ihre Bilder aufgenommen werden könnten. 


Dies ist mehr als nur eine Verletzung der Privatsphäre; es beeinträchtigt direkt Grundrechte wie die Meinungs-, Versammlungs- und Vereinigungsfreiheit. Es schafft eine Gesellschaft, in der jeder potenziell unter Überwachung steht, unabhängig von einem konkreten Verdacht, und fördert ein Klima des Misstrauens.


Das Fundament unserer freiheitlich-demokratischen Grundordnung, das Grundgesetz, gerät durch die aktuellen Entwicklungen unter Druck. Insbesondere das Recht auf informationelle Selbstbestimmung, ein Eckpfeiler der digitalen Freiheit, wird infrage gestellt.


Das Bundesverfassungsgericht hat das Recht auf informationelle Selbstbestimmung, abgeleitet aus Art. 2 Abs. 1 in Verbindung mit Art. 1 Abs. 1 GG, als ein Grundrecht im digitalen Zeitalter etabliert. 


Die automatisierte Datenanalyse und insbesondere der Abgleich biometrischer Daten stellen nach ständiger Rechtsprechung des BVerfG immer einen Eingriff in das Grundrecht auf informationelle Selbstbestimmung dar, der einer besonderen Rechtfertigung bedarf und hohe Anforderungen an die Bestimmtheit und Verhältnismäßigkeit der gesetzlichen Grundlage stellt.


Das BVerfG hat wiederholt hohe Anforderungen an die Verhältnismäßigkeit und Bestimmtheit von Überwachungsbefugnissen gestellt. 


Es gilt der Grundsatz: Je schwerer der Eingriff in Grundrechte wiegt, desto höher sind die Anforderungen an die gesetzliche Grundlage, ihre Präzision und die Begrenzung des Eingriffs. Das Gericht hat bereits 2023 landesrechtliche Befugnisse zur automatisierten Datenanalyse eingeschränkt und die Notwendigkeit eines klaren gesetzlichen Rahmens betont, der die Art und den Umfang der Daten sowie die Verarbeitungsmethoden festlegt.


Zudem wurden Teile des Bundeskriminalamtgesetzes (BKAG), die Überwachungsbefugnisse und die Datenweiterverarbeitung im polizeilichen Informationsverbund betrafen, für verfassungswidrig erklärt, und eine Überarbeitung des Gesetzes bis Juli 2025 gefordert.


 Automatische Abgleiche biometrischer Daten sind nach Ansicht des BVerfG „besonders voraussetzungsvoll“. Die bloße Möglichkeit der Datenerfassung erhöht bereits den Überwachungsdruck und schränkt die grundrechtlich garantierte Privatsphäre ein, selbst wenn die Daten öffentlich verfügbar sind. 


Das wiederholte Muster, dass die neuen Gesetzesvorschläge diese Standards des BVerfG erneut auszutesten scheinen und oft genau die Massendatenerfassung und -analyse ermöglichen, die das Gericht eingeschränkt hat, deutet auf eine legislative Überdehnung oder eine Missachtung der etablierten verfassungsrechtlichen Prinzipien hin.


Anstatt die Rolle der Justiz als Hüterin der Grundrechte zu respektieren, scheint die Exekutive und Legislative die Grenzen immer wieder auszuloten, was zu wiederholten Verfassungsbeschwerden führt.


Dies belastet nicht nur die Gerichte, sondern schafft auch Rechtsunsicherheit und untergräbt das Vertrauen der Öffentlichkeit in das Engagement der Regierung für verfassungsrechtliche Garantien.


Es impliziert eine Sicherheit-zuerst-Mentalität, die die vermeintliche Bedrohung konsequent über etablierte Rechte stellt.


Der Koalitionsvertrag der amtierenden Ampel-Regierung enthielt Verpflichtungen zur Verhinderung biometrischer Überwachung. Er hielt fest, „biometrische Erkennung im öffentlichen Raum“ europarechtlich auszuschließen und der „Einsatz von biometrischer Erfassung zu Überwachungszwecken“ werde explizit abgelehnt.


 Zudem wurde das „Recht auf Anonymität sowohl im öffentlichen Raum als auch im Internet“ als zu gewährleistendes Gut genannt. Die aktuellen Gesetzesentwürfe stehen in einem Widerspruch zu diesen im Koalitionsvertrag festgelegten Zielen. Diese Diskrepanz ist keine geringfügige Abweichung, sondern ein fundamentaler Kurswechsel in Bezug auf zentrale digitale Grundrechte.


Dieser Widerspruch offenbart eine interne Spannung innerhalb der Regierungskoalition oder eine strategische Neuausrichtung, die durch externe Ereignisse (wie den Fall Klette) und politischen Druck (z.B. von der GdP oder der Union)  motiviert ist. Er legt nahe, dass Versprechen aus Koalitionsverhandlungen schnell zu Makulatur werden können, wenn vermeintliche Sicherheitskrisen oder der Lobbyismus von Sicherheitsbehörden die politische Agenda bestimmen.


Dies untergräbt die Glaubwürdigkeit politischer Vereinbarungen und wirft Fragen nach der langfristigen Verpflichtung zu Bürgerrechten auf, wenn kurzfristige Sicherheitsnarrative den Diskurs dominieren.


Glücklicherweise existieren auf europäischer Ebene rechtliche Brandmauern, die dem Drang nach umfassender Überwachung entgegenwirken sollen. Die EU KI-Verordnung und die Datenschutz-Grundverordnung (DSGVO) bilden zentrale Bollwerke der Freiheit.


Die kürzlich in Kraft getretene EU KI-Verordnung (KI-VO) setzt Grenzen für den Einsatz von Künstlicher Intelligenz. Sie verbietet explizit das „Inverkehrbringen, die Inbetriebnahme oder die Verwendung von KI-Systemen, die Gesichtserkennungsdatenbanken durch das wahllose Auslesen von Gesichtsbildern aus dem Internet oder aus Überwachungsaufnahmen erstellen oder erweitern“ (Art. 5 Abs. 1 Buchstabe e KI-VO). Dieses Verbot tritt am 2. Februar 2025 in Kraft und gilt für private Anbieter ebenso wie für öffentliche Stellen, einschließlich Polizei und Migrationsbehörden. 


Die in den deutschen Gesetzesentwürfen vorgesehenen Befugnisse zum biometrischen Abgleich mit sämtlichen öffentlich zugänglichen Internetdaten sind ohne den Einsatz solcher EU-weit verbotenen KI-Systeme technisch nicht umsetzbar. Die KI-VO sieht für dieses eindeutige Verbot keine Ausnahmen vor, außer für rein militärische Zwecke oder die >>nationale Sicherheit. 


Auch die Echtzeit-Fernidentifizierung ist gemäß Art. 5 Abs. 1 Buchstabe h der KI-VO nur in engen Grenzen erlaubt und erfordert eine vorherige richterliche Genehmigung sowie eine Grundrechtsfolgenabschätzung. Die deutschen Gesetzesvorschläge stehen in direktem Konflikt mit den expliziten Verboten und strengen Beschränkungen der EU KI-Verordnung.


Es handelt sich nicht um eine Frage der Auslegung, sondern um einen direkten Widerspruch zu einer kürzlich erlassenen EU-Verordnung, die auf harmonisierte Regelungen abzielt.


Sollte Deutschland diese Vorschläge umsetzen, riskiert es einen Verstoß gegen EU-Recht, was zu Vertragsverletzungsverfahren führen und die Bemühungen der EU um einen gemeinsamen, grundrechtskonformen Rahmen für KI untergraben könnte.


Dies verdeutlicht auch eine Spannung zwischen nationalen Sicherheitsinteressen und supranationalen rechtlichen Verpflichtungen, was eine Bereitschaft andeutet, vermeintliche nationale Bedürfnisse über gemeinsame europäische Werte und die Rechtskohärenz zu stellen. Dies könnte einen Präzedenzfall für andere Mitgliedstaaten schaffen.


Biometrische Daten, wie Gesichtsgeometrie, Stimme, Fingerabdrücke oder Iris-Muster, gelten gemäß Art. 4 Nr. 14 und Art. 9 Abs. 1 DSGVO als „besondere Kategorien personenbezogener Daten“ und sind grundsätzlich von der Verarbeitung ausgeschlossen.


Ausnahmen sind nur unter strengen Bedingungen zulässig, etwa bei ausdrücklicher Einwilligung, zum Schutz vitaler Interessen oder bei Vorliegen eines erheblichen öffentlichen Interesses. Die EU-Richtlinie 2016/680 zum Datenschutz im Bereich der Strafverfolgung (Art. 10) verlangt, dass die Verarbeitung biometrischer Daten zur eindeutigen Identifizierung einer natürlichen Person „strikt notwendig“ sein muss.


Kritiker argumentieren, diese Notwendigkeit sei bei den geplanten Massenabgleichen nicht gegeben. Datenschutzbehörden in mehreren europäischen Ländern haben Unternehmen wie Clearview AI wegen massiver DSGVO-Verstöße mit hohen Bußgeldern belegt, da das wahllose Sammeln und Verarbeiten von Bildern ohne Einwilligung illegal ist.


Der geplante massenhafte biometrische Abgleich sämtlicher „öffentlich zugänglicher“ Internetdaten widerspricht den Prinzipien der Datenminimierung und der Zweckbindung grundlegend.


Er beinhaltet die Erfassung riesiger Datenmengen von Millionen unbeteiligter Personen ohne konkreten Verdacht und für eine Vielzahl von Zwecken. Dieser Ansatz stellt einen Paradigmenwechsel von gezielten, verdachtsabhängigen Ermittlungen hin zu einer massenhaften, anlasslosen Datenerfassung und Profilbildung dar.


Er behandelt jeden Bürger als potenziellen Verdächtigen oder Datenpunkt und kehrt die Unschuldsvermutung im digitalen Raum um. Dies verletzt nicht nur den Geist und Buchstaben der Datenschutzgesetze, sondern verändert auch grundlegend das Verhältnis zwischen Staat und Bürgern hin zu einem Überwachungsstaat, in dem Privatsphäre die Ausnahme und nicht die Regel ist.


Die EU-Kommission verfolgt weiterhin Pläne für eine sogenannte „Chatkontrolle“ (CSA-Verordnung), die Kommunikationsplattformen verpflichten soll, alle Inhalte anlasslos auf „missbräuchliche Inhalte“ (insbesondere Kindesmissbrauch) zu scannen und verdächtige Inhalte an Behörden zu melden.


Dies würde auch die sichere Ende-zu-Ende-Verschlüsselung (E2EE) betreffen. Kritiker, darunter zahlreiche zivilgesellschaftliche Organisationen und der EU-Abgeordnete Patrick Breyer, sehen darin eine „Massenüberwachung“ und einen direkten „Angriff auf die sichere Verschlüsselung“.


Selbst Opferverbände halten Massenüberwachung nicht für ein zielführendes Mittel im Kampf gegen Kindesmissbrauch. Der Europäische Gerichtshof für Menschenrechte (EGMR) hat in einem Grundsatzurteil die generelle Schwächung sicherer Ende-zu-Ende-Verschlüsselung verboten.


Das Gericht argumentierte, das Schaffen von „Hintertüren“ „jeden wahllos betreffen“ und eine „routinemäßige, allgemeine und wahllose Überwachung der persönlichen elektronischen Kommunikation“ ermöglichen würde.


Die „Chatkontrolle“ wird primär mit dem Kampf gegen die sexuelle Ausbeutung von Kindern (CSAM) gerechtfertigt. Obwohl dies ein unbestreitbar wichtiges Ziel ist, argumentieren Kritiker, die vorgeschlagenen Methoden (Client-Side-Scanning, Schwächung der E2EE) seien unverhältnismäßig und ineffektiv und würden zu einer Massenüberwachung aller Bürger führen.


Selbst Opferverbände sehen Massenüberwachung nicht als zielführend an. Dies stellt einen Trend dar, emotional aufgeladene und allgemein verurteilte Themen als Vorwand zu nutzen, um weitreichende Überwachungsbefugnisse einzuführen, die sonst politisch und rechtlich inakzeptabel wären.


Es schafft ein falsches Dilemma zwischen Kinderschutz und Privatsphäre und lenkt von effektiveren, grundrechtskonformen Maßnahmen ab (z.B. bessere Finanzierung von Jugendämtern, gezielte Ermittlungen, Entfernung bestehenden Materials von Servern).


Dieser Ansatz riskiert, die Grundrechte aller Bürger zu untergraben, während er die eigentlichen Ursachen des Problems, das er zu lösen vorgibt, nicht angemessen angeht.


Der Glaube, mehr Überwachung führe automatisch zu mehr Sicherheit, ist eine Illusion.


Eine Analyse zeigt, die geplanten Maßnahmen verletzen nicht nur Grundrechte, sondern lenken auch von den eigentlichen Problemen ab und schaffen neue Gefahren.


Ein breites Bündnis zivilgesellschaftlicher Organisationen, darunter AlgorithmWatch, die Gesellschaft für Freiheitsrechte (GFF), der Chaos Computer Club (CCC), Digitalcourage, Amnesty International, die Humanistische Union, das Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung (FIfF) und D64, hat die geplanten Maßnahmen als Unsicherheitspaket scharf kritisiert und fordert dessen Rückzug. 


Experten wie Sarah Lincoln (GFF) und Prof. Dr. Katrin Höffler warnen, „mehr Sicherheit wird nicht durch populistische Maßnahmen erreicht“, sondern durch „Bildung, Prävention und psychosoziale Unterstützung“. 


Sie befürchten, kostspielige und grundrechtsfeindliche Überwachungstechnologien könnten von den eigentlichen Problemen ablenken und Sicherheitsbehörden mit neuen, ineffektiven Aufgaben belasten. 


Prof. Dr. Dennis-Kenji Kipker (Universität Bremen) warnt vor einem „sicherheitsbehördlichen Daten-Supergau“ und der Annäherung an den „gläsernen Bürger“.


Die einseitige Fokussierung auf neue Überwachungstechnologien lenkt von bestehenden Handlungsdefiziten der Behörden ab, wie dem oft kritisierten fehlenden Informationsaustausch zwischen den Sicherheitsbehörden.


 Es besteht die Gefahr, dass die eingesetzte Software rassistisch diskriminiert oder bestimmte Merkmale in die Analyse einbezieht, die nicht relevant sein sollten. 


Biometrische Systeme sind entgegen der Behauptung nicht objektiv und können menschliche Vorurteile verstärken. 


Die geplanten Maßnahmen würden „überwiegend Grundrechte von Millionen, wenn nicht Milliarden von unbeteiligten Personen“ betreffen, die keinen Anlass für polizeiliche Überwachung gegeben haben. 


Befürworter der neuen Gesetze argumentieren mit Effizienz und der Notwendigkeit, technologisch aufzuholen. 


Kritiker weisen jedoch konsequent darauf hin, echte Sicherheitsgewinne würden durch Prävention, Bildung und bessere behördenübergreifende Zusammenarbeit erzielt, nicht durch Massenüberwachung.


Die Konzentration auf High-Tech-Lösungen könnte eine Illusion erhöhter Sicherheit schaffen, während sie Ressourcen und politischen Willen von der Bewältigung systemischer Probleme ablenkt.


Dies könnte zu einer Fehlallokation von Ressourcen und einer weniger effektiven Gesamtstrategie für die Sicherheit führen. Durch massive Investitionen in umstrittene und potenziell illegale Überwachungstechnologien könnte der Staat wirkungsvollere, grundrechtskonforme Ansätze vernachlässigen, die Vertrauen schaffen und die Ursachen von Kriminalität und Radikalisierung bekämpfen.


Darüber hinaus bergen die inhärenten Verzerrungen in KI-Systemen das Risiko, bestimmte Bevölkerungsgruppen unverhältnismäßig zu überwachen und zu diskriminieren, was soziale Spannungen eher verschärft als löst.


Die geplante Zusammenarbeit mit umstrittenen US-Unternehmen wie Palantir wird von Zivilgesellschaft und Wissenschaft scharf kritisiert.


Es wird befürchtet, persönliche Daten würden in „Wildwestmanier an die Palantirs und Pimeyes dieser Welt verschleudert“. Die Abhängigkeit von solchen Konzernen, die „ethisch bedenklich agieren“ und deren Investoren „autokratischen Ideologien“ nahestehen , stellt ein Risiko für einen demokratischen Rechtsstaat dar.


Die Auslagerung zentraler staatlicher Funktionen wie der Informationsbeschaffung und Kriminalitätsbekämpfung an private Akteure schafft eine Abhängigkeit.


Sie birgt das Risiko eines Daten-Lock-ins und beeinträchtigt die nationale digitale Souveränität, insbesondere wenn diese Unternehmen Verbindungen zu fragwürdigen Ideologien haben. 


Zudem verwischen sich die Verantwortlichkeiten: Wer ist rechenschaftspflichtig, wenn ein Algorithmus eines privaten Anbieters diskriminierende Ergebnisse liefert oder Rechte verletzt?


Diese Privatisierung der Überwachung untergräbt die demokratische Kontrolle und könnte zu einem weniger transparenten und weniger rechenschaftspflichtigen Sicherheitsapparat führen.


Die aktuellen Bestrebungen, die Überwachungsbefugnisse der Sicherheitsbehörden massiv auszuweiten, stellen eine Bedrohung für die Grundfesten unserer liberalen Demokratie dar. Der Ruf nach mehr Sicherheit, oft getrieben durch einzelne Ereignisse und populistische Narrative, darf nicht dazu führen, die im Grundgesetz verankerten Freiheitsrechte preiszugeben.


Die Analyse zeigt, die geplanten Maßnahmen – von der automatisierten Datenanalyse mit Palantir über den Einsatz von Staatstrojanern bis hin zur biometrischen Massenüberwachung und der Chatkontrolle – stehen in Widerspruch zu nationalen verfassungsrechtlichen Prinzipien und europarechtlichen Vorgaben.


Das Bundesverfassungsgericht hat wiederholt Grenzen gesetzt, die EU KI-Verordnung verbietet das massenhafte Scraping biometrischer Daten, und die DSGVO schützt sensible personenbezogene Informationen.


Die Diskrepanz zwischen den Versprechen des Koalitionsvertrags und den nun vorgelegten Gesetzesentwürfen ist alarmierend und untergräbt das Vertrauen in die politische Steuerung.


Echte Sicherheit entsteht nicht durch anlasslose Massenüberwachung und die Aushöhlung von Grundrechten, sondern durch gezielte, verhältnismäßige Maßnahmen, die den Rechtsstaat stärken und nicht schwächen. Dies erfordert Investitionen in Prävention, Bildung, psychosoziale Unterstützung und eine effizientere Vernetzung der Behörden, die stets die Grundrechte und den Datenschutz achten.


Es ist eine Frage der politischen Haltung, „Menschenrechte zu verteidigen“ und „biometrische Gesichtserkennung zu stoppen“, um die Freiheit der Bürger zu schützen und nicht einer Illusion von Sicherheit zu opfern. Die demokratischen Kräfte müssen „gemeinsam die Möglichkeit des institutionellen Machtmissbrauchs minimieren“, um eine offene Gesellschaft zu bewahren, in der die Freiheit des Einzelnen das höchste Gut bleibt. Nur so kann verhindert werden, dass der schleichende Angriff auf unser Grundgesetz unsere freiheitliche Ordnung unwiderruflich beschädigt.


Die Analyse der illiberalen Indizien führt zu einer eindeutigen und besorgniserregenden Schlussfolgerung:


Der vorliegende Gesetzentwurf des Bundesinnenministeriums ist nicht lediglich ein Versuch, die Polizeiarbeit zu modernisieren, sondern stellt einen Angriff auf die Prinzipien der freiheitlich-demokratischen Grundordnung dar.


Die systematische Missachtung etablierter verfassungsrechtlicher und europarechtlicher Standards, die bewusste Legalisierung von Praktiken, die derzeit als illegal gelten, und die Schaffung einer Infrastruktur für anlasslose Massenüberwachung sind keine Fehler im Gesetzgebungsprozess.


Vielmehr deuten sie auf eine bewusste politische Strategie hin, die individuelle Freiheiten und den Schutz der Privatsphäre zugunsten einer übermäßigen staatlichen Kontrolle opfert.


Die wiederholten Versuche, solche Gesetze trotz klarer rechtlicher Bedenken und breiten zivilgesellschaftlichen Widerstands durchzusetzen, offenbaren eine Tendenz, die Gewaltenteilung zu untergraben und die Judikative in ihrer Rolle als Hüterin der Grundrechte zu ignorieren.


Die Rhetorik der Dringlichkeit und die Instrumentalisierung von Einzelfällen dienen dabei als Vorwand, um eine weitreichende Überwachungsinfrastruktur zu etablieren, die das Potenzial hat, die Gesellschaft nachhaltig zu verändern und einen Chilling Effect auf die Ausübung grundlegender Freiheiten zu erzeugen.


Die Schlussfolgerung ist daher, dieser Gesetzentwurf ist nicht nur in seinen Details, sondern in seiner grundlegenden Ausrichtung illiberal. Er widerspricht dem Geist des Grundgesetzes und den europäischen Werten, die den Schutz der Bürger vor staatlicher Willkür in den Vordergrund stellen.


Ein solcher Ansatz gefährdet das Vertrauen der Bürger in den Staat und ebnet den Weg für eine Gesellschaft, in der Überwachung zur Norm und Freiheit zur Ausnahme wird.

Angesichts der tiefgreifenden verfassungsrechtlichen und ethischen Bedenken sowie der identifizierten illiberalen Tendenzen sind proaktive Gegenmaßnahmen von Juristen und Bürgern unerlässlich, um die freiheitlich-demokratische Grundordnung zu schützen.


Juristen spielen eine Rolle bei der Verteidigung von Grundrechten und der Sicherstellung der Rechtsstaatlichkeit. Ihre Expertise ist unerlässlich, um den geplanten Überwachungsmaßnahmen entgegenzuwirken:


Verfassungsbeschwerden und Klagen: Prüfen und initiieren Sie Verfassungsbeschwerden gegen das Sicherheitspaket, sobald es verabschiedet wird. Das Bundesverfassungsgericht hat in der Vergangenheit weitreichende Überwachungsbefugnisse des BKA und die automatisierte Datenanalyse eingeschränkt oder für verfassungswidrig erklärt.


Auch Klagen vor europäischen Gerichten, insbesondere dem Europäischen Gerichtshof (EuGH) und dem Europäischen Gerichtshof für Menschenrechte (EGMR), sind vielversprechend, da die EU-KI-Verordnung und die DSGVO klare Verbote für die geplante Massenüberwachung enthalten.


Erstellung von Gutachten und Stellungnahmen: Erarbeiten Sie detaillierte rechtliche Gutachten und Stellungnahmen, die die Verfassungswidrigkeit und Europarechtswidrigkeit des Entwurfs belegen. Diese Dokumente sind entscheidend, um die öffentliche Debatte zu informieren und politischen Entscheidungsträgern die rechtlichen Risiken aufzuzeigen.


Organisationen wie Algorithmwatch und die GFF haben solche Stellungnahmen eingereicht.

Öffentliche Aufklärung und Advocacy: Beteiligen Sie sich aktiv an der öffentlichen Debatte, indem Sie die rechtlichen Implikationen des Sicherheitspakets verständlich erklären. Dies umfasst Vorträge, Artikel, Interviews und die Zusammenarbeit mit Medien, um die Bevölkerung über ihre Rechte und die Gefahren der geplanten Maßnahmen aufzuklären.


Zusammenarbeit mit Zivilgesellschaft: Stärken Sie die Zusammenarbeit mit zivilgesellschaftlichen Organisationen wie dem Chaos Computer Club (CCC), Algorithmwatch, der Gesellschaft für Freiheitsrechte (GFF) und anderen Mitgliedern des Bündnisses „Gesichtserkennung stoppen“. Bündeln Sie Ressourcen und Expertise, um eine breite Front gegen die illiberalen Tendenzen zu bilden.


Beratung und Unterstützung Betroffener: Bieten Sie rechtliche Beratung für Personen an, die von den neuen Überwachungsbefugnissen betroffen sein könnten, und unterstützen Sie sie bei der Wahrnehmung ihrer Rechte, insbesondere der Auskunftsrechte nach der DSGVO.

Bürger sind die primären Träger der Grundrechte und können durch ihr Engagement Einfluss nehmen:


Informieren Sie sich und andere: Bleiben Sie über die Entwicklungen rund um das Sicherheitspaket und ähnliche Überwachungsgesetze informiert. Nutzen Sie vertrauenswürdige Quellen und teilen Sie Informationen mit Familie, Freunden und in sozialen Netzwerken.


Verstehen Sie, wie die geplante Gesichtserkennung und Chatkontrolle Ihre Privatsphäre und Freiheit beeinträchtigen kann. Digitale Selbstverteidigung: Datensparsamkeit: Überlegen Sie genau, welche Fotos, Videos und persönlichen Informationen Sie online teilen.


Jedes öffentlich zugängliche Bild könnte Teil einer staatlichen Datenbank werden.


Privatsphäre-Einstellungen: Nutzen Sie die Privatsphäre-Einstellungen auf Social-Media-Plattformen und anderen Online-Diensten, um die Sichtbarkeit Ihrer Inhalte einzuschränken.


Sichere Kommunikation: Bevorzugen Sie Messenger-Dienste, die eine starke Ende-zu-Ende-Verschlüsselung bieten und sich aktiv gegen Hintertüren und Client-Side-Scanning positionieren (z.B. Signal). Informieren Sie sich über die Positionen der Anbieter zur Chatkontrolle.


Rechte wahrnehmen: Machen Sie von Ihren Rechten nach der DSGVO Gebrauch, insbesondere dem Auskunftsrecht, um zu erfahren, welche Daten über Sie gespeichert sind und wie sie verarbeitet werden.


Politische Partizipation: Kontaktieren Sie Ihre Abgeordneten: Schreiben Sie E-Mails, Briefe oder rufen Sie Ihre Bundestagsabgeordneten an. Teilen Sie Ihre Bedenken und fordern Sie sie auf, gegen den Gesetzentwurf zu stimmen und sich für den Schutz der Grundrechte einzusetzen.


Unterstützen Sie zivilgesellschaftliche Organisationen: Spenden Sie an Organisationen wie die GFF, Algorithmwatch, Digitalcourage oder den Chaos Computer Club, die sich aktiv gegen Massenüberwachung und für digitale Freiheitsrechte einsetzen. Beteiligen Sie sich an deren Kampagnen und Aktionen.


Quellen


留言


bottom of page