Erstellt am: 5. 3. 2014 - 18:06 Uhr
Wie das Netz gegen Überwachung gehärtet wird
Seit Montag tagt in London eine Konferenz, die für die künftige Entwicklung des Internets richtungsweisend sein wird. Topthema auf der Vollversammlung der Internet Engineering Task Force (IETF) bis Freitag ist nämlich, welche technischen Maßnahmen gegen die Überwachung des Internets durch die NSA und andere Geheimdienste ergriffen werden. Den Auftakt dafür setzte das W3C mit einer Veranstaltung unter dem programmatischen Titel "Härtung des Internets gegen umfassende Überwachung".
Dabei handelt es sich um jene technischen Gremien, die von den grundlegenden Übertragungsprotokollen im Netz (IETF) bis zu Webbrowsern (W3C) alle Standards setzen. "Man ist sich vollkommen darüber einig, dass dieser Totalüberwachung auf der Transportebene der Daten nur mit allumfassender Verschlüsselung begegnet werden kann", sagte Wenning, Justitiar des W3C zu ORF.at.
"Wenn nämlich das Vertrauen der Benutzer in das Netz verloren geht, wird das interaktive WWW zu einer Ansammlung von TV-Kanälen degradiert", so der Experte weiter. Diese Gefahr habe nun auch die Internetindustrie erkannt, die ja einen Gutteil der Techniker in diesen beiden Gremien stelle: "Damit, dass Funktionalität über der Sicherheit übergeordnet wird, ist jetzt Schluss."
Gemeint sind damit webbasierte Bezahlservices wie Netflix, deren neuerdings auch in HD erhältlichen Videostreams an Spitzenzeiten bis zu 30 Prozent des gesamten US-Netzverkehrs ausmachen.
Verschlüsselt addressierte Briefe
"Eine triviale Angelegenheit ist diese Absicherung leider nicht. Einerseits müssen die Verkehrsdaten so weit es geht verschlüsselt werden, dabei muss aber auch die volle Funktionalität der Protokolle erhalten bleiben", so Wenning. Der Abgriff dieser Verkehrs- und auch Metadaten - wer mit wem wann wo wie kommuniziert - liefert NSA und Co. das Basismaterial für die Statistiken, aus denen dann Profile erstellt werden.
Auf analoge Verhältnisse umgelegt wird also hier versucht, Briefe trotzdem zustellbar zu machen, obwohl Adresse, Absender und Poststempel auf dem Transportweg mehrfach verschlüsselt werden. "An erster Stelle steht die Datenminimierung bei diesen Protokollen, um Überwachern so schon einmal möglichst wenig brauchbare Daten zukommen zu lassen", sagte Wenning, "was nicht nur aufwendig, sondern auch eine völlige Abkehr von der bisherigen Praxis ist."
Funktionalität und Sicherheit
Die bisherigen Diskussionen über das Wechselspiel von Funktionalität und Datensicherheit seien nämlich stets so verlaufen, dass Faktoren "wie bessere Auslastung der Datenleitungen den Ausschlag gaben - zu Ungunsten höherer Datensicherheit".
Der Workshop des W3C "Strengthening the Internet Against Pervasive Monitoring" und die noch bis Freitag laufende Tagung der IETF.
Im Vorfeld zur Veranstaltung des W3C waren so viele Vorschläge und Stellungnahmen - darunter von so gut wie allen renommierten Sicherheitstechnikern - eingegangen, dass Einzelpräsentationen unmöglich waren. Man entschloss sich daher dazu, daraus eine grobe Punktierung abzuleiten, auf der die Verschlüsselung der Transportebene ganz oben steht. Neben diesem ungemein komplexen Vorhaben, das multiple Änderungen an den vielen, ineinandergreifenden Protokollen auf TCP/IP-Basis notwendig macht, gibt es auch einfacher zu lösende Probleme, weil diese weit weniger technisch als vielmehr methodisch bedingt sind.
HTTPS - der Status quo
Was in der Punktierung sinngemäß unter "Entkopplung von Authentifizierung und Verschlüsselung" zusammengefasst ist, bezeichnet folgenden Sachverhalt. Vom Bankverkehr angefangen werden alle wichtigen Transaktionen im WWW über HTTPS-Verschlüsselung abgewickelt, die Basis dafür sind sogenannte Zertifikate, die - verkürzt gesagt - die Signatur des auf der Website verwendeten Schlüssels sind. Damit auch sicher ist, dass es sich hier um die echte Website beispielsweise einer Bank handelt, trägt dieses Schlüsselderivat zusätzlich die Signatur einer beglaubigten Zertifizierungsstelle, die dem Webbrowser bekannt ist.
Exakt dasselbe Problem mit der Authentifizierung war dafür ausschlaggebend, dass die ansonsten wenig komplizierte Verschlüsselung von E-Mails noch immer kaum genutzt wird.
Fehlt diese Zusatzsignatur, so wirft der Browser eine ganze Reihe martialisch formulierter Warnungen aus, dass der Benutzer im Begriff sei, seine Login-Daten bei einer gefälschten Website einzugeben, die möglicherweise von Kriminellen betrieben werde. Diese Warnung war ursprünglich gesetzt worden, um "Phishing"-Kriminellen, die den Benutzer über Spam-Mails auf gefälschte Bankenwebsites locken wollten, das Handwerk zu legen.
Die Krux mit der Authentifizierung
Mittlerweile erweist sie sich jedoch als weitgehend kontraproduktiv, zumal längst nicht nur Banken und große Firmen ihre Kommunikation im WWW über solche Schlüssel und Zertifikate absichern. Wer technisch dazu in der Lage ist, kann das auch selbst bewerkstelligen.
Іmmer mehr kleine und kleinste Firmen, Vereine, NGOs, aber auch Privatbenutzer verwenden daher denselben Sicherheitsmechanismus für ihre Websites, nur dass sie eben als "nicht authentifiziert" gelten, weil sie keine der relativ teuren Zusatzsignaturen einer Zertifizierungsstelle aufweisen. In Folge warnt der Webbrowser bei jedem Erstbesuch einer solchen Website erst einmal ausgiebig vor Kriminellen und nötigt den Besucher wiederholt, Dialoge wie "Ja, ich bin mir der Risiken bewusst" anzuklicken.
Recht anschaulich wird dieses Dilemma von Sicherheit und Authentifizierung anhand dieses Vergleichstests. Im ersten Fall handelt es sich um eine private, allerdings relativ gut gesicherte Website. Im zweiten Fall ist es die Site der wohl bekanntesten Zertifizierungsstelle im Netz, die neben modernen auch die schon damals knackbaren 56-bit-Schlüssel aus den 90er Jahren anbietet.
Einsteiger und Schwellen
Damit wird die Schwelle für Einsteiger so angehoben, dass Unbedarfte schleunigst das Weite suchen, weil der Besuch dieser Website offenbar zu gefährlich ist. So ergibt sich die absurde Situation, dass Websites mit Zertifikaten, die auch veraltete und mittlerweile als völlig unsicher geltende Algorithmen zur Verschlüsselung heranziehen, vom Browser des Besuchers anstandslos als sicher bezeichnet werden, weil sie ja offiziell signiert sind.
Nach aktuellen Empfehlungen der Experten recht gut abgesicherte Websites werden hingegen unter Betrugsverdacht gestellt, weil das Vertrauen des Browsers völlig an diese Signatur gekoppelt ist (siehe Beispіel rechts). Hier ist also nicht die Technik, sondern die Kommunikation an der Schnittstelle zwischen Mensch und Maschine zu verbessern.
Verbesserungswürdige Dialoge
Das ist die Funktion des Browsers, der Dialoge anbieten muss, die einerseits vor möglichem Missbrauch warnen, andererseits selbstsignierte Zertifikate nicht in Bausch und Bogen als "wahrscheinlich betrügerisch" disqualifiziert. Dem abzuhelfen fällt unter die Kernkompetenz des W3C, das auf den obersten Prokoll- und Kommunikationsebenen tätig ist, während die IETF dafür die darunter geschichteten Basisprotokolle für Datenübertragung und -sicherheit standardisiert.
Der NSA-Spionageskandal wird nicht nur die Gremien für technische Standards noch lange begleiten, sondern ist auch eines der Topthemen im laufenden EU-Wahlkampf.
Noch einen weiteren Dialog gelte es dringend zu reparieren beziehungsweise überhaupt erst in Gang zu bringen, sagte Wenning zu ORF.at - nämlich jenen zwischen Technik und Politik. Letztere sei für den gesetzlichen Rahmen zuständig, innerhalb dessen die Technik funktionieren müsse. Wenn nun beide über die Vorraussetzungen der jeweils anderen Seite gar nicht oder unzureichend informiert seien, dann "diskutieren Politiker und Techniker völlig an der Realität vorbei".
Der "Graue Star" der NSA
Auch hier wird das W3C schon allein deshalb die Hauptrolle spielen müssen, weil dessen Standards rund um die Schnittstelle zum Benutzer im WWW angesiedelt sind, während der User von den komplex übereinander geschichteten und ineinander greifenden Protokollen darunter weitgehend unbehelligt bleibt. "Man sollte keinesfalls erwarten, dass Geheimdienste wie die NSA durch solche Härtungsmaßnahmen quasi über Nacht erblinden", sagte Wenning zum Abschluss. "Vielmehr werden sich die Maßnahmen wie eine langsam, aber stetig fortschreitende Sehbehinderung auswirken. Eine Art von Grauem Star gegen den in Folge allerdings auch 'special operations' nicht mehr viel nützen werden."