Was macht eigentlich die Netzneutralität?

Um was geht es hier genau?

Der Begriff Netzneutralität beschreibt den Zustand, dass alle technischen Beteiligten von Internet‐Datenübertragung die Daten unabhängig von ihrem Inhalt, ihrer Quelle oder ihrem Ziel gleich behandeln und identisch durchleiten (siehe auch Wikipedia: Netzneutralität).

Gründe für Ungleichbehandlung von Datentransfers sind vielfältig: Finanzielle Interessen der durchleitenden Firmen, die Anteil am wirtschaftlichen Erfolg der Inhaltsanbieter haben wollen. Benachteiligung von bestimmten Arten von Downloads zur Reduktion der Netzwerkauslastung. Einschränkung von Zugriffsmöglichkeiten auf bestimmte Regionen der Welt. Steigerung der empfundenen Leitungsqualität für einzelne Dienste wie IP‐Telefonie und Videostreaming.

Daraus folgt: Als Nutzer des Internet ist man von der Frage der Netzneutralität immer direkt betroffen. Manchmal profitiert man vielleicht von der Ungleichbehandlung, weil das persönliche Nutzungsmuster identisch mit den Vorstellungen der durchleitenden Provider ist. Vermutlich genauso häufig wird man allerdings wohl auch darunter leiden, denn auf dem Weg zwischen eigenem Computer und kontaktiertem Server liegen in der Regel mehrere Provider mit jeweils unterschiedlichen Vorstellungen von Priorisierung unterschiedlicher Datenpakete.

Status quo der Netzneutralität

Da Netzneutralität in der Öffentlichkeit noch kein Thema ist, muss doch eigentlich alles in Ordnung sein, oder? Naja, so halbwegs stimmt das wohl auch noch, aber dennoch längst nicht mehr in allen Fällen.

Wenn man die zu diesem Thema veröffentlichten Nachrichten betrachtet, und berücksichtigt, dass dieses Thema von den beteiligten bzw. begünstigten Firmen und Verbänden lieber aus der Öffentlichkeit herausgehalten werden soll, ergibt sich gleich ein ganz anderes Bild.

Grundsätzlich wollen alle Provider weltweit verhindern, dass ihnen gesetzlich verboten wird, auf die Durchleitung von Datenpaketen Einfluß zu nehmen. Sie tun dies durch entsprechende Lobbyarbeit, beispielsweise in Europa.

Einzelne Provider haben entsprechende Vorhaben auch schon in die Realität umgesetzt und sind dafür öffentlich heftig kritisiert worden: In den Vereinigten Staaten bremste Comcast den Datenverkehr von P2P und wurde dafür von der FCC gerügt. Gegen diese Rüge klagt die Firma Comcast zur Zeit.

Ganz aktuell ist die Meldung, dass in den Niederlanden der Provider UPC ankündigt, zwischen Mittag und Mitternacht alles außer HTTP nur mit einem Drittel der Geschwindigkeit zuzulassen. Begründung: 1% der Kunden würden die Dienste zu exzessiv nutzen und deshalb alle anderen Kunden ebenfalls beeinträchtigen.

Diese zwei Beispiele betreffen allerdings nur einen Aspekt der Datenleitungen, nämlich kabelgebundene Internetanschlüsse in Form von ADSL oder TV‐Kabel zuhause oder in der Firma. Diese Evolution der früheren Telefonmodems hat traditionell dieselbe Verfügbarkeit anzubieten, wie seinerzeit die Modems — und das war uneingeschränkter Datenverkehr mit der maximal über die Leitung möglichen Bandbreite.

Ganz anders sieht es aber bei Internet‐Zugängen über das Mobilfunknetz aus — ich vermute ebenfalls, dass es aus der geschichtlichen Entwicklung herrührt. Denn Mobiltelefone waren ganz zu Beginn kaum in der Lage (allein schon von ihrer technischen Leistungsfähigkeit), mehr als die normalen Textbotschaften in Form einer SMS darzustellen. Mittlerweile überflüssig gewordene Protokolle wie WAP und reduzierte Auszeichnungssprachen wie WML sind die stummen Zeugen dieser text‐only-Zeiten. Wobei viele ältere Mobiltelefone immer noch auf diese sehr eingeschränkte Online‐Fähigkeit angewiesen sind.

Wenn man heute also einen mobilen Internetzugang hat, was erwartet einen dann? Also abgesehen von den horrenden Kosten, die einem entstehen könnten (bei Wahl des falschen Datentransfertarifs), und der generell nicht ganz so prickelnden Bandbreite (weil UMTS nicht überall vorhanden ist, und via GSM die gute alte Modem‐Zeit wachgerufen wird)… klar: Ein nur eingeschränkt nutzbares Internet. Als für das iPhone die Software Skype verfügbar war, hat die Deutsche Telekom diese Telefoniermöglichkeit gesperrt. Offizielle Begründung: Würde das Netz beeinträchtigen können. Inoffizielle Vermutung: Niemand soll außer über den Telekom‐Sprachkanal zu Telekom‐Gebühren telefonieren können.

Und dann ist da noch die Variante, den mobilen HTTP‐Datenverkehr über einen transparenten Proxy zu leiten, und in Seiten enthaltene Grafiken einfach noch ein wenig stärker zu komprimieren, um die Datenmenge zu reduzieren. Funktioniert im Prinzip ganz gut, liefert auf den winzigen Displays vermutlich auch keine sichtbaren Einbußen, und demonstriert eine vergleichsweise hohe Netzgeschwindigkeit. Aber sollte man solch einen Service nicht in das Ermessen des Kunden stellen?

Aber nicht nur die Endkundenseite ist betroffen: Die Durchleitungsprovider würden gerne auch einen Euro mitverdienen an den Contentprovidern (vor allem den großen mit viel Werbeumsatz), indem sie Traffic dieser Quellen dann bevorzugt durchleiten, während die Nutzer bei anderen Quellen dann zwangsläufig Leistungseinbußen hinnehmen müssten.

Und am Horizont zeichnet sich noch ein weiteres Problem ab: Die Knappheit der IPv4‐Adressen. Derzeit ist jeder Internetzugang mit einer öffentlich erreichbaren IPv4‐Adresse ausgestattet — noch. Die Provider haben bei steigendem Bedarf an Adressen entweder die Möglichkeit, auf IPv6 umzusteigen, oder sie stellen ihr kundenseitiges Netzwerk auf den privaten IPv4‐Bereich um und machen für ihre Kunden NAT (Network Adress Translation). Mit allen damit verbundenen Nachteilen.

Zukunftsszenario

Die Frage der Netzneutralität wird künftig immer wichtiger werden, je stärker sie sich bedingt durch vor allem wirtschaftliche Interessen der Provider in Luft auflösen wird. Ohne gesetzliche Regelung ist es den Unternehmen vollkommen freigestellt, welche Art von Traffic sie als lukrativ genug ansehen, um ihm hohe Priorität einzuräumen, und welche andere Arten von Datenverkehr sie als unwirtschaftlich qualifizieren werden. Im Zweifel wird die Entscheidung immer davon abhängen, welche Traffic‐Quelle bzw. -Senke am meisten zu zahlen bereit ist — was durchaus bis hin zu Exklusivverträgen gehen könnte. „Ihre Suchvorgänge bei T‐Online — exklusiv powered by Yahoo“ wäre eine denkbare Werbeaussage, die geschickt kaschiert, dass man aufgrund entsprechender Einflußnahme auf den Datenverkehr die Suche bei Google entweder gar nicht mehr, oder nur noch sehr verlangsamt aufrufen könnte.

Noch ist es nicht soweit. Und es ist die Aufgabe aller betroffenen Internetnutzer, dafür zu sorgen, dass solch ein Szenario niemals legal realisiert werden kann. Das Internet ist „dumm“ konstruiert worden, die Datendurchleitung geschieht ohne Beachtung ihrer Inhalte. Die Intelligenz steckt „am Rand“, in Servern und Clients. Wobei ein ganz besonderer Aspekt ist, dass jede Internetleitung sich gleichermaßen zum Senden und Empfangen eignet. Dies ist der Grund, warum immer wieder experimentelle Angebote im Netz auftauchen und entweder als „netter Versuch“ wieder sanft entschlafen, oder aber als genialer Einfall eine große, ja sehr große Aufmerksamkeit erringen und sich zu unverzichtbaren (naja, aus Sicht der jeweiligen Nutzer natürlich) Elementen der persönlichen Kommunikations‐Infrastruktur entwickeln.

Solche Experimente und Entwicklungen sind nur möglich, wenn jedermann in der Lage ist, das Netz uneingeschränkt sowohl zum Empfangen als auch zum Senden zu nutzen.

Ich sehe auch keine wirklichen Probleme, den Ausbau der Netzwerke weiter voranzutreiben. Der wirkliche Bedarf an Bandbreite wird gedeckt werden, weil es immer jemanden gibt, der diesen Bedarf zu seinem eigenen Vorteil finanzieren wird. Außerdem schreitet die technische Entwicklung auch in diesem Segment voran und erlaubt eine Vervielfachung der nutzbaren Bandbreite auf der bestehenden Infrastruktur. Das ist alles nicht zum Nulltarif zu haben — aber die Provider sollten sich von dem Gedanken verabschieden, dass man durch die Bereitstellung von grundlegender Infrastruktur, vergleichbar dem Straßen‐, Strom‐ oder Telefonnetz, goldene Nasen verdient, ohne sich den Anforderungen des Gemeinwohls unterwerfen zu müssen.

Weitere Quellen

3 Kommentare » Schreibe einen Kommentar

  1. Ich denke von einer Netzneutralität im wörtlichen Sinne zu sprechen ist sehr schwierig. Aus dem einfachen Grund, dass der Großteil der Nutzer erst durch das Nadelöhr des Providers muss, bevor sie ins ‚offene‘ Netz gelangen. Bis auf universitäre und behördliche Netzwerke, stehen immer wirtschaftliche und gewinnorientierte Interessen dahinter.
    Aber ähnlich wie in der realen Welt ist Neutralität mehr Wunsch als Wirklichkeit, weil immer Positionen und Interessen vertreten werden.
    Ich sehe aktuell das weitaus größere Probleme / bzw. die Gefahr im Kontext der Netzneutralität bei Google, das mehr und mehr zu einem Zentrum der weltweiten Kommunikation wird oder bereits ist. Es ist Ausgangspunkt einer jeden Recherche, Inhalts‐ oder Quellensuche. Wie kann man dann von einer Neutralität, von einer Gleibehandlung aller Inhalte sprechen? Von Google’s Leitspruch „Don’t be evil“ ausgehend sicherlich nicht.

  2. Hm tja der Artikel lädt zum Nachdenken und vor allem zum tieferen Einlesen in die Materie ein, vielen Dank! Allerdings glaube ich, dass der weitere Bandbreitenausbau doch schon Probleme schaffen dürfte… In gewissen Regionen wird es einfach nie rentabel sein. Wobei Berlin ja glücklicherweise nicht dazu gehören kann 😉

  3. Ein sehr interessantes Thema. Auch wenn ich mir so tiefgründig noch nie darüber Gedanken gemacht habe, ist es doch sehr einleuchtend und vielleicht die Begründung für so manchen Einbruch den wir auch bei uns verzeichnen. Werde mal jemanden zu dem Thema befragen. Kann nicht schaden, thx.