Skip to content Skip to navigation Skip to footer

Was ist QoS in der Netzwerktechnik?

Quality of Service (QoS) ist der Einsatz von Mechanismen oder Technologien in einem Netzwerk, um den Datenverkehr zu kontrollieren und die Leistung wichtiger Anwendungen bei begrenzter Netzwerkkapazität sicherzustellen. Sie ermöglicht es Unternehmen, ihren gesamten Netzwerkverkehr durch Priorisierung spezifischer Hochleistungsanwendungen anzupassen.

QoS wird in der Regel auf Netzwerke angewendet, die Datenverkehr für ressourcenintensive Systeme übertragen. Zu den üblichen Diensten, für die QoS erforderlich ist, gehören Voice over IP (VoIP), Internet-Protocol-TV (IPTV), Online-Gaming, Streaming von Medien, Videokonferenzen und Video on Demand (VOD). 

Durch den Einsatz von QoS in Netzwerken können Unternehmen die Leistung mehrerer Anwendungen in ihrem Netzwerk optimieren und Einblick in die Bitrate, Verzögerung, Jitter und Paketrate ihres Netzwerks erhalten. Dies stellt sicher, dass sie den Datenverkehr in ihrem Netzwerk steuern und die Art und Weise ändern, wie Pakete zum Internet oder in andere Netzwerke weitergeleitet werden, um Übertragungsverzögerungen zu vermeiden. Dies stellt auch sicher, dass das Unternehmen die erwartete Dienstgüte für Anwendungen erreicht und die erwarteten Benutzererfahrungen liefert.

Gemäß der Bedeutung von QoS besteht das Hauptziel darin, Netzwerke und Unternehmen in die Lage zu versetzen, Datenverkehr zu priorisieren, was das Angebot dedizierter Bandbreite, kontrolliertem Jitter und geringerer Latenz umfasst. Die hierfür eingesetzten Technologien sind entscheidend für die Verbesserung der Leistung von Geschäftsanwendungen, Wide Area Networks (WANs) und Service-Provider-Netzwerken.

Wie funktioniert QoS?

Die Netzwerktechnologie der Quality of Service funktioniert, indem sie Pakete zur Identifizierung von Diensttypen markiert und dann Router-Settings konfiguriert, um für jede Anwendung separate virtuelle Warteschlangen basierend auf ihrer Priorität zu erstellen. Infolgedessen wird Bandbreite für kritische Anwendungen oder Websites reserviert, denen vorrangiger Zugriff zugewiesen wurde. 

QoS-Technologien ermöglichen die Zuteilung von Kapazitäten und die Verarbeitung spezifischer Datenströme im Netzwerkverkehr. So kann der Netzwerkadministrator die Reihenfolge zuweisen, in der Pakete gehandhabt werden, und jeder Anwendung bzw. jedem Verkehrsfluss die entsprechende Bandbreite zur Verfügung stellen.

Arten des Netzwerkverkehrs

Das Verständnis des Funktionsprinzips von QoS-Netzwerksoftware hängt von der Definition der verschiedenen Arten von Datenverkehr ab, die von ihr gemessen werden. Dies sind:

  1. Bandbreite: Die Geschwindigkeit einer Verbindung. QoS kann einem Router mitteilen, wie er die Bandbreite nutzen soll. Zum Beispiel durch das Zuweisen einer bestimmten Menge an Bandbreite zu verschiedenen Warteschlangen für verschiedene Datenverkehrstypen.
  2. Verzögerung: Die Zeit, die ein Paket benötigt, um von seiner Quelle zu seinem Ziel zu gelangen. Dies kann oft durch eine Verzögerung der Warteschlangenfunktion beeinträchtigt werden, die in Zeiten der Überlastung auftritt, wenn ein Paket in einer Warteschlange wartet, bevor es übertragen wird. QoS ermöglicht es Unternehmen, dies zu vermeiden, indem eine vorrangige Warteschlange für bestimmte Arten von Datenverkehr eingerichtet wird.
  3. Verlust: Die Menge an Daten, die infolge des Paketverlusts verloren geht, der in der Regel aufgrund von Netzwerküberlastung auftritt. Mit QoS können Unternehmen entscheiden, welche Pakete in diesem Fall verworfen werden sollen.
  4. Jitter: Die unregelmäßige Geschwindigkeit von Paketen in einem Netzwerk aufgrund von Überlastung, die dazu führen kann, dass Pakete verspätet und in falscher Reihenfolge ankommen. Dies kann zu Verzerrungen oder Lücken bei der Übertragung von Audio und Video führen.
Was ist Quality-of-Service (QoS)?

Erste Schritte mit QoS

Die Implementierung von QoS beginnt damit, dass ein Unternehmen die Arten von Datenverkehr identifiziert, die für das Unternehmen wichtig sind, einen hohen Bandbreitenbedarf haben und/oder empfindlich auf Latenz oder Paketverlust reagieren.

Dies hilft dem Unternehmen, die Bedürfnisse und Bedeutung jeder Art von Datenverkehr in seinem Netzwerk zu verstehen und einen Gesamtansatz zu entwickeln. Beispielsweise müssen einige Unternehmen möglicherweise nur Bandbreitenlimits für bestimmte Dienste konfigurieren, während andere Bandbreitenlimits für Schnittstellen und Sicherheitsrichtlinien für alle ihre Dienste vollständig konfigurieren und kritische Dienste je nach Datenverkehrsaufkommen in der Warteschlange priorisieren müssen.

Das Unternehmen kann dann Richtlinien bereitstellen, die den Datenverkehr klassifizieren und die Verfügbarkeit und Konsistenz ihrer wichtigsten Anwendungen sicherstellen. Der Datenverkehr kann nach Port oder Internetprotokoll (IP) oder durch einen ausgeklügelteren Ansatz, z. B. nach Anwendung oder Benutzer, klassifiziert werden.

Bandbreiten-Management- und Warteschlangen-Tools werden dann Rollen zugewiesen, um den Datenverkehr gezielt auf der Grundlage der Klassifizierung zu verarbeiten, die für ihn beim Eintritt in das Netzwerk vorgenommen wurde. Dadurch können Pakete innerhalb der Verkehrsströme gespeichert werden, bis das Netzwerk bereit ist, sie zu verarbeiten. Priorität in der Warteschlange kann auch verwendet werden, um die notwendige Verfügbarkeit und minimale Latenz der Netzwerkleistung für wichtige Anwendungen und Datenverkehr zu gewährleisten. Auf diese Weise wird verhindert, dass die wichtigsten Aktivitäten des Netzwerks durch diejenigen mit geringerer Priorität in ihrer Bandbreite beeinträchtigt werden.

Darüber hinaus misst und steuert das Bandbreiten-Management den Datenverkehr in der Netzwerkinfrastruktur, um sicherzustellen, dass er die Kapazität nicht übersteigt und eine Überlastung verhindert wird. Dazu gehört die Nutzung von Traffic Shaping, einer Technik zur Übertragungsbegrenzung, die die Leistung optimiert oder garantiert und die nutzbare Bandbreite erhöht, sowie Planungsalgorithmen, die verschiedene Methoden zur Bereitstellung von Bandbreite für bestimmte Verkehrsströme bieten.

Warum ist QoS wichtig?

Traditionelle Unternehmensnetzwerke wurden als separate Einheiten betrieben. Telefonanrufe und Telefonkonferenzen wurden von einem Netzwerk abgewickelt, während Laptops, Desktops, Server und andere Geräte mit einem anderen verbunden waren. Selten kreuzten sich ihre Wege, es sei denn, ein Computer nutzte eine Telefonleitung, um auf das Internet zuzugreifen.

Als Netzwerke nur Daten übertrugen, spielte die Geschwindigkeit keine große Rolle. Aber jetzt müssen interaktive Anwendungen mit Audio- und Videoinhalten mit hoher Geschwindigkeit übertragen werden, und zwar ohne Paketverluste oder Schwankungen in der Liefergeschwindigkeit.

QoS ist besonders wichtig, um die hohe Leistung kritischer Anwendungen zu gewährleisten, die eine hohe Bandbreite für Echtzeit-Datenverkehr erfordern. QoS hilft Unternehmen beispielsweise, die Leistung von „unelastischen“ Anwendungen zu priorisieren, die oft minimale Bandbreitenanforderungen, maximale Latenzgrenzen und eine hohe Empfindlichkeit gegenüber Jitter und Latenz haben, wie VoIP und Videokonferenzen.

QoS hilft Unternehmen, Verzögerungen bei diesen sensiblen Anwendungen zu vermeiden und sicherzustellen, dass sie die von Benutzern geforderte Leistung erbringen. Beispielsweise können verlorene Pakete eine Verzögerung des Streams verursachen, was zur Folge hat, dass die Ton- und Videoqualität einer Videokonferenz abgehackt und nicht mehr zu entziffern ist.

QoS wird immer wichtiger, da sich die Anforderungen an die Netzwerkleistung mit der steigenden Zahl von Benutzern ändern. Die neuesten Online-Anwendungen und -Dienste erfordern große Mengen an Bandbreite und hohe Netzwerkleistung, und die Benutzer verlangen, dass sie jederzeit eine hohe Leistung bieten. Unternehmen müssen daher Techniken und Technologien einsetzen, die den bestmöglichen Service garantieren.

QoS wird auch immer wichtiger, da das Internet der Dinge (Internet of Things, IoT) immer ausgereifter wird. Im Fertigungssektor beispielsweise nutzen Maschinen jetzt Netzwerke, um Echtzeit-Statusaktualisierungen zu möglichen Problemen bereitzustellen. Daher könnte jede Verzögerung bei der Rückmeldung zu extrem kostspieligen Fehlern bei der IoT-Vernetzung führen. QoS ermöglicht es, dem Datenstrom im Netzwerk Vorrang einzuräumen, und stellt sicher, dass die Informationen so schnell wie möglich fließen.

Städte sind heute voll von intelligenten Sensoren, die für die Durchführung großer IoT-Projekte wie Smart Buildings unerlässlich sind. Die erfassten und analysierten Daten, wie Feuchtigkeits- und Temperaturdaten, sind oft sehr zeitkritisch und müssen entsprechend identifiziert, markiert und in die Warteschlange gestellt werden.

Welche Techniken und Best Practices kommen bei QoS zum Einsatz?

Techniken

Es gibt mehrere Techniken, die Unternehmen verwenden können, um die hohe Leistung ihrer wichtigsten Anwendungen zu gewährleisten. Dazu gehört Folgendes:

  • Priorisierung von verzögerungsempfindlichem VoIP-Verkehr über Router und Switches: Viele Unternehmensnetzwerke können derart überlastet sein, dass Router und Switches beginnen, Pakete zu verwerfen, wenn sie schneller ein- und ausgehen, als sie verarbeitet werden können. Infolgedessen leiden Streaming-Anwendungen. Durch Priorisierung lässt sich Datenverkehr klassifizieren und kann je nach Art und Ziel unterschiedliche Prioritäten erhalten. Dies ist insbesondere bei hoher Überlastung nützlich, da Pakete mit höherer Priorität vor dem übrigen Datenverkehr gesendet werden können.
  • Ressourcenreservierung: Das Resource Reservation Protocol (RSVP) ist ein Transportschichtprotokoll, das Ressourcen in einem Netzwerk reserviert und verwendet werden kann, um spezifische QoS-Stufen für Anwendungsdatenströme bereitzustellen. Mit der Ressourcenreservierung können Unternehmen Netzwerkressourcen nach Datenverkehr unterschiedlicher Art und Herkunft aufteilen, Grenzen definieren und Bandbreite garantieren.
  • Queuing: Queuing, Einreihen in eine Warteschlange, bezeichnet den Prozess der Erstellung von Richtlinien, die bestimmte Datenströme gegenüber anderen bevorzugt behandeln. Warteschlangen sind Hochleistungsspeicherpuffer in Routern und Switches, in denen durchlaufende Pakete in dedizierten Speicherbereichen gehalten werden. Wird einem Paket eine höhere Priorität zugewiesen, dann wird es in eine dedizierte Warteschlange verschoben, die Daten mit einer schnelleren Geschwindigkeit weiterleitet, wodurch die Wahrscheinlichkeit abnimmt, dass es verloren geht. Unternehmen können beispielsweise eine Richtlinie zuweisen, um Sprachverkehr Priorität gegenüber dem Großteil der Netzwerkbandbreite zu geben. Das Routing- oder Switching-Gerät bewegt dann die Pakete und Frames dieses Datenverkehrs an den Anfang der Warteschlange und überträgt sie sofort.
  • Verkehrskennzeichnung: Wenn Anwendungen identifiziert wurden, die Vorrang vor anderer Bandbreite in einem Netzwerk erfordern, muss der Datenverkehr markiert werden. Dies ist möglich durch Verfahren wie Class of Service (CoS) zum Markieren eines Datenstroms im Layer-2-Frame-Header und Differentiated Services Code Point (DSCP) zum Markieren eines Datenstroms im Layer-3-Paket-Header.

Best Practices

Zusätzlich zu diesen Techniken gibt es auch mehrere Best Practices, die Unternehmen beim Festlegen ihrer QoS-Anforderungen beachten sollten.

  1. Stellen Sie sicher, dass die Limits für die maximale Bandbreite an der Quellschnittstelle und in der Sicherheitsrichtlinie nicht zu niedrig eingestellt sind, um ein übermäßiges Verwerfen von Paketen zu verhindern.
  2. Berücksichtigen Sie das Verhältnis, in dem Pakete zwischen verfügbaren Warteschlangen verteilt werden, und welche Warteschlangen von welchen Diensten verwendet werden. Dies kann sich auf Latenzstufen, die Warteschlangenverteilung und die Paketzuweisung auswirken.
  3. Legen Sie Bandbreitengarantien nur für bestimmte Dienste fest. Dadurch wird vermieden, dass in Situationen mit hohem Verkehrsaufkommen sämtlicher Datenverkehr ein und dieselbe Warteschlange verwendet.
  4. Konfigurieren Sie die Priorisierung für den gesamten Datenverkehr entweder über die Art der dienstbasierten Priorität oder die Priorität der Sicherheitsrichtlinie, aber nicht beides. Dies vereinfacht die Analyse und Fehlerbehebung.
  5. Versuchen Sie, die Komplexität der QoS-Konfiguration zu minimieren, um eine hohe Leistung sicherzustellen.
  6. Um genaue Testergebnisse zu erhalten, verwenden Sie das User Datagram Protocol (UDP) und überschreiben Sie den Bandbreitendurchsatz nicht.

Vorteile von QoS

Die Bereitstellung von QoS ist für Unternehmen entscheidend, die die Verfügbarkeit ihrer geschäftskritischen Anwendungen sicherstellen möchten. Sie ist entscheidend für die Bereitstellung differenzierter Bandbreiten und die Sicherstellung der Datenübertragung ohne Unterbrechung des Verkehrsflusses oder Paketverluste. Zu den wichtigsten Vorteilen der Bereitstellung von QoS gehören:

  1. Unbegrenzte Anwendungspriorisierung: QoS garantiert, dass für die geschäftskritischsten Anwendungen von Unternehmen stets Priorität gilt und die notwendigen Ressourcen verfügbar sind, um eine hohe Leistung zu erzielen.
  2. Besseres Ressourcenmanagement: QoS ermöglicht Administratoren eine bessere Verwaltung der Internetressourcen des Unternehmens. Dies reduziert zudem die Kosten und den Bedarf an Investitionen in den Verbindungsausbau.
  3. Verbesserte Benutzererfahrung: Das ultimative Ziel von QoS ist es, die hohe Leistung kritischer Anwendungen zu garantieren, was darauf hinausläuft, eine optimale Benutzererfahrung zu bieten. Mitarbeiter profitieren von hoher Leistung bei ihren Anwendungen mit hoher Bandbreite, wodurch sie effektiver arbeiten und ihre Arbeit schneller erledigen können.
  4. Punkt-zu-Punkt-Verkehrsmanagement: Die Verwaltung eines Netzwerks ist wichtig, ganz gleich wie der Datenverkehr übermittelt wird, sei es von Ende zu Ende, von Knoten zu Knoten oder von Punkt zu Punkt. Letzteres ermöglicht es Unternehmen, Kundenpakete der Reihe nach von einem Punkt zum nächsten über das Internet zuzustellen, ohne dass ein Paketverlust auftritt.
  5. Verhinderung von Paketverlusten: Paketverluste können auftreten, wenn Datenpakete bei der Übertragung zwischen Netzwerken verloren gehen. Ursachen hierfür können eine Störung oder Ineffizienz, eine Netzwerküberlastung, ein fehlerhafter Router, eine lose Verbindung oder ein schlechtes Signal sein. QoS vermeidet das Potenzial von Paketverlusten durch Priorisierung der Bandbreite von Hochleistungsanwendungen.
  6. Reduzierung der Latenz: Latenz ist die Zeit, die eine Netzwerkanfrage benötigt, um vom Absender zum Empfänger zu gelangen und vom Empfänger verarbeitet zu werden. Dies wird in der Regel durch Router beeinflusst, die länger brauchen, um Informationen und Speicherverzögerungen zu analysieren, die durch zwischengeschaltete Switches und Brücken verursacht werden. QoS ermöglicht es Unternehmen, die Latenz zu reduzieren oder den Prozess einer Netzwerkanfrage zu beschleunigen, indem sie ihre kritische Anwendung priorisieren.

Garantierte Leistung mit QoS

Quality of Service (QoS) ist für alle Unternehmen von entscheidender Bedeutung, die die beste Leistung ihrer wichtigsten Anwendungen und Services garantieren möchten. Sie ist unverzichtbar, um sicherzustellen, dass Lösungen mit hoher Bandbreite wie VoIP, Videokonferenzen und zunehmend auch Streaming-Dienste keine Latenz oder Verzögerungen erleiden. 

QoS oder auch Dienstgüte ermöglicht es einem Unternehmen, Datenverkehr und Ressourcen zu priorisieren, um die versprochene Leistung einer bestimmten Anwendung oder eines bestimmten Diensts zu gewährleisten. Ferner versetzt es Unternehmen in die Lage, verschiedene Anwendungen, Datenflüsse und Benutzer zu priorisieren, um ein optimales Leistungsniveau in ihren Netzwerken zu gewährleisten.

Fortinet ermöglicht QoS durch FortiGate SD-WAN. Erfahren Sie mehr über SD-WAN und wie es Ihr Hochleistungsnetzwerk über Niederlassungen hinweg erweitern kann:

Erreichen Sie QoS mit FortiGate SD-WAN