Absolutdruck vs Relativdruck

  Immer wieder kommt die Frage auf, worin der Unterschied zwischen einer Absolutdruck- und einer Relativdruckmessung besteht.  Rein theoretisch ist die Frage relativ einfach zu beantworten: bei einer Relativdruckmessung wird immer die Differenz zum gerade herrschenden Umgebungsdruck gemessen. Dieser ändert sich allerdings mit dem Wetter und der Höhe über dem Meeresspiegel. Bei einer Absolutdruckmessung wird die Differenz zum idealen bzw. absoluten Vakuum gemessen. Diese Messung ist deshalb unabhängig von Wetter oder Höhe.  In der Praxis unterscheiden sich die beiden Messungen wie folgt:  In den meisten Fällen besteht die Messaufgabe in der Bestimmung des Relativdrucks. Deshalb wird diese Sensorart auch am häufigsten eingesetzt bzw. ist am weitesten verbreitet. Verwendet man aber einen Relativdrucksensor in einer Anwendung, in der eigentlich Absolutdruck gemessen werden soll,  so muss man mit folgenden, zusätzlichen Fehlern rechnen: 
  • +/- 30 mbar durch Wetteränderungen
  • bis zu 200 mbar bei Ortsänderung (z.B. von Meereshöhe auf 2000m)
Je nach Messbereich sind diese Fehler gravierend (z.B. in der Pneumatik bei einem Messbereich 1bar) oder vernachlässigbar (z.B. in der Hydraulik bei 400bar).  Wenn Sie unsicher sind, ob für Ihre Messaufgabe eine Relativdruck- oder Absolutdruckmessung erforderlich ist, so stehen Ihnen unsere Anwendungsberater gerne zur Verfügung. Verwandte Beiträge: Kennzeichnung von Absolutdruck- und Relativdruck-Messbereichen Einsatzgebiete von Drucksensoren Teil 1: belüftete Relativdrucksensoren