Unix-Timestamp-Konverter

Jeden Unix-Timestamp in ein lesbares Datum umwandeln — oder jedes Datum in einen Timestamp — in Millisekunden, Sekunden und mehr.

Was ist das?

Ein Unix-Timestamp (auch Epoch-Timestamp oder POSIX-Zeit) ist die Anzahl der Sekunden — oder Millisekunden in modernen Systemen — seit der Unix-Epoche: Mitternacht UTC am 1. Januar 1970. Es ist der universelle Standard zur Darstellung von Zeitpunkten in Softwaresystemen, Datenbanken, APIs und Log-Dateien. Unser kostenloser Konverter übersetzt in beide Richtungen: Füge einen Unix-Timestamp ein und erhalte ein lesbares Datum in deiner lokalen Zeitzone und UTC, oder wähle ein Datum und erhalte den entsprechenden Unix-Timestamp in Sekunden, Millisekunden und Mikrosekunden.

So wird es verwendet

  1. Für Timestamp-zu-Datum: Füge einen Unix-Timestamp ein. Die Erkennung Sekunden/Millisekunden erfolgt automatisch.
  2. Lies das lesbare Datum in Lokalzeit und UTC.
  3. Für Datum-zu-Timestamp: Nutze den Datum-Zeit-Picker.
  4. Der konvertierte Timestamp erscheint in Sekunden, Millisekunden und Mikrosekunden.
  5. Nutze die „Aktueller Timestamp"-Anzeige, um die genaue Epoch-Zeit jetzt zu kopieren.

Warum dieses Tool

Unix-Timestamps begegnen Entwicklern täglich: API-Antworten, Datenbankfelder, Log-Dateien, JWT-Tokens und URL-Parameter speichern Zeit häufig als Unix-Timestamp. Einen schnellen, zuverlässigen Konverter im Browser-Tab offen zu haben ist ein täglich genutztes Werkzeug für Backend-Entwickler, DevOps-Ingenieure, Datenanalysten und QA-Tester. Alle Konvertierungen erfolgen im Browser — deine Timestamps und Daten werden nie übertragen.

Häufige Fragen

Was ist die Unix-Epoche?

Die Unix-Epoche ist der Referenzpunkt: Mitternacht UTC am 1. Januar 1970. Jeder Unix-Timestamp zählt die Sekunden (oder Millisekunden) seit diesem Zeitpunkt.

Wie erkenne ich, ob ein Timestamp in Sekunden oder Millisekunden ist?

Ein 10-stelliger Timestamp ist in Sekunden. Ein 13-stelliger Timestamp ist in Millisekunden. Unser Konverter erkennt das automatisch.

Was ist mit Mikrosekunden?

Ein 16-stelliger Timestamp ist in Mikrosekunden. Das Tool zeigt alle drei Einheiten für jede Konvertierung.

Warum weicht die konvertierte Zeit um einige Stunden ab?

Unix-Timestamps sind immer in UTC. Das Tool zeigt sowohl UTC als auch Lokalzeit.

Was ist der maximale Unix-Timestamp-Wert?

Das 32-Bit-Limit ist 2.147.483.647, entsprechend dem 19. Januar 2038. Moderne Systeme verwenden 64-Bit-Integer.