Skip to content

Vaultwarden selbst hosten

linux

Auf mehrfachen Wunsch einer Person beschreibe ich hier einmal, wie ich Vaultwarden selbst hoste. Vaultwarden ist eine nicht offizielle auf Open Source basierende Serverkomponente, mit der sich jeder Bitwarden-Client verbinden lässt. Bitwarden ist der Passwort-Manager, den ich verwende, dazu vielleicht später einmal mehr. Nur so viel an dieser Stelle, der Client ist ebenfalls Open-Source-Software. Er existiert für nahezu jede Plattform und als Plugin / Extension / Addon für die gängigen Browser.

Zunächst habe ich einen User angelegt, unter dem die Serverkomponente laufen soll. Bei mir heisst der User vault.

$ groupadd --gid 201 vault
$ useradd -u 201 -s /bin/bash -g vault -m -k /etc/skel -b /srv vault

Bei mir wird eine Fehlermeldung geworfen, weil die User-ID nicht in der vorgegebenen Range ist, ich ignoriere die. Wenn es Euch wichtig ist, nutzt eine andere ID.

Das Homeverzeichnis des Users liegt unter /srv/vault, wo später auch die Daten liegen werden.

Ich weiss, dass das alles mit Quadlets geht, mir geht aber in der Experimentierphase das ständige Daemon-Reload auf die Nerven, daher wird der Dienst bei mir mit Skripten gestartet und gestoppt und mit dem folgenden systemd-Unit-File automatisiert.

$ cat /etc/systemd/system/vault.service

[Unit]
Description=Vaultwarden
Documentation=https://github.com/dani-garcia/vaultwarden
Requires=network-online.target
After=network.target

[Service]
Restart=on-failure
User=vault
Group=vault
Type=simple
WorkingDirectory=/srv/vault
ExecStart=/srv/vault/start.bash
ExecStop=/srv/vault/stopp.bash

[Install]
WantedBy=multi-user.target

Ach ja, um über Port 443 erreichbar zu sein, benötigen wir noch einen Reverse-Proxy. Da hat sich bei mir Caddy bewährt. Der Eintrag im Caddyfile ist gerade einmal drei Zeilen lang. Caddy sorgt automatisiert für Let's Encrypt-Zertifikate.

$ cat /etc/caddy/Caddyfile

vault.deine.domain {
    reverse_proxy localhost:3201
}

Nach einem Wechsel auf den User vault (su - vault), erstelle ich ein Verzeichnis data und lege die Skripte start.bash und stopp.bash an und mache sie ausführbar. Die "set -o"-Einträge habe ich grundsätzlich in Skripten. Ich benutze Podman für Container und nicht Docker.

Um den Container starten zu können, braucht man noch ein paar User-IDs und die Möglichkeit, dass der Dienst auch laufen kann, wenn der User nicht angemeldet ist. Dass die Zeilen so aussehen, ist reiner Bequemlichkeiteit geschuldet. Da gibt es noch Tuning-Potenzial.

$ grep vault /etc/subuid
vault:100000:65536

$ grep vault /etc/subgid
vault:100000:65536

$ loginctl enable-linger vault
$ cat start.bash

#!/bin/bash
set -o errexit
set -o nounset
set -o pipefail

podman ps -a | awk '! /^CONTAINER/ {print $1}' | xargs podman rm || true

podman run --rm \
        --name vaultwarden \
        --env DOMAIN="https://vault.deine.domainr/" \
        --volume /srv/vault/data/:/data/ \
        --publish 127.0.0.1:3201:80 \
        docker.io/vaultwarden/server:latest
$ cat stopp.bash

#!/bin/bash
set -o errexit
set -o nounset
set -o pipefail

podman stop vaultwarden

Nach systemctl restart caddy könnt Ihr testen.

Wenn alles richtig ist, sollte nach einer Ausführung von start.bash die Webseite von Vaultwarden aufrufbar sein und Ihr könnt einen Account anlegen. Falls nicht, müssen die Fehlermeldungen behoben werden. Wenn Ihr nicht weiterkommt, meldet Euch bitte.

Für die Automatisierung braucht es ein systemctl daemon-reload und ein systemctl enable --now vault.

Viel Spass!

Huch, vergessen, Ihr braucht ja auch noch die Adminseite unter /admin.

Dazu muss einmal das start.bash-Skript und die Zeile -e ADMIN_TOKEN= ergänzt, die Webseite unter vault.deine.domain/admin aufgerufen, Einstellungen gespeichert und die Zeile danach wieder gelöscht werden.

Achtung: Das beschriebene ist die einfache, unsichere Variante, wie man das Token sicher generiert, ist auf der Vaultwarden-Webseite beschrieben.

Goodbye Super Productivity

superproductivity

Super Productivity habe ich sehr intensiv getestet und gemerkt, dass die Benutzung für mich an ein paar Stellen problematisch ist bzw. nicht gut funktioniert. Die Motivation für den Test habe ich in einem anderen Artikel beschrieben.

Das Tool ist für lokale Datenhaltung ausgelegt, was kein Fehler ist. Eine Synchronisation wurde nachträglich eingebaut (das ist eine Vermutung, weil es so wirkt). Die Synchronisation funktioniert via WebDAV, getestet wird es vom Entwickler mit Nextcloud.

Der grosse Knackpunkt ist, dass das eine "ganz oder gar nicht"-Synchronisation ist. Wenn es zu einem Synchronisationsproblem kommt, dann kann man sich entscheiden, ob man den lokalen Datenstand behalten oder den Remote-Datenstand übernehmen möchte. Synchronisationsprobleme können auftreten, wenn auf beiden Seiten Änderungen vorgekommen sind.

Kleinere Synchronisationsprobleme mit einer kleinen Zahl lokaler Änderungen sind ab und an aufgetreten und kein Problem. Dann kam die Situation, dass ich Remote 428 Änderungen hatte und lokal 24. Egal, wie ich mich entscheide, da gehen Änderungen und damit auch Daten verloren. Das geht nicht und ist ein Ausschlusskriterium für eine Aufgabenverwaltung.

Inhaltlich hat Super Productivity sehr viele Funktionen, die ich nicht benötige – ich bin kein Freelancer – und auch andere, die wirklich gut sind. Ich arbeite sehr viel mit wiederkehrenden Terminen, und da fehlt es noch an ein paar Stellen.

Ein zweiter sehr grosser Knackpunkt war, dass ich im Subreddit Super Productivity ein paar Fragen gestellt habe, die auf irgendeinem Weg ohne erkennbaren Grund gelöscht wurden. Ich weiss nicht von wem oder warum, aber es hat sich nicht gut angefühlt.

Zusammengenommen werde ich den Weg nicht weiter beschreiten und mich ausführlich mit Vikunja auseinandersetzen.

Wechsel auf Super Productivity

superproductivity Schon länger hadere ich damit, dass ich mit Todoist einen Dienst benutze, der für mich elementar ist und den ich leider nicht in eigener Hand habe. Manchmal braucht es ja auch einen Anstoss von aussen, die angekündigte Preiserhöhung, um an der Situation etwas zu ändern.

Vor relativ genau sechs Jahren wechselte ich auf Todoist und das war schon ein Riesenschritt. Was Aufgabenverwaltung angeht, kann keine aktuelle Software Taskwarrior das Wasser reichen. Der fehlende mobile Client, die potenzielle Einstellung der Synchronisation und die Stagnation in der Entwicklung machten für mich aber einen Wechsel erforderlich.

Genug der Historie. Ich schaue eigentlich ständig nach Alternativen im Bereich der Free/Libre Open-Source-Software (FLOSS) und bin bereits vor Jahren auf Super Productivity gestossen. Das Konzept fand ich superinteressant, habe mich aber nie weiter damit beschäftigt, weil ich mich im Web Client nie anmelden musste und ich daher davon ausging, dass es auch bei Super Productivity keine Synchronisation gibt. Ich habe auch nicht weiter geforscht.

Super Productivity synchronisiert sich mit der eigenen Nextcloud-Instanz. Bei der Einrichtung der Synchronisation im Webclient gibt es allerdings eine sehr deutliche Meldung, dass man sich der Security-Implikation, die die Speicherung der Zugangsdaten im Browser mit sich führt, bewusst sein muss. Daraufhin habe ich das auch einmal gelassen.

Es gibt für alle meine Plattformen (Linux, Android, Wintendo) native Anwendungen, daher benötige ich die Browser-Variante nicht. Ebenfalls unterstützt wird macOS, für iOS gibt es noch(?) nichts. Bei Linux ist das Team den sehr harten Weg gegangen, fast alles zu unterstützen: AppImage, Flatpak, Snap, rpm- und deb-Pakete. Bei mir ist es Flatpak und die Android-App via F-Droid.

Zuerst einmal musste ich mich von der Vorstellung lösen, dass die Software eine reine Aufgabenverwaltung ist. Sie ist viel mehr und das "Productivity" im Namen ist durchaus Programm.

Mit Super Productivity kann man seine Zeit erfassen, direkt auf die Aufgaben bezogen, man kann Schätzungen einbringen und die Aufgaben in einem Kalender planen (ja, man kann auch den eigenen Kalender einbinden und Timeboxing betreiben).

​Am Ende eines Tages kann man den Tag zusammenfassen und durch verschiedene Metriken bewerten lassen. Exporte und Berichte sind ebenfalls möglich.

Die Anwendung bietet Schnittstellen für Jira, GitHub, GitLab, Gitea und OpenProject, importiert Aufgaben aus diesen Diensten automatisch und ermöglicht Synchronisation per WebDAV, Dropbox oder Google Drive.

Aufgaben lassen sich in Kanban-Boards, Eisenhower-Matrix oder benutzerdefinierte Ansichten sortieren und per Drag-and-drop verschieben. Anhänge, Notizen und Projekt-Bookmarks können zu Aufgaben hinzugefügt werden.

Da gibt es für mich noch viel zu lernen. Ich werde lange nicht alle Funktionen benötigen. Momentan bin ich in der Migrationsphase, um meine vollgemüllte Todoist-Aufgabenliste in sinnvoller Art und Weise auszumisten und den Rest zu übernehmen.

Momentan kämpfe ich zusätzlich noch gegen gelernte Gewohnheiten und das Muskelgedächtnis. Zu einem späteren Zeitpunkt werde ich sicher mehr schreiben.

Feedback von Euch und Erfahrungen gerne hier in die Kommentare.

Bluefin

bluefin

Die Idee, ein minimales Kernbetriebssystem zu nutzen und darauf aufbauend alles in einer atomaren Art und Weise zu verwalten, hat es mir angetan.

Durch einige Vorträge von Christoph "stoeps" Stoettner habe ich mich von Bluefin anstecken lassen.

Damit mache ich gerade meine ersten Gehversuche. Der Weg zurück zu Gnome fühlt sich auch gut an. Wer es sich lieber mit KDE als Desktop anschauen möchte, dem sei Aurora ans Herz gelegt.

Wichtiger Hinweis: Bluefin zielt nicht darauf ab, jeden Nutzer zufrieden zu stellen. Lest Euch bitte zuerst diese Seite bevor Ihr mit der der Installation startet. Auf der Instllations-Seite sind auch die Hardware-Anforderungen zu finden.

Bluefin versteht sich nicht als Distribution. Die Basis ist Universal Blue.

Schaut Euch doch als Einstieg die Vorträge von Christoph an:

Zurück zu Logseq

Wie mit diesem Posting beschrieben, bin ich auf Joplin als Notizanwendung gewechselt. Joplin ist grossartige Software, die einen ganzen Haufen cooler Features hat und sogar eine performante mobile Anwendung.

Meine Wechselgründe sind immer noch gültig, aber ich muss gestehen, dass mir die Notizen mit Joplin nicht ganz so flüssig von der Hand gehen. Die Fluppsidität (cooles Wort, oder?) ist mit Joplin nicht gegeben. Mir fällt die Arbeit mit Logseq leichter und, was ich nicht leugnen kann, die Anzeige der verlinkten Seiten ist ein Feature, das ich unterschätzt habe.

Mittlerweile scheint es in Logseq so langsam vorwärts zu gehen, ich schaue einmal, wohin mich das führt.

Joplin

Nachdem es mit Logseq so gar nicht weitergeht und die Anwendung auf mobilen Geräten nahezu unbenutzbar ist, habe ich mich aufs Neue und dieses Mal ausführlicher mit Joplin auseinandergesetzt.

Logseq ist ein sogenannter Outliner, den ich kaum als Outliner verwendet habe. Ein Outliner in Notizanwendungen hilft, Informationen in einer hierarchischen Struktur zu organisieren, was die Zentrierung von Logseq auf Blöcke erklärt und mich manchmal auch sehr geärgert hat.

Für mich ist das Killerfeature die bidirektionale Verlinkung. Das bedeutet, dass ein Link auf eine andere Notiz auf der anderen Notiz einen Link zurück auf die Quellseite zeigt.

Bei näherer Beschäftigung mit Joplin habe ich das Plugin Bidirectional Links gefunden, was die Funktionalität nachbaut und das auch ziemlich gut macht.

Ein weiteres Feature, das ich vermissen würde, ist der Fokus auf ein Journal, was zusammen mit der Verlinkung eine relativ gute Möglichkeit bietet, einen zeitlichen Verlauf darzustellen. Auch hierfür gibt es ein Plugin, das passenderweise Journal heisst.

Seit meiner letzten Beschäftigung mit Joplin hat sich eine Menge getan und ich bin sehr angetan, die mobile Anwendung ist toll und reagiert sehr schnell.

Momentan betreibe ich Joplin im Parallelbetrieb mit Logseq. Ich muss schauen, wie gut es mit der Synchronisation mit meiner Nextcloud funktioniert, bevor ich komplett umstelle und alle Daten migriere. Wenn alle rund 2000 Notizen migriert sind, werde ich auch besser wissen, wie es mit der Performance aussieht.

Das Setup bei mir umfasst sechs Geräte, 2x Linux via Flathub, 1x Windows via Download von der Webseite, und zwei E-Book-Reader und ein Mobiltelefon unter Android via F-Droid.

Es erweist sich in jedem Fall als gut, auf offene Dateiformate zu setzen. Joplin kann Markdown importieren.

Spannend wird für mich sein, den Workflow, den ich mir über drei Jahre mit Logseq angewöhnt habe, durch etwas Neues zu ersetzen. Das meine ich ohne Wertung.

Mich hat die PARA-Methode sehr überzeugt, und für die Umsetzung in Joplin muss ich mir keine Kunstgriffe einfallen lassen, weil in Joplin verschachtelte Notizbücher möglich sind.

Der Artikel zu Nutzen Sie Ihr zweites Gehirn ist jetzt auch schon fast ein Jahr alt. Da sieht man einmal, wie lange Entscheidungen reifen müssen, bevor ich sie umsetze. Die Bequemlichkeit siegt häufig.

Tuxedo OS

linux

Auf dem bereits erwähnten neuen Notebook ist standardmässig Tuxedo OS installiert.

Die meisten meiner Leser wissen, dass ich "bekennender" Distrohopper bin und gerne neue Distributionen ausprobiere. Wer sich dafür interessiert wird in meiner Computergeschichte sicherlich fündig.

Also warum nicht einmal Tuxedo OS eine Chance geben?

Tuxedo OS basiert auf Ubuntu, aktuell Version 22.04, und hat einige Anpassungen vorgenommen. So wurde beispielsweise Snap herausgeworfen und stattdessen auf Flatpak gesetzt, eine Entscheidung, die ich nur befürworten kann.

Ein eigenes Repository hält die Tuxedo-Pakete mit Treibern, dem Tool Tomte und den Anpassungen, die sie vorgenommen haben, vor.

Als Standard Desktop-Umgebung kommt KDE zum Einsatz (was ich schon seit Jahren nicht mehr verwendet habe). Allerdings muss ich an der Stelle zugeben, dass ich die grafische Oberfläche im Grossen und Ganzen so nehme wie sie ist und keine bzw. kaum eigene Anpassungen vornehme.

Vielen Dank an Vinzenz für den Tipp, die globale Skalierung anzupassen. Das ist sehr hilfreich und macht es mir einfacher, die volle Auflösung zu verwenden.

Mit der Kombination aus Ubuntu, Tuxedo-Repositories und Flatpak konnte ich bis auf wenige Ausnahmen fast alles installieren, was ich zum Arbeiten benötige.

Einige Tools habe ich dennoch "von Hand" mit den passenden Paketen von deren Webseite oder GitHub installiert:

Mit dem Gerät und dem Setup bin ich (bis jetzt) sehr zufrieden und hoffe, dass das auch so bleibt. Momentan denke ich darüber nach, meinen Desktop-Rechner "Terrania" (ebenfalls ein Tuxedo-Gerät( mit Tuxedo OS zu betanken.

Erste Schritte neues Notebook

linux

Am vergangenen Donnerstag ist mein neues Notebook gekommen. Es ist ein TUXEDO InfinityBook Pro 14 - Gen9 - AMD geworden, der Link zeigt auf meine aktuelle Konfiguration. Liebes Tuxedo-Team. es wäre super, wenn die Links auch nach einem Modellwechsel noch funktionieren.

Mir gefällt das Notebook sehr gut, ich werde vielleicht später einmal ausführlicher darauf eingehen.

Erwartungsgemäss brauche ich bei der Maximalauflösung eine Lesebrille, um alles erkennen zu können, ich habe das jetzt vorerst einmal auf 1920x1200 herunter konfiguriert. Das klappt prima. Zweite Beobachtung ist, dass es nur 50 Gramm leichter ist als das InfinitiyBook Pro 16 meiner Frau. Aluminium ist vermutlich schwerer als Plastik.

Das alte Notebook war 8.5 Jahre alt. Ich möchte gerne Tuxedo OS (Basis: Ubuntu) eine Chance geben und damit bin ich nach langer Zeit wieder bei KDE (sonst Arch Linux mit Gnome).

Gerne möchte ich mit Euch teilen, was meine ersten drei Schritte als Systemverwalter und die ersten drei Schritte als User nach der Installation waren. Mich würde es sehr interessieren zu hören, was Eure ersten drei Schritte bei der Einrichtung eines neuen Systems sind.

Als Admin:

  1. etckeeper installieren. Im Rahmen der Konfiguration habe ich ssh-Keys erstellt, ein Repository auf meiner Forgejo.Instanz angelegt und automatischen Push eingerichtet.
  2. Standard-Editor auf Vim ändern.
  3. Backup mit Borg einrichten.

Und als User

  1. Bitwarden als Flatpak installiert und konfiguriert.
  2. Firefox koniguriert und alle Erweiterungen installiert.
  3. Daten vom alten Notebook in ein separates Verzeichnus kopiert. Die Daten nutze ich nur, wenn ich ohne sie nicht weiterkomme. So eine neue Installation ist auch eine gute Möglichkeit, Altlasten aufzuräumen.

Logseq vs. Notesnook

Relativ lange habe ich mich mit dem Thema Notizanwendungen (oder "Zweites Gehirn") herumgeschlagen und konnte einem sehr guten Setup mit Logseq dem Idealbild sehr nahekommen. Jetzt schaue ich mir parallel Notesnook an und bin ins Grübeln gekommen.

Mario hat mich auf den Artikel When You Should Switch Your Second Brain App (And When You Shouldn’t) von Tiago Forte hingewiesen, der mich auch zum Nachdenken brachte und mich etwas ausgebremst hat. Jetzt musste ich einmal schauen und überlegen, was meine Motivation für den Wechsel ist.

Meine Gedanken dazu möchte ich gerne mit Euch teilen.

Was ich an Logseq mag:

  • Open-Source-Software.
  • Bidirektionale Verlinkung, das ist DAS Killerfeature.
  • Journal.
  • Knowledge-Graph, auch wenn ich ihn selten benötige.

Was ich an Logseq nicht so toll finde:

  • Management der Attachments.
  • Die mobile Anwendung.
    • Geschwindigkeit (nicht nur Sync).
    • Bedienung ist nicht so toll.
    • Hat nicht die gleichen Features wie die Desktop-Variante.
  • Synchronisationsgeschwindigkeit.
  • Das Backend der eingebauten Synchronisation ist geschlossen (ja, es gibt Workarounds), aber Daten werden in der eigenen Lösung verschlüsselt abgelegt.
  • Daten liegen bei AWS, das eigene Synchronisations-Backend ist kostenpflichtig.
  • Die Entwicklungsgeschwindigkeit hat stark nachgelassen.
  • Alles ist "Aufzählung" (Bullet).

Was ich bei Logseq dringend vermisse:

  • Plugins in der mobilen App (besonders den Kalender, mit dem einzelne Journal-Tage aufgerufen werden können).
  • Höhere Geschwindigkeit.

Was ich an Notesnook mag:

  • Open-Source-Software.
  • Geschwindigkeit der Anwendungen.
  • Feature-Gleichheit auf unterstützten Plattformen (Desktop-Anwendungen, mobile Apps, Web-App).
  • Browser-Plugin.
  • Synchronisationsgeschwindigkeit.
  • Kleines Entwicklerteam.
  • Synchronisation auf Servern bei Hetzner.
  • Deutsche Rechtschreibkorrektur.
  • Das Konzept, dass ein Notebook mehrere Notebooks enthalten kann, kommt mir entgegen (PARA-Methode).

Was ich an Notesnook nicht so toll finde:

  • Kein offenes Datenformat, es liegt alles in einer SQLite-Datenbank.
  • Sync-Backend kostenpflichtig (kein mir bekannter Workaround).

Was ich bei Notesnook dringend vermisse:

  • Einfaches bidirektionales Verlinken.
  • Knowledge-Graph fehlt.

Fazit

Wenn die einfache bidirektionale Verlinkung nicht wäre und ich nicht schon über 1200 Notizdateien hätte, würde ich sofort wechseln. Die Vorteile bei Notesnook überwiegen für mich. Man kann Markdown-Dateien (und Zip-Files mit Markdown-Dateien) mit Fokus auf das Obsidian-Format importieren, das will aber bei mir nicht so recht klappt. Vielleicht mache ich dafür einmal einen Bugreport auf oder probiere es in einer späteren Version noch einmal.

Die Arbeit mit Logseq geht deutlich leichter von der Hand, da habe ich allerdings auch einen Zeitvorsprung von über zwei Jahren Benutzung. Die Arbeit mit Notesnook macht mehr Spass, was aber auch ein temporäres Phänomen sein kann.

Ich bin hin- und hergerissen, mit einer starken Tendenz zu wechseln. Wenn ich vollends zufrieden wäre., würde ich nicht nach Alternativen suchen.

Nachtrag

Den Begriff "Zweites Gehirn" habe ich übrigens aus dem sehr lesenswerten Buch Nutzen Sie Ihr zweites Gehirn (im Original Building a Second Brain) von Tiago Forte. Unbedingte Empfehlung!

Notizen, noch einmal

Wie bereits in den vorhergehenden Artikeln geschrieben, bin ich auf der Suche nach einer neuen Notizanwendung (weitere Artikel findet Ihr als Trackbacks unter dem verlinkten Posting).

TL;DR: Ich bleibe bei Logseq.

Der Hauptpunkt für mich ist, dass ich klar bekommen muss, ob ich mich so sehr an den Workflow mit Logseq gewöhnt habe, dass ich davon nicht wegkann. Oder, ob ich mich auf ein anderes Ökosystem mit anderen Stärken und auch Schwächen einlassen kann.

In der letzten Runde sind die folgenden zwei Anwendungen geblieben. Die Auswahl folgt komplett subjektiven Kriterien wie beispielsweise der Sympathie oder dem ersten Eindruck.

  • Joplin (mal wieder) mit Sync via Nextcloud).
  • Notesnook (Zufallsfund und bisher noch nicht in den anderen Artikeln erwähnt).

Im Rahmen des Tests der beiden Applikationen Joplin und Notesnook bin ich nicht alle Features durchgegangen. Mir ging es eher darum herauszufinden, wie sich die Arbeit mit den Tools anfühlt und ob es mir Spass machen könnte, mit Ihnen zu arbeiten.

Joplin lässt sich leicht mit der eigenen Nextcloud verbinden, fühlt sich aber ein wenig behäbig an. Mir gefällt gut, dass alle Anwendungen Open-Source-Software sind und dass ich die Daten selber hosten kann. Mit allen Anwendungen meine ich die Desktop-Anwendung, sowie mobil wie auch der Web Clipper. Bei meinen Tests habe ich es nicht geschafft, den Webclipper zur Zusammenarbeit zu bewegen und leider auch nicht hinbekommen, Notizen miteinander zu vernetzen. Wie geschrieben, habe ich nicht sehr intensiv gesucht.

Notesnook war ein absoluter Zufallsfund. Mir war das kleine Entwicklerteam sehr sympathisch, ausserdem ist es eine echte "SAP"-Anwendung ("Software aus Pakistan"). Die Anwendung (Desktop, Mobil, Web Clipper) ist ebenfalls Open-Source-Software, das Sync-Backend wird auf Hetzner-Servern gehostet, an einer Möglichkeit zum Selfhosting wird gearbeitet. Notesnook bietet zusätzlich eine gehostete Webanwendung an. Das Arbeiten mit der Anwendung fühlt sich sehr gut und sehr performant an. Nachdem ich die mobile Anwendung aus F-Droid installiert habe funktionierte der Sync nicht mehr. Das empfohlene Update auf die Beta von Version 3 habe ich durchgeführt, damit kam der Web Clipper aber nicht zurecht. Da braucht es vermutlich noch eine Iteration. Mir ist auch hier nicht klar, wie ich Notizen miteinander verknüpfen kann.

Mir ist Notesnook sympathischer als Joplin – wie gesagt, es ist alles subjektiv. Und ich kann mir vorstellen, in der Zukunft darauf umzustellen. Notesnook bietet einige interessante Security-Features: zwei-Faktor-Authentisierung per Default, verschlüsselte Notizablage. Zum derzeitigen Zeitpunkt ist aber an eine Umstellung nicht zu denken.

Zu meinen Kriterien (finden sich auch im Ursprungsartikel):

  • Funktioniert auch offline, soll aber synchronisieren können.
    • Check
  • Clients für Android, Linux und Windows.
    • Check (sogar plus Web Clipper)
  • Möglichkeit, Datums basiert Notizen zu machen (Journal, ohne "ing").
    • Nicht defaultmässig.
  • Verlinkung und Tagging, Aufbau eines "Knowledge Graphs".
    • Noch nicht.
  • Offenes Dateiformat (gerne Markdown).
    • Joplin bietet JEX (json-basiert).
    • Notesnook hat ein eigenes Format.
  • Nach Möglichkeit Open-Source-Software (ist aber nicht zwingend).
    • Check.
  • Darf auch etwas kosten.
    • Kostenpflichtige Sync-Modelle bieten beide.
    • Joplin lässt sich mit einer eigenen Lösung verbinden.
    • Das Sync-Backend bei Notesnook ist fremd gehostet.

Neue Notiz-Anwendungen

Im letzten Artikel habe ich nach einer neuen Anwendung für Notizen auf Android, Linux und Windows gesucht und Ihr habt zahlreich geantwortet. Vielen lieben Dank dafür!

Hier sind die Tipps, die ich bekommen habe und ich hoffe, ich habe nichts vergessen. Im verlinkten Artikel oben sind noch weitere zu finden. Die Reihenfolge ist willkürlich und keine Wertung.

Your Resource Guide to Building a Second Brain enthält noch weitere Tools, die ich hier nicht aufgeführt habe.

Notiz-Anwendung gesucht

Gerade lese ich das Buch Nutzen Sie Ihr zweites Gehirn von Tiago Forte (mehr dazu später) und lass mich von vielen guten Ideen inspirieren, bin aber erst zur Hälfte durch.

Im Zuge der Lektüre habe ich mir auch Gedanken darüber gemacht, wie ich Notizen mache. Neben handschriftlichen Notizen kommt digital bei mir Logseq zum Einsatz. Darüber habe ich schon hier im Blog geschrieben. Logseq ist eine Open-Source-Software, bei der die Synchronisation kostenpflichtig ist.

Mit Logseq bin ich auf den Desktops, die ich verwende (privat Linux und beruflich Windows) sehr zufrieden, wobei die Synchronisation eher langsam ist. Die mobile Anwendung ist aber sehr rudimentär, kann keine Plugins, ist langsam und die Bedienung ist sehr hakelig.

Das ist der Grund, weshalb ich auf der Suche nach einer neuen Anwendung bin, die vor allem auch mobil sehr gut funktionieren soll.

Und jetzt, liebe Leser, kommt Ihr ins Spiel, vielleicht habt Ihr ja Ideen. Hier kommen meine Anforderungen:

  • Funktioniert auch offline, soll aber synchronisieren können.
  • Clients für Android, Linux und Windows.
  • Möglichkeit, Datums basiert Notizen zu machen (Journal, ohne "ing")
  • Verlinkung und Tagging, Aufbau eines "Knowledge Graphs".
  • Offenes Dateiformat (gerne Markdown).
  • Nach Möglichkeit Open-Source-Software (ist aber nicht zwingend).
  • Darf auch etwas kosten.

Die folgenden Anwendungen sind interessant, aber ich habe mit Ihnen keine Erfahrung.

  • Notion
  • Obsidian (mobile App soll ebenfalls schlecht sein)
  • Roam Research
  • Tana (derzeit am interessantesten, aber noch nicht released)
  • Twos (scheinbar nicht mehr weiterentwickelt)
  • Joplin (habe ich eine Zeit lang verwendet, war nicht so ganz meins, ist vielleicht einen erneuten Test wert)

Bin auf Eure Anregungen, Ideen und auf Eure Workflows gespannt. Gerne auch, wenn sie nicht 100% ins Muster passen, wie im Kommentar von Mario, den ich sehr spannend finde.

Laufzeiten und Produktionsbetrieb von Linux-Distributionen

linux

Mein Kommentar zur Episode Newsupdate 07/23 vom Focus on: Linux-Podcast ist etwas länger geworden, aus diesem Grund habe ich das in einen Blogartikel verpackt.

Prima Episode. Leider muss ich ein wenig Erbsen zählen.

Eine Distribution wird nicht über die komplette Laufzeit (im Podcast war die Sprache von zehn Jahren) produktiv eingesetzt.

Wenn wir uns mal einen mittelprächtig konservativen Ansatz anschauen, dann beginnt man mit dem Testen einer Linuxdistribution ein halbes Jahr nach dem Erscheinen.

Man bringt erste Workloads (Development- und Test-Systeme) darauf, wenn das gut läuft, folgt irgendwann die Abnahmeumgebung und zum Schluss die Produktion. Wenn es gut läuft, sind wir ein Jahr nach dem Erscheinen der Distribution produktiv. Ich habe deutlich progressivere Vorgehensweisen in meiner Berufslaufbahn erlebt, aber deutlich konservativere.

Das oben genannte ist im übrigen der Grund, weshalb es Distributionen mit kurzer Supportzeit gar nicht erst in viele Unternehmen schaffen.

Weil wir Warmduscher sind, wollen wir wenigstens ein Jahr Support übrig haben, wenn wir auf ein neues Release gehen, das bedeutet insbesondere, dass wir 18 Monate vor Supportende mit dem Testen beginnen und das Nachfolgrelease muss dann wenigstens ein halbes Jahr alt sein. Wir können so immer noch zurück, wenn in der Produktion etwas schieflaufen sollte.

In Summe bedeutet das, dass nur acht von zehn Jahren produktiv genutzt werden.

Daten von endoflife.date:

Beispiel Red Hat Enterprise Linux (RHEL):

  • RHEL 7 erscheint Dezember 2013, Laufzeit bis Juni 2024
  • Wir testen ab Juni 2014
  • Produktion ab Dezember 2014
  • Testen Nachfolgerelease ab Dezember 2022
  • Produktion auf dem Nachfolgerelease ab Juni 2023

Wenn wir den Sprung auf RHEL 9 wagen, dann sind wir wieder rund 7,5 Jahre dabei. Glücklicherweise ist RHEL 9 genau passend erschienen. Zufall?

Das gleiche Verfahren mit RHEL 6:

  • RHEL 6 erscheint November 2010, Laufzeit bis November 2020
  • Produktion ab November 2011
  • Testen Nachfolgerelease ab Mai 2019
  • Produktion auf dem Nachfolgerelease ab November 2019

Mai 2019 ist zu früh für RHEL 8, das heisst, wir müssen im November 2019 auf RHEL 7 migrieren und hätten dann nur 4,5 Jahre Laufzeit (bis Juni 2024).

Wenn man sich das einmal so anschaut, ist es nicht mehr "Zehn Jahre Laufzeit müssen für alle reichen ...".

Arch Linux

linux

Irgendwie war es ja auch nur eine Frage der Zeit, dass ich bei meinem Distrohopping auch einmal bei Arch Linux lande. Der Wikipedia-Artikel gibt eine sehr gute Einführung.

Vor einigen Monaten habe ich testweise mein Notebook umgezogen, was ich eh so gut wie gar nicht mehr benötige (ausser, um diesen Artikel zu schreiben und demnächst mal wieder auf einer Konferenz).

Ich bin überrascht, wie gut das läuft. Der Paketmanager ist vermutlich der schnellste, mit dem ich es je zu tun hatte. Alles funktioniert von Anfang an prima. Die Dokumentation im Wiki gehört zu den besten, die es im Linuxumfeld gibt. Ich habe sie schon vor meinem Wechsel relativ häufig zu Rate gezogen.

Woran ich mich gewöhnen muss, ist, dass der Installationsumfang sehr schlank gehalten ist. Das führt dazu, dass ich viel Software, die in anderen Distributionen "einfach so" mitkommt, von Hand nachinstallieren musste.

"Bis jetzt" bin ich begeistert. Mal schauen, wie lange das anhält.

Grund für den Artikel ist, dass ich meinen Hauptrechner migriert habe und ich mich einmal mehr darüber freue, wie leicht ein Distributionswechsel bei Linux ist. Die meiste Zeit benötigt tatsächlich das Kopieren der Daten.

Backup-Konzept

Vor ein paar Wochen habe ich beschrieben, wie man sein Backup mit Borgbackup durchführen kann.

Heute soll es einmal darum gehen, sich ein generelles Konzept zu überlegen. Wenn man sich erst die Gedanken macht, wenn Datenverlust droht oder bereits Daten verloren gegangen sind, dann ist es zu spät.

Im Artikel geht es mir vor allem um private Daten.

Um die Klassifizierung der Daten kommt man leider nicht herum. Damit lässt sich feststellen, welche Daten am wichtigsten sind, welche Daten sich wie häufig ändern und wie viel Datenverlust man verkraften kann. Natürlich sollte man sich auch über Restorezeiten Gedanken machen - die gewünschte Restorezeit beeinflusst auch die Art des Backups (Vollbackup, differentielles oder inkrementelles Backup) und selbstverständlich auch die Wahl des Backuptools.

Natürlich kann man sagen, dass man jede Minute ein Backup aller Daten anfertigt, um in jedem Fall auf einen alten Stand zurückzukommen. Dazu darf das Backup nicht länger als eine Minute dauern und man muss ausreichend Speicherplatz vorsehen (und bezahlen).

Die folgenden Daten würde ich bei einer Klassifizierung privater Daten berücksichtigen:
(Ergänzungen sind herzlich willkommen)

  • Das Betriebssystem
  • Die installierten Programme
  • Konfigurationen
  • Dokumente (Textverarbeitung, Tabellenkalkulation, ...)
  • Quelltexte
  • Notizen
  • Skizzen
  • E-Mails
  • Chat-Nachrichten
  • Eingescannte Dokumente
  • Fotos

Für jede der Kategorien sollte man sich überlegen, ob man mit einem Verlust der Daten leben könnte, wie lange die Wiederherstellung der Daten dauern darf, welcher Aufwand getrieben werden muss, um die Daten wiederzubekommen und wie aktuell die Backups sein müssen.

Ein Beispiel: Fotos lassen sich ohne Backup nicht wiederherstellen, eingescannte Dokumente schon (wenn man das Original noch besitzt), allerdings kostet das vermutlich mehr Zeit als ein Restore der Daten. Dafür belegen Fotos und Scans viel Platz auf dem Backupmedium.

Ein weiteres Beispiel: Wenn ich bei einem erstellten Dokument nur auf ein tägliches Backup zugreifen kann, verliere ich einen Tag, den ich an dem Dokument gearbeitet habe. Je nach Komplexität und Genialität der Dokumente kann das schon sehr viel sein.

Was bedeuten eigentlich Vollbackup, differentielles Backup und inkrementelles Backup?

Ein Vollbackup beinhaltet alle Daten, die gesichert werden sollen und dauert je nach Volumen relativ lange.

Ein differentielles Backup sichert immer die Differenz zum letzten Vollbackup, man braucht also für die Rücksicherung das letzte Vollbackup und das aktuellste differentielle Backup. Je weiter (zeitlich) man sich vom letzten Vollbackup entfernt, desto grösser werden die differentiellen Backups.

Ein inkrementelles Backup sichert immer die Unterschiede zum letzten Backup, das entweder ein Vollbackup oder ein inkrementelles Backup sein kann. Für eine Rücksicherung benötigt man das letzte Vollbackup und alle seitdem angefallenen inkrementellen Backups. Inkrementelle Backups sind in der Regel relativ klein - je nach Häufigkeit der Inkremente - benötigen aber vergleichsweise lange für den Restore.

Die 3-2-1-Regel für Backups:

  • Wenigstens drei Kopien (Backups) der Daten verwenden.
  • Wenigstens zwei verschiedene Speichermedien einsetzen.
  • Wenigstens eine Kopie ausser Haus aufbewahren.

Den letzten Punkt möchte ich besonders herausstreichen. Das Backup sollte in jedem Fall auch nach einem Feuer bei Euch zu Hause und zugreifbar sein. Mit Backups schützen wir uns vor Katastrophen. Feuer ist nur eine davon.

Automatisierung:

Bitte vertraut nicht darauf, dass Ihr immer daran denkt, Euer Backup zu machen. Backups müssen automatisiert ablaufen, damit der "Faktor Mensch" ausgeschaltet werden kann.

Rücksicherung testen:

Es gibt kaum Dinge, die weniger wert sind als ein Backup, auf das man vertraut und auf das nicht mehr zugreifen kann, daher sind Restoretests elementar wichtig.

Bei mir:

Wie bereits an anderer Stelle geschrieben, mache ich meine Backups mit Borgbackup. Borgbackup macht eine inkrementelle Sicherung ("incremental forever") linkt aber bereits gesicherte Daten in das inkrementelle Backup ein, sodass ich mit jedem Backup einen Zugriff auf alle Daten (Fullbackup) habe.

Das Backup wird bei jedem Runterfahren meines Rechners ("poweroff") ausgeführt.

Die Backups landen auf einer internen zweiten Festplatte, auf dem NAS-Share und via SSH auch auf einer Storagebox bei Hetzner.

Der Schwachpunkt, den ich habe, ist, dass alles mit dem gleichen Tool gesichert wird. Eine der drei Sicherungen werde ich in der nächsten Zeit auf Restic umziehen. Da verliere ich dann zwar die Historie, hätte aber dennoch ein besseres Gefühl.

cronjob