Skip to content

Der neue Podcast ...

podcast Kennt Ihr das?

Alle Gedanken sind gesammelt, das Konzept ist fertig, aber irgendwie schliesst sich kurzfristig jedes Zeitfenster, das ich für die Aufnahme der ersten Episode eines neuen Podcasts vorsehe.

Also erhöhe ich jetzt mal langsam den Druck für mich und versuche, einige der Fragen, die in den letzten Wochen (und Monaten) aufgetaucht sind, zu beantworten.

  • Es wird einen neuen Podcast von und mit mir geben.
  • Das Konzept ist fertig.
  • Die Inhalte der Nullnummer stehen fest.
  • Titelmusik wurde lizensiert.
  • Neues Equipment seit Ende 2015 - ja das ist lang her - vorhanden.
  • Es wird überwiegend kurze Episoden geben.
  • Aber auch lange ...
  • Einfach, oder?
  • Blogplattform ist die gleiche wie bei DeimHart, mit anderen werde ich nicht warm (besonders was die Kommentarfunktion angeht).
  • Die erste Episode wird über "Social Media" angekündigt, alle weiteren nicht. Abonniert den Feed!
  • Das bedeutet insbesondere, dass es keinen Twitter-Account, keine Facebook- oder Google+ oder ähnliche Seite geben wird.
  • Mich bringt das auch nicht in die Not, einen "Fancy-Namen" auszudenken, mein Nachname ist selten genug ...

Serendipity 2.0.4 ...

serendipity Knapp ein dreiviertel Jahr nach Erscheinen der 2.0.3, wurde gerade heute die Version 2.0.4 des "besten Blogs der Welt" veröffentlicht.

Durch das Update werden Security-Lücken im Backend geschlossen, ein Update wird - wie immer - empfohlen.

Hier in meinen Blogs werkelt die aktuelle Developer-Version, die auf 2.1-beta2 aktualisiert wurde.

Sehr viel wichtiger finde ich allerdings, dass die Homepage ein Redesign bekommen hat. Endlich sieht sie richtig gut aus. Das war grossartige Arbeit.

Bare metal restore ...

Das ist ein Talk, den mein ehemaliger Arbeitskollege Ramon und ich vor knapp sechs Jahren auf der deutschen Ubucon gehalten haben. Das Prinzip, das dem zu Grund liegt, hat mir auch am vergangenen Wochenende den Hintern gerettet.

Ich werde mal ein Update des Vortrags machen und die neuen Skripte einbauen (die auch unter CentOS wirken).

Gelernte Lektionen ...

Zu den Lehren, die ich aus dem Serverausfall gezogen habe, gehören die folgenden.

Wenn das RAID nicht fertig synchronisiert ist, brauche ich mich nicht mehr darum kümmern, die Daten sind weg. Die gesparte Zeit investiere ich besser in eine gute Planung des Restores, die ich eh machen muss.

Die Filekopie einer laufenden MariaDB-Datenbank-Instanz ist immer noch nicht möglich, auch wenn es anfänglich so aussieht. Die interne mysql-Datenbank und die Konfigurationsdatenbank meines Mailservers waren nicht korrupt, der Rest schon.

Einen Rettungsversuch der InnoDB-Datenbanken und MyISAM-Datenbanken kann ich mittels innodb_force_recovery = 1 bzw. myisam-recover = backup,force in den Konfigurationsdateien vornehmen. Wenn das nicht hilft, sollte ich die Optionen auch wieder entfernen, weil sonst der Import der Datenbanken aus dem "richtigen Backup" nicht klappt. Die Fehlermeldung beim Import ist übrigens "Mysql error “#1030 - Got error -1 from storage engine”, das könnte auch sinnvoller benamt werden.

Es ist sinnlos, die Kommunikation des Mailproviders über die Mailadresse zu führen, die auf dem ausgefallenen Server gehostet wird, vorher umstellen!

Sehr lohnenswert ist es ein Chattool zu nutzen, dass unabhängig von der eigenen Infrastruktur ist, dazu habe ich jetzt Slack eingerichtet, ich empfehle allen, die Dienste bei mir nutzen, sich bei mir per Mail zu melden. Künftig werde ich nicht mehr auf andere Anfragen reagieren.

Serverausfall ..

TL;DR: Mein Server ist ausgefallen. Wenn Ihr uns am Samstag Mails geschickt habt, schickt sie bitte noch einmal. Das Backup war leider einige Stunden alt.

Am vergangenen Samstag Morgen hat sich eine von zwei Festplatten aus dem Spiegel verabschiedet. Diese wurde von Hetzner-Mitarbeitern innerhalb einer viertel Stunde ausgetauscht. Das ist echt klasse. Die Dokumentation im erstklassigen Wiki ist ebenfalls sehr hilfreich, insbesondere Festplattentausch im Software-RAID und Seriennummern von Festplatten und Hinweise zu defekten Festplatten.

Glücklicherweise habe ich noch ein schnelles Komplett-Backup per rsync gemacht - note to myself: das nächste Mal vorher die Datenbank runterfahren - so dass zumindest alle Mails noch da waren.

Am frühen Abend, gegen 17:30 Uhr - die Synchronisation des Datendateisystems im RAIDs ist bei 95% (30 Minutes left) - raucht die primäre Platte auch ab und hinterlässt nur noch Datenmüll.

An der Stelle sei erwähnt, dass es nicht hilfreich ist, wenn mir Leute sagen, dass sie deswegen RAID-6 einsetzen. Das würde ich auch gerne, geht bei diesen gemieteten Servern aber nicht.

BTW: Für zukünftige Probleme habe ich eine Slack-Community, wer darauf zugreifen möchte, schicke mir bitte eine Mail an dirk@deimeke.net.

Natzürlich hatte ich ein Backup, warum die Recovery so lange gedauert hat, schreibe ich in einem anderen Artikel.

Podunion beendet ...

podcast Das ist wirklich sehr schade. Das Portal Podunion denkt, es würde nicht mehr gebraucht. Es hat mir immer einen Überblick über die deutschsprachige Podcastszene gegeben und war enorm hilfreich. Viele Dinge wurden auch in den Kommentaren der einzelnen Episoden diskutiert, manchmal kontrovers, aber immer freundlich.

Schade!

Die Audiodateien der produzierten Podcasts sind noch eine Zeit lang online, leider die Blogartikel und die Sendungsnotizen sowie die Kommentare nicht.

Alles Gute den Machern!

Serendipity-Camp 2016 ...

serendipity So viele Dinge passieren gerade, dass ich kaum noch hinterher komme.
 
Am letzten Wochenende durften wir einmal mehr, vom Community-Angebot des Linuxhotels Gebrauch machen und es war - wie immer (!) - toll. In diesem Jahr waren wir - anders als im letzten Jahr - nur zu sechst, was aber der guten Stimmung und der produktiven Atmosphäre keinen Abbruch getan.
 
Das absolute Highlight war aber die selbst gemachte Zigeunersauce im Haus Grossjung, wo wir Samstag Mittag zum Essen waren. Ein Beweisfoto findet sich bei Matthias im Blog (Link unten). Die Lokalität ist eine echte Empfehlung, das Essen ist lecker (und reichlich) und die Bedienung sehr nett.
 
Inhaltlich finde ich besonders erwähnenswert, dass die neue Webseite so gut wie fertig ist - es fehlen nur noch Kleinigkeiten - und dass wir jetzt einen Code of Conduct haben.
 
Zusätzlich haben wir noch das folgende Release 2.1 und auch die Kompatibilität zu PHP 7 besprochen, Tickets bearbeitet und neue eröffnet, sowie einen MySQL-Bug geklärt (wir müssen die Codepage von UTF8 auf UTF8-MB4 umstellen).
 
Teilgenommen haben in diesem Jahr (Links gehen auf die Blogartikel zum diesjährigen Camp oder das Blog):

 
Parallel zu uns haben die Free Beers Dealer (Free BSD'ler) einen Hackathon veranstaltet. Toll ist, dass das Linuxhotel nicht nur auf Linux orientierte Open-Source-Projekte beherbergt und dass die FreeBSD-Entwickler ebenfalls keine Berührungsängste haben.
 
Sobald er fertig ist, kommt hier der Link zum offiziellen Artikel hinein.

Let's Encrypt ...

Wie versprochen, kommt jetzt auch mal ein Artikel, wie man Let's Encrypt für die eigenen Domains nutzen kann. Aus "in ein paar Tagen" wurden leider drei Monate.

Der Grund für die Verzögerung ist neben der fehlenden Zeit, einen vernünftigen Artikel zu verfassen, die schiere Menge an Implementationen des zugrundeliegenden ACME-Protokolls. Den Original-Client möchte ich nicht benutzen, da er mir zu viele Änderungen am System (als root) vornimmt. acme-tiny schien eine Zeit lang das Mittel der Wahl zu sein.

Das Tool, was ich jetzt aber benutze, ist AcmeFetch von Tobias Oetiker, weil es wirklich einfach und damit für jeden nutzbar ist und weil ich den Macher kenne ;-) Es muss nicht als root-User laufen, kann aber.

Die Vorarbeiten sind ein kleines wenig aufwändiger, das eigentliche Erstellen lassen der Zertifikate und auch der Refresh alle 90 Tage ist aber sehr, sehr einfach.

Vorarbeiten:

Einen Userkey erzeugen, mit dem die künftigen Zertifikate bestellt werden.


# Einen Usernamen festlegen, der wird später gebraucht
$ export USER="Euer Lieblingsusername"

# Key erzeugen
$ openssl genrsa 4096 > ${USER}.key
Generating RSA private key, 4096 bit long modulus
...................................................................................++
..................................++
e is 65537 (0x10001)
 


AcmeFetch basiert auf Perl, daher sollte Perl installiert sein.


# CentOS
$ yum install perl-core openssl-devel gcc unzip

# Debian/Ubuntu
$ apt-get install perl libssl-dev gcc unzip make
 


AcmeFetch besorgen:

Danach das Repository klonen oder ein Release herunterladen, oops, das aktuelle Release heisst "Dirk".


$ git clone https://github.com/oetiker/AcmeFetch.git AcmeFetch.git
 


Jetzt geht es los:

Wenn AcmeFetch gebaut wird, werden alle benötigten Perl-Module im Zielverzeichnis/lib installiert. Das bestehende System wird nicht verändert. Tobi empfiehlt $HOME/opt/acmefetch, mir ist das "reale" /opt lieber.


$ ./configure --prefix=/opt/acmefetch

$ make

# sudo nur nötig, wenn das Ziel-Verzeichnis als User nicht schreibbar ist
$ sudo make install
 


Zertifikat konfigurieren:

Im Verzeichnis /opt/acmefetch/etc liegt eine Musterkonfigurationsdatei acmefetch.cfg.dist, die als Muster benutzt werden kann. Ich habe die etwas abgewandelt, so dass es für mich passt.

Für meine Version muss das Verzeichnis /etc/letsencrypt schreibbar sein (da liegen alle "Let's Encrypt"-Zertifikate auf meinem Server). ddeimeke.key müsst Ihr mit Eurem Schlüssel ersetzen.



{

    "GENERAL": {

        "ACMEstaging": "acme-staging.api.letsencrypt.org",

        "ACMEservice": "acme-v01.api.letsencrypt.org",

        "accountKeyPath": "/etc/letsencrypt/ddeimeke.key"

    },

    "CERTS": [

        {

            "certOutput": "/etc/letsencrypt/deimeke.net.crt",

            "certFormat": "PEM",

            "keyOutput": "/etc/letsencrypt/deimeke.net.key",

            "keyFormat": "PEM",

            "chainOutput": "/etc/letsencrypt/chain.crt",

            "chainFormat": "PEM",

            "commonName": "deimeke.net",

            "SITES": {

                "deimeke.net": {

                    "challengeHandler": "LocalFile",

                    "challengeConfig": {

                        "www_root": "/srv/www/deimeke.net/",

                    }

                },

                "www.deimeke.net": {

                    "challengeHandler": "LocalFile",

                    "challengeConfig": {

                        "www_root": "/srv/www/deimeke.net/",

                    }

                }

            }

        }

    ]

}

 


Der Betriebssystem-User, der das Zertifikat erstellen lassen möchte, benötigt Schreibrechte im DocumentRoot-Verzeichnis der Domain (genauer im Unterverzeichnis .well-known/acme-challenge)

Achtung: Es ist sinnvoll, vor dem eigentlichen Erstellen der Zertifikate eventuell vorhandene .htaccess-Dateien umzubennen (beispielsweise die von ownCloud).

Zertifikat erstellen:


$ /opt/acmefetch/bin/acmefetch --cfg=/opt/acmefetch/etc/deimeke.net.cfg --verbose
* ## deimeke.net ##
* Cert /etc/letsencrypt/deimeke.net.crt is missing. Generating.

* talk to acme-v01.api.letsencrypt.org
* authorize deimeke.net via /srv/www/deimeke.net/
* authorize www.deimeke.net via /srv/www/deimeke.net/
/tmp/9QmdSJnbNt.cfgGenerating a 2048 bit RSA private key
.....................................+++
.....................................................................................................+++
writing new private key to '/etc/letsencrypt/deimeke.net.key.13854'
 


Wenn Ihr es direkt noch einmal ausführt, wird kein neues Zertifikat erstellt, nur, wenn --force gesetzt ist oder 30 Tage vor Ablauf des vorhandenen Zertifkats oder, wenn Ihr in der Konfiguration etwas verändert habt.

Webserver konfigurieren: (bei mir Apache)

Dafür habe ich mir dieses kleine Shellskript gebastelt.


#!/bin/bash
set -o errexit

if [[ -z "$2" ]]; then
    echo
    echo "ERROR: usage $0 domain ipaddress"
    echo
    exit 1
fi

DOMAIN=$1
IPADDRESS=$2

echo "<VirtualHost ${IPADDRESS}:443>
    ServerName ${DOMAIN}
    DocumentRoot /srv/www/${DOMAIN}

    ErrorLog /var/log/httpd/${DOMAIN}/error.log
    CustomLog /var/log/httpd/${DOMAIN}/access.log combined

    Header always set Strict-Transport-Security "
max-age=15768000"
    SSLEngine On
    SSLCipherSuite 'ECDHE-RSA-AES128-GCM-SHA256:ECDHE-ECDSA-AES128-GCM-SHA256:ECDHE-RSA-AES256-GCM-SHA384:ECDHE-ECDSA-AES256-GCM-SHA384:DHE-RSA-AES128-GCM-SHA256:DHE-DSS-AES128-GCM-SHA256:kEDH+AESGCM:ECDHE-RSA-AES128-SHA256:ECDHE-ECDSA-AES128-SHA256:ECDHE-RSA-AES128-SHA:ECDHE-ECDSA-AES128-SHA:ECDHE-RSA-AES256-SHA384:ECDHE-ECDSA-AES256-SHA384:ECDHE-RSA-AES256-SHA:ECDHE-ECDSA-AES256-SHA:DHE-RSA-AES128-SHA256:DHE-RSA-AES128-SHA:DHE-DSS-AES128-SHA256:DHE-RSA-AES256-SHA256:DHE-DSS-AES256-SHA:DHE-RSA-AES256-SHA:CAMELLIA:!kRSA:!aNULL:!eNULL:!EXPORT:!DES:!RC4:!3DES:!MD5:!PSK'
    SSLProtocol All -SSLv2 -SSLv3
    SSLHonorCipherOrder On
    SSLCompression off
    SSLCertificateFile /etc/letsencrypt/${DOMAIN}.crt
    SSLCertificateKeyFile /etc/letsencrypt/${DOMAIN}.key
    SSLCertificateChainFile /etc/letsencrypt/intermediate.crt

    <Directory \"/srv/www/${DOMAIN}\">
        allow from all
        Order allow,deny
        AllowOverride All
        Options -Indexes
        Require all granted
    </Directory>
</VirtualHost>"

 


Weitere Domains:

Weitere Konfigurationen lassen sich mit einem einfachen sed-Kommando erstellen.


$ sed 's/deimeke.net/yawnrz.com/g' /opt/acmefetch/etc/deimeke.net.cfg > /opt/acmefetch/etc/yawnrz.com.cfg

$ /opt/acmefetch/bin/acmefetch --cfg=/opt/acmefetch/etc/yawnrz.com.cfg --verbose
 

Die wilde dreizehn ...

serendipity Huch, das kam überraschend, gestern wurde die Blogsoftware meines Vertrauens 13 Jahre alt, so etwas ist selten in der heutigen Zeit.

Danke an alle Mitwirkenden!

Nachtrag: Ich muss natürlich erwähnen, dass es die Software schon seit 2002 gibt und gestern "nur" der Namenstag war.

Die Geschichte wiederholt sich ...

Ich habe es versucht, wirklich. Ich habe ein halbes Jahr durchgehalten, aber es geht nicht. Thunderbird ist nicht mein Mailclient. Je länger ich suche, desto mehr merke ich, dass für mich nichts an Claws-Mail heran kommt, obwohl ich mit einigen Punkten unzufrieden bin.

Die Gründe sind die gleichen, wie sie es schon einmal waren, Thunderbird ist für die Menge an Mails und das, was ich mit Mails mache viel zu schwerfällig. Ich habe gemerkt, dass ich den Kalender in Thunderbird nie genutzt habe, damit entfällt der einzige Zusatznutzen, den Thunderbird gegen Claws-Mail hat.

Und, egal wie ich es drehe, Geschwindigkeit spielt gerade bei Mails eine grosse Rolle.

testssl.sh ...

In den kommenden Tagen werde ich ein paar kleinere Skripte und Tipps rund um Let's encrypt veröffentlichen. Let's encrypt bietet freie Zertifikate, die 90 Tage gültig sind und jetzt in der offenen beta-Phase noch einigen Restriktionen unterworfen sind. So lassen sich maximal zehn Registrierungen in drei Stunden durchführen und maximal fünf Zertifikate pro Domain. Diese Limits sollen nach Ende der beta-Phase angepasst werden.

Hier möchte ich Euch jetzt das Skript testssl.sh (GitHub) von meinem Namensvetter Dirk Wetter ans Herz legen.

Das Skript überprüft eine SSL- oder TLS-Verbindung auf richtige Konfiguration und auf Sicherheitslücken. Aufruf geht ganz leicht mit (beispielsweise):
./testssl.sh https://d5e.org/

Entstehung des Linkdumps ...

Mittlerweile bin ich wieder mehrfach darauf angesprochen worden, wie mein Linkdump entsteht, den ich jeden Freitag veröffentliche. Ihr habt es nicht anders gewollt ... ;-)

Die folgenden Softwarekomponenten und Dienste sind daran beteiligt:

Auf meinem Server läuft die RSS Bridge, die mir die öffentlichen Postings einiger ausgewählter Google+ und Twitter Accounts als Feed zur Verfügung stellt.

RSS-Feeds bilden die Hauptquelle meiner Informationen, alle Feeds laufen im selbst gehosteten Tiny Tiny RSS auf (wer einen Account möchte, kann sich gerne melden). Dort lese ich die Feeds meistens über das Web. Ich nutze das tt-rss-feedly-theme, weil mir das mitgelieferte nicht gefällt.

Auf dem Tablet nutze ich manchmal News+ Premium mit der Tiny Tiny RSS Extension. Damit die Synchronisation der gelesenen Nachrichten mit Tiny Tiny RSS funktioniert, muss dort noch das TT-RSS News+ plugin installiert werden.

In Tiny Tiny RSS kann man Artikel mittels "Shift-s" veröffentlichen, das mache ich für Artikel, die länger sind und, die ich später lesen möchte (Basis für den Linkdump). In der News+ App kann man Artikel nur markieren, das entspricht "s" in Tiny Tiny RSS, die so markierten Artikel bearbeite ich in der Webansicht mit "s" und dann "Shift-s" nach, damit sie veröffentlicht werden.

Veröffentlichte Artikel landen in Tiny Tiny RSS in einem Feed, die URL findet man unter "Aktionen/ Einstellungen/ Feeds/ Veröffentlichte und geteilte Artikel / erzeugte Feeds", dann auf "Zeige URL an".

Diesen Feed stecke ich (noch) in If this then that und lasse die Einträge an Pinboard weiterleiten und mit dem Tag "2do" versehen. Das "noch" bezieht sich darauf, dass ich die Funktionalität gerne durch ein selbst geschriebenes Python-Skript ablösen möchte (ein externer Dienst weniger).

Favorisierte Tweets aus Twitter landen ebenfalls in Pinboard, allerdings ohne weiteres externes Tool.

Die Links in Pinboard schaue ich durch und bei dem, was auf die Leseliste soll, suche ich nach Druckversionen der Onlineartikel, nutze den entsprechenden Link zur Druckseite - der Orginallink wandert in das description-Feld - und gebe den Tag "crofflr". Für Pinboard gibt es neben vielen anderen auch Pindroid für Android und eine Erweiterung für Firefox.

Crofflr ist ein Dienst, der (konfigurierbar) einmal wöchentlich - bei mir Freitagmorgen um 5:00 Uhr - alle ungelesenen Pinboard-Links mit dem Tag "crofflr" liest und aus den beteiligten Seiten ein epub baut und in der Dropbox ablegt (ein guter Grund Dropbox für nicht sicherheitsrelevante Daten weiter zu nutzen). Crofflr kann übrigens auch andere Dienste, wie beispielsweise Pocket, Longform.org, Longreads oder The Feature anzapfen. Als ich noch den Kindle benutzt habe, habe ich mir statt der epubs die entsprechenden Mobipocket-Dateien für den Kindle erzeugen und per E-Mail zusenden lassen.

Crofflr sorgt auch dafür, dass die für das epub bzw. mobi benutzten Links auf gelesen gesetzt werden. Die Links, die nicht verabreitet werden konnten, bleiben auf ungelesen stehen. Nach dem Crofflr-Lauf vergebe ich für alle "crofflr" etikettierten Links das Tag "linkdump" und lösche den Tag "crofflr".

Auf dem Tablet benutze ich Moon+ Reader Pro als Anwendung zum Lesen.

Spätestens am Donnerstag oder nach Lektüre des epubs schaue ich mir alle "linkdump"-Links in Pinboard an und lösche die, die ich nicht veröffentlichen möchte, passe die Beschreibung und/oder die URL bei Links an, die veröffentlicht werden sollen. Artikel, die ich nicht geschafft habe, bekommen wieder den Link "crofflr" und werden auf ungelesen gesetzt, so dass sie am Freitag nochmals auf dem Tablet landen.

Ein kleines Bashskript liest alle mit "linkdump" bezeichneten Links und die Ausgabe dient als Basis für den Linkdump, der am Freitag erscheint.

#!/bin/bash

token="ddeimeke:MEINTOKEN"
wget_option="--no-check-certificate --quiet -O -"

echo
date +"Linkdump %V/%G ..."
echo

wget ${wget_option} "https://api.pinboard.in/v1/posts/all?auth_token=${token}&tag=linkdump" \
    | awk '/^<post href/ {print}' \
    | sed 's/.*href=\("[^"]*"\).*description="\([^"]*\)".*/<a href=\1>\2<\/a>\n/'


Die mit "linkdump" bezeichneten Artikel lösche ich, wenn der Artikel in Serendipity gespeichert wurde.

Das liest sich aufgrund der Länge vermutlich viel komplizierter als es ist.

Was mir nicht gefällt, ist, dass so viele verschiedene Dienste beteiligt sind, das nervt.

Zum Thema "Kostenloskultur bei Android Nutzern": News+ Premium und Moon+ Reader Pro kosten Geld, Pinboard und Crofflr ebenfalls.

Serendipity 2.0.2 ...

serendipity Vergangenen Freitag ist die Version 2.0.2 des "besten Blogs der Welt" erschienen.

Das Release adressiert drei Sicherheitsprobleme, die dankenswerterweise von der Firma Curesec GmbH bzw. deren Mitarbeiter Tim Coen gefunden wurde. Vielen Dank dafür!

Update funktioniert - eigentlich wie immer - durch "Überkopieren" und Aufrufen der URL.

Zehnter Bloggeburtstag ...

Wow, zehn Jahre ist es schon her, dass dieses Blogposting meinen Einstieg in das Bloggerleben mit "Dirks Logbuch - Die Chronik des schleichenden Wahnsinns ..." einläutete. (Ja, die drei Punkte am Ende jeder Überschrift haben schon viele Leute in den Wahnsinn getrieben und viele URL-Parser entblösst).

Wenn Ihr direkt zur Umfrage mit Gewinnspiel wollt, müsst Ihr an das Ende dieser Seite springen.

Eher zufällig kann man am 25. Mai auch noch folgende Events feiern (private Geburtstage gelöscht):


$ perl /home/dirk/workspace/daterem.git/daterem.pl 25.05.2015
Mo, 25.05.2015 Pfingstmontag
Mo, 25.05.2015 Towel Day, year 2001, age 14 years
Mo, 25.05.2015 Geek Pride Day, year 2006, age 9 years
Mo, 25.05.2015 Nerd Pride Day, year 2006, age 9 years
Mo, 25.05.2015 Star Wars Premiere, year 1977, age 38 years
Mo, 25.05.2015 Dirks Logbuch, started 2005, age 10 years


Wie Ihr sehen könnt, hat man interessanterweise am ersten Bloggeburtstag auch zwei neue "Gedenktage" eingeführt. :-)

(Das Skript daterem.pl ist Open-Source-Software und unter anderem auf GitHub zu finden).

Puh, was soll man zum zehnten Bloggeburtstag schreiben?

Eine Zeit lang habe ich es wirklich geschafft, einen "Artikel" (oder eher "Schnippsel") pro Tag zu veröffentlichen. Die Postings hatten mal mehr und mal weniger Tiefgang, waren aber immer authentisch. Ich habe Blogverzeichnisse kommen und gehen sehen, war bei einigen angemeldet und habe mich mittlerweile aktiv daraus zurückgezogen.

Aber zwei Dinge möchte ich gerne positiv festhalten:

  1. Ich habe über dieses Blog viele Menschen kennengelernt, die mich ein Stück meines Weges begleitet haben. Danke Euch allen! Hier wurde schon immer viel kommentiert und ich hoffe, das bleibt auch so.
  2. Wenn man Durchhaltevermögen hat, dann lohnt sich das. Es gibt viel Anerkennung und "Ruhm und Ehre", aber leider - oder viel mehr "zum Glück" - kein Geld. Ich fürchte unter fianziellen Aspekten leidet die Authentizität.


Es ist sehr spannend wie vielen "tote Pferden" man im Laufe von zehn Jahren begegnet und wie viel tot gesagt wird und dennoch weiterlebt. Vor zehn Jahren war man mit einem Blog noch eher ein Exot und heute wird postuliert, dass Blogs keine Zukunft haben.

Das Blog ist - auch wenn ich den familiären Anteil sehr gering halte - ein Spiegel meiner eigenen Entwicklung der letzten zehn Jahre. Ich hoffe, dass ich noch ein paar Jahre weitermachen kann.

Und - um dem vorweg zu greifen - ich erhebe keinen Anspruch darauf, dass meine Artikel irgendwie journalistisch wertvoll sind. Wenn es einige Menschen gibt, die sie interessieren und die den einen oder anderen Tipp mitnehmen können oder besser noch, mit mir diskutieren wollen, dann bin ich glücklich.

Das Blog ist ein Kommunikationsmedium: Eines von vielen! (Aber ein beständigeres als viele Netzwerke, die gekommen und gegangen sind).

Vielleicht ist dieses Blog für manche ein Serendipity, ich würde mich sehr darüber freuen.
Der Begriff Serendipität (englisch serendipity), gelegentlich auch Serendipity-Prinzip oder Serendipitätsprinzip, bezeichnet eine zufällige Beobachtung von etwas ursprünglich nicht Gesuchtem, das sich als neue und überraschende Entdeckung erweist.


Zu Serendipity passt auch, dass das oder auch "s9y" der Name der Blogsoftware ist, die ich seit den ersten Tagen verwende und die mich nie im Stich gelassen hat. Vielen Dank an das Entwicklerteam rund um Garvin Hicking!

Ausgewählte Daten aus zehn Jahren Dirks Logbuch:

Erster Eintrag
Mittwoch, 25. Mai 2005 07:05
Letzter Eintrag
Montag, 25. Mai 2015 00:05
Insgesamt verfasste Artikel
3504 Artikel
Erhaltene Kommentare
16649 Kommentare
Durchschnittliche Kommentare pro Artikel
4.75 Kommentare/Artikel
Durchschnittliche Trackbacks pro Artikel
0.43 Trackbacks/Artikel
Durchschnittliche Artikel pro Tag
0.96 Artikel/Tag
Durchschnittliche Artikel pro Woche
6.72 Artikel/Woche
Durchschnittliche Artikel pro Monat
29.75 Artikel/Monat
Menge der geschriebenen Zeichen
3493929 Zeichen
Zeichen pro Artikel
997.41 Zeichen/Artikel

Top kommentierte Artikel
Unity ... - 107 Kommentare
Bootzeit ... - 105 Kommentare
Umfrage: Vorteile von Windows ... - 104 Kommentare

Aber jetzt endlich zur Umfrage.

Vor einigen Wochen habe ich ein E-Book bei Open Source Press gekauft und war mit dem Format nicht so ganz einverstanden. Es ist eine PDF-Datei (das finde ich in Ordnung), die aber ein viel zu kleines Seitenformat aufweist und auf dem Tablet würde ich gerne die PDFs in einem A4-ähnlichen Format lesen.

Nun, wir leben in einer digitalen Welt und ich habe das einmal als Feedback zurückgegeben. Als Antwort bekam ich, dass der Verlag davon ausgehen würde, dass dieser Titel eher auf Mobiltelefonen gelesen würde und da wäre das Format passend. Dem konnte ich ganz und gar nicht zustimmen und habe mein Nutzungsverhalten bezogen auf E-Books erklärt.

Da ich naturgemäss nicht der durchschnittliche Nutzer bin, war ich neugierig, wie der Nutzen von E-Books wohl aussieht und habe angekündigt, aus Neugierde eine Umfrage daraus zu machen. Dr. Markus Wirtz, der Verlagsleiter, war sofort "Feuer und Flamme" und schlug vor, dass ich E-Books aus seinem Verlag verlosen könnte.

Das passt natürlich wunderbar zum zehnten Bloggeburtstag.

Ich stimmte also zu und bat Markus, mir Fragen zu schicken, die ihn auch interessierten. Damit habe ich einige Fragen um neue Antwortmöglickeiten erweitert und die zwei zusätzlichen Fragen noch aufgenommen.

Herausgekommen ist diese Umfrage zur E-Book-Nutzung. Mitmachen darf jeder, der möchte. Diejenigen, die ihre E-Mail-Adresse angeben, nehmen an der Verlosung teil. Ausgenommen sind nur Familienmitglieder und Mitarbeiter des Verlages, die zwei teilnehmen dürfen (und sollen), aber nichts gewinnen können.

Ich hoste die Umfrage auf meinem eigenen Server und habe alle Anonymisierungsoptionen eingeschaltet, einzig ein Cookie wird gesetzt, damit man nicht irrtümlich mit verschiedenen Mailadressen teilnimmt (ja, ich weiss, dass Ihr wisst, wie man das umgeht).

Die Umfrage läuft bis Ende Juni und die Gewinner und die Ergebnisse der Umfrage werden Anfang Juli bekannt gegeben. (Sie bekommen eine E-Mail und nach erfolgter Rückantwort wird der Vorname und der erste Buchstabe des Nachnamens veröffentlicht).

Gewinnen kann man einen der folgenden Titel aus dem aktuellen Programm von Open Source Press. Der erste Gewinner darf als erster aus den Titeln auswählen, der zweite Gewinner als zweiter, .. der zehnte Platz muss leider den Titel nehmen, der übrig bleibt.

Umfrage zur E-Book-Nutzung



Ach, Abschlussfrage: Ich habe zwischenzeitlich mal mit dem Gedanken gespielt, ausgewählte Blogartikel als E-Book zu veröffentlichen. Gibt es jemanden, der daran Interesse hätte?