Ich bin ja faul. Dennoch möchte ich ein gewisses Maß an Qualität vorhalten. Damit das geht, muss man sich Wege der Vereinfachung aussuchen. Im Falle von WLAN kann und will man vielleicht nicht auf eine Enterprise Infrastruktur ausweichen - daher sucht man sich komplexe und lange Kennwörter aus. Diese aber auf einem Smartphone oder Tablet inzutippen macht keinen Spaß. Die Gefahr ist Groß das man hier einen unsicheren Kompromiss eingeht.
Das muss aber nicht sein, wenn man seinen WLAN Zugang als QR-Code verpackt. Den können die neueren Geräte nämlich alle lesen und interpretieren. Auf diesem Weg ist die Einrichtung ein Kinderspiel.
Dazu braucht es auf dem Rechner das Softwarepaket qrencode - welches in den meisten Repos enthalten ist. Anschließend kann man seinen Zugang wie folgt einfach als Bild ablegen:
qrencode -o wifi.png "WIFI:T:WPA;S:<SSID>;P:<PASSWORD>;;"
So erhält man eine Datei wifi.png welche man sich ausdrucken und auf seinen Router kleben kann.
So mag ich das.
Quellen und Links:
Mir gehen ja hin und wieder gewisse Tatsachen auf den Zeiger. Zum Beispiel unterschiedliche Zeiten auf Serversystemen. Daher hab ich mir folgenden Snippet zurecht gelegt, damit ich einheitlich mal alles richtig einstellen kann. Ausgetauscht werden muss lediglich der NTP-Server - sofern denn einer im Netzwerk bekannt ist. Und natürlich die Zeit selbst.
echo "NTP=0.de.pool.ntp.org 1.de.pool.ntp.org 2.de.pool.ntp.org" >>/etc/systemd/timesyncd.conf
timedatectl set-ntp false
timedatectl set-time 12:45:30
timedatectl set-local-rtc 0
timedatectl set-ntp true
timedatectl
Ich habe mir in meinem Proxmox-Cluster drei Knoten abgestellt, auf denen ich gern ein Backup der laufenden VMs erstellen möchte. Da mir hier die Performance nicht ganz so wichtig ist, ich aber gleichzeitig maximale Skalierbarkeit und Verfügbarkeit haben möchte, ist der Schritt zu Ceph eigentlich ein logischer.
Dummerweise hat Proxmox dieses Szenario nicht so interpretiert wie ich es gern hätte, sodass sie nur vorsehen ganze Festplatten für Ceph zu nutzen. Mein Setup ist aber viel cooler, denn ich habe auf dem Server, welcher 8 HDDs bestitzt ein ZFS Raid1 über ALLE Plattengespannt, sodass absolut jede Festplatte ausfallen kann ohne das das System kaputt geht. Dazu nutze ich allerdings nur 40GB als Partition - der Rest kann als Backup Platz genutzt werden.
Dafür muss man aber ein wenig Handarbeit leisten.
Auf allen Hosts muss Ceph installiert werden, damit sie es nutzten können.
pveceph install
Anschließend kann man seinen Ceph Cluster einfach erstellen - ich nutzte als Netzwerk das ohnehin schon vorhandene Backup Netzwerk:
pveceph init --network 192.168.199.0/24
Nun muss man sich die ClusterID notieren: grep -i fsid /etc/pve/ceph.conf
Damit Ceph funktionieren kann, braucht es mindestens einen, idealerweise aber mehrere Monitore. Ich nutze dazu meine 3 Backup Knoten und initialisiere sie als Monitor
pveceph createmon
Nun wird es ernst. Ich bin ein fauler Admin. Daher habe ist bei mir möglichst viel einheitlich, damit ich automatisieren kann. In meinem Fall wird auf jeder Festplatte eine 4. Partition erstellt und für Ceph genutzt. Ich benutzt noch eine Paket, das zusätzlich installiert werden muss um eindeutige UUIDs zu erstellen:
apt-get install uuid-runtime
Anschließend kann es losgehen mit der Vorbereitung
PARTITION=4
PTYPE=4FBD7E29-9D25-41B8-AFD0-062C0CEFF05D
CLUSTERID=
for i in a b c d e f g h
do
OSD_UUID=$(uuidgen -r)
sgdisk -d $PARTITION /dev/sd$i
sgdisk --largest-new=$PARTITION --change-name="$PARTITION:ceph data" --partition-guid=$PARTITION:$OSD_UUID --typecode=$PARTITION:$PTYPE -- /dev/sd$i
done
partprobe
for i in a b c d e f g h
do
OSD_UUID=$(uuidgen -r)
ceph-disk prepare --filestore --cluster ceph --cluster-uuid $CLUSTERID --osd-uuid $OSD_UUID --fs-type xfs /dev/sd$i$PARTITION
ceph-disk activate /dev/sd$i$PARTITION
done
Dieser Schritt dauert ein wenig. Man sollte allerdings zusehen können, die die OSDs im Proxmox auftauchen. Zur Sicherheit würde ich einen Reboot des Servers ausführen. Kontrollieren kann man übrigens auch über die CLI
ceph osd tree
ceph status
Quellen und Links: