logbuch.page 15 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179180181182183184185186187188189190191192193194195196197198199200201202203204205206207208209210211212213214215216217218219220221222223224225226227228229230231232233234235236237238239240241242243244245246247248249250251252253254255256257258259260261262263264265266267268269270271272273274275276277278279280281282283284285286287288289290291292293294295296297298299
  1. ---
  2. format: markdown
  3. title: Admin Logbuch
  4. toc: no
  5. ...
  6. # Frank/Michael 05.02.2024
  7. * Zusatzsoftware, manuell zu installieren:
  8. - fail2ban, um unerwünschte ssh-Versuche zu blocken
  9. - screen, um eine Session über einen Crash hinaus aufrecht zu erhalten
  10. - needrestart, um nach Upgrade zu sehen, ob ein Rebott notwendig ist
  11. - chrony, besserer NTP-Daemon
  12. - bash-completion, um den Tab im CLI besser zu verwenden
  13. - console-data, um eine dt. Tastatur einzurichten
  14. # Michael 01.02.24
  15. * für die VMs koerne (Debian 11.4) auf hypervisor und snng-dus01 (Debian 12) auf blech02 die Passwortanmeldung abgeschaltet und vorher
  16. natürlich keys übertragen. root-Anmeldung ist auch abgestellt.
  17. Das Debian auf snng-dus01 ist ohne Grafik-Installation und es fehlen noch einige Sachen wie fail2ban usw.
  18. Das Debian auf koerne muss noch auf 12 gebracht werden.
  19. # Frank 23.01.24
  20. * für Hypervisor01 neuen vzdump Sicherungsjob erstellt auf andere PLatte.
  21. Probelauf am 27.01.
  22. Nachtrag 01.02.24:
  23. erfolgreich auf local2, Email -Benachrichtigung nur wenn es Probleme gab
  24. # Michael 17.01.24(!)
  25. * für snng-dtm01+02 die Datei sources-list auf
  26. deb http://archive.debian.org/debian/ jessie main
  27. deb-src http://archive.debian.org/debian/ jessie main
  28. umgestellt.
  29. * Dann bash-completion installiert und console-data, jetzt gibt es eine qwertz-Tastatur
  30. # Michael 17.01.23
  31. * Aus einem Image-Backup von sn-ber01 die VM sn-dtm03.ffdo.net auf blech02 erstellt.
  32. * Auf blech02 einen DNS-Server nordstadt2.ffdo.net erstellt.
  33. * dtm03 in die Infrastruktur ffdo und wila eingebaut
  34. * Tunnel zwischen dtm03 und ber01 erstellt für OSPF, Filter eingebaut (Johannes), Tunnel zwischen dtm01 und dtm02 und zu dtm03 erstellt. (geplant)
  35. * batman überarbeitet auf dtm03, Ausleitung nicht mehr über FF-Rheinland, sondern über AS35675 (FFDO) und AS31371 (wila). (geplant)
  36. # Cajus 09.04.22
  37. * [Karten Server NG](https://map-ng.ffdo.de) angepasst, dass die Knoten Statistiken jetzt von grafana.ffdo.de statt grafana.freifunk-dortmund.de geladen werden. Das sollte das Nachladen etwas zuverlässiger machen und auch bei Browser die Drittanbieter Cookies ablehnen funktionieren.
  38. * [Karten Server NG](https://map-ng.ffdo.de) angepasst, dass auf der Domänen Status Seite wieder etwas unter Punkt 'Status-Monitor' (ganz am Ende) zu sehen ist: [System Health](https://grafana.ffdo.de/d-solo/000000014/ff-do-home?theme=light&panelId=25)
  39. * [Karten Server NG](https://map-ng.ffdo.de) angepasst, dass eine möglicherweise nutzbare [Named DNS Zone Datei](https://map-ng.ffdo.de/data/nodes.zone) für die Knoten erzeugt wird : https://map-ng.ffdo.de/data/nodes.zone
  40. # Cajus 23.02.22
  41. * Der Grafana [Knotenübersicht-ng Seite](https://grafana.ffdo.de/d/000000026/knotenubersicht-ng?refresh=5m&orgId=1&from=1645581367018&to=1645602967019&var-site_list=All) zusätzliche Panels für eingesetzte Firmware Versionen und Hardwaremodelle spendiert.
  42. * Schmutzig & schnell Links der nodes2grafana Dashboards angepasst an laufende Grafana Version:
  43. In den Files unter "/var/lib/grafana/dashboards/" die Links "/dashboard/file/FF-DO-blah-blub.json" durch "/dashboard/db/ff-do-blah-blub" ersetzt.
  44. TODO: Wer Zeit und Lust hat, kann die Änderungen ins [nodes2grafana Projekt](https://git.ffdo.de/altlast/nodes2grafana) einmassieren.
  45. # Cajus 30.01.22
  46. Neustart des Supernode Servers sn-ber01.ffdo.de
  47. Grund Anzahl der verbunden Nodes war seit lägerem auf 2 gesunken, bei fast 0 Netzwerk Traffic und seit Monaten war die CPU Anzeige in grafana ungesund lila: [sn-ber01 grafana Seite](https://grafana.ffdo.de/d/000000011/supernodes-exporter-full?var-node=sn-ber01.ffdo.de&refresh=1m&orgId=1&from=now-30d&to=now)
  48. # Michael 12.10.21
  49. Auf 31.172.33.30 Proxmoxvon Version 6.3 auf 6.4 upgedatet. Kein reboot notwendig.
  50. # Stefan 13.07. - 14.07.21
  51. Das Zertifikat für https://map-ng.ffdo.de/map/ ist abgelaufen, das für grafana.ffdo.de läuft in Kürze ab
  52. Das acmetool ist auf dem alten Debian nicht mehr supportet. Daher habe ich jetzt das acme.sh skript verwendet. Das hat quasi (fast) keine Abhänigkeiten. Leider landet es in /root/.acme.sh/ wo solche Skripte sicher nicht hingehören. Man kann das zwar ändern andern dann sind updates von acme.sh selbst wieder etwas anders. Daher hab ich die default Einstellung so gelassen wie sie war.
  53. ### Schritt 1: acme.sh installieren
  54. "socat" ist die einzige Abhänigkeit die wohl manches einfacher macht; daher wird das vorher installiert
  55. apt-get install socat
  56. Als nächstes laden wir das install-script runter und führen es direkt mit root rechten aus (Solche Konstrukte sind natürlich sehr bequem aber man muss sich bewusst sein ein fremdes Skript mit root rechten auf dem Server auszuführen; vom Sicherheitsaspekt her ist es sinnvoll so ein Skript erst runterzuladen und vor dem ausführen mal reinzuschauen)
  57. curl https://get.acme.sh | sh
  58. ### Schritt 2: Vorbereitungen für LEs Challenge
  59. Ordner für die Zertifikate anlegen:
  60. mkdir /var/www/letsencrypt
  61. In allen vier virtuellen Hosts müssen wir das acmetool rauswerfen und acme.sh einfügen. Vorher sieht die Config zB. wie folgt aus:
  62. location /.well-known/acme-challenge/ {
  63. include proxy_params;
  64. proxy_pass http://127.0.0.1:402;
  65. }
  66. Nachher zB.:
  67. location /.well-known/acme-challenge {
  68. root /var/www/letsencrypt;
  69. try_files $uri $uri/ =404;
  70. }
  71. Diese Änderung wird in alle der folgenden conf-Dateien gemacht:
  72. nano /etc/nginx/sites-available/prometheus_unsecure.conf
  73. nano /etc/nginx/sites-available/grafana_unsecure.conf
  74. nano /etc/nginx/sites-available/wiki_unsecure.conf
  75. nano /etc/nginx/sites-available/gogs_unsecure.conf
  76. Dann einmal nginx neu starten damit die obigen Einstellungen aktiv werden
  77. systemctl reload nginx
  78. ### Schritt 3: Zertifikate holen und aktivieren
  79. Jetzt können wir die Zertifkate abholen/generieren
  80. /root/.acme.sh/acme.sh --issue -d prometheus.ffdo.de -w /var/www/letsencrypt --server letsencrypt --reloadcmd "systemctl restart nginx.service"
  81. /root/.acme.sh/acme.sh --issue -d wiki.ffdo.de -w /var/www/letsencrypt --server letsencrypt --reloadcmd "systemctl restart nginx.service"
  82. /root/.acme.sh/acme.sh --issue -d git.ffdo.de -w /var/www/letsencrypt --server letsencrypt --reloadcmd "systemctl restart nginx.service"
  83. /root/.acme.sh/acme.sh --issue -d grafana.ffdo.de -d grafana.freifunk-dortmund.de -w /var/www/letsencrypt --server letsencrypt --reloadcmd "systemctl restart nginx.service"
  84. Jetzt in den HTTPS configs die neuen Zertifkatspfade eintragen. Vorher zB.:
  85. ssl_certificate /var/lib/acme/live/grafana.ffdo.de/fullchain;
  86. ssl_certificate_key /var/lib/acme/live/grafana.ffdo.de/privkey;
  87. Nachher zB.:
  88. ssl_certificate /root/.acme.sh/grafana.ffdo.de/fullchain.cer;
  89. ssl_certificate_key /root/.acme.sh/grafana.ffdo.de/grafana.ffdo.de.key;
  90. Das ganze wieder in allen Configs für die Virtuellen Hosts:
  91. nano /etc/nginx/sites-available/gogs.conf
  92. nano /etc/nginx/sites-available/grafana.conf
  93. nano /etc/nginx/sites-available/wiki.conf
  94. nano /etc/nginx/sites-available/prometheus.conf
  95. Dann wieder nginx neustarten:
  96. systemctl restart nginx
  97. Geht nicht! Warum?
  98. journalctl -xn
  99. Ausgabe von journalctl:
  100. Jul 13 16:36:46 services nginx[2264]:
  101. nginx: [emerg] SSL_CTX_use_PrivateKey_file("/root/.acme.sh/git.ffdo.de/git.ffdo.de.key.")
  102. failed (SSL: error:02001002:system library:fopen:No such file
  103. Man beachte den Dateinamen für den private key. Da ist am Ende ein "." zuviel. Also Editor starten und den überschüssigen Punkt rauswerfen:
  104. nano gogs.conf
  105. nginx nochmal neustarten damit die Zertifikate geladen werden
  106. systemctl restart nginx
  107. ### Schritt 4: Renew automatisieren
  108. Automatischen renew einmal erzwungen laufen lassen (zum testen ob alles geht):
  109. /root/.acme.sh/acme.sh --cron --home /root/.acme.sh --renew-hook "systemctl reload nginx" --force
  110. Keine Fehler beim Testlauf, also noch Cronjob anlegen
  111. crontab -e
  112. Feststellen, dass das install script schon ein entsprechenden eintrag gemacht hat
  113. 23 0 * * * "/root/.acme.sh"/acme.sh --cron --home "/root/.acme.sh" > /dev/null
  114. Fertig.
  115. # Cajus 12.05.21
  116. - Server services: security fixes eingespielt für: apt, e2fsprogs, file, git, passwd, login, sudo, ssh-client, ssh-server
  117. - [Grafana](https://grafana.ffdo.de/): 'aktualisiert' auf Version [5.4.5](https://grafana.com/blog/2019/08/29/grafana-5.4.5-and-6.3.4-released-with-important-security-fix/)
  118. - ~~die Dashboards aus /var/lib/grafana/dashboards mussten von Hand importiert werden.
  119. Das Verzeichnis scheint nicht mehr automatisch gelesen zu werden.~~
  120. - die Dashboards aus /var/lib/grafana/dashboards werden wieder importiert. :)
  121. Eine Datei /etc/grafana/provisioning/dashboards/ffdo.yaml anlegen mit
  122. #
  123. ## config file version
  124. apiVersion: 1
  125. providers:
  126. - name: 'default'
  127. orgId: 1
  128. folder: ''
  129. type: file
  130. options:
  131. path: /var/lib/grafana/dashboards
  132. #
  133. # Cajus 11.05.21
  134. - [Grafana](https://grafana.ffdo.de/): 'aktualisiert' auf Version [4.5.6](https://community.grafana.com/t/grafana-5-3-3-and-4-6-5-security-update/11961)
  135. # Cajus 13.04.21
  136. - [Grafana](https://grafana.ffdo.de/): fixed NG Router top10 Chart auf [NutzerInnenübersicht NG](https://grafana.ffdo.de/dashboard/db/nutzerinnenubersicht-ng?refresh=1m&orgId=1)
  137. # Cajus 31.03.21
  138. - Proxmox Sicherheitsupdates eingespielt: curl (7.64.0-4+deb10u2) und openssl (1.1.1d-0+deb10u6) inkl. libs.
  139. # Cajus 22.03.21
  140. - Git Server Update: Update von [gogs](https://github.com/gogs/gogs) alias [git.ffdo.de](https://git.ffdo.de) auf Version [0.11.91](https://github.com/gogs/gogs/releases/tag/v0.11.91). Siehe [Anleitung](https://gogs.io/docs/upgrade/upgrade_from_binary). Grund war [Extremely high CPU usage](https://github.com/gogs/gogs/issues/4475)
  141. # Cajus 12.03.21
  142. - Update des [hopglass Servers](https://github.com/hopglass/hopglass-server) von der [neuen Karte](https://map-ng.ffdo.de/) auf Revision [93e8df1c45c5399ec1b630e5f1efc5af37e431b8](https://github.com/hopglass/hopglass-server/commit/93e8df1c45c5399ec1b630e5f1efc5af37e431b8):
  143. - [Das](https://github.com/hopglass/hopglass-server/commit/f0e2c0a58b8947176f7c87680c2bcb27f302f14c) war Vorraussetzung für zukünftige Router Firmware basierend auf [gluon 2019](https://gluon.readthedocs.io/en/latest/releases/v2019.1.html) oder aktueller.
  144. - Mit der Aktualisierung werden auf der [Karte](https://map-ng.ffdo.de/map/) keine Supernodes oder Karten Server mehr gezeigt. Das macht die Karte als Graphen auch etwas übersichtlicher.
  145. # Cajus 06.03.21
  146. - Supernodes sn-dtm01 und sn-dtm02 Anzahl der CPU Kernen auf 4 reduziert. Das entspricht der Zahl vor dem Umzug auf die neue Hardware.
  147. # Cajus 28.02.21
  148. - Proxmox Sicherheitsupdates eingespielt: libisccfg163:amd64 (1:9.11.5.P4+dfsg-5.1+deb10u2, 1:9.11.5.P4+dfsg-5.1+deb10u3), libldap-2.4-2:amd64 (2.4.47+dfsg-3+deb10u5, 2.4.47+dfsg-3+deb10u6), openssl:amd64 (1.1.1d-0+deb10u4, 1.1.1d-0+deb10u5), zstd:amd64 (1.3.8+dfsg-3+deb10u1, 1.3.8+dfsg-3+deb10u2), libirs161:amd64 (1:9.11.5.P4+dfsg-5.1+deb10u2, 1:9.11.5.P4+dfsg-5.1+deb10u3), bind9-host:amd64 (1:9.11.5.P4+dfsg-5.1+deb10u2, 1:9.11.5.P4+dfsg-5.1+deb10u3), dnsutils:amd64 (1:9.11.5.P4+dfsg-5.1+deb10u2, 1:9.11.5.P4+dfsg-5.1+deb10u3), libisc-export1100:amd64 (1:9.11.5.P4+dfsg-5.1+deb10u2, 1:9.11.5.P4+dfsg-5.1+deb10u3), libisc1100:amd64 (1:9.11.5.P4+dfsg-5.1+deb10u2, 1:9.11.5.P4+dfsg-5.1+deb10u3), libldap-common:amd64 (2.4.47+dfsg-3+deb10u5, 2.4.47+dfsg-3+deb10u6), liblwres161:amd64 (1:9.11.5.P4+dfsg-5.1+deb10u2, 1:9.11.5.P4+dfsg-5.1+deb10u3), libdns-export1104:amd64 (1:9.11.5.P4+dfsg-5.1+deb10u2, 1:9.11.5.P4+dfsg-5.1+deb10u3), libzstd1:amd64 (1.3.8+dfsg-3+deb10u1, 1.3.8+dfsg-3+deb10u2), libisccc161:amd64 (1:9.11.5.P4+dfsg-5.1+deb10u2, 1:9.11.5.P4+dfsg-5.1+deb10u3), libssl1.1:amd64 (1.1.1d-0+deb10u4, 1.1.1d-0+deb10u5), libbind9-161:amd64 (1:9.11.5.P4+dfsg-5.1+deb10u2, 1:9.11.5.P4+dfsg-5.1+deb10u3), libdns1104:amd64 (1:9.11.5.P4+dfsg-5.1+deb10u2, 1:9.11.5.P4+dfsg-5.1+deb10u3)
  149. # Cajus 14.02.21
  150. - Build VM: VM Systemdisk Größe verkleinert:
  151. - Das Filesystem von build belegte nur 10GB, die VM Disk war 32GB
  152. gross. Auf 16GB verkleinert:
  153. zfs set volsize=16G rpool/data/vm-100-disk-0
  154. Obacht das kann man nur ohne Datenverlust machen, wenn das
  155. Filesystem wirklich kleiner ist als die VM Disk!!![1]
  156. - Build VM: File System vergrößert /verändert
  157. - Das Filesystem mit gparted Disk an die 16GB angepasst:
  158. - swap partition in /etc/fstab deaktiviert
  159. - gparted ISO Image als CD in die VM "eingelegt"
  160. - Bootreihenfolge angepasst: Starte von CD ROM
  161. - Nach Neustart mit gparted Disk layout geändert:
  162. - Swap Partition gelöscht
  163. - Extended Partition gelöscht.
  164. - Root Partition vergrößert.
  165. - Extended Partition angelegt
  166. - Swap Partiton angelegt (nur etwas größer)
  167. - Neustart ohne CDROM und alter Boot Reihenfolge
  168. - neue UUID der neuen swap Partition in fstab eingetragen
  169. - neue UUID der neuen swap Partition in
  170. /etc/initramfs-tools/conf.d/resume eingetragen [2]. Ohne sucht die VM 30
  171. Sekvergeblich nach der alten swap Partition.
  172. - Build VM: Backup gelöscht. Hatte ich als Sicherheit angelegt.
  173. - Ticket VM: Snapshot angelegt.
  174. - Ticket VM: Systemupgrade von Debian 8 auf Debian 9.
  175. - Ticket sytem: Mailaccount (info@freifunk-dortmund.de) auf "Imap + SSL"
  176. gestellt und richtigen Port (993) eingetragen: Ticket System
  177. funktioniert wieder. \o/
  178. - Ticket VM: Sytems Disk Größe auf 12GB reduziert:
  179. zfs set volsize=12G rpool/data/vm-102-disk-0
  180. - Ticket VM: CPUs Anzahl auf 8 reduziert. Die VM hat nicht viel zu tun.
  181. - Ticket VM: prometheus nodeexport installiert
  182. - Grafana: nodeexport von ticket aufgenommen [3]
  183. - Grafana: Home Dashboard für ticket angepasst
  184. - Grafana: Neues Dashboard für Gruppen in der neuen Struktur erstellt. [4]
  185. - portscan auf build und ticket ausgeführt, keine unerwarteten Ports offen.
  186. - hypervisor01 proxmox: aptitude installiert
  187. - hypervisor01 proxmox: sicherheitskritische Updates via aptitude
  188. eingespielt.
  189. Evtl kann man die RAM Zuteilung von ticket reduzieren. Bisher nutzt das
  190. System nicht mal 2GB von den 8GB. Aber man hat's ja <3
  191. # Cajus 10.02.21
  192. - Proxmox updates eingespielt.
  193. - ich habe gestern die build VM auf debian 9 aktualisiert.
  194. - die zweite Platte ('/data') habe ich auf 160GB vergrößert.
  195. - speedtest "Firmware bauen" gefahren. :))))) <3
  196. - die VM habe ich in proxmox umbenannt in "build" (war "build-alt")
  197. - bei der VM ticket habe ich die Partition und das Filesystem /data auf
  198. die neue Größe der Disk angepasst.
  199. - die VM habe ich in proxmox umbenannt in "images" (war "images-alt")
  200. - bei der VM images habe ich die Partition und das Filesystem /data auf
  201. die neue Größe der Disk angepasst (jetzt 305GB)
  202. - Fast alle VMs das 'Start at boot' aktiviert.
  203. - Gparted ISO images hochgeladen.
  204. TODOs für die nächste Zeit
  205. - VM ticket: das Debian OS aktualisieren in der Hoffnung, dass das
  206. Maillesen dann wieder funktioniert.
  207. - VM ticket: CPU auf 4 Cores reduzieren.
  208. - aktuell sind die system Disks der VMs 32GB groß, aber das Filesystem
  209. nutzt nur 10GB: Root Partition, Extended Partition mit Swap Partition.
  210. Validieren: Entweder die Disks verkleinern oder die Partitionen vergrößern.