Normale Ansicht

Mozilla beendet 32-Bit-Support für Linux: Firefox 145 markiert den Beginn einer neuen Ära

Von: MK
10. November 2025 um 13:32

Mozilla hat die finale Version des Firefox 145 veröffentlicht, deren offizieller Start für den 11. November 2025 geplant ist. Mit diesem Update endet die Unterstützung für 32-Bit-Systeme unter Linux, wie bereits angekündigt. Künftig werden ausschließlich 64-Bit- und ARM64-Versionen des Browsers bereitgestellt. Wie Mozilla erklärt, unterstützen die meisten modernen Linux-Distributionen 32-Bit-Systeme nicht mehr aktiv. Die Pflege […]

Der Beitrag Mozilla beendet 32-Bit-Support für Linux: Firefox 145 markiert den Beginn einer neuen Ära erschien zuerst auf fosstopia.

Dockers nft-Inkompatibilität wird zunehmend zum Ärgernis

10. November 2025 um 12:49

Ca. seit 2020 kommt nftables (Kommando nft) per Default als Firewall-Backend unter Linux zum Einsatz. Manche Distributionen machten den Schritt noch früher, andere folgten ein, zwei Jahre später. Aber mittlerweile verwenden praktisch alle Linux-Distributionen nftables.

Alte Firewall-Scripts mit iptables funktionieren dank einer Kompatibilitätsschicht zum Glück größtenteils weiterhin. Viele wichtige Firewall-Tools und -Anwendungen (von firewalld über fail2ban bis hin zu den libvirt-Bibliotheken) brauchen diese Komaptibilitätsschicht aber nicht mehr, sondern wurden auf nftables umgestellt.

Welches Programm ist säumig? Docker! Und das wird zunehmend zum Problem.

Update 11.11.2025: In naher Zukunft wird mit Engine Version 29.0 nftables als experimentelles Firewall-Backend ausgeliefert. (Aktuell gibt es den rc3, den ich aber nicht getestet habe. Meine lokalen Installationen verwenden die Engine-Version 28.5.1.) Ich habe den Artikel diesbezüglich erweitert/korrigiert. Sobald die Engine 29 ausgeliefert wird, werde ich das neue Backend ausprobieren und einen neuen Artikel verfassen.

Docker versus libvirt/virt-manager

Auf die bisher massivsten Schwierigkeiten bin ich unter Fedora >=42 und openSUSE >= 16 gestoßen: Wird zuerst Docker installiert und ausgeführt, funktioniert in virtuellen Maschinen, die mit libvirt/virt-manager gestartet werden, das NAT-Networking nicht mehr. Und es bedarf wirklich einiger Mühe, den Zusammenhang mit Docker zu erkennen. Die vorgebliche »Lösung« besteht darin, die libvirt-Firewall-Funktionen von nftables zurück auf iptables zu stellen. Eine echte Lösung wäre es, wenn Docker endlich nftables unterstützen würde.

# in der Datei /etc/libvirt/network.conf
firewall_backend = "iptables"

Danach starten Sie den libvirt-Dämon dann neu:

sudo systemctl restart libvirtd

Weitere Infos gibt es hier und hier. Die openSUSE-Release-Notes weisen ebenfalls auf das Problem hin.

Sicherheitsprobleme durch offene Ports

Weil Docker iptables verwendet, ist es mit nftables oder firewalld nicht möglich, Container mit offenen Ports nach außen hin zu blockieren. Wenn Sie also docker run -p 8080:80 machen oder in compose.yaml eine entsprechende Ports-Zeile einbauen, ist der Port 8080 nicht nur auf dem lokalen Rechner sichtbar, sondern für die ganze Welt! nftables- oder firewalld-Regeln können dagegen nichts tun!

Deswegen ist es wichtig, dass Docker-Container möglichst in internen Netzwerken miteinander kommunizieren bzw. dass offene Ports unbedingt auf localhost limitiert werden:

# Port 8080 ist nur für localhost zugänglich.
docker run -p localhost:8080:80 ...

Ihre Optionen in compose.yaml sehen so aus:

```bash
# compose.yaml
# Ziel: myservice soll mit anderem Container
# in compose.yaml über Port 8888 kommunizieren
services:
  myservice:
    image: xxx
    ports:
      # unsicher!
      # - "8888:8888"
      # besser (Port ist für localhost sichtbar)
      # - "127.0.0.1:8888:8888"
      # noch besser (Port ist nur Docker-intern offen)
      - "8888"
  otherservice:
    ...

Die sicherste Lösung besteht darin, die Container ausschließlich über ein Docker-internes Netzwerk miteinander zu verbinden (siehe backend_network im folgenden schablonenhaften Beispiel). Die Verbindung nach außen für die Ports 80 und 443 erfolgt über ein zweites Netzwerk (frontend_network). Die Angabe des drivers ist optional und verdeutlicht hier nur den Default-Netzwerktyp.

# compose.yaml
# am besten: die beiden Services myservice und
# nginx kommunizieren über das interne Netzwerk 
# miteinander
services:
  myservice:
    build: .
    ports:
      - "8888:8888"
    networks:
     - backend_network
  nginx:
    image: nginx:alpine
    ports:
      - "80:80"
      - "443:443"
    volumes:
      - ./nginx.conf:/etc/nginx/nginx.conf
      - /etc/mycerts/fullchain.pem:/etc/nginx/ssl/nginx.crt
      - /etc/mycerts/privkey.pem:/etc/nginx/ssl/nginx.key
    depends_on:
      - myservice
    networks:
      - frontend_network
      - backend_network
networks:
  # Verbindung zum Host über eine Bridge
  frontend_network:
    driver:   bridge
  # Docker-interne Kommunikation zwischen den Containern
  backend_network:
    driver:   bridge
    internal: true

Restriktive Empfehlungen

Docker hat es sich zuletzt sehr einfach gemacht. Auf https://docs.docker.com/engine/install/ubuntu/#firewall-limitations steht:

If you use ufw or firewalld to manage firewall settings, be aware that when you expose container ports using Docker, these ports bypass your firewall rules. For more information, refer to Docker and ufw.

Docker is only compatible with iptables-nft and iptables-legacy. Firewall rules created with nft are not supported on a system with Docker installed. Make sure that any firewall rulesets you use are created with iptables or ip6tables, and that you add them to the DOCKER-USER chain, see Packet filtering and firewalls.

Und https://docs.docker.com/engine/security/#docker-daemon-attack-surface gibt diese Zusammenfassung:

Finally, if you run Docker on a server, it is recommended to run exclusively Docker on the server, and move all other services within containers controlled by Docker. Of course, it is fine to keep your favorite admin tools (probably at least an SSH server), as well as existing monitoring/supervision processes, such as NRPE and collectd.

Salopp formuliert: Verwenden Sie für das Docker-Deployment ausschließlich für diesen Zweck dezidierte Server und/oder verwenden Sie bei Bedarf veraltete iptable-Firewalls. Vor fünf Jahren war dieser Standpunkt noch verständlich, aber heute geht das einfach gar nicht mehr. Die Praxis sieht ganz oft so aus, dass auf einem Server diverse »normale« Dienste laufen und zusätzlich ein, zwei Docker-Container Zusatzfunktionen zur Verfügung stellen. Sicherheitstechnisch wird dieser alltägliche Wunsch zum Alptraum.

Land in Sicht?

Bei Docker weiß man natürlich auch, dass iptables keine Zukunft hat. Laut diesem Issue sind 10 von 11 Punkte für die Umstellung von iptables auf nftables erledigt. Aber auch dann ist unklar, wie es weiter gehen soll: Natürlich ist das ein massiver Eingriff in grundlegende Docker-Funktionen. Die sollten vor einem Release ordentlich getestet werden. Einen (offiziellen) Zeitplan für den Umstieg auf nftables habe ich vergeblich gesucht.

Docker ist als Plattform-überschreitende Containerlösung für Software-Entwickler fast konkurrenzlos. Aber sobald man den Sichtwinkel auf Linux reduziert und sich womöglich auf Red-Hat-ähnliche Distributionen fokussiert, sieht die Lage anders aus: Podman ist vielleicht nicht hundertprozentig kompatibel, aber es ist mittlerweile ein sehr ausgereiftes Container-System, das mit Docker in vielerlei Hinsicht mithalten kann. Installationsprobleme entfallen, weil Podman per Default installiert ist. Firewall-Probleme entfallen auch. Und der root-less-Ansatz von Podman ist sicherheitstechnis sowieso ein großer Vorteil (auch wenn er oft zu Netzwerkeinschränkungen und Kompatibilitätsproblemen führt, vor allem bei compose-Setups).

Für mich persönlich war Docker immer die Referenz und Podman die nicht ganz perfekte Alternative. Aber die anhaltenden Firewall-Probleme lassen mich an diesem Standpunkt zweifeln. Die Firewall-Inkompatibilität ist definitiv ein gewichtiger Grund, der gegen den Einsatz der Docker Engine auf Server-Installationen spricht. Docker wäre gut beraten, iptables ENDLICH hinter sich zu lassen!

Update 11.11.2025: Als ich diesen Artikel im Oktober 2025 verfasst und im November veröffentlicht habe, ist mir entgangen, dass die Docker-Engine in der noch nicht ausgelieferten Version 29 tatsächlich bereits ein experimentelles nftables-Backend enthält!

Version 29 liegt aktuell als Release Candidate 3 vor. Ich warte mit meinen Tests, bis die Version tatsächlich ausgeliefert wird. Hier sind die Release Notes, hier die neue Dokumentationsseite. Vermutlich wird es ein, zwei weitere Releases brauchen, bis das nftables-Backend den Sprung von »experimentell« bis »stabil« schafft, aber immerhin ist jetzt ganz konkret ein Ende der Firewall-Misere in Sicht.

Quellen / Links

Das neue nftables-Backend für Docker

Trinity Desktop 14.1.5 bringt frischen Glanz für das klassische KDE Erlebnis

Von: MK
10. November 2025 um 12:46

Der Trinity Desktop Environment (TDE), Nachfolger des klassischen KDE 3.5, hat Version 14.1.5 veröffentlicht. Die neue Ausgabe richtet sich an Nutzer, die ein leichtgewichtiges, traditionelles Desktop-Erlebnis bevorzugen, ohne auf moderne Stabilität und Kompatibilität zu verzichten. Die wichtigste Neuerung betrifft den Fenstermanager TWin, der nun Tiling bei Mehrschirmkonfigurationen unterstützt. Damit lassen sich Arbeitsflächen auf mehreren Monitoren […]

Der Beitrag Trinity Desktop 14.1.5 bringt frischen Glanz für das klassische KDE Erlebnis erschien zuerst auf fosstopia.

MX Linux 25 „Infinity“: Neuer Glanz für den beliebten Debian Fork

Von: MK
10. November 2025 um 07:15

Das Team hinter MX Linux hat die neue Version 25 mit dem Namen „Infinity“ veröffentlicht. Die Distribution basiert nun auf Debian 13 „Trixie“ und bringt zahlreiche Verbesserungen für Stabilität, Leistung und Bedienkomfort. MX Linux 25 erscheint in drei Editionen: Xfce, KDE Plasma und Fluxbox. Alle Desktop-Umgebungen kommen mit aufgefrischten aber nicht mehr taufrischen Versionen. Mit […]

Der Beitrag MX Linux 25 „Infinity“: Neuer Glanz für den beliebten Debian Fork erschien zuerst auf fosstopia.

IONOS Nextcloud Workspace: Europäische Microsoft 365 Alternative startet

Von: MK
10. November 2025 um 07:00

IONOS und Nextcloud haben auf dem IONOS Summit 2025 in Berlin eine gemeinsame Plattform vorgestellt, die sich als europäische Antwort auf Microsoft 365 positioniert. Angekündigt wurde das Projekt bereits im Sommer. Der neue IONOS Nextcloud Workspace soll Unternehmen, Behörden und Organisationen eine sichere, datenschutzkonforme und vollständig souveräne Alternative für die digitale Zusammenarbeit bieten. Die Lösung basiert auf […]

Der Beitrag IONOS Nextcloud Workspace: Europäische Microsoft 365 Alternative startet erschien zuerst auf fosstopia.

Mozilla startet kostenpflichtigen Enterprise-Support für Firefox

08. November 2025 um 14:40

Mozilla hat den sogenannten „Early Access“ für sein neues kostenpflichtiges Support-Programm für Firefox im Unternehmen angekündigt.

Ab Januar 2026 wird Mozilla einen kostenpflichtigen Support für Firefox im Unternehmen anbieten. Bereits jetzt können sich Unternehmen hierfür anmelden. Dies hat Mozilla auf seinem Blog angekündigt.

Der sogenannte Enterprise Support für Firefox besteht aus den folgenden Komponenten:

  • Privater Support-Kanal: Über ein Support-System können private Tickets eröffnet werden, um Unterstützung von erfahrenen Support-Mitarbeitern zu erhalten. Probleme werden nach Schweregrad bewertet, mit festgelegten Reaktionszeiten und klaren Eskalationswegen, um eine zeitnahe Lösung zu gewährleisten.
  • Rabatte auf kundenspezifische Entwicklungen: Für Entwicklungsarbeiten an Integrationsprojekten, Kompatibilitätstests oder umgebungsspezifische Anforderungen erhalten Kunden des Enterprise-Supports 20 Prozent Rabatt. Mit kundenspezifischen Entwicklungen als zusätzliche bezahlte Erweiterung für die Support-Pläne kann Firefox an die Infrastruktur und Updates von Drittanbietern angepasst werden.
  • Strategische Zusammenarbeit: Kunden des Enterprise Supports erhalten frühzeitig Einblicke in bevorstehende Entwicklungen und können so dabei helfen, die Enterprise-Roadmap durch Zusammenarbeit mit Mozillas Team zu gestalten.

Firefox Enterprise Support Firefox Enterprise Support

Der Beitrag Mozilla startet kostenpflichtigen Enterprise-Support für Firefox erschien zuerst auf soeren-hentzschel.at.

Wasserzähler mit ESP32 und Home Assistant digitalisieren

Von: Benni
08. November 2025 um 09:35

Vor einiger Zeit habe ich gezeigt, wie man einen Stromzähler auslesen und in Home Assistant integrieren kann. Dieser verwendet die SML und macht es uns dadurch sehr einfach, den Zählerstand in Home Assistant zu übertragen. Der Gaszähler konnte mit einem ESP32 und einem Reed-Schalter digitalisiert werden. Das war etwas komplizierter, aber auch das haben wir gemeinsam geschafft. Nun ist der Wasserzähler an der Reihe:

In diesem Beitrag zeige ich dir Schritt für Schritt, wie du deinen Wasserverbrauch mit Home Assistant digitalisieren und automatisiert erfassen kannst. So hast du jederzeit den Überblick über deinen täglichen Wasserverbrauch, erkennst Lecks frühzeitig und kannst deinen Ressourcenverbrauch nachhaltig optimieren. Auch für diesen Zweck verwenden wir ein neues Tool. Es nennt sich AI on the Edge und ist – meiner Meinung nach – das mächtigste Tool in dieser Reihe. Es verwendet die ESP32-Cam und digitalisiert den Wasserzähler über Bilderkennung.

Die ESP32-CAM ist das Herzstück von diesem Projekt. Hierauf läuft die Software und die Datenverarbeitung.

Schritt 0: Die Einkaufsliste. Als Hardware benötigen wir den ESP32 mit Kamera. Diese gibt es oft als Paket zusammen und nennt sich dann ESP32-CAM. Mit ca. 10 Euro ist man am Start. Dann braucht ma neine Micro-SD-Karte mit max. 8 GB Speicher. Notfalls geht auch größer, man muss sie dann aber ggf. schrumpfen (siehe Schritt 2). Weiterhin benötigt man ein 5V-Netzteil, das vom Handy tut es hierbei auch schon.

Schritt 1: ESP32-CAM flashen. Das geht am über die Webconsole sehr einfach und schnell. Dazu den ESP mit USB-Kabel mit dem PC verbinden, mit Google Chrome oder Edge auf den Webseite der Konsole gehen und die Anweisung dort befolgen. Das ist gleich zu Beginn der kritische Punkt, da hier einiges nicht klappen kann.

Stolperstein 1: falscher COM-Port. Ich habe die Liste der verfügbaren COM-Ports beobachtet, während ich den ESP eingesteckt habe. COM11 kam neu hinzu –> das ist der richtige.

Stolperstein 2: Installation klappt nicht. Mögliche Ursachen, die bei mir auftragen: Falsches USB-Kabel. Ich hatte zuerst ein günstiges, das aber nur die Spannungsversorgung überträgt. Man braucht auch eines, das Daten Übertragen kann. Weitere Ursache für die nicht-funktionierende Installation: Der ESP ist schreibgeschützt. Entweder es gibt einen Button, den man während der Installation gedrückt halten muss, oder man muss GPIO 0 auf low ziehen. Glücklicherweise liegen GPIO 0 und GND direkt nebeneinander, sodass man einen Draht sehr einfach dagegen halten kann.

Schritt 2: Die SD-Karte vorbereiten. Dazu benötigt man eine SD-Karte mit max. 8 GB. Hatte ich nicht, darum habe ich – schweren Herzens – eine 64 GB Karte geopfert, und „geschrumpft“. Das geht unter Windows mit diskpart, bei Reddit gibt es eine gute Anleitung dafür. Auf die SD-Karte schiebt man nun die Daten aus Github und trägt in die wifi.ini seine Netzwerk-Zugangsdaten ein.

Schritt 3: Setup der Software. Was haben wir bisher? Firmware ist drauf, SD-Karte ist fertig und WLAN ist eingestellt. Wir können nun also auf die Weboberfläche zugreifen. Los gehts! Gib die IP-Adresse des Gerätes im Browser ein. (Schaut im Zweifel bei eurem Router nach, welche IP der ESP hat).

Der Setup ist sehr gut bebildert und erklärt. Es bleiben kaum Fragen offen. Und falls doch, gibt es einen Link zu weiteren Informationen.

Ein Setup begrüßt euch. Die Beschreibungen sind sehr ausführlich dort, darum beschränke ich mich auf ein paar Stichpunkte:

  1. Anpassen von Fokus und Reflektionen. Hier sieht man live das Bild aus der Kamera. Stellt die Helligkeit des Lichts so ein, dass man alle Zahlen gut lesen kann. Den Fokus der Kamera kann man anpassen, muss vorher aber evtl. ein Stück Kleber von der Linse entfernen. Das geht leicht mit einem Teppichmesser. Anschließend kann man die Linse rein- oder rausschrauben und somit den Fuks anpassen.
  2. Aufnahme eines Referenzfotos. Dieses Foto werden wir in den folgenden Schritten in seine Einzelteile zerlegen und die Software anlernen. Hier stellt sich heraus, ob das Bild geeignet ist. Dreht das Bild möglichst genau in die Horizontale, damit man alle Zahlen gut nebeneinander lesen kann. Das erleichtert später die Erkennung der Ziffern.
  3. Definition von zwei Ausrichtungspunkten. Sie definieren sozusagen das Koordinatensystem.
  4. ROI für Ziffern. Regions of Interest, so heißen die Bereiche, die später ausgelesen werden. Hier müssen also die Ziffern ausgewählt werden. Macht das sorgfältig!
  5. ROI für analoge Zeiger. Wasseruhren haben häufig Analogzeiger. Falls man sie nicht hat, kann man diesen Schritt überspringen.
  6. Zusätzliche Parameter, diese können später auch noch eingestellt werden.
  7. Abschluss der Einrichtung. Dieser Schritt beendet das Setup und speichert die Werte.
Das Referenzbild muss gut ausgerichtet sein, damit die Ziffern gut erkannt werden.

Schritt 4: Überprüfen der Einstellung. Nach dem Reboot landet man automatisch auf der Überblickseite des Controllers. Dort sieht man sowohl ein Foto des Zählers, als auch die digitalisierten Werte daraus. Überprüft, ob die Werte stimmen. Bei mir wurde beispielsweise eine 9 als 4 erkannt. Anpassen der Helligkeit hat das Problem behoben. Eine kleine Reflektion auf der Schreibe war die Ursache.

Schritt 5: Einbindung in Home Assistant. Falls noch nicht geschehen, sollte man in der Konfiguration das MQTT-Protokoll aktivieren. Dort findet sich auch die Funktion „Homeassistant Discovery“. Tragt also die Zugangsdaten zum MQTT-Broker ein. Wählt außerdem aus, dass es sich um ein Watermeter handelt, mit einer Einheit die von Home Assistant unterstützt wird. Startet den ESP neu, ihr werdet dazu aufgefordert.

Im Webinterface von AI on the Edge stellt man die Home Assistant Discovery ein und wählt als „Meter Type“ das „Watermeter“ aus. Dadurch lässt sich der Wasserzähler im Home Assistant leicht ins Energie-Dashboard aufnehmen.

In Home Assistant wird die Wasseruhr nun unter „Einstellungen“, „Geräte & Dienste“ und „MQTT“ aufgelistet. Seht mal nach, ob die Werte korrekt ankommen. Falls ja, defenieren wir es noch als „Wasserzähler“: „Einstellungen„, „Dashboards„, „Energie„. Dort fügt man einen neuen Wasserzähler hinzu und wählt „value“ vom „watermeter„.

In Home Assistant den Wasserzähler ins Energiedashboard hinzufügen

The post Wasserzähler mit ESP32 und Home Assistant digitalisieren first appeared on bejonet - Linux | Smart Home | Technik.

Flatpak 1.17 – das steht uns bevor

Von: MK
07. November 2025 um 07:00

Nach einer längeren Entwicklungsphase meldet sich Flatpak eindrucksvoll zurück. Sebastian Wick von Red Hat hat kürzlich Einblicke in die Arbeit am beliebten Linux-Sandboxing-Framework gegeben. Die Pre-Release-Version 1.17 markiert die erste Aktualisierung seit sechs Monaten und startet eine neue instabile Serie und beerbt Version 1.16.1. Wick räumte ein, dass Flatpak Anfang 2025 eine eher ruhige Phase […]

Der Beitrag Flatpak 1.17 – das steht uns bevor erschien zuerst auf fosstopia.

SUSE Linux Enterprise Server 16: KI und langfristige Enterprise Stabilität

Von: MK
06. November 2025 um 16:06

SUSE hat die allgemeine Verfügbarkeit von Linux Enterprise Server 16 (SLES 16) bekanntgegeben. Die neue Version setzt Maßstäbe für Enterprise Linux. Sie bietet eine stabile Grundlage für die IT der nächsten Dekade. Erstmals integriert SUSE ein Agentic-KI-Framework direkt in das Betriebssystem. Die Lösung soll Infrastrukturmanagement vereinfachen, Kosten senken und Prozesse beschleunigen. Administratoren profitieren von automatisierter […]

Der Beitrag SUSE Linux Enterprise Server 16: KI und langfristige Enterprise Stabilität erschien zuerst auf fosstopia.

Red Hat startet souveränen Support für alle EU-Staaten

Von: MK
06. November 2025 um 15:31

Red Hat hat einen neuen Service angekündigt: Red Hat Confirmed Sovereign Support. Er richtet sich an Unternehmen in allen 27 Mitgliedstaaten der EU. Ziel ist es digitale Souveränität zu fördern. Der Support wird ausschließlich von EU-Bürgern erbracht und lokal innerhalb der EU bereitgestellt. Das Unternehmen betont, dass echte digitale Souveränität nur mit Open Source möglich […]

Der Beitrag Red Hat startet souveränen Support für alle EU-Staaten erschien zuerst auf fosstopia.

Ubuntu Summit 2025: Snap-Pakete, KI und neue Partnerschaften prägen das Bild

Von: MK
06. November 2025 um 07:00

Beim diesjährigen Ubuntu Summit in London zeigte sich, wie stark Canonical das Linux-Ökosystem weiterhin prägt. Mehrere Unternehmen stellten Projekte vor, die sich direkt auf Ubuntu stützen, oft verbunden mit der Integration von Snap-Paketen, die die Verteilung und Wartung von Anwendungen deutlich vereinfachen sollen. Damit festigt Ubuntu seine Rolle als zentrale Plattform im offenen Softwareumfeld. Ein […]

Der Beitrag Ubuntu Summit 2025: Snap-Pakete, KI und neue Partnerschaften prägen das Bild erschien zuerst auf fosstopia.

Ubuntu 26.04 LTS „Resolute Raccoon“: Das Drehbuch steht

Von: MK
05. November 2025 um 12:27

Canonical hat die Entwicklungsphase für Ubuntu 26.04 LTS offiziell eingeläutet. Die neue Version trägt den Codenamen Resolute Raccoon und soll am 23. April 2026 erscheinen. Wie bei allen LTS-Versionen wird Ubuntu 26.04 fünf Jahre lang mit regulären Updates versorgt. Über das Programm Ubuntu Pro gibt es zusätzlich erweiterte Sicherheitsupdates bis ins Jahr 2036. Noch ist unklar, welche neuen Funktionen das System im Detail […]

Der Beitrag Ubuntu 26.04 LTS „Resolute Raccoon“: Das Drehbuch steht erschien zuerst auf fosstopia.

KDE Plasma 6.5.2 bringt Stabilität und Feinschliff für den Linux Desktop

Von: MK
05. November 2025 um 10:46

Das KDE-Projekt hat die Veröffentlichung von Plasma 6.5.2 bekannt gegeben. Es handelt sich um das zweite Wartungsupdate der aktuellen Version 6.5. Neue Funktionen gibt es diesmal keine, stattdessen konzentriert sich das Team auf Stabilität, Leistung und ein einheitliches Benutzererlebnis. Besonders der Fenstermanager KWin erhielt zahlreiche Verbesserungen. Ein Absturz, der Nutzer von FreeBSD betraf, wurde behoben. […]

Der Beitrag KDE Plasma 6.5.2 bringt Stabilität und Feinschliff für den Linux Desktop erschien zuerst auf fosstopia.

Tux-Tage 2025: Das Online-Event für Linux und Open Source steht bevor

Von: MK
04. November 2025 um 07:00

Am 7. und 8. November 2025 öffnen die Tux-Tage erneut ihre virtuellen Tore. Die live moderierte Online-Veranstaltung bringt bereits zum sechsten Mal Linuxbegeisterte und Open-Source-Interessierte aus aller Welt zusammen. Unter dem Motto „Menschen und Wissen vernetzen“ präsentiert das engagierte Organisationsteam ein vielseitiges Programm mit Vorträgen, Diskussionen und Workshops. Die Themenvielfalt richtet sich an Einsteiger, erfahrene Nutzer und […]

Der Beitrag Tux-Tage 2025: Das Online-Event für Linux und Open Source steht bevor erschien zuerst auf fosstopia.

Devuan 6 „Excalibur“ veröffentlicht: Systemd-freies Debian mit klarer Linie

Von: MK
03. November 2025 um 12:45

Nach mehr ausreichenden Entwicklungszeit hat das Devuan-Team die neue Version Devuan 6 „Excalibur“ offiziell freigegeben. Die auf Debian 13 „Trixie“ basierende Distribution bleibt ihrem Grundprinzip treu, ein vollständig systemd-freies Linux-System anzubieten. Devuan 6 verwendet den Linux-Kernel 6.12 LTS und setzt erstmals auf den neuen Paketmanager APT 3, der für mehr Leistung und Zuverlässigkeit sorgen soll. Eine wichtige technische Neuerung ist […]

Der Beitrag Devuan 6 „Excalibur“ veröffentlicht: Systemd-freies Debian mit klarer Linie erschien zuerst auf fosstopia.

Linux-News der Woche: Immer mehr Linux-Spieler und SUSE setzt auf KI

03. November 2025 um 06:43

Linux-Spieler machen nun 3 Prozent der Nutzer unter Steam aus. Insbesondere das beliebte CachyOS hat stark zugelegt. Eine neue Arch-Linux-ISO steht bereit und für ältere AMD-Grafikkarten gibt es bald analoge Bildausgabe. SUSE setzt mit ihrem neuen Enterprise Linux auf KI und 16-Jahre-Support.

E-Mail-Konto umziehen mit imapsync

Von: Benni
01. November 2025 um 20:30

Ein E-Mail-Umzug von einem Server auf einen anderen gehört zu den Aufgaben, die oft unterschätzt werden. Wer schon einmal versucht hat, ein E-Mail-Konto auf einen neuen Mailserver zu übertragen, kennt die typischen Probleme: unterschiedliche IMAP-Server, abweichende Login-Methoden, große Postfächer oder das Risiko, E-Mails doppelt oder gar nicht zu übertragen.

Für eine saubere und zuverlässige E-Mail-Migration gibt es jedoch ein bewährtes Open-Source-Tool: imapsync. Mit imapsync lassen sich komplette IMAP-Konten effizient und sicher von einem Server auf einen anderen synchronisieren – ohne Datenverlust und mit minimaler Ausfallzeit. Ob beim Providerwechsel, beim Umzug auf einen eigenen Mailserver oder beim Zusammenführen mehrerer Postfächer: imapsync bietet eine stabile und flexible Lösung für jede Art von Mailserver-Migration.

In diesem Artikel zeige ich Schritt für Schritt, wie imapsync funktioniert, welche Parameter in der Praxis wichtig sind und wie du deinen E-Mail-Umzug stressfrei und automatisiert durchführen kannst.

Die Open Source Software Imapsync vorgestellt

So einem Umzug von einem E-Mail-Server zu einem anderen mit einem Terminal-Programm zu machen, klingt etwas verrückt. In Wirklichkeit ist das aber eine große Stärke, da imapsync während der Übertragung bereits wertvolle Statusmeldungen ausgibt und man die Statistik im Blick behält.

Theoretisch lässt sich das Programm via Eingabe verschiedener Flags bedienen. Für mich hat sich aber bewährt, dass man es mit einem einfachen Skript ausführt. In aller Regel zieht man ja kein einzelnes Postfach um, sondern mehrere E-Mail-Konten. Motivation könnte zum Beispiel eine Änderung der Domain oder der Wechsel des Hosters sein. Aber selbst bei Einzelkonten empfehle ich die Benutzung des Skripts, weil sich hier die Zugangsdaten übersichtlich verwalten lassen.

Was imapsync jetzt macht, ist ziemlich straight-forward: Es meldet sich auf dem ersten Host („alter Server“) an, checkt erstmal die Ordnerstruktur, zählt die E-Mails und verschafft sich so einen Überblick. Hat man bereits die Zugangsdaten für den zweiten Host („neuer Server“), tut er das gleiche dort. Danach überträgt die Software die E-Mails von Host 1 auf Host 2. Bereits übertragene Mails werden dabei berücksichtigt. Man kann den Umzug also mehrfach starten, es werden nur die noch nicht übertragenen Mails berücksichtigt.

Die Webseite von imapsync ist auf den ersten Blick etwas ungewöhnlich, worauf der Entwickler auch stolz ist. Wenn man aber genauer hinsieht, merkt man die gute Dokumentation. Es werden auch Spezialfälle wie Office 365 von Microsoft oder Gmail behandelt.

Die Statistik von imapsync gibt bereits einen guten Überblick, wie gut der Umzug geklappt hat

Installation von imapsync

Die Software gibt es für Windows, Mac und Linux. Die Installation unter Ubuntu ist für geübte Benutzer recht einfach, auch wenn die Software nicht in den Paketquellen vorkommt. Github sei Dank.

sudo apt-get installlibauthen-ntlm-perl libclass-load-perllibcrypt-openssl-rsa-perl libcrypt-ssleay-perllibdata-uniqid-perl libdigest-hmac-perl libdist-checkconflicts-perl libencode-imaputf7-perl libfile-copy-recursive-perl libfile-tail-perl libio-compress-perl libio-socket-inet6-perl libio-socket-ssl-perl libio-tee-perllibjson-webtoken-perl libmail-imapclient-perl libmodule-scandeps-perl libnet-dbus-perllibnet-dns-perl libnet-ssleay-perllibpar-packer-perllibproc-processtable-perl libreadonly-perllibregexp-common-perl libsys-meminfo-perl libterm-readkey-perllibtest-fatal-perllibtest-mock-guard-perl libtest-mockobject-perl libtest-pod-perllibtest-requires-perl libtest-simple-perl libunicode-string-perlliburi-perl libtest-nowarnings-perl libtest-deep-perl libtest-warn-perl make time cpanminus
wget -N https://raw.githubusercontent.com/imapsync/imapsync/master/imapsync
chmod +x imapsync
sudo cp imapsync /usr/bin/

Die Installation ist nun fertig und systemweit verfügbar.

E-Mail-Postfach von einem Server zum anderen umziehen

Für den Umzug von einem Server zum anderen braucht man – wenig überraschend – jeweils die Zugangsdaten. Diese beinhalten IMAP-Server, Benutzername und Passwort. Das wars. Es empfiehlt sich, mit einem echten Host 1 zu starten, als Host 2 aber erstmal einen Testaccount zu verwenden.

Ich orientiere mich an den Empfehlungen des Programmierers und erstelle zunächst eine Datei mit den jeweiligen Zugangsdaten. Genau wie im Beispielskript verwende ich eine siebte, unnötige Spalte. Sie endet die Zeilen ordentlich ab, ohne dass man ein Problem mit den Zeilenumbruch zu erwarten hat.

Wir nennen die Datei file.txt. Jeweils die Einträge 1 bis 3 sind die Quelle, Spalten 4 bis 6 sind das Ziel.

host001_1;user001_1;password001_1;host002_1;user002_1;password002_1;;
host001_2;user001_2;password001_2;host002_2;user002_2;password002_2;;

Das Skript nennen wir mailumzug.sh und es enthält folgenden Inhalt.

echo Looping on accounts credentials found in file.txt
echo
line_counter=0
# Empty the error listing
> file_failures.txt
{ while IFS=';' read h1 u1 p1 h2 u2 p2 extra fake
    do 
        line_counter=`expr 1 + $line_counter` 
        { echo "$h1" | tr -d '\r' | egrep '^#|^ *$' ; } > /dev/null && continue # this skip commented lines in file.txt
        echo "==== Starting imapsync with --host1 $h1 --user1 $u1 --host2 $h2 --user2 $u2 $extra $@ ===="
        echo Got those values from file.txt presented inside brackets: [$h1] [$u1] [$h2] [$u2] [$extra] [$fake]
        if eval imapsync --host1 "$h1" --user1 "$u1" --password1 "$p1" \
                    --host2 "$h2" --user2 "$u2" --password2 "$p2" $extra "$@" 
        then
                echo "success sync for line $line_counter "
        else
                echo "$h1;$u1;$p1;$h2;$u2;$p2;$extra;" | tee -a file_failures.txt
        fi
        echo "==== Ended imapsync with --host1 $h1 --user1 $u1 --host2 $h2 --user2 $u2 $extra $@ ===="
        echo
    done
} < file.txt

Das Skript wird aufgerufen via

sh mailumzug.sh

Es wird während der Überführung ein ausführliches Log geführt, das man im Nachgang auch als Text-Datei erhält. Viel Spaß!

The post E-Mail-Konto umziehen mit imapsync first appeared on bejonet - Linux | Smart Home | Technik.

Vertrauen bei ISO-Images

31. Oktober 2025 um 22:45

Die Webseite des Ubuntu-Derivats Xubuntu wurde kürzlich manipuliert und lieferte Malware aus. Wer also in den vergangen drei Wochen etwas von der Webseite heruntergeladen hat, sollte nochmal nachschauen, was er sich denn konkret heruntergeladen hat. Nach jetziger Erkenntnis wurde wohl eine Windows-Malware (.exe) verbreitet, konkret ein sog. Crypto-Clipper, der nach dem Einnisten die Zwischenablage manipuliert, damit Kriminelle sich in Kryptowährungstranskationen als Empfänger eintragen.

Die Malware wurde zwar somit über die offiziellen Wege verteilt, aber ließ sich für den geübten Nutzer noch unterscheiden. Schlimmer wäre es gewesen, wenn eine manipulierte ISO-Datei verteilt worden wäre.

Aber was schützt uns überhaupt davor? Diese Frage ist tatsächlich gar nicht so einfach zu beantworten, wenn wir davon ausgehen müssen, dass Angreifer Zugang zur Homepage der Distribution erhalten.

Denn effektiv fällt die Checksum bzw. der Hash, sei sie MD5, SHA1, SHA256, SHA512, als Kriterium raus. Sie wird immerhin über den gleichen Weg übermittelt wie der Download selber und kann somit mitmanipuliert werden. Checksums eignen sich allenfalls zur Überprüfung, ob der Download vollständig ist. Damit erfüllen wir das Sicherheitsziel Integrität, aber nicht Authentizität.

Die richtige Antwort lautet natürlich Signatur, meist in Form einer GPG-Signatur, und birgt gleichzeitig eine neue Frage in sich: woher weiß ich denn, welchen Schlüssel bzw. Key das „echte“ Xubuntu-Team hat? Und damit drehen wir uns eigentlich wieder im Kreis, weil die Antwort in der Mehrzahl der Fälle wiederum auf eine Webseite hinausläuft, von der man sich den Key heruntergeladen hat.

An sich ist das aber ein altes Problem, für das es verschiedene dezentrale (Teil-)Lösungsvarianten gibt:

  • TOFU, also Trust-on-first-Usage, importiert einfach den erstbesten verfügbaren Schlüssel, weil hier davon ausgegangen wird, dass eine Manipulation später erst auftritt, wenn man den Schlüssel schon importiert hat
  • WoT, also Web of Trust, geht von transitiven Vertrauensankern aus, dass "wenn ich A vertraue und A B vertraut, ich auch B vertraue"

Jedes der Modelle hat Vor- und Nachteile und steht einer zentralisierten Struktur gegenüber: wir vertrauen einer CA und die sorgt schon davor, die Spreu vom Weizen zu trennen. Da landen wir bei EV-Zertifikaten oder Secure Boot.

Gibt es auf die Problematik eine allgemeine, zufriedenstellende Antwort? Wahrscheinlich nicht, wir mittelfristig keiner Distributionsseite mehr vertrauen können.

Im Falle von Ubuntu haben wir vereinfachende Bedingungen: Während die Webseite in Eigenregie durch das Xubuntu-Team läuft, wird für die ISOs die Infrastruktur von Ubuntu mitgenutzt, siehe releases.ubuntu.com oder cdimage.ubuntu.com. Darüber hinaus gibt es bei Ubuntu weitere Vertrauensanker, so hält z. B. Ubuntuusers auch eine Linksammlung vor.

Es zeigt aber, wie tiefgreifend Supply-Chain-Attacks ansetzen können. Das Beispiel warnt ähnlich wie bei der xz-Lücke, dass theoretische Angriffsszenarien mittlerweile mit hoher Wahrscheinlichkeit Realität werden. Und es wird auch hier wieder das schwächste Glied in der Kette angegriffen - nicht die (auch personell) gut bestückte Ubuntu-Infrastruktur selber mit der ISO-Datei, sondern die Webseite der Schwerdistribution, die dem Copyright zufolge ihre letzte große Überarbeitung in 2012 erfahren hat.

Podcast: Linux Coffee Talk 10/2025

Von: MK
31. Oktober 2025 um 16:00

Der Linux Coffee Talk ist unser entspanntes Monatsformat bei fosstopia. Hier fassen wir die spannendsten Ereignisse und Entwicklungen der letzten Wochen für Euch zusammen und ordnen sie ein. Also schnappt euch einen Kaffee, Tee oder Euer Lieblingsgetränk, macht es Euch gemütlich und lasst uns den Oktober Revue passieren.

Der Beitrag Podcast: Linux Coffee Talk 10/2025 erschien zuerst auf fosstopia.

Linux Coffee Talk 10/2025

Von: MK
31. Oktober 2025 um 16:00

Der Linux Coffee Talk ist das entspannte Monatsformat bei fosstopia. Hier fassen wir die spannendsten Ereignisse und Entwicklungen der letzten Wochen für Euch zusammen und ordnen es ein. Also schnappt euch einen Kaffee, Tee oder Euer Lieblingsgetränk, macht es euch gemütlich und lasst uns den Oktober Revue passieren. In dieser Ausgabe blicken wir auf die […]

Der Beitrag Linux Coffee Talk 10/2025 erschien zuerst auf fosstopia.

❌