Mozilla hat den sogenannten „Early Access“ für sein neues kostenpflichtiges Support-Programm für Firefox im Unternehmen angekündigt.
Ab Januar 2026 wird Mozilla einen kostenpflichtigen Support für Firefox im Unternehmen anbieten. Bereits jetzt können sich Unternehmen hierfür anmelden. Dies hat Mozilla auf seinem Blog angekündigt.
Der sogenannte Enterprise Support für Firefox besteht aus den folgenden Komponenten:
Privater Support-Kanal: Über ein Support-System können private Tickets eröffnet werden, um Unterstützung von erfahrenen Support-Mitarbeitern zu erhalten. Probleme werden nach Schweregrad bewertet, mit festgelegten Reaktionszeiten und klaren Eskalationswegen, um eine zeitnahe Lösung zu gewährleisten.
Rabatte auf kundenspezifische Entwicklungen: Für Entwicklungsarbeiten an Integrationsprojekten, Kompatibilitätstests oder umgebungsspezifische Anforderungen erhalten Kunden des Enterprise-Supports 20 Prozent Rabatt. Mit kundenspezifischen Entwicklungen als zusätzliche bezahlte Erweiterung für die Support-Pläne kann Firefox an die Infrastruktur und Updates von Drittanbietern angepasst werden.
Strategische Zusammenarbeit: Kunden des Enterprise Supports erhalten frühzeitig Einblicke in bevorstehende Entwicklungen und können so dabei helfen, die Enterprise-Roadmap durch Zusammenarbeit mit Mozillas Team zu gestalten.
In diesem Beitrag zeige ich dir Schritt für Schritt, wie du deinen Wasserverbrauch mit Home Assistant digitalisieren und automatisiert erfassen kannst. So hast du jederzeit den Überblick über deinen täglichen Wasserverbrauch, erkennst Lecks frühzeitig und kannst deinen Ressourcenverbrauch nachhaltig optimieren. Auch für diesen Zweck verwenden wir ein neues Tool. Es nennt sich AI on the Edge und ist – meiner Meinung nach – das mächtigste Tool in dieser Reihe. Es verwendet die ESP32-Cam und digitalisiert den Wasserzähler über Bilderkennung.
Die ESP32-CAM ist das Herzstück von diesem Projekt. Hierauf läuft die Software und die Datenverarbeitung.
Schritt 0: Die Einkaufsliste. Als Hardware benötigen wir den ESP32 mit Kamera. Diese gibt es oft als Paket zusammen und nennt sich dann ESP32-CAM. Mit ca. 10 Euro ist man am Start. Dann braucht ma neine Micro-SD-Karte mit max. 8 GB Speicher. Notfalls geht auch größer, man muss sie dann aber ggf. schrumpfen (siehe Schritt 2). Weiterhin benötigt man ein 5V-Netzteil, das vom Handy tut es hierbei auch schon.
Schritt 1: ESP32-CAM flashen. Das geht am über die Webconsole sehr einfach und schnell. Dazu den ESP mit USB-Kabel mit dem PC verbinden, mit Google Chrome oder Edge auf den Webseite der Konsole gehen und die Anweisung dort befolgen. Das ist gleich zu Beginn der kritische Punkt, da hier einiges nicht klappen kann.
Stolperstein 1: falscher COM-Port. Ich habe die Liste der verfügbaren COM-Ports beobachtet, während ich den ESP eingesteckt habe. COM11 kam neu hinzu –> das ist der richtige.
Stolperstein 2: Installation klappt nicht. Mögliche Ursachen, die bei mir auftragen: Falsches USB-Kabel. Ich hatte zuerst ein günstiges, das aber nur die Spannungsversorgung überträgt. Man braucht auch eines, das Daten Übertragen kann. Weitere Ursache für die nicht-funktionierende Installation: Der ESP ist schreibgeschützt. Entweder es gibt einen Button, den man während der Installation gedrückt halten muss, oder man muss GPIO 0 auf low ziehen. Glücklicherweise liegen GPIO 0 und GND direkt nebeneinander, sodass man einen Draht sehr einfach dagegen halten kann.
Schritt 2: Die SD-Karte vorbereiten. Dazu benötigt man eine SD-Karte mit max. 8 GB. Hatte ich nicht, darum habe ich – schweren Herzens – eine 64 GB Karte geopfert, und „geschrumpft“. Das geht unter Windows mit diskpart, bei Reddit gibt es eine gute Anleitung dafür. Auf die SD-Karte schiebt man nun die Daten aus Github und trägt in die wifi.ini seine Netzwerk-Zugangsdaten ein.
Schritt 3: Setup der Software. Was haben wir bisher? Firmware ist drauf, SD-Karte ist fertig und WLAN ist eingestellt. Wir können nun also auf die Weboberfläche zugreifen. Los gehts! Gib die IP-Adresse des Gerätes im Browser ein. (Schaut im Zweifel bei eurem Router nach, welche IP der ESP hat).
Der Setup ist sehr gut bebildert und erklärt. Es bleiben kaum Fragen offen. Und falls doch, gibt es einen Link zu weiteren Informationen.
Ein Setup begrüßt euch. Die Beschreibungen sind sehr ausführlich dort, darum beschränke ich mich auf ein paar Stichpunkte:
Anpassen von Fokus und Reflektionen. Hier sieht man live das Bild aus der Kamera. Stellt die Helligkeit des Lichts so ein, dass man alle Zahlen gut lesen kann. Den Fokus der Kamera kann man anpassen, muss vorher aber evtl. ein Stück Kleber von der Linse entfernen. Das geht leicht mit einem Teppichmesser. Anschließend kann man die Linse rein- oder rausschrauben und somit den Fuks anpassen.
Aufnahme eines Referenzfotos. Dieses Foto werden wir in den folgenden Schritten in seine Einzelteile zerlegen und die Software anlernen. Hier stellt sich heraus, ob das Bild geeignet ist. Dreht das Bild möglichst genau in die Horizontale, damit man alle Zahlen gut nebeneinander lesen kann. Das erleichtert später die Erkennung der Ziffern.
Definition von zwei Ausrichtungspunkten. Sie definieren sozusagen das Koordinatensystem.
ROI für Ziffern. Regions of Interest, so heißen die Bereiche, die später ausgelesen werden. Hier müssen also die Ziffern ausgewählt werden. Macht das sorgfältig!
ROI für analoge Zeiger. Wasseruhren haben häufig Analogzeiger. Falls man sie nicht hat, kann man diesen Schritt überspringen.
Zusätzliche Parameter, diese können später auch noch eingestellt werden.
Abschluss der Einrichtung. Dieser Schritt beendet das Setup und speichert die Werte.
Das Referenzbild muss gut ausgerichtet sein, damit die Ziffern gut erkannt werden.
Schritt 4: Überprüfen der Einstellung. Nach dem Reboot landet man automatisch auf der Überblickseite des Controllers. Dort sieht man sowohl ein Foto des Zählers, als auch die digitalisierten Werte daraus. Überprüft, ob die Werte stimmen. Bei mir wurde beispielsweise eine 9 als 4 erkannt. Anpassen der Helligkeit hat das Problem behoben. Eine kleine Reflektion auf der Schreibe war die Ursache.
Schritt 5: Einbindung in Home Assistant. Falls noch nicht geschehen, sollte man in der Konfiguration das MQTT-Protokoll aktivieren. Dort findet sich auch die Funktion „Homeassistant Discovery“. Tragt also die Zugangsdaten zum MQTT-Broker ein. Wählt außerdem aus, dass es sich um ein Watermeter handelt, mit einer Einheit die von Home Assistant unterstützt wird. Startet den ESP neu, ihr werdet dazu aufgefordert.
Im Webinterface von AI on the Edge stellt man die Home Assistant Discovery ein und wählt als „Meter Type“ das „Watermeter“ aus. Dadurch lässt sich der Wasserzähler im Home Assistant leicht ins Energie-Dashboard aufnehmen.
In Home Assistant wird die Wasseruhr nun unter „Einstellungen“, „Geräte & Dienste“ und „MQTT“ aufgelistet. Seht mal nach, ob die Werte korrekt ankommen. Falls ja, defenieren wir es noch als „Wasserzähler“: „Einstellungen„, „Dashboards„, „Energie„. Dort fügt man einen neuen Wasserzähler hinzu und wählt „value“ vom „watermeter„.
In Home Assistant den Wasserzähler ins Energiedashboard hinzufügen
KI-Schwergewicht Anthropic gibt bekannt, dass es neue Büros in Paris und München eröffnen will, die zu den bereits vorhandenen europäischen Niederlassungen in London, Dublin und Zürich…
Nach einer längeren Entwicklungsphase meldet sich Flatpak eindrucksvoll zurück. Sebastian Wick von Red Hat hat kürzlich Einblicke in die Arbeit am beliebten Linux-Sandboxing-Framework gegeben. Die Pre-Release-Version 1.17 markiert die erste Aktualisierung seit sechs Monaten und startet eine neue instabile Serie und beerbt Version 1.16.1. Wick räumte ein, dass Flatpak Anfang 2025 eine eher ruhige Phase […]
SUSE hat die allgemeine Verfügbarkeit von Linux Enterprise Server 16 (SLES 16) bekanntgegeben. Die neue Version setzt Maßstäbe für Enterprise Linux. Sie bietet eine stabile Grundlage für die IT der nächsten Dekade. Erstmals integriert SUSE ein Agentic-KI-Framework direkt in das Betriebssystem. Die Lösung soll Infrastrukturmanagement vereinfachen, Kosten senken und Prozesse beschleunigen. Administratoren profitieren von automatisierter […]
Red Hat hat einen neuen Service angekündigt: Red Hat Confirmed Sovereign Support. Er richtet sich an Unternehmen in allen 27 Mitgliedstaaten der EU. Ziel ist es digitale Souveränität zu fördern. Der Support wird ausschließlich von EU-Bürgern erbracht und lokal innerhalb der EU bereitgestellt. Das Unternehmen betont, dass echte digitale Souveränität nur mit Open Source möglich […]
Beim diesjährigen Ubuntu Summit in London zeigte sich, wie stark Canonical das Linux-Ökosystem weiterhin prägt. Mehrere Unternehmen stellten Projekte vor, die sich direkt auf Ubuntu stützen, oft verbunden mit der Integration von Snap-Paketen, die die Verteilung und Wartung von Anwendungen deutlich vereinfachen sollen. Damit festigt Ubuntu seine Rolle als zentrale Plattform im offenen Softwareumfeld. Ein […]
Canonical hat die Entwicklungsphase für Ubuntu 26.04 LTS offiziell eingeläutet. Die neue Version trägt den Codenamen Resolute Raccoon und soll am 23. April 2026 erscheinen. Wie bei allen LTS-Versionen wird Ubuntu 26.04 fünf Jahre lang mit regulären Updates versorgt. Über das Programm Ubuntu Pro gibt es zusätzlich erweiterte Sicherheitsupdates bis ins Jahr 2036. Noch ist unklar, welche neuen Funktionen das System im Detail […]
Das KDE-Projekt hat die Veröffentlichung von Plasma 6.5.2 bekannt gegeben. Es handelt sich um das zweite Wartungsupdate der aktuellen Version 6.5. Neue Funktionen gibt es diesmal keine, stattdessen konzentriert sich das Team auf Stabilität, Leistung und ein einheitliches Benutzererlebnis. Besonders der Fenstermanager KWin erhielt zahlreiche Verbesserungen. Ein Absturz, der Nutzer von FreeBSD betraf, wurde behoben. […]
Am 7. und 8. November 2025 öffnen die Tux-Tage erneut ihre virtuellen Tore. Die live moderierte Online-Veranstaltung bringt bereits zum sechsten Mal Linuxbegeisterte und Open-Source-Interessierte aus aller Welt zusammen. Unter dem Motto „Menschen und Wissen vernetzen“ präsentiert das engagierte Organisationsteam ein vielseitiges Programm mit Vorträgen, Diskussionen und Workshops. Die Themenvielfalt richtet sich an Einsteiger, erfahrene Nutzer und […]
Nach mehr ausreichenden Entwicklungszeit hat das Devuan-Team die neue Version Devuan 6 „Excalibur“ offiziell freigegeben. Die auf Debian 13 „Trixie“ basierende Distribution bleibt ihrem Grundprinzip treu, ein vollständig systemd-freies Linux-System anzubieten. Devuan 6 verwendet den Linux-Kernel 6.12 LTS und setzt erstmals auf den neuen Paketmanager APT 3, der für mehr Leistung und Zuverlässigkeit sorgen soll. Eine wichtige technische Neuerung ist […]
Linux-Spieler machen nun 3 Prozent der Nutzer unter Steam aus. Insbesondere das beliebte CachyOS hat stark zugelegt. Eine neue Arch-Linux-ISO steht bereit und für ältere AMD-Grafikkarten gibt es bald analoge Bildausgabe. SUSE setzt mit ihrem neuen Enterprise Linux auf KI und 16-Jahre-Support.
Ein E-Mail-Umzug von einem Server auf einen anderen gehört zu den Aufgaben, die oft unterschätzt werden. Wer schon einmal versucht hat, ein E-Mail-Konto auf einen neuen Mailserver zu übertragen, kennt die typischen Probleme: unterschiedliche IMAP-Server, abweichende Login-Methoden, große Postfächer oder das Risiko, E-Mails doppelt oder gar nicht zu übertragen.
Für eine saubere und zuverlässige E-Mail-Migration gibt es jedoch ein bewährtes Open-Source-Tool: imapsync. Mit imapsync lassen sich komplette IMAP-Konten effizient und sicher von einem Server auf einen anderen synchronisieren – ohne Datenverlust und mit minimaler Ausfallzeit. Ob beim Providerwechsel, beim Umzug auf einen eigenen Mailserver oder beim Zusammenführen mehrerer Postfächer: imapsync bietet eine stabile und flexible Lösung für jede Art von Mailserver-Migration.
In diesem Artikel zeige ich Schritt für Schritt, wie imapsync funktioniert, welche Parameter in der Praxis wichtig sind und wie du deinen E-Mail-Umzug stressfrei und automatisiert durchführen kannst.
Die Open Source Software Imapsync vorgestellt
So einem Umzug von einem E-Mail-Server zu einem anderen mit einem Terminal-Programm zu machen, klingt etwas verrückt. In Wirklichkeit ist das aber eine große Stärke, da imapsync während der Übertragung bereits wertvolle Statusmeldungen ausgibt und man die Statistik im Blick behält.
Theoretisch lässt sich das Programm via Eingabe verschiedener Flags bedienen. Für mich hat sich aber bewährt, dass man es mit einem einfachen Skript ausführt. In aller Regel zieht man ja kein einzelnes Postfach um, sondern mehrere E-Mail-Konten. Motivation könnte zum Beispiel eine Änderung der Domain oder der Wechsel des Hosters sein. Aber selbst bei Einzelkonten empfehle ich die Benutzung des Skripts, weil sich hier die Zugangsdaten übersichtlich verwalten lassen.
Was imapsync jetzt macht, ist ziemlich straight-forward: Es meldet sich auf dem ersten Host („alter Server“) an, checkt erstmal die Ordnerstruktur, zählt die E-Mails und verschafft sich so einen Überblick. Hat man bereits die Zugangsdaten für den zweiten Host („neuer Server“), tut er das gleiche dort. Danach überträgt die Software die E-Mails von Host 1 auf Host 2. Bereits übertragene Mails werden dabei berücksichtigt. Man kann den Umzug also mehrfach starten, es werden nur die noch nicht übertragenen Mails berücksichtigt.
Die Webseite von imapsync ist auf den ersten Blick etwas ungewöhnlich, worauf der Entwickler auch stolz ist. Wenn man aber genauer hinsieht, merkt man die gute Dokumentation. Es werden auch Spezialfälle wie Office 365 von Microsoft oder Gmail behandelt.
Die Statistik von imapsync gibt bereits einen guten Überblick, wie gut der Umzug geklappt hat
Installation von imapsync
Die Software gibt es für Windows, Mac und Linux. Die Installation unter Ubuntu ist für geübte Benutzer recht einfach, auch wenn die Software nicht in den Paketquellen vorkommt. Github sei Dank.
Die Installation ist nun fertig und systemweit verfügbar.
E-Mail-Postfach von einem Server zum anderen umziehen
Für den Umzug von einem Server zum anderen braucht man – wenig überraschend – jeweils die Zugangsdaten. Diese beinhalten IMAP-Server, Benutzername und Passwort. Das wars. Es empfiehlt sich, mit einem echten Host 1 zu starten, als Host 2 aber erstmal einen Testaccount zu verwenden.
Ich orientiere mich an den Empfehlungen des Programmierers und erstelle zunächst eine Datei mit den jeweiligen Zugangsdaten. Genau wie im Beispielskript verwende ich eine siebte, unnötige Spalte. Sie endet die Zeilen ordentlich ab, ohne dass man ein Problem mit den Zeilenumbruch zu erwarten hat.
Wir nennen die Datei file.txt. Jeweils die Einträge 1 bis 3 sind die Quelle, Spalten 4 bis 6 sind das Ziel.
Die Webseite des Ubuntu-Derivats Xubuntu wurde kürzlich manipuliert und lieferte Malware aus. Wer also in den vergangen drei Wochen etwas von der Webseite heruntergeladen hat, sollte nochmal nachschauen, was er sich denn konkret heruntergeladen hat. Nach jetziger Erkenntnis wurde wohl eine Windows-Malware (.exe) verbreitet, konkret ein sog. Crypto-Clipper, der nach dem Einnisten die Zwischenablage manipuliert, damit Kriminelle sich in Kryptowährungstranskationen als Empfänger eintragen.
Die Malware wurde zwar somit über die offiziellen Wege verteilt, aber ließ sich für den geübten Nutzer noch unterscheiden. Schlimmer wäre es gewesen, wenn eine manipulierte ISO-Datei verteilt worden wäre.
Aber was schützt uns überhaupt davor? Diese Frage ist tatsächlich gar nicht so einfach zu beantworten, wenn wir davon ausgehen müssen, dass Angreifer Zugang zur Homepage der Distribution erhalten.
Denn effektiv fällt die Checksum bzw. der Hash, sei sie MD5, SHA1, SHA256, SHA512, als Kriterium raus. Sie wird immerhin über den gleichen Weg übermittelt wie der Download selber und kann somit mitmanipuliert werden. Checksums eignen sich allenfalls zur Überprüfung, ob der Download vollständig ist. Damit erfüllen wir das Sicherheitsziel Integrität, aber nicht Authentizität.
Die richtige Antwort lautet natürlich Signatur, meist in Form einer GPG-Signatur, und birgt gleichzeitig eine neue Frage in sich: woher weiß ich denn, welchen Schlüssel bzw. Key das „echte“ Xubuntu-Team hat? Und damit drehen wir uns eigentlich wieder im Kreis, weil die Antwort in der Mehrzahl der Fälle wiederum auf eine Webseite hinausläuft, von der man sich den Key heruntergeladen hat.
An sich ist das aber ein altes Problem, für das es verschiedene dezentrale (Teil-)Lösungsvarianten gibt:
TOFU, also Trust-on-first-Usage, importiert einfach den erstbesten verfügbaren Schlüssel, weil hier davon ausgegangen wird, dass eine Manipulation später erst auftritt, wenn man den Schlüssel schon importiert hat
WoT, also Web of Trust, geht von transitiven Vertrauensankern aus, dass "wenn ich A vertraue und A B vertraut, ich auch B vertraue"
Jedes der Modelle hat Vor- und Nachteile und steht einer zentralisierten Struktur gegenüber: wir vertrauen einer CA und die sorgt schon davor, die Spreu vom Weizen zu trennen. Da landen wir bei EV-Zertifikaten oder Secure Boot.
Gibt es auf die Problematik eine allgemeine, zufriedenstellende Antwort? Wahrscheinlich nicht, wir mittelfristig keiner Distributionsseite mehr vertrauen können.
Im Falle von Ubuntu haben wir vereinfachende Bedingungen: Während die Webseite in Eigenregie durch das Xubuntu-Team läuft, wird für die ISOs die Infrastruktur von Ubuntu mitgenutzt, siehe releases.ubuntu.com oder cdimage.ubuntu.com. Darüber hinaus gibt es bei Ubuntu weitere Vertrauensanker, so hält z. B. Ubuntuusers auch eine Linksammlung vor.
Es zeigt aber, wie tiefgreifend Supply-Chain-Attacks ansetzen können. Das Beispiel warnt ähnlich wie bei der xz-Lücke, dass theoretische Angriffsszenarien mittlerweile mit hoher Wahrscheinlichkeit Realität werden. Und es wird auch hier wieder das schwächste Glied in der Kette angegriffen - nicht die (auch personell) gut bestückte Ubuntu-Infrastruktur selber mit der ISO-Datei, sondern die Webseite der Schwerdistribution, die dem Copyright zufolge ihre letzte große Überarbeitung in 2012 erfahren hat.
In einem offenen Brief prangern die Heinlein-Gruppe und die OSBA geplante Ausgaben der bayerischen Staatsregierung für Microsoft-Produkte in Milliardenhöhe an. Was ist daran?
Der Linux Coffee Talk ist unser entspanntes Monatsformat bei fosstopia. Hier fassen wir die spannendsten Ereignisse und Entwicklungen der letzten Wochen für Euch zusammen und ordnen sie ein. Also schnappt euch einen Kaffee, Tee oder Euer Lieblingsgetränk, macht es Euch gemütlich und lasst uns den Oktober Revue passieren.
Der Linux Coffee Talk ist das entspannte Monatsformat bei fosstopia. Hier fassen wir die spannendsten Ereignisse und Entwicklungen der letzten Wochen für Euch zusammen und ordnen es ein. Also schnappt euch einen Kaffee, Tee oder Euer Lieblingsgetränk, macht es euch gemütlich und lasst uns den Oktober Revue passieren. In dieser Ausgabe blicken wir auf die […]
Mit ein wenig Verspätung ist Fedora 43 fertig. Ich habe in den letzten Monaten schon viel mit der Beta gearbeitet und war schon damit überwiegend zufrieden. Fedora 43 ist das erste weitgehend X-freie Release (X wie X Window System, nicht wie Twitter …), es gibt nur noch XWayland zur Ausführung von X-Programmen unter Wayland. Relativ neu ist das Installationsprogramm, auf das ich gleich näher eingehe. Es ist schon seit Fedora 42 verfügbar, aber diese Version habe ich in meinem Blog übersprungen.
Die folgenden Ausführungen beziehen sich auf Fedora 43 Workstation mit Gnome.
Fedora 43 mit Gnome in einer virtuellen Maschine
Installation
Das Installationsprogramm beginnt aus deutschsprachiger Sicht gleich mit einem Ärgernis: Zwar kann die Sprache mühelos auf Deutsch umgestellt werden, nicht aber das Tastaturlayout. Dazu verweist das Installationsprogramm auf die Systemeinstellungen. Dort müssen Sie nicht nur das gewünschte Layout hinzufügen, sondern auch das vorhandene US-Layout entfernen — vorher ist das Installationsprogramm nicht zufrieden. Das ist einigermaßen umständlich.
Die Einstellung des Tastaturlayouts muss in den Gnome-Systemeinstellungen erfolgen
In virtuellen Maschinen wird bei der Installationsmethode (gemeint ist die Partitionierung des Datenträgers und das Einrichten der Dateisysteme) nur eine Option angezeigt: Gesamten Datenträger verwenden. Damit haben Sie weder Einfluss auf die Größe der Partitionen noch auf den Dateisystemtyp oder dessen Optionen. Das Standardlayout lautet: EFI-Partition (vfat), Boot-Partition (ext4) und Systempartition (btrfs mit zwei Subvolumes für / und /home und aktiver Komprimierung). Eine Swap-Partition gibt es nicht, Fedora verwendet schon seit einiger Zeit Swap on ZRAM.
Bei der Installation von Fedora in eine Virtuelle Maschine sind auf den ersten Blick nur wenig Optionen erkennbar …
Wenn Sie die Installation auf einem Rechner durchführen, auf dem schon Windows oder andere Linux-Distributionen installiert sind, wird die Auswahl größer:
Die Option Share disk with other operation systems (vielleicht wird der Text bei späteren Versionen noch übersetzt) erscheint, wenn das Setup-Programm Windows oder andere Linux-Distributionen auf der SSD erkennt. In diesem Fall nutzt Fedora den verbleibenden freien Platz auf der SSD und richtet dort eine Boot- und eine Systempartition ein. Wenn es auf der SSD keinen oder zu wenig Platz gibt, sollten Sie zusätzlich die Option Zusätzlichen Speicherplatz zurückgewinnen aktivieren. Sie können dann in einem weiteren Dialog einzelne Partitionen löschen oder verkleinern.
Gesamten Datenträger verwenden löscht alle vorhandene Partitionen und richtet dann wie oben beschreiben EFI-, Boot- und Systempartition ein.
Zuweisung des Einhängepunkts bietet Linux-Profis die Möglichkeit, schon vorhandene Dateisysteme zu nutzen. Es gibt zwei Möglichkeiten, diese Dateisysteme einzurichten. Eine bietet der über den unscheinbaren Menü-Button erreichbare Speicher-Editor. Dort können Sie Partitionen, Logical Volumes, RAID-Setup und Dateisysteme samt Verschlüsselung einrichten. Es mangelt nicht an Funktionen, aber leider ist die Bedienung sehr unübersichtlich. Alle hier initiierten Aktionen werden sofort durchgeführt und können nicht rückgängig gemacht werden. Alternativ können Sie vorweg in einem Terminal mit parted Partitionen einrichten und dann mit mkfs.xxx darin die gewünschten Dateisysteme anlegen. Falls das Dateisystem verschlüsselt werden soll, müssen Sie sich auch darum selbst kümmern (Kommando cryptsetup). Das erfordert ein solides Linux-Vorwissen.
Das Setup-Programm wirkt mit den bereits installierten Distributionen überfordert. (Es sind in Wirklichkeit nur sechs Distributionen, nicht mehrere Dutzend …) Manuelle Partitions-Setups müssen über den »Speichereditor« durchgeführt werden.Der »Speichereditor« zur manuellen Partitionierung listet alle Subvolumes aller btrfs-Dateisysteme auf und ist auch sonst extrem unübersichtlich in seiner Bedienung
In der Speicher-Konfiguration können Sie das Dateisystem verschlüsseln (außer Sie haben sich im vorigen Schritt für die Zuweisung des Einhängepunkts entschieden). Zur Verschlüsselung geben Sie zweimal das Passwort an und stellen ein, welches Tastaturlayout beim Bootvorgang für die Eingabe dieses Passworts gelten soll.
Die Verschlüsselung des Dateisystems gelingt nur problemlos, sofern Sie im vorigen Schritt keine manuelles Setup eingerichtet haben
Zuletzt zeigt das Installationsprogramm eine Zusammenfassung der Einstellungen ein. Ein Benutzeraccount samt Passwort wird erst später beim ersten Start von Gnome eingerichtet.
Zusammenfassung des Setups
Alles in allem ist die Bedienung des neuen Programms zwar einfach, sie bietet aber zu wenig Optionen für eine technisch orientierte Distribution. Der aktuelle Trend vieler Distributionen besteht darin, den Installationsprozess auf Web-basierte Tools umzustellen. Die Sinnhaftigkeit erschließt sich für mich nicht, schon gar nicht, wenn dabei auch noch die Funktionalität auf der Strecke bleibt. Muss das Rad wirklich immer wieder neu erfunden werden?
Nach dem Neustart landen Sie in einen Assistenten, der bei der Grundkonfiguration von Gnome hilft: Sprache und Tastaturlayout noch einmal bestätigen, Zeitzone einstellen etc. Vollkommen missglückt ist das Dialogblatt zur Aktivierung von Drittanbieter-Softwarequellen. Gemeint sind damit die RPM-Fusion-Paketquellen mit Paketen und Treibern (z.B. für NVIDIA-Grafikkarten), die nicht dem Open-Source-Modell entsprechen. Im Zentrum des Bildschirms befindet sich ein Toggle-Button mit den Zuständen aktivieren oder deaktivieren. Es ist unmöglich zu erkennen, ob Sie den Button zur Aktivierung drücken müssen oder ob dieser den Zustand »bereits aktiv« ausdrückt. (Auflösung: Sie müssen ihn nicht drücken. Wenn mit blauem Hintergrund »aktivieren« angezeigt wird, werden die zusätzlichen Paketquellen mit Weiter eingerichtet.)
Klicken Sie nicht auf »Drittanbieter-Softwarequellen aktivieren«! Das würde die Option deaktivieren. (Ein Meisterbeispiel für GUI Fails …)
Erst jetzt werden Sie dazu aufgefordert, einen Benutzer einzurichten, der dann auch sudo-Rechte erhält. Sobald Sie alle Daten samt Passwort festgelegt haben, können Sie sich einloggen und mit Fedora loslegen.
Erst ganz zum Schluss richten Sie den Benutzer-Account ein
Um den Hostname hat sich weder das Installationsprogramm noch der Setup-Assistent gekümmert. Außerdem sollten Sie gleich ein erstes Update durchführen:
Die einzige Auffälligkeit ist die komplett veraltete MariaDB-Version. Aktuell ist 12.0, Debian verwendet immerhin 11.8. Die von Fedora eingesetzte Version 10.11 wurde im Februar 2023 (!!) veröffentlicht.
Dafür enthält Fedora mit Version 8.4 eine ganz aktuelle MySQL-Version. Generell steht MySQL erst seit Fedora 41 wieder regulär in Fedora zur Verfügung; ältere Versionen waren MariaDB-only.
Neuerungen
Wenn man von durch Software-Updates verbundenen optischen Änderungen absieht (z.B. in Gnome), gibt es relativ wenig technische Änderungen, und noch weniger davon sind sichtbar.
Gnome und gdm sind seit Version 49 Wayland-only. Darüber wurde in den letzten Wochen schon viel geschrieben. Seit die NVIDIA-Treiber endlich Wayland-kompatibel sind, ist der Abschied von X nicht mehr aufzuhalten. (Persönlich vermisse ich X nicht. Die meisten Linux-Anwender werden keinen Unterschied bemerken bzw. arbeiten ohnedies schon seit zwei, drei Releases mit Wayland, ohne es zu wissen …)
Fedora 43 verwendet erstmals RPM 6.0 als Basis zur Verpackung von Software-Paketen. Daraus ergeben sich neue Möglichkeiten beim Signieren von Paketen, aber an der Anwendung des rpm-Kommandos (das Sie ohnedies selten benötigen werden, es gibt ja dnf) ändert sich nichts.
Distributions-Upgrades auf die neue Fedora-Version können Sie jetzt äußerst komfortabel direkt im Gnome-Programm Software starten.
Distributions-Upgrade in Gnome »Software« starten
Wie bisher können Sie natürlich auch auf die folgende Kommandoabfolge zurückgreifen:
Auf UEFI-Systemen setzt das Installationsprogramm nun eine GPT-Partitionierung voraus (nicht MBR).
Die /boot-Partition wird mit 2 GiB großzügiger als bisher dimensioniert, um Platz für zukünftige neue Boot-Systeme zu schaffen.
dnf module gibt es nicht mehr, weil das Modularity-Projekt eingestellt wurde. Bei Fedora ist das weniger schade als bei RHEL, wo ich dieses Feature wirklich vermisse.
dracut, das Tool zum Erzeugen von initramfs-Dateien, verwendet nun zstd statt xz zum Komprimieren der Dateien. Das macht die Boot-Dateien größer, aber den Boot-Vorgang schneller.
Fazit
Ich habe in den letzten Monaten sehr viel unter Fedora gearbeitet. Fedora ist dabei zu meiner zweiten Lieblingsdistribution geworden (neben Arch Linux). Im Betrieb gab es eigentlich nichts auszusetzen. Auch die Distributions-Upgrades haben mehrfach gut funktioniert: Ich habe zuletzt eine physische Installation von Fedora 41 auf 42 und vorgestern auf 43 aktualisiert. Zwischenzeitlich hat sich sogar der Rechner geändert, d.h. ich habe die SSD bei einem Rechner aus- und bei einem anderen Rechner wieder eingebaut. Hat alles klaglos funktioniert.
Das neue Installationsprogramm (neu schon seit der vorigen Version, also Fedora 42) ist aber definitiv ein Rückschritt — und das alte war schon keine Offenbarung. Bevor der Installer in Zukunft unter RHEL 11 zum Einsatz kommen kann, muss Red Hat noch viel nacharbeiten. Wie soll damit ein für den Server-Einsatz übliches RAID- oder LVM-Setup gelingen?
Der oft gehörten Empfehlung, Fedora sei durchaus für Einsteiger geeignet, kann ich deswegen nur teilweise zustimmen. Im Betrieb ist Fedora in der Tat so unkompliziert und stabil wie vergleichbare Distributionen (Debian, Ubuntu etc.). Für die Installation gilt dies aber nur, wenn Sie den gesamten Datenträger — z.B. eine zweite SSD — für Fedora nutzen möchten und mit dem vorgegebenen Default-Layout einverstanden sind. Unkompliziert ist natürlich auch die Installation in eine virtuelle Maschine. Aber jeder Sonderwunsch — ext4 statt btrfs, eine getrennte /home-Partition etc. — wird sofort zum Abenteuer. Schade.
Die Document Foundation hat LibreOffice 25.2.7 veröffentlicht. Die neue Version steht ab sofort für Windows, macOS und Linux bereit und markiert das letzte Wartungsupdate der 25.2-Reihe der bekannten freien Office-Suite. Das Update behebt insgesamt 43 Fehler und verbessert damit Stabilität und Zuverlässigkeit in allen Programmbereichen. Besonders auffällig sind die zahlreichen Korrekturen bei Abstürzen, die beim […]
Firefox Klar (internationaler Name: Firefox Focus) ist ein im Funktionsumfang gegenüber Firefox deutlich reduzierter Browser, bei dem Privatsphäre besonders im Vordergrund steht. Während vor zwei Wochen Firefox 144 für iOS, ebenso wie Firefox 144 für Android und auch Firefox Klar 144 für Android erschienen, sucht man nach Firefox Klar 144 für Apple iOS nach wie vor vergebens.
Wie Mozilla auf Nachfrage bestätigt hat, werden neue Versionen von Firefox Klar für iOS nicht länger parallel zu jedem Firefox-Update veröffentlicht. Ohnehin dürften die Updates in der Vergangenheit wenige bis teilweise vielleicht sogar keine Änderungen gehabt haben, da Firefox Klar einen bewusst sehr reduzierten Funktionsumfang hat, der gar nicht erweitert werden soll. Und da praktisch alle Browser auf iOS unter der Haube auf die Engine von Safari setzen, sind auch zwecks Webkompatibilität, anders als auf Android, keine Updates für Firefox Klar notwendig.
Sicherheits- und Bugfix-Updates sowie Anpassungen für neuere iOS-Versionen werden aber weiterhin erscheinen, wenn dies notwendig ist.
Die quelloffene Cloud-Office-Lösung ONLYOFFICE veröffentlicht die Version 3.5 der Kollaborationslösung ONLYOFFICE DocSpace, die gemeinsame Arbeit an Dokumenten in sogenannten “Räumen” mit vordefinierten Berechtigungen ermöglicht. Das Update bringt zahlreiche Neuerungen für Teams, die gemeinsam an Dokumenten arbeiten. Die wichtigste und zentrale Neuerung ist die Integration der Editoren der neuesten Version 9.1 von ONLYOFFICE Docs. Darüber hinaus lassen sich Dateien nun einfacher teilen, da Nutzer nun auch Ordner freigeben können, ohne zuvor einen eigenen Raum erstellt zu haben. Auch die Möglichkeit, individuelle Links zum Teilen von Dateien oder Ordnern zu erstellen, ist Teil des Updates. Zudem bringt DocSpace 3.5 eine überarbeitete Nutzeroberfläche mit neuen Registerkarten wie die dedizierten Reiter “Für mich freigegeben”, “Zuletzt geöffnet” und “Favoriten”.
Red Hat, der weltweit führende Anbieter von Open-Source-Lösungen, hat heute mit Red Hat AI 3eine umfangreiche Weiterentwicklung seiner Enterprise-AI-Plattform angekündigt. Die Kombination der neuesten Funktionen von Red Hat AI Inference Server, Red Hat Enterprise Linux AI (RHEL AI) und Red Hat OpenShift AI hilft dabei, die Komplexität von hochperformanter KI-Inferenz deutlich zu reduzieren. Unternehmen können ihre Workloads damit sehr viel schneller von einem Proof-of-Concept in die Produktionsphase überführen und die Zusammenarbeit rund um KI-gestützte Anwendungen verbessern.
Das InfinityBook Pro 15 vereint einen angenehm großen, hellen 15,3-Zoll-Bildschirm und hohe Arbeitsgeschwindigkeit für Softwareentwickler und Medienschaffende dank Intel Core Ultra Prozessor und bis zu 128 GB RAM mit einem herausragenden Mobilitätsfaktor, bestehend aus einem überaus dünnen und leichten Vollaluminiumgehäuse, einem maximal erlaubten 99-Wh-Akku und flexibler USB-C-Stromversorgung.
Digitale Bedrohungen nehmen weltweit kontinuierlich zu. Meldungen über Malware, Ransomware oder DDoS-Attacken gehören bereits zum Alltag. Und auch Angriffe auf Software Supply Chains gibt es immer öfter. Die Täter nehmen dabei gern Marktplätze ins Visier, auf denen Entwickler fertige Software-Bausteine bzw. -Pakete tauschen. Was ist also beim Schwachstellenmanagement zu beachten? Welche Rolle spielt Open Source? Auf diese Fragen mussten auch wir bei Stackable Antworten finden.