Lese-Ansicht

Linux Coffee Talk 1/2026

Euer monatliches Lieblingsformat bei fosstopia ist wieder da! Gemeinsam werfen wir einen Blick auf die spannendsten Ereignisse und Entwicklungen der letzten Wochen und ordnen sie für Euch ein. Also: schnappt Euch einen Kaffee, Tee, heißen Kakao oder Euer Lieblingsgetränk, macht es Euch gemütlich und lasst uns den Januar 2026 Revue passieren. In dieser Ausgabe erwarten Euch die wichtigsten […]

Der Beitrag Linux Coffee Talk 1/2026 erschien zuerst auf fosstopia.

  •  

Firefox 148 bekommt „Kill Switch” für KI-Funktionen

Bereits das kommende Feature-Update von Firefox wird eine eigene Einstellungs-Seite für KI-Funktionen erhalten. Über diese lassen sich zentral an einem Ort alle KI-Features einzeln oder auch generell – und damit einschließlich zukünftiger Funktionen – abschalten.

Künstliche Intelligenz (KI) ist ein Thema, welches mittlerweile omnipräsent ist. Die einen lieben es, andere möchten am liebsten gar nichts damit zu tun haben. Auch Firefox bietet bereits ein paar Funktionen mit KI-Unterstützung an, weitere werden in der Zukunft folgen. Dabei waren sämtliche KI-Funktionen in Firefox vom ersten Tag an optional. Außerdem setzt Mozilla für eine verbesserte Privatsphäre bevorzugt auf lokale KI anstelle von Cloud-basierten KI-Lösungen.

Um die Verwaltung von KI-Funktionen noch einfacher für die Nutzer von Firefox zu machen, erweitert Mozilla mit Firefox 148 die Einstellungen um einen zusätzlichen Bereich mit der Bezeichnung „KI-Einstellungen”. Dieser neue Bereich bietet einen Ort, um alle KI-Funktionen zentral zu steuern. Dabei kann der Nutzer zwischen drei Optionen wählen: „Aktiviert” bedeutet, das jeweilige Feature ist aktiv. „Verfügbar” bedeutet, dass das Feature noch nicht aktiv ist, dem Nutzer aber angeboten wird und von diesem aktiviert werden kann. Bei „Blockiert” wird die Funktion dem Nutzer gar nicht erst angeboten und entsprechende Optionen ausgeblendet. Wurden bereits lokale KI-Modelle heruntergeladen, werden diese bei Auswahl vom Gerät gelöscht.

Firefox 148 bietet Einstellungen für fünf KI-basierte Funktionen an: Übersetzungen von Websites in andere Sprachen, die Generierung von Alternativtexten beim Hinzufügen von Bildern in PDF-Dateien, um deren Barrierefreiheit zu verbessern, Vorschläge für andere Tabs sowie Beschriftungen für Tab-Gruppen, KI-Zusammenfassungen für die Link-Vorschau sowie diverse Chatbots in der Sidebar.

Drei dieser fünf KI-Funktionen stehen derzeit nur für Nutzer zur Verfügung, welche Firefox in englischer Sprache nutzen. Entsprechend sehen Nutzer anderer Sprachen weniger Optionen in Firefox 148, sodass keine irrelevanten Funktionen dargestellt werden. Zu jeder KI-Funktion gibt es einen kurzen Erklärungstext sowie einen Link mit detaillierten Informationen.

Darüber hinaus bietet Firefox 148 auch noch einen globalen Schalter zum Ein- und Ausschalten von KI-Funktionen an. Medien hatten in diesem Zusammenhang in den letzten Wochen häufig von einem sogenannten „Kill Switch” gesprochen, weswegen diese Wortwahl hier aufgegriffen werden soll.

Hierüber können alle KI-Funktionen mit einem Mal deaktiviert werden – und damit auch sämtliche KI-Funktionen, die es noch gar nicht gibt und erst irgendwann in der Zukunft dazu kommen werden. Wird die globale Einstellung genutzt, wird darüber hinaus auch die Erweiterungs-Schnittstelle für KI-Funktionen abgeschaltet.

AI Kill Switch in Firefox 148

Firefox 148 wird nach aktueller Planung am 24. Februar 2026 erscheinen. Nutzer einer Beta-Version von Firefox 148 können bereits jetzt die Option browser.preferences.aiControls in about:config per Doppelklick auf true schalten, um die neuen KI-Einstellungen zu aktivieren.

Der Beitrag Firefox 148 bekommt „Kill Switch” für KI-Funktionen erschien zuerst auf soeren-hentzschel.at.

  •  

NVIDIA bringt GeForce NOW erstmals als native Linux App

NVIDIA öffnet sein Cloud Gaming Angebot nun auch für Linux Systeme. Die neue native App steht ab sofort als Beta bereit und markiert einen deutlichen Schritt weg von der bisherigen Steam Deck Ausrichtung. Die GeForce NOW App richtet sich klar an Desktop Nutzer und soll das Erlebnis der Windows und macOS Versionen erreichen. Die Installation […]

Der Beitrag NVIDIA bringt GeForce NOW erstmals als native Linux App erschien zuerst auf fosstopia.

  •  

VirtualBox 7.2.6 bringt wichtige Verbesserungen der Stabilität

VirtualBox legt mit Version 7.2.6 ein Update vor, das viele Schwachstellen beseitigt und den Alltag mit virtuellen Maschinen spürbar ruhiger macht. Die Entwickler konzentrieren sich klar auf Zuverlässigkeit und räumen zahlreiche Fehler aus, die Hosts und Gäste gleichermaßen betreffen. Der Virtual Machine Manager arbeitet nun stabiler und reagiert besser auf ungewöhnliche Startsituationen. Frühere Abstürze beim […]

Der Beitrag VirtualBox 7.2.6 bringt wichtige Verbesserungen der Stabilität erschien zuerst auf fosstopia.

  •  

Enterprise Policy Generator 7.3 für Firefox veröffentlicht

Der Enterprise Policy Generator richtet sich an Administratoren von Unternehmen und Organisationen, welche Firefox konfigurieren wollen. Mit dem Enterprise Policy Generator 7.3 ist nun ein Update erschienen.

Enterprise Policy Generator

Download Enterprise Policy Generator für Firefox

Die Enterprise Policy Engine erlaubt es Administratoren, Firefox über eine Konfigurationsdatei zu konfigurieren. Der Vorteil dieser Konfigurationsdatei gegenüber Group Policy Objects (GPO) ist, dass diese Methode nicht nur auf Windows, sondern plattformübergreifend auf Windows, Apple macOS sowie Linux funktioniert.

Der Enterprise Policy Generator hilft bei der Zusammenstellung der sogenannten Enterprise Policies, sodass kein tiefergehendes Studium der Dokumentation und aller möglichen Optionen notwendig ist und sich Administratoren die gewünschten Enterprise Policies einfach zusammenklicken können.

Neuerungen vom Enterprise Policy Generator 7.3

Der Enterprise Policy Generator 7.3 bringt Unterstützung für die DisableRemoteImprovements-Richtlinie in Firefox 148 und höher, um Firefox daran zu hindern, Funktionen, Leistung und Stabilität zwischen den Updates zu verbessern. Dazu kommt die Unterstützung für die HarmfulAddon-Option in der EnableTrackingProtection-Richtlinie zur Blockierung schädlicher Add-ons in Firefox 147 und höher. Darüber hinaus gab es diverse kleinere Verbesserungen für bereits länger bestehende Richtlinien.

Abseits von Unternehmensrichtlinien wurde die Jahreszahl im Footer von 2025 auf 2026 geändert und eine nicht mehr notwendige Eigenschaft aus dem Erweiterungs-Manifest entfernt.

Der Enterprise Policy Generator 7.3 ist die letzte Version mit Unterstützung von Firefox ESR 128. Der Enterprise Policy Generator 8.0 wird Firefox 140 oder höher voraussetzen.

Entwicklung unterstützen

Wer die Entwicklung des Add-ons unterstützen möchte, kann dies tun, indem er der Welt vom Enterprise Policy Generator erzählt und die Erweiterung auf addons.mozilla.org bewertet. Auch würde ich mich sehr über eine kleine Spende freuen, welche es mir ermöglicht, weitere Zeit in die Entwicklung des Add-on zu investieren, um zusätzliche Features zu implementieren.

Der Beitrag Enterprise Policy Generator 7.3 für Firefox veröffentlicht erschien zuerst auf soeren-hentzschel.at.

  •  

LM Studio

Wer sich dafür interessiert, Sprachmodelle lokal auszuführen, landen unweigerlich bei Ollama. Dieses Open-Source-Projekt macht es zum Kinderspiel, lokale Sprachmodelle herunterzuladen und auszuführen. Die macOS- und Windows-Version haben sogar eine Oberfläche, unter Linux müssen Sie sich mit dem Terminal-Betrieb oder der API begnügen.

Zuletzt machte Ollama allerdings mehr Ärger als Freude. Auf gleich zwei Rechnern mit AMD-CPU/GPU wollte Ollama pardout die GPU nicht nutzen. Auch die neue Umgebungsvariable OLLAMA_VULKAN=1 funktionierte nicht wie versprochen, sondern reduzierte die Geschwindigkeit noch weiter.

Kurz und gut, ich hatte die Nase voll, suchte nach Alternativen und landete bei LM Studio. Ich bin begeistert. Kurz zusammengefasst: LM Studio unterstützt meine Hardware perfekt und auf Anhieb (auch unter Linux), bietet eine Benutzeroberfläche mit schier unendlich viel Einstellmöglichkeiten (wieder: auch unter Linux) und viel mehr Funktionen als Ollama. Was gibt es auszusetzen? Das Programm richtet sich nur bedingt an LLM-Einsteiger, und sein Code untersteht keiner Open-Source-Lizenz. Das Programm darf zwar kostenlos genutzt werden (seit Mitte 2025 auch in Firmen), aber das kann sich in Zukunft ändern.

Installation unter Linux

Kostenlose Downloads für LM Studio finden Sie unter https://lmstudio.ai. Die Linux-Version wird als sogenanntes AppImage angeboten. Das ist ein spezielles Paketformat, das grundsätzlich eine direkte Ausführung der heruntergeladenen Datei ohne explizite Installation erlaubt. Das funktioniert leider nur im Zusammenspiel mit wenigen Linux-Distributionen auf Anhieb. Bei den meisten Distributionen müssen Sie die Datei nach dem Download explizit als »ausführbar« kennzeichnen. Je nach Distribution müssen Sie außerdem die FUSE-Bibliotheken installieren. (FUSE steht für Filesystem in Userspace und erlaubt die Nutzung von Dateisystem-Images ohne root-Rechte oder sudo.)

Unter Fedora funktioniert es wie folgt:

sudo dnf install fuse-libs         # FUSE-Bibliothek installieren
chmod +x Downloads/*.AppImage      # execute-Bit setzen
Downloads/LM-Studio-<n.n>.AppImage # LM Studio ausführen

Nach dnf install fuse-libs und chmod +x können Sie LM Studio per Doppelklick im Dateimanager starten.

Erste Schritte

Nach dem ersten Start fordert LM Studio Sie auf, ein KI-Modell herunterzuladen. Es macht gleich einen geeigneten Vorschlag. In der Folge laden Sie dieses Modell und können dann in einem Chat-Bereich Prompts eingeben. Die Eingabe und die Darstellung der Ergebnisse sieht ganz ähnlich wie bei populären Weboberflächen aus (also ChatGPT, Claude etc.).

Nachdem Sie sich vergewissert haben, dass LM Studio prinzipiell funktioniert, ist es an der Zeit, die Oberfläche genauer zu erkunden. Grundsätzlich können Sie zwischen drei Erscheinungsformen wählen, die sich an unterschiedliche Benutzergruppen wenden: User, Power User und Developer.

In den letzteren beiden Modi präsentiert sich die Benutzeroberfläche in all ihren Optionen. Es gibt
vier prinzipielle Ansichten, die durch vier Icons in der linken Seitenleiste geöffnet werden:

  • Chats
  • Developer (Logging-Ausgaben, Server-Betrieb)
  • My Models (Verwaltung der heruntergeladenen Sprachmodelle)
  • Discover (Suche und Download weiterer Modelle).

GPU Offload und Kontextlänge einstelln

Sofern Sie mehrere Sprachmodelle heruntergeladen haben, wählen Sie das gewünschte Modell über ein Listenfeld oberhalb des Chatbereichs aus. Bevor der Ladevorgang beginnt, können Sie diverse Optionen einstellen (aktivieren Sie bei Bedarf Show advanced settings). Besonders wichtig sind die Parameter Context Length und GPU Offload.

Die Kontextlänge limitiert die Größe des Kontextspeichers. Bei vielen Modellen gilt hier ein viel zu niedriger Defaultwert von 4000 Token. Das spart Speicherplatz und erhöht die Geschwindigkeit des Modells. Für anspruchsvolle Coding-Aufgaben brauchen Sie aber einen viel größeren Kontext!

Der GPU Offload bestimmt, wie viele Ebenen (Layer) des Modells von der GPU verarbeitet werden sollen. Für die restlichen Ebenen ist die CPU zuständig, die diese Aufgabe aber wesentlich langsamer erledigt. Sofern die GPU über genug Speicher verfügt (VRAM oder Shared Memory), sollten Sie diesen Regler immer ganz nach rechts schieben! LM Studio ist nicht immer in der Lage, die Größe des Shared Memory korrekt abzuschätzen und wählt deswegen mitunter einen zu kleinen GPU Offload.

Grundeinstellungen beim Laden eines Sprachmodells
Überblick über die heruntergeladenen Sprachmodelle

Debugging und Server-Betrieb

In der Ansicht Developer können Sie Logging-Ausgaben lesen. LM Studio verwendet wie Ollama und die meisten anderen KI-Oberflächen das Programm llama.cpp zur Ausführung der lokalen Modelle. Allerdings gibt es von diesem Programm unterschiedliche Versionen für den CPU-Betrieb (langsam) sowie für diverse GPU-Bibliotheken.

In dieser Ansicht können Sie den in LM Studio integrierten REST-Server aktivieren. Damit können Sie z.B. mit eigenen Python-Programmen oder mit dem VS-Code-Plugin Continue Prompts an LM Studio senden und dessen Antwort verarbeiten. Standardmäßig kommt dabei der Port 1234 um Einsatz, wobei der Zugriff auf den lokalen Rechner limitiert ist. In den Server Settings können Sie davon abweichende Einstellungen vornehmen.

Logging-Ausgaben und Server-Optionen
Hinter den Kulissen greift LM Studio auf »llama.cpp« zurück

Praktische Erfahrungen am Framework Desktop

Auf meinem neuen Framework Desktop mit 128 GiB RAM habe ich nun diverse Modelle ausprobiert. Die folgende Tabelle zeigt die erzielte Output-Geschwindigkeit in Token/s. Beachten Sie, dass die Geschwindigkeit spürbar sinkt wenn viel Kontext im Spiel ist (größere Code-Dateien, längerer Chat-Verlauf).

Sprachmodell                  MoE        Parameter    Quant.      Token/s
-------------                 -----     ----------   ---------   --------
deepseek-r1-distill-qwen-14b  nein         14 Mrd.    Q4_K_S           22
devstral-small-2-2512         nein         25 Mrd.    Q4_K_M           13
glm-4.5-air                   ja          110 Mrd.    Q3_K_L           25
gpt-oss-20b                   ja           20 Mrd.    MXFP4            65
gpt-oss-120b                  ja          120 Mrd.    MXFP4            48
nouscoder-14b                 nein         14 Mrd.    Q4_K_S           22
qwen3-30b-a3b                 ja           30 Mrd.    Q4_K_M           70
qwen3-next-80b-83b            ja           80 Mrd.    Q4_K_XL          40
seed-oss-36b                  nein         36 Mrd.    Q4_K_M           10

Normalerweise gilt: je größer das Sprachmodell, desto besser die Qualität, aber desto kleiner die Geschwindigkeit. Ein neuer Ansatz durchbricht dieses Muster. Bei Mixture of Expert-Modellen (MoE-LLMs) gibt es Parameterblöcke für bestimmte Aufgaben. Bei der Berechnung der Ergebnis-Token entscheidet das Modell, welche »Experten« für den jeweiligen Denkschritt am besten geeignet sind, und berücksichtigt nur deren Parameter.

Ein populäres Beispiel ist das freie Modell GPT-OSS-120B. Es umfasst 117 Milliarden Parameter, die in 36 Ebenen (Layer) zu je 128 Experten organisiert sind. Bei der Berechnung jedes Output Tokens sind in jeder Ebene immer nur vier Experten aktiv. Laut der Modelldokumentation sind bei der Token Generation immer nur maximal 5,1 Milliarden Parameter aktiv. Das beschleunigt die Token Generation um mehr als das zwanzigfache:

Welches ist nun das beste Modell? Auf meinem Rechner habe ich mit dem gerade erwähnten Modell GPT-OSS-120B sehr gute Erfahrungen gemacht. Für Coding-Aufgaben funktionieren auch qwen3-next-80b-83b und glm-4.5-air gut, wobei letzteres für den praktischen Einsatz schon ziemlich langsam ist.

Quellen/Links

  •  

Mozilla veröffentlicht Sicherheits-Update Firefox 147.0.2

Mozilla hat Firefox 147.0.2 veröffentlicht und behebt damit mehrere Probleme der Vorgängerversion. Auch Sicherheitslücken wurden behoben.

Download Mozilla Firefox 147.0.2

Mozilla hat Firefox 147.0.2 für Windows, macOS und Linux veröffentlicht und behebt damit mehrere Sicherheitslücken, diverse potenzielle Absturzursachen sowie mehrere Webkompatibilitätsprobleme, darunter eines, welches unerwartete WebAuthn-Anfragen verursachen konnte.

Websites konnten vom Safe Browsing-Schutz unter Umständen fälschlicherweise als schädlich erkannt werden.

Mehrere Probleme wurden auch in Zusammenhang mit der Unterstützung für die XDG Base Directory-Spezifikation unter Linux behoben.

Außerdem zeigten Zertifikats-Fehlerseiten in manchen Fällen den Port doppelt an.

Der Beitrag Mozilla veröffentlicht Sicherheits-Update Firefox 147.0.2 erschien zuerst auf soeren-hentzschel.at.

  •  

Bottles 61 bringt mit Eagle ein mächtiges Analysewerkzeug

Die neue Version von Bottles setzt einen deutlichen Schwerpunkt auf mehr Transparenz. Das Projekt erweitert seine Umgebung für Windows Programme auf Linux um ein Werkzeug, das Nutzern vor dem Start einer Datei wichtige Hinweise liefert. Das neue Analysewerkzeug Eagle untersucht ausgewählte Dateien sehr genau. Das Tool erkennt typische Installer und öffnet deren Inhalt in einer […]

Der Beitrag Bottles 61 bringt mit Eagle ein mächtiges Analysewerkzeug erschien zuerst auf fosstopia.

  •  

Firefox: Release-Termine 2026

Dieser Artikel fasst die Veröffentlichungstermine für Firefox und Firefox ESR im Jahr 2026 übersichtlich zusammen.

Neue Major-Releases von Firefox erscheinen in der Regel alle vier Wochen. Auf diese Weise erreichen Neuerungen schneller den Endnutzer und man muss nicht viele Monate auf bereits implementierte Funktionen warten. Dies sind die Veröffentlichungstermine von Firefox für das Jahr 2026.

Das sind die Firefox Release-Termine 2026

Firefox 147, Firefox ESR 140.7, Firefox ESR 115.32
13. Januar 2026 (5 Wochen nach Firefox 146)

Firefox 148, Firefox ESR 140.8, Firefox ESR 115.33
24. Februar 2026 (6 Wochen nach Firefox 147)

Firefox 149, Firefox ESR 140.9
24. März 2026 (4 Wochen nach Firefox 148)

Firefox 150, Firefox ESR 140.10
21. April 2026 (4 Wochen nach Firefox 149)

Firefox 151, Firefox ESR 140.11
19. Mai 2026 (4 Wochen nach Firefox 150)

Firefox 152, Firefox ESR 140.12
16. Juni 2026 (4 Wochen nach Firefox 151)

Firefox 153, Firefox ESR 153.0, Firefox ESR 140.13
21. Juli 2026 (5 Wochen nach Firefox 152)

Firefox 154, Firefox ESR 153.1, Firefox ESR 140.14
18. August 2026 (4 Wochen nach Firefox 153)

Firefox 155, Firefox ESR 153.2, Firefox ESR 140.15
15. September 2026 (4 Wochen nach Firefox 154)

Firefox 156, Firefox ESR 153.3
13. Oktober 2026 (4 Wochen nach Firefox 155)

Firefox 157, Firefox ESR 153.4
10. November 2026 (4 Wochen nach Firefox 156)

Firefox 158, Firefox ESR 153.5
8. Dezember 2026 (4 Wochen nach Firefox 157)

Firefox 159, Firefox ESR 153.6
19. Januar 2027 (6 Wochen nach Firefox 158)

Der Beitrag Firefox: Release-Termine 2026 erschien zuerst auf soeren-hentzschel.at.

  •  

FOSDEM 2026: Volles Haus für Open Source

Das Event FOSDEM 2026 bringt die Open Source Szene an einem Wochenende zusammen. Das FOSDEM 26 Event findet dieses Jahr vom 31. Januar bis 1. Februar in Brüssel statt. Über 1.100 Sprecher füllen zahlreiche Devrooms mit mehr als 1.000 Veranstaltungen. Die Bandbreite reicht von tiefen technischen Vorträgen bis zu kurzen Lightning Talks und lebhaften Diskussionsrunden. […]

Der Beitrag FOSDEM 2026: Volles Haus für Open Source erschien zuerst auf fosstopia.

  •  

Firefox Nightly erhält erstmals offizielles RPM Paket

Mozilla erweitert sein Angebot und liefert nun ein eigenes RPM Paket für Firefox Nightly. Damit erreicht der Browser erstmals Nutzer vieler RPM basierter Distributionen über eine native Paketquelle. Die Installation wird dadurch deutlich einfacher. Bisher bot Mozilla nur ein DEB Paket für Debian Systeme an. Nun erhalten auch Nutzer von Fedora oder openSUSE direkten Zugriff […]

Der Beitrag Firefox Nightly erhält erstmals offizielles RPM Paket erschien zuerst auf fosstopia.

  •  

Myrlyn 1.0 verbessert Paketmanagement in openSUSE

Myrlyn erreicht die erste große Version 1.0 und rückt damit näher an die Rolle eines modernen Software Werkzeugs für openSUSE. Die Anwendung setzt auf Qt und nutzt den libzypp Unterbau. Sie soll langfristig viele Aufgaben von YaST übernehmen. Neu ist der Zugriff auf Community Repositories für Leap 16.0. Diese Quellen fehlten bisher und lassen sich […]

Der Beitrag Myrlyn 1.0 verbessert Paketmanagement in openSUSE erschien zuerst auf fosstopia.

  •  

MX Linux 25.1 startet mit flexiblem Init System

MX Linux legt nach und veröffentlicht mit Version 25.1 das erste Point Release der Infinity Serie. Die neue Ausgabe baut auf Debian 13.3 auf und bringt aufgefrischte Kernel für unterschiedliche Systeme mit. Nutzer erhalten damit eine frische Basis für den Alltag. Die Entwickler setzen auf Linux 6.12 LTS für die regulären Abbilder. Die AHS (Advanced […]

Der Beitrag MX Linux 25.1 startet mit flexiblem Init System erschien zuerst auf fosstopia.

  •  

Firefox Nightly als .rpm-Paket für Linux verfügbar

Mozilla stellt Firefox Nightly ab sofort auch als .rpm-Paket für Linux zur Verfügung.

Wer Firefox auf Linux nutzen möchte, hat dazu verschiedene Möglichkeiten: Neben Archiven von Mozilla und möglicherweise der Paketverwaltung der genutzten Distribution gibt es auch noch Snap, Flatpak sowie .deb-Pakete für Debian-basierte Distributionen. In Zukunft kommt noch eine weitere Option dazu.

Die Nightly-Version von Firefox liegt ab sofort auch als .rpm-Paket vor. RPM steht für Red Hat Package Manager. Linux-Distributionen, welche RPM nutzen, sind unter anderem Fedora, openSUSE, CentOS oder RHEL. Die .rpm-Pakete bieten die gleichen Vorteile wie die .tar.xz-Archive, die man via mozilla.org herunterladen kann und damit im Vergleich zum Firefox aus einer traditionellen Paketverwaltung unter Linux dank Mozillas Compiler-Optimierungen eine bessere Performance und Sicherheit bieten und außerdem Updates, die den Nutzer schneller erreichen.

Nach einer Testphase sollen die .rpm-Pakete natürlich auch für Firefox Beta sowie die finalen Firefox-Veröffentlichungen und Firefox ESR zur Verfügung stehen.

Informationen zur Installation der .deb-Pakete von Firefox hat Mozilla in seinem Blog (engl.) zusammengefasst.

Der Beitrag Firefox Nightly als .rpm-Paket für Linux verfügbar erschien zuerst auf soeren-hentzschel.at.

  •  

Warum und wie ich KeePass benutze

Ich könnte den Spiess ja umdrehen, wieso nutzt Du Keepass und nimmst die Unbequemlichkeit in Kauf?

Aus einem privaten Matrix-Chat mit einer Person im Internet.

Nun gut, ich möchte dieser Person den Artikel nicht schuldig bleiben. ;-)

Warum ich KeePass benutze

Dies hat wie so oft historische Gründe. Die erste Referenz zu KeePass in diesem Blog ist vom 8. Januar 2011. Etwas später, am 20.01.2011, hatte ich dem Thema einen eigenen Artikel gewidmet: Sichere Passwörter und wie man sie verwaltet. Der Artikel hat in meinen Augen nicht an Aktualität verloren, mit zwei kleinen Ausnahmen:

Bei der Wahl der KeePass-Projekte habe ich mich von diesem Artikel von Mike Kuketz beeinflussen lassen.

Ich bin privat dabei geblieben, weil ich die Nutzung gewohnt bin und bisher keinen Grund zu einem Wechsel sehe. Beruflich nutze ich inzwischen Bitwarden, da dies von meinem Arbeitgeber zur Verfügung gestellt wird und ich somit ein offiziell geprüftes und genehmigtes Werkzeug für dienstliche Zwecke verwende. Darüber hinaus finde ich Bitwarden genauso gut wie KeePassXC.

Wie ich KeePass benutze

KeePassXC ist auf allen meinen Geräten des Typs Laptop, Desktop-PC/Heimserver installiert. Auf meinem Tablet und Smartphone nutze ich KeePassDX, welcher auch im F-Droid-Store verfügbar ist.

Die KeePass-Datenbank halte ich mit einer selbstgehosteten Nextcloud auf allen Geräten synchron bzw. stelle sie dort zur Verfügung. Auf PC und Laptop ist dabei permanent eine lokale Kopie der Datenbank verfügbar. Auf dem Smartphone/Tablet steht diese nur zeitlich begrenzt zur Verfügung, nämlich bis der Android-Dateimanager der KeePassDX-App den Zugriff auf die gecachte KeePass-Datenbank-Datei entzieht bzw. diese aus dem Cache entfernt wird. Schaut für weitere Hinweise hierzu bitte in die englischsprachige FAQ des Projekts.

Der Ablauf auf dem Smartphone sieht bei mir so aus:

  1. Nextcloud-App öffnen.
  2. KeePass-Datenbank auswählen und mit KeePassDX öffnen.
  3. Datenbank-Passwort eingeben und mit der üblichen Nutzung fortfahren.

Sollte ich mein Telefon oder Tablet mal verlieren, widerrufe ich den Access-Token in meiner Nextcloud, womit das jeweilige Gerät den Zugriff auf die Nextcloud und damit auf die KeePass-Datenbank verliert. Wichtig: Dies minimiert das Risiko, dass mir eine Kopie der KeePass-Datenbank verloren geht, bietet aber keinen 100%-igen Schutz. Bei der Offline-Funktionalität von Bitwarden schätze ich das Risiko ähnlich ein.

Um die Sicherheit noch etwas zu steigern, kann ich eine Funktion zur Fernlöschung nutzen, mit der die Inhalte von meinem Gerät gelöscht werden. Achtung: Dies funktioniert nur, wenn das Gerät mit dem Internet verbunden ist.

Aktuell entsperre ich die KeePass-Datenbank nur mit einem Passwort. Ich habe mir angesehen, wie man einen YubiKey als zusätzlichen Faktor nutzen kann. Leider wurde mein YubiKey in der Kombination YubiKey 5 NFC, Fedora 43 und KeePassXC nicht erkannt. Ich habe das Troubleshooting nach kurzer Zeit abgebrochen und beschlossen, dass der YubiKey und die dazugehörige Software für Linux aus der Hölle kommen und das Thema in eine Schublade zur E-Mail-Verschlüsselung gesperrt. Falls euch diese Problem bekannt vorkommt und ihr eine einfache Lösung dafür habt, bitte lasst mich wissen, welchen Zauber ihr gewirkt habt.

Browsererweiterung vs. Zwischenablage

Ich nutze die KeePassXC-Browser-Erweiterung, um mir das Leben etwas zu erleichtern und Login-Formulare per Klick ausfüllen zu lassen. Natürlich besteht hierbei das Restrisiko, dass durch eine Schwachstelle im Browser oder der Erweiterung die Login-Informationen abgefangen werden können. Dessen bin ich mir bewusst.

100%-ige Sicherheit gibt es nicht. Wenn sich ein Keylogger auf meinem System befindet oder eine Schadsoftware, welche die Zwischenablage mitschneidet, verliere ich die Informationen ebenfalls.

Da ich dank Passwort-Manager für alle Dienste unterschiedliche Passwörter und wo möglich Mehrfaktor-Authentisierung verwende, hält sich der Schaden selbst dann in Grenzen, wenn einzelne Passwörter kompromittiert werden.

Da ich kein IT-Sicherheitsexperte bin, möchte ich es hiermit aber auch gut sein lassen.

Viele Grüße ins Internet und an die Personen an den heimischen Datensichtgeräten.

  •  

Snap Store: Angriffe auf Publisher erschüttern Sicherheit

Im Snap Store wächst die Sorge um die Sicherheit von Anwendungen. Der zentrale App Store erleichtert zwar die Veröffentlichung neuer Software, doch genau diese Offenheit wird nun gezielt ausgenutzt. Ein erfahrener Snap Entwickler schlägt deshalb Alarm. Alan Pope beobachtet seit langer Zeit gefälschte Wallet Anwendungen im Store. Diese Programme imitieren bekannte Projekte und locken Nutzer […]

Der Beitrag Snap Store: Angriffe auf Publisher erschüttern Sicherheit erschien zuerst auf fosstopia.

  •  
❌