Der Enterprise Policy Generator richtet sich an Administratoren von Unternehmen und Organisationen, welche Firefox konfigurieren wollen. Mit dem Enterprise Policy Generator 7.3 ist nun ein Update erschienen.
Die Enterprise Policy Engine erlaubt es Administratoren, Firefox über eine Konfigurationsdatei zu konfigurieren. Der Vorteil dieser Konfigurationsdatei gegenüber Group Policy Objects (GPO) ist, dass diese Methode nicht nur auf Windows, sondern plattformübergreifend auf Windows, Apple macOS sowie Linux funktioniert.
Der Enterprise Policy Generator hilft bei der Zusammenstellung der sogenannten Enterprise Policies, sodass kein tiefergehendes Studium der Dokumentation und aller möglichen Optionen notwendig ist und sich Administratoren die gewünschten Enterprise Policies einfach zusammenklicken können.
Neuerungen vom Enterprise Policy Generator 7.3
Der Enterprise Policy Generator 7.3 bringt Unterstützung für die DisableRemoteImprovements-Richtlinie in Firefox 148 und höher, um Firefox daran zu hindern, Funktionen, Leistung und Stabilität zwischen den Updates zu verbessern. Dazu kommt die Unterstützung für die HarmfulAddon-Option in der EnableTrackingProtection-Richtlinie zur Blockierung schädlicher Add-ons in Firefox 147 und höher. Darüber hinaus gab es diverse kleinere Verbesserungen für bereits länger bestehende Richtlinien.
Abseits von Unternehmensrichtlinien wurde die Jahreszahl im Footer von 2025 auf 2026 geändert und eine nicht mehr notwendige Eigenschaft aus dem Erweiterungs-Manifest entfernt.
Der Enterprise Policy Generator 7.3 ist die letzte Version mit Unterstützung von Firefox ESR 128. Der Enterprise Policy Generator 8.0 wird Firefox 140 oder höher voraussetzen.
Entwicklung unterstützen
Wer die Entwicklung des Add-ons unterstützen möchte, kann dies tun, indem er der Welt vom Enterprise Policy Generator erzählt und die Erweiterung auf addons.mozilla.org bewertet. Auch würde ich mich sehr über eine kleine Spende freuen, welche es mir ermöglicht, weitere Zeit in die Entwicklung des Add-on zu investieren, um zusätzliche Features zu implementieren.
Univention reagiert auf den wachsenden Bedarf an digitaler Souveränität in Europa und stellt heute mit Nubus for Business Continuity ein neues Modell vor, mit dem Organisationen kostengünstig ein Open-Source-Backup-System für ihr IAM aufbauen können. Das Angebot richtet sich an Verwaltungen und Unternehmen, die ihre Abhängigkeit von proprietären Plattformen kritisch bewerten, aktuell jedoch noch keinen vollständigen Wechsel vollziehen können oder wollen.
mailbox, ein führender Anbieter für den digitalen Arbeitsplatz, launcht mit EVAC eine sofort einsatzbereite, sekundäre IT-Kommunikationsstruktur für Unternehmen und den öffentlichen Sektor. Mit der neuen Lösung gewährleisten Organisationen die Kontinuität ihrer Kommunikation bei Versagen ihrer primären Struktur durch Cyberangriffe, Serverausfälle oder Naturkatastrophen und bleiben so handlungsfähig. EVAC von mailbox ermöglicht die Erfüllung zentraler NIS-2-Anforderungen und des BSI-Standards 200-4 zum Business Continuity Management.
Eclipse SDV und der VDA bringen 32 führende Automobilunternehmen zusammen, um die Kollaboration für softwaredefinierte Mobilität voranzutreiben. Ziel ist es, die Entwicklungs- und Wartungsaufwände um bis zu 40 Prozent zu reduzieren und die Markteinführung um bis zu 30 Prozent zu beschleunigen.
Die Heinlein Hosting GmbH, rechtlicher Betreiber von mailbox, hat das BSI C5-Typ1-Testat des Bundesamts für Sicherheit in der Informationstechnik (BSI) erhalten. Dieses Testat der unabhängigen Prüfstelle bestätigt mailbox die vollständige Erfüllung der BSI-Sicherheitskriterien speziell für Cloud-Dienste. Gemeinsam mit der ISO/IEC 27001-Zertifizierung und seinen weiteren Auszeichnungen bezeugt das Testat die Priorität, die der Anbieter des sicheren digitalen Arbeitsplatzes E-Mail-Sicherheit, Informationssicherheit und Datenschutz einräumt.
Die Pacifico Digital Explorations GmbH aus Dresden entwickelt Individualsoftware und Plattformlösungen auf Open-Source-Basis. Mit dem eigenen Framework racletteJS wollen die Gründer Organisationen langfristige Unabhängigkeit statt Vendor-Lock-in bieten.
Das Berliner Unternehmen server.camp bietet Hosting für Open-Source-Tools wie Mattermost, Seafile und GitLab. Im Interview erklären die Gründer, warum sie digitale Souveränität für einen echten Wettbewerbsvorteil halten.
Mit diesem Fediverse-Dienst, erstellst du mühelos Einladungen für Veranstaltungen. Der Artikel zeigt, wie einfach das geht. Wenn du wissen möchtest, wer zu deiner nächsten Party kommt – lies weiter.
Die Desktop-Umgebung Xfce finanziert einen eigenen Wayland Compositor. Die Entwicklung von Xfwl4 hat bereits begonnen und soll im Sommer erste greifbare Ergebnisse zeigen.
Das Xfce-Team hat mitgeteilt, dass es Spendengelder aus der Community entschieden verwenden will, um den langjährigen Xfce-Kernentwickler Brian Tarricone mit der Entwicklung von „xfwl4“ zu…
Wer sich dafür interessiert, Sprachmodelle lokal auszuführen, landen unweigerlich bei Ollama. Dieses Open-Source-Projekt macht es zum Kinderspiel, lokale Sprachmodelle herunterzuladen und auszuführen. Die macOS- und Windows-Version haben sogar eine Oberfläche, unter Linux müssen Sie sich mit dem Terminal-Betrieb oder der API begnügen.
Zuletzt machte Ollama allerdings mehr Ärger als Freude. Auf gleich zwei Rechnern mit AMD-CPU/GPU wollte Ollama pardout die GPU nicht nutzen. Auch die neue Umgebungsvariable OLLAMA_VULKAN=1 funktionierte nicht wie versprochen, sondern reduzierte die Geschwindigkeit noch weiter.
Kurz und gut, ich hatte die Nase voll, suchte nach Alternativen und landete bei LM Studio. Ich bin begeistert. Kurz zusammengefasst: LM Studio unterstützt meine Hardware perfekt und auf Anhieb (auch unter Linux), bietet eine Benutzeroberfläche mit schier unendlich viel Einstellmöglichkeiten (wieder: auch unter Linux) und viel mehr Funktionen als Ollama. Was gibt es auszusetzen? Das Programm richtet sich nur bedingt an LLM-Einsteiger, und sein Code untersteht keiner Open-Source-Lizenz. Das Programm darf zwar kostenlos genutzt werden (seit Mitte 2025 auch in Firmen), aber das kann sich in Zukunft ändern.
Installation unter Linux
Kostenlose Downloads für LM Studio finden Sie unter https://lmstudio.ai. Die Linux-Version wird als sogenanntes AppImage angeboten. Das ist ein spezielles Paketformat, das grundsätzlich eine direkte Ausführung der heruntergeladenen Datei ohne explizite Installation erlaubt. Das funktioniert leider nur im Zusammenspiel mit wenigen Linux-Distributionen auf Anhieb. Bei den meisten Distributionen müssen Sie die Datei nach dem Download explizit als »ausführbar« kennzeichnen. Je nach Distribution müssen Sie außerdem die FUSE-Bibliotheken installieren. (FUSE steht für Filesystem in Userspace und erlaubt die Nutzung von Dateisystem-Images ohne root-Rechte oder sudo.)
Nach dnf install fuse-libs und chmod +x können Sie LM Studio per Doppelklick im Dateimanager starten.
Erste Schritte
Nach dem ersten Start fordert LM Studio Sie auf, ein KI-Modell herunterzuladen. Es macht gleich einen geeigneten Vorschlag. In der Folge laden Sie dieses Modell und können dann in einem Chat-Bereich Prompts eingeben. Die Eingabe und die Darstellung der Ergebnisse sieht ganz ähnlich wie bei populären Weboberflächen aus (also ChatGPT, Claude etc.).
Nachdem Sie sich vergewissert haben, dass LM Studio prinzipiell funktioniert, ist es an der Zeit, die Oberfläche genauer zu erkunden. Grundsätzlich können Sie zwischen drei Erscheinungsformen wählen, die sich an unterschiedliche Benutzergruppen wenden: User, Power User und Developer.
In den letzteren beiden Modi präsentiert sich die Benutzeroberfläche in all ihren Optionen. Es gibt
vier prinzipielle Ansichten, die durch vier Icons in der linken Seitenleiste geöffnet werden:
Chats
Developer (Logging-Ausgaben, Server-Betrieb)
My Models (Verwaltung der heruntergeladenen Sprachmodelle)
Discover (Suche und Download weiterer Modelle).
GPU Offload und Kontextlänge einstelln
Sofern Sie mehrere Sprachmodelle heruntergeladen haben, wählen Sie das gewünschte Modell über ein Listenfeld oberhalb des Chatbereichs aus. Bevor der Ladevorgang beginnt, können Sie diverse Optionen einstellen (aktivieren Sie bei Bedarf Show advanced settings). Besonders wichtig sind die Parameter Context Length und GPU Offload.
Die Kontextlänge limitiert die Größe des Kontextspeichers. Bei vielen Modellen gilt hier ein viel zu niedriger Defaultwert von 4000 Token. Das spart Speicherplatz und erhöht die Geschwindigkeit des Modells. Für anspruchsvolle Coding-Aufgaben brauchen Sie aber einen viel größeren Kontext!
Der GPU Offload bestimmt, wie viele Ebenen (Layer) des Modells von der GPU verarbeitet werden sollen. Für die restlichen Ebenen ist die CPU zuständig, die diese Aufgabe aber wesentlich langsamer erledigt. Sofern die GPU über genug Speicher verfügt (VRAM oder Shared Memory), sollten Sie diesen Regler immer ganz nach rechts schieben! LM Studio ist nicht immer in der Lage, die Größe des Shared Memory korrekt abzuschätzen und wählt deswegen mitunter einen zu kleinen GPU Offload.
Grundeinstellungen beim Laden eines SprachmodellsÜberblick über die heruntergeladenen Sprachmodelle
Debugging und Server-Betrieb
In der Ansicht Developer können Sie Logging-Ausgaben lesen. LM Studio verwendet wie Ollama und die meisten anderen KI-Oberflächen das Programm llama.cpp zur Ausführung der lokalen Modelle. Allerdings gibt es von diesem Programm unterschiedliche Versionen für den CPU-Betrieb (langsam) sowie für diverse GPU-Bibliotheken.
In dieser Ansicht können Sie den in LM Studio integrierten REST-Server aktivieren. Damit können Sie z.B. mit eigenen Python-Programmen oder mit dem VS-Code-Plugin Continue Prompts an LM Studio senden und dessen Antwort verarbeiten. Standardmäßig kommt dabei der Port 1234 um Einsatz, wobei der Zugriff auf den lokalen Rechner limitiert ist. In den Server Settings können Sie davon abweichende Einstellungen vornehmen.
Logging-Ausgaben und Server-OptionenHinter den Kulissen greift LM Studio auf »llama.cpp« zurück
Praktische Erfahrungen am Framework Desktop
Auf meinem neuen Framework Desktop mit 128 GiB RAM habe ich nun diverse Modelle ausprobiert. Die folgende Tabelle zeigt die erzielte Output-Geschwindigkeit in Token/s. Beachten Sie, dass die Geschwindigkeit spürbar sinkt wenn viel Kontext im Spiel ist (größere Code-Dateien, längerer Chat-Verlauf).
Normalerweise gilt: je größer das Sprachmodell, desto besser die Qualität, aber desto kleiner die Geschwindigkeit. Ein neuer Ansatz durchbricht dieses Muster. Bei Mixture of Expert-Modellen (MoE-LLMs) gibt es Parameterblöcke für bestimmte Aufgaben. Bei der Berechnung der Ergebnis-Token entscheidet das Modell, welche »Experten« für den jeweiligen Denkschritt am besten geeignet sind, und berücksichtigt nur deren Parameter.
Ein populäres Beispiel ist das freie Modell GPT-OSS-120B. Es umfasst 117 Milliarden Parameter, die in 36 Ebenen (Layer) zu je 128 Experten organisiert sind. Bei der Berechnung jedes Output Tokens sind in jeder Ebene immer nur vier Experten aktiv. Laut der Modelldokumentation sind bei der Token Generation immer nur maximal 5,1 Milliarden Parameter aktiv. Das beschleunigt die Token Generation um mehr als das zwanzigfache:
Welches ist nun das beste Modell? Auf meinem Rechner habe ich mit dem gerade erwähnten Modell GPT-OSS-120B sehr gute Erfahrungen gemacht. Für Coding-Aufgaben funktionieren auch qwen3-next-80b-83b und glm-4.5-air gut, wobei letzteres für den praktischen Einsatz schon ziemlich langsam ist.
Mozilla hat Firefox 147.0.2 für Windows, macOS und Linux veröffentlicht und behebt damit mehrere Sicherheitslücken, diverse potenzielle Absturzursachen sowie mehrere Webkompatibilitätsprobleme, darunter eines, welches unerwartete WebAuthn-Anfragen verursachen konnte.
Websites konnten vom Safe Browsing-Schutz unter Umständen fälschlicherweise als schädlich erkannt werden.
Mehrere Probleme wurden auch in Zusammenhang mit der Unterstützung für die XDG Base Directory-Spezifikation unter Linux behoben.
Außerdem zeigten Zertifikats-Fehlerseiten in manchen Fällen den Port doppelt an.
Die neue Version von Bottles setzt einen deutlichen Schwerpunkt auf mehr Transparenz. Das Projekt erweitert seine Umgebung für Windows Programme auf Linux um ein Werkzeug, das Nutzern vor dem Start einer Datei wichtige Hinweise liefert. Das neue Analysewerkzeug Eagle untersucht ausgewählte Dateien sehr genau. Das Tool erkennt typische Installer und öffnet deren Inhalt in einer […]
Was passiert, wenn Linus Torvalds ausfällt und niemand seinen Posten als Entwicklungschef einnehmen möchte? Dann soll ähnlich zur Papstwahl ein Konkalve einen Ersatz bestimmen.
Was passiert, wenn Linus Torvalds ausfällt und niemand seinen Posten als Entwicklungschef einnehmen möchte? Dann soll ähnlich zur Papstwahl ein Konkalve einen Ersatz bestimmen.
Das Land Berlin hat seine Open Source Strategie veröffentlicht und will damit die “Innovationskraft und digitale Souveränität nachhaltig stärken.” Die Strategie enthält einige konkrete Maßnahmen, die mit Zeitplänen versehen den Erfolg der Strategie messbar machen. Bis 2032 zum Beispiel sollen beispielsweise 70 Prozent des Software-Stacks an den Verwaltungsarbeitsplätzen Open Source sein. Die Zielsetzung: Abhängigkeiten von […]
Das Event FOSDEM 2026 bringt die Open Source Szene an einem Wochenende zusammen. Das FOSDEM 26 Event findet dieses Jahr vom 31. Januar bis 1. Februar in Brüssel statt. Über 1.100 Sprecher füllen zahlreiche Devrooms mit mehr als 1.000 Veranstaltungen. Die Bandbreite reicht von tiefen technischen Vorträgen bis zu kurzen Lightning Talks und lebhaften Diskussionsrunden. […]
Zoom Node ist eine von Unternehmen betriebene Serverkomponente, mit der sich Zoom-Workloads wie Meetings und Videoanrufe in der eigenen Infrastruktur hosten und steuern lassen.
CachyOS hat zum Jahreseinstieg seine ISO aktualisiert und insbesondere am Installer geschraubt. Dabei wurde die Bootloader-Auswahl ins eigentliche Installationsprogramm integriert, die Downloadgröße bei der Installation insgesamt reduziert und RDNA3-Spieler erhalten FSR4-Frame-Generation. Vulkan erhält ein wichtiges Update.
Der freie Windows Nachbau ReactOS erreicht einen besonderen Meileinstein seiner Geschichte. Das Projekt blickt auf dreißig Jahre Entwicklung zurück und bleibt sowas wie ein Geheimtipp neben den großen Namen der Open Source Welt. Dabei verfolgt es ein Ziel das bis heute einzigartig wirkt. Das System möchte die Windows NT Architektur frei nachbauen. Anwendungen und Treiber […]
Mozilla erweitert sein Angebot und liefert nun ein eigenes RPM Paket für Firefox Nightly. Damit erreicht der Browser erstmals Nutzer vieler RPM basierter Distributionen über eine native Paketquelle. Die Installation wird dadurch deutlich einfacher. Bisher bot Mozilla nur ein DEB Paket für Debian Systeme an. Nun erhalten auch Nutzer von Fedora oder openSUSE direkten Zugriff […]