Lese-Ansicht

Debian erweitert seine Architekturpalette mit loong64

Debian bereitet den nächsten großen Schritt für sein Ökosystem vor. Die Architektur loong64 rückt nach langer Entwicklungszeit in den Kreis der offiziell unterstützten Plattformen. Damit soll sie planmäßig ab Debian 14 unterstützt werden , sofern die letzten Arbeiten wie geplant laufen. Die Entscheidung wurde über die Entwicklerliste bekanntgegeben. Mit dem neuen Status erhält loong64 Zugang […]

Der Beitrag Debian erweitert seine Architekturpalette mit loong64 erschien zuerst auf fosstopia.

  •  

Jahresrückblick 2025 und Ausblick

Das Jahr 2026 steht bevor und ich möchte die Gelegenheit nutzen, um mich bei allen Lesern zu bedanken, die mich auch in diesem Jahr begleitet haben: sowohl auf meinem Blog als auch auf dem Risikozone-Podcast.

Den eigentlichen Jahresrückblick gibt es in der heute erschienenen Risikozone-Episode 90. Dort haben wir schon festgestellt: Abgesehen von ein wenig Cloudflare-„Schluckauf“ war es ein vergleichsweise ruhiges Jahr.

Mit zwölf Artikeln konntet ihr in diesem Jahr jeden Monat etwas von mir lesen. Der Schwerpunkt lag allerdings klar auf dem Podcast: dort kamen noch einmal 26 Episoden dazu.

Für das nächste Jahr – und nebenbei dem Jahr des zehnjährigen Blogbestehens – nehme ich mir vor, den Blog endlich wieder stärker anzupacken, ein paar Neuerungen einzuspielen und vielleicht auch thematische neue Inhalte auszuprobieren. Wie bei vielen OSS-Projekten ist es oft nicht so leicht, dafür konsequent Zeit zu finden - aber gerade deshalb eignet sich der Blog gut für spannende Experimente.

Bis dahin wünsche ich euch einen guten Rutsch in das neue Jahr. Mögen eure Builds stabil sein und die Bugs reproduzierbar (oder am besten gar nicht existieren). Auf ein gutes 2026!

  •  

ACM Open-Access-Umstellung wird abgeschlossen

Im Blog thematisiere ich oft Open-Source-Software, aber in der Wissenschaft gibt es ein kleines Geschwisterchen namens Open Access, das ebenso interessant ist. Open Access bedeutet, dass wissenschaftliche Publikationen online frei lesbar sind - idealerweise zusätzlich mit klaren Nachnutzungsrechten wie CC-Lizenzen. Dabei geht es darum, dass der Zugang zu wissenschaftlichen Arbeiten oft durch Bezahlschranken der Verlage eingeschränkt wird. Warum die Rolle der Verlage überhaupt so zustande gekommen ist, hat historische Gründe und ist langjähriger Bestandteil von Diskussionen. Auch hier handelt es sich um ein Geschäftsmodell, das in der analogen Welt seine Berechtigung hatte, sich mit zunehmender Digitalisierung aber immer stärker rechtfertigen - oder gar neu erfinden - muss.

In den vergangenen Jahren nimmt allerdings auch Kritik an den Bezahlschranken zu, zumal viele Forscher, die auf diese Zugänge angewiesen sind, an staatlichen Forschungseinrichtungen arbeiten, die somit sowohl den Zugang zu Forschungsergebnissen als auch die Forschung selbst mit Steuergeld bezahlen müssen. Die oftmals unentgeltliche Tätigkeit für das Peer-Review bleibt hier ganz außen vor. Einige Regierungen und Forschungsförderer haben daher Open-Access-Strategien ins Leben gerufen, die vermehrt Druck auf die Akteure machen. Gerrit hat hierzu auch noch einmal einen kleinen Exkurs geschrieben.

In der Informatik und speziell der IT-Sicherheit haben wir das Glück, vergleichweise wenige Bezahlschranken anzutreffen. Als Beispiel pflegt USENIX traditionell Open Access und viele Papers sind auch auf arXiv in ihren Preprints verfügbar. Generell gibt es auch hier nicht die klassischen Verlage, sondern eher Fachgesellschaften, die mit ihren Bibliotheken und Proceedings der Konferenzen andere Teile querfinanzieren.

Ab dem 1. Januar 2026 werden alle bei der ACM bisher und zukünftig veröffentlichten Publikationen frei zugänglich sein.

Diese Umstellung ist das Ergebnis eines Prozesses, der 2020 angeschoben wurde und seinen ersten Meilenstein im April 2022 hatte, als 50 Jahre Archivinhalte öffentlich verfügbar wurden. Jetzt sind somit alle Inhalte dran.

Die Kosten werden dabei über Publikationsgebühren (APCs) abgedeckt, die typischerweise über Autor bzw. Institution laufen - es sei denn, die Einrichtung ist Teil des ACM-Open-Programms mit einer Pauschalbezahlung. Dieses Programm befreit einerseits von diesen Einzelgebühren und schaltet Komfortfunktionen in der Online-Bibliothek frei.

Wie nun diese Form von Open Access forschungspolitisch aufgenommen wird, wird sich in den nächsten Jahren zeigen. Jetzt können wir erstmal auch außerhalb von Universitätsbibliotheken den Zugang zu Papers wie The UNIX time-sharing system, Go To Statement Considered Harmful, A method for obtaining digital signatures and public-key cryptosystems oder auch Reflections on trusting trust genießen. In "Reflections on trusting trust" hatte übrigens Ken Thompson schon 1984 Supply-Chain-Attacken vorweggenommen.

  •  

Civitas Connect e. V. – Offene Datenplattformen für digitale Souveränität

Civitas Connect e. V. ist ein bundesweiter Zusammenschluss von Kommunen, kommunalen Unternehmen und öffentlichen Institutionen. Gemeinsam entwickeln die Mitglieder offene, interoperable digitale Infrastrukturen für die öffentliche Daseinsvorsorge. Im Mittelpunkt steht CIVITAS/CORE – eine vollständig offene, modulare Datenplattform, die von den Mitgliedern gemeinsam gesteuert wird. Ziel ist die digitale Handlungsfähigkeit des öffentlichen Sektors zu stärken.

Quelle

  •  

HYPERTEGRITY AG – Urbane Datenplattformen aus Paderborn

Die HYPERTEGRITY AG aus Paderborn zählt seit 2020 zu den deutschen Marktführern für Open-Source-basierte urbane Datenplattformen. Das GovTech-Unternehmen entwickelt, integriert und betreibt die Urban Data Space Platform für Kommunen und öffentliche Einrichtungen. Mit dem Grundsatz „Public Money, Public Code" setzt das Team auf volle Transparenz, Wahlfreiheit und nachnutzbare Lösungen für den öffentlichen Sektor.

Quelle

  •  

fme AG – Digitale Transformation für Verwaltung und Wirtschaft

Die fme AG begleitet Unternehmen und öffentliche Einrichtungen seit über 25 Jahren bei der digitalen Transformation. Mit Schwerpunkten in Cloud-Enablement, Enterprise Content Management und KI-basierten Lösungen unterstützt das Unternehmen seine Kunden beim Aufbau moderner, flexibler IT-Architekturen. Im Public Sector setzt die fme AG auf transparente, souveräne Lösungen, die Datenschutz und Innovationsfähigkeit verbinden.

Quelle

  •  

os-cillation GmbH – Softwareentwicklung für sicherheitskritische Anwendungen

Die os-cillation GmbH aus Siegen entwickelt seit über 25 Jahren Lösungen auf Basis von Linux und Open Source – von Embedded Systems bis zu Server-Clustern. Das 40-köpfige Team arbeitet selbst komplett Microsoft-frei und hat sich als Dienstleister für Banken, Finanzdienstleister und die Telematik-Infrastruktur des Gesundheitswesens auf höchste Sicherheitsanforderungen spezialisiert.

Quelle

  •  

SLES wird Digital Public Good: So unterstützen wir die Nachhaltigkeitsziele der UN

Große Auszeichnung für SUSE: SUSE Linux Enterprise Server (SLES) wurde offiziell als digitales öffentliches Gut (Digital Public Good) anerkannt – als erstes und bislang einziges kommerzielles Linux-Produkt. Die Auszeichnung zeigt, welchen wichtigen Beitrag unsere Technologie für unsere Gesellschaft und unseren Planeten leistet.

Quelle

  •  

ONLYOFFICE veröffentlicht DocSpace 3.6 und Docs 9.2: Neue KI-Agenten und mehr Anpassungsmöglichkeiten

ONLYOFFICE hat die Einführung von DocSpace 3.6 und Docs 9.2 angekündigt. Die neuen Versionen der Office-Kollaborationssoftware integriert umfangreiche KI-Agenten und eine Reihe weiterer Verbesserungen. Insbesondere die KI-gestützte Sprachprüfung und anpassbare Workflows sollen die Zusammenarbeit an Dokumenten deutlich intuitiver machen.

Quelle

  •  

Firefox: Geteilte Tabs und Tab-Notizen kommen für den Desktop, Tab-Gruppen für Android

In diesem Jahr hat Mozilla seinen Browser Firefox mit Tab-Gruppen sowie vertikalen Tabs um zwei neue Tab-Funktionen erweitert, welche sich von vielen Nutzern gewünscht worden sind. Weitere Verbesserungen der Tabs sind in Vorbereitung: Für den Desktop kommen geteilte Tabs sowie Notizen für Tabs. Firefox für Android bekommt Tab-Gruppen.

Die Möglichkeit, Tabs in Gruppen zu organisieren, war das meistgewünschte Feature der Firefox-Community. Vertikale Tabs als Alternative zur horizontalen Tableiste standen auf Platz 3. Beide Features hat Mozilla in diesem Jahr ausgeliefert. An zwei weiteren Tab-Funktionen für den Desktop arbeitet Mozilla bereits, welche Nutzer einer Nightly-Version von Firefox auch schon testen können.

Geteilte Tabs

Geteilte Tabs beschreiben die Möglichkeit, zwei Tabs gleichzeitig nebeneinander darzustellen. Eine geteilte Ansicht kann ganz einfach über das Kontextmenü eines Tabs erstellt werden. In der zweiten Fensterhälfte steht dann eine Liste aller bereits geöffneten Tabs zur Verfügung. Ansonsten ist natürlich auch eine direkte Eingabe über die Adressleiste oder das Öffnen eines Lesezeichens möglich – ganz gleich, wie man sonst auch Websites öffnet. Oder man wählt direkt zwei Tabs aus und wählt dann den entsprechenden Kontextmenü-Eintrag. Die Breite der jeweiligen Teilfenster kann beliebig verändert werden.

Geteilte Tabs in Firefox

Das Feature ist in der Nightly-Version von Firefox bereits aktiviert. Die dazugehörige Option in about:config heißt browser.tabs.splitView.enabled. Natürlich ist zu bedenken, dass die Implementierung zu diesem Zeitpunkt noch nicht abgeschlossen ist.

Tab-Notizen

Eine weitere Neuerung ist die Möglichkeit, Notizen zu Tabs zu hinterlegen. Auch dies erfolgt über das Kontextmenü eines Tabs. Anschließend zeigt ein zusätzliches Symbol im Tab an, dass es eine Notiz für diesen Tab gibt. Diese wird angezeigt, wenn man mit der Maus über den Tab fährt.

Tab-Notizen in Firefox Tab-Notizen in Firefox

Auch dieses Feature ist in der Nightly-Version von Firefox bereits aktiviert. Die dazugehörige Option in about:config heißt browser.tabs.notes.enabled. Hier ist genauso zu bedenken, dass die Implementierung zu diesem Zeitpunkt noch nicht abgeschlossen ist.

Tab-Gruppen für Android

Die anfangs erwähnten Tab-Gruppen wird es in Zukunft auch in Firefox für Android geben. Hier gibt es allerdings noch nichts zu testen, die Arbeiten daran werden mit dem neuen Jahr starten.

Der Beitrag Firefox: Geteilte Tabs und Tab-Notizen kommen für den Desktop, Tab-Gruppen für Android erschien zuerst auf soeren-hentzschel.at.

  •  

Podcast: Linux 2025 im Rückblick: Gedanken, Highlights und ein Blick nach vorn

Zum Jahresende 2025 werfen wir gemeinsam einen Blick zurück auf ein bewegtes Linux und Open-Source-Jahr 2025. Ich teile meine persönlichen Highlights, spreche über Überraschungen, Diskussionen und ziehe ein ehrliches Fazit zum Thema "War 2025 das Jahr des Linux Desktops?".

Das alles inklusive eines kurzen Updates zur aktuellen Situation bei fosstopia, den Plänen für 2026 und natürlich gibt es auch eine Antwort auf die sehr oft eingehende Frage "Welche Linux Distro verwendest Du?" - da könnte es eine kleine Überraschung geben. :)

Mich interessiert: Was waren eure Linux- und FOSS-Momente 2025? Schreibt eure Highlights, Projekte oder Aha-Erlebnisse gerne in die Kommentare. Ich wünsche euch und euren Familien einen guten Rutsch und einen guten Start ins Jahr 2026. Wir lesen und sehen uns im neuen Jahr wieder und schaut gern auf fosstopia.de vorbei, um auch weiterhin rund um Linux & Open Source auf dem Laufenden zu bleiben. 🐧☕

Cheers, Michael

Der Beitrag Podcast: Linux 2025 im Rückblick: Gedanken, Highlights und ein Blick nach vorn erschien zuerst auf fosstopia.

  •  

Linux 2025 im Rückblick: Die wichtigsten Entwicklungen, Diskussionen und Trends

Zum Jahresende 2025 werfen wir gemeinsam einen Blick zurück auf ein bewegtes Linux und Open-Source-Jahr 2025. Ich teile meine persönlichen Highlights, spreche über Überraschungen, Diskussionen und ziehe ein ehrliches Fazit zum Thema “War 2025 das Jahr des Linux Desktops?”. Das alles inklusive eines kurzen Updates zur aktuellen Situation bei fosstopia, den Plänen für 2026 und […]

Der Beitrag Linux 2025 im Rückblick: Die wichtigsten Entwicklungen, Diskussionen und Trends erschien zuerst auf fosstopia.

  •  

Phoenix will X11 neu denken und wagt einen radikalen Neustart

Wayland hat Ende 2025 weitestgehend Xorg ersetzt. Trotzdem entstehen weiter Projekte, die X11 modernisieren wollen. Nun tritt Phoenix als neuer Kandidat auf die Bühne. Das Projekt setzt auf einen kompletten Neustart. Der Server entsteht in Zig und verzichtet bewusst auf alten Xorg Code. Die Entwickler wollen zeigen, dass X11 in moderner Form weiterleben kann. Phoenix […]

Der Beitrag Phoenix will X11 neu denken und wagt einen radikalen Neustart erschien zuerst auf fosstopia.

  •  

Mozilla veröffentlicht Common Voice 24

Mit Common Voice stellt Mozilla den weltweit größten öffentlichen Datensatz menschlicher Stimmen bereit – kostenlos und für jeden nutzbar. Mozilla hat Version 24 seines Datensatzes veröffentlicht.

Der Markt für Spracherkennung wird von den ganz großen Namen kommerzieller Anbieter dominiert: Amazon, Apple, Google, Microsoft. Darum hat Mozilla im Jahr 2017 das Projekt Common Voice gestartet. Mit Common Voice bietet Mozilla eine kostenlose Alternative an, zu der jeder beitragen kann und die jedem zur Verfügung steht. Damit möchte Mozilla Innovation und Wettbewerb in der Sprachtechnologie auf Basis von Maschinenlernen fördern.

Mozilla Common Voice 24

Der nun veröffentlichte Datensatz Common Voice Scripted Speech 24 beinhaltet für die deutsche Sprache 1.483 Stunden an Daten und ist 34,53 GB groß. In Summe waren 20.413 Menschen am deutschsprachigen Datensatz beteiligt. Der Datensatz Common Voice Spontaneous Speech 2 für spontane Sprache kommt für Deutsch auf zwei Stunden an Daten und ist 21,96 MB groß, beigetragen von 17 Personen.

Insgesamt deckt Mozilla Common Voice mit der neuen Version, die wieder Unterstützung für drei neue Sprachen bringt, 289 Sprachen mit insgesamt 38.932 aufgenommenen Stunden ab, was Mozilla Common Voice zum vielfältigsten mehrsprachigen Sprachkorpus der Welt macht. Die Anzahl der unterstützten Sprachen für spontane Sprache ist von 58 auf 62 Sprachen gewachsen.

Zum Download der Mozilla Common Voice Datensätze
Zu Mozilla Common Voice beitragen

Der Beitrag Mozilla veröffentlicht Common Voice 24 erschien zuerst auf soeren-hentzschel.at.

  •  

CachyOS wagt den Schritt auf den Servermarkt

CachyOS sorgt zum Jahresende für Aufsehen. Die Arch‑Distribution plant eine eigene Serverausgabe und überrascht damit viele in der Linux Community. Das Projekt richtet sich an Nutzer mit hohen Ansprüchen. Die Entwickler wollen ein System für NAS, Workstations und Server anbieten. Die neue Ausgabe soll geprüfte Images und vorkonfigurierte Einstellungen liefern. Auch optimierte Pakete für Webdienste […]

Der Beitrag CachyOS wagt den Schritt auf den Servermarkt erschien zuerst auf fosstopia.

  •  

VR-Browser Wolvic ab sofort im Wartungsmodus

Wolvic, der Browser für Virtual und Mixed Reality, befindet sich ab sofort in einem Wartungsmodus und wird nur noch notwendige Anpassungen erhalten.

Igalia hat angekündigt, dass sich Wolvic ab sofort in einem Wartungsmodus befindet. Bei Wolvic handelt es sich um einen Browser für Virtual und Mixed Reality, welcher auf dem eingestellten Firefox Reality basiert.

VR-Browser Wolvic im Wartungsmodus

Nachdem im September 2018 die erste Version von Firefox Reality erschienen und die Weiterentwicklung durch Mozilla im Dezember 2020 eingestellt worden ist, hat Igalia im Februar 2022 die Weiterentwicklung unter dem neuen Namen Wolvic offiziell übernommen. Seit dem sind zahlreiche Updates mit vielen Neuerungen und Verbesserungen erschienen. Nun ist, mit Ausnahme von Wartungs-Updates, Schluss damit.

Gründe für die Entscheidung

Igalia hat in den letzten Jahren gemeinsam mit Partnern in die Entwicklung investiert, den Code modernisiert und dafür gesorgt, dass Wolvic zum Standard-Browser auf einer Reihe von Geräten wurde. Im Laufe der Zeit hätten sich die Strategien der Partner jedoch geändert: Einige seien zu Android XR gewechselt, andere zu HarmonyOS, andere hätten den XR-Bereich („Extended Reality”, Sammelbegriff für Virtual Reality, Augmented Reality und Mixed Reality) komplett verlassen. Dies hat dazu geführt, dass Partnerschaften nach und nach beendet wurden.

Ein weiteres Problem ist die verwendete Gecko-Engine, da Mozilla nicht mehr in wesentliche XR-Features investiert, die benötigt würden, um wettbewerbsfähig zu bleiben. Im September 2024 hatte Igalia eine alternative Wolvic-Version mit Chromium-Engine gestartet, welche in Bezug auf Extended Reality schneller ist und mehr Feature besitzt. In dem Zeitraum kündigte dann aber auch Google eigene Bemühungen im Bereich der XR-Browser an, was zu einer weiteren Veränderung der XR-Landschaft führte.

Als die ursprüngliche Architektur konzipiert wurde, gab es laut Igalie außerdem noch keine Standardanforderungen an die Benutzeroberfläche und Benutzererfahrung auf Betriebssystemebene für Extended Reality. Die Architektur von Wolvic wurde entwickelt, um diese Fragen zu beantworten. Mittlerweile seien diese Antworten redundant und ihre Pflege kostspielig.

Wie geht es für Wolvic weiter?

Ohne starke Partnerschaften und Unterstützung auf Engine-Ebene wird es immer schwieriger, Wolvic wettbewerbsfähig zu halten. Aus diesem Grund wurde entschieden, Wolvic in einen Wartungsmodus zu versetzen.

Das bedeutet, dass es weiterhin ein paar Mal im Jahr Sicherheits-Updates geben soll. Auch kleinere Arbeiten zur Sicherstellung der Stabilität sollen weiterhin durchgeführt werden. Größere Weiterentwicklungen und neue Features sind hingegen keine mehr zu erwarten.

Igalia ist weiterhin vom Web als Plattform für immersive Erlebnisse sowie der Wichtigkeit von Open Source Browsern für Extended Reality überzeugt. Aber um diese Vision nachhaltig zu gestalten, benötige es neue Partner, gemeinsame Investitionen und eine neue Architektur, die heutigen Erwartungen entspricht.

Der Beitrag VR-Browser Wolvic ab sofort im Wartungsmodus erschien zuerst auf soeren-hentzschel.at.

  •  

VR-Browser Wolvic 1.8.3 veröffentlicht

Wolvic, der Browser für Virtual und Mixed Reality, wurde in der Version 1.8.3 veröffentlicht.

Igalia hat Wolvic 1.8.3 veröffentlicht. Bei Wolvic handelt es sich um einen Browser für Virtual und Mixed Reality, welcher auf dem eingestellten Firefox Reality basiert.

Neuerungen von Wolvic 1.8.3

Wolvic 1.8.3 verbessert die Genauigkeit der Positionierung sowie Orientierung der Controller erheblich. Die Spracherkennung wurde verbessert, um diese schneller und robuster zu machen. Die Oberfläche hat eine Reihe kleinerer Verbesserungen erhalten. Nachdem manche VR-Video-Websites damit angefangen haben, Browser zu blockieren, die nicht von Meta stammen, gibt sich Wolvic über den User-Agent nun als ein anderer Browser aus, um die Webkompatibilität zu verbessern.

Dies war nur eine Auswahl der größten Highlights. Dazu kommt wie immer eine Reihe weiterer Korrekturen und Verbesserungen unter der Haube. Auch neue 3D-Umgebungen wurden wieder hinzugefügt.

Der Beitrag VR-Browser Wolvic 1.8.3 veröffentlicht erschien zuerst auf soeren-hentzschel.at.

  •  

Warn-App: FOSS Public Alert Server

Ein neuer adminForge Service kann ab sofort genutzt werden. Der FOSS Public Alert Server ermöglicht es dir über UnifiedPush, Push–Benachrichtigungen zu Notfall– und Wetterwarnungen weltweit zu empfangen. https://alerts.adminforge.de So geht’s: Android App herunterladen: FOSS...

by adminForge.

  •  

Framework Desktop ruhig gestellt

Wie ich hier berichtet habe, ist der Framework Desktop zwar die meiste Zeit leise, aber ca. alle zehn Minuten heult der Netzteillüfter für ca. 30 Sekunden — selbst dann, wenn das Gerät mehr oder weniger im Leerlauf läuft. Das ist extrem störend. Es hat zwei Versuche gebraucht, aber jetzt herrscht Ruhe.

Das Problem

Kurz zusammengefasst: Der Framework Desktop hat eine wunderbare CPU-Kühlung mit einem 120mm-Lüfter. Dieser kann aber das eingebaute Netzteil nicht kühlen. Das gekapselte Netzteil besitzt einen eigenen 40mm-Lüfter (PSU), der zwar die meiste Zeit still steht, aber dafür im Betrieb umso unangenehmer heult.

  • Die Luftzufuhr zum Netzteil wird durch eine enge Röhre und das Gitter des Gehäuses behindert.
  • Das Netzteil ist nur mäßig effizient, was sich vermutlich im Leerlaufbetrieb besonders stark auswirkt.

  • Im Netzteil steht die Luft. Diese wird immer heißer.

  • Ca. 1/2 h nach dem Einschalten wird erstmals eine kritische Temperatur erreicht. Nun startet unvermittelt der winzige Lüfter. Eine halbe Minute reicht, um das Netzteil mit frischer Luft etwas abzukühlen — aber nach ca. 10 Minuten beginnt das Spiel von neuem.

  • Der Netzteillüfter kann nicht durch das BIOS gesteuert werden.

Lösungsversuch 1 (unbefriedigend)

Aus dem Framework-Forum stammt die Idee, das Netzteil durch einen normalerweise langsam laufenden externen Lüfter regelmäßig zu kühlen. Diese Idee habe ich aufgegriffen. Im ersten Versuch habe ich einen 60-mm-Lüfter mit 5V-Versorgung verwendet. Diesen habe ich über eine USB-Buchse mit Strom versorgt, mit einem ziemlich hässlichen Poti (amazon-Link) zur Regulierung der Drehzahl. Der Lüfter muss so eingebaut werden, dass er nach außen bläst, die warme Luft aus dem Netzteil also heraussaugt.

Erster Versuch mit USB-Lüfter

Prinziell war bereits dieser erste Versuch von Erfolg gekrönt. Der interne PSU-Lüfter schaltete sich nicht mehr ein.

Allerdings ist die Konstruktion unschön. Die minimale, per Poti einstellbare Drehzahl war so hoch, dass mich das relativ leise Geräusch des externen Lüfters immer noch störte. Aber prinzipiell war bewiesen, dass bereits eine minimale Durchlüftung des Netzteils ausreicht, um bei geringer Belastung das regelmäßige Aufheulen des PSU-Lüfters zu verhindern.

Lösungsversuch 2 (funktioniert)

Zwei Dinge sind beim ersten Versuch nachteilig: Einerseits kann der Lüfter nicht so weit nach unten hin reguliert werden (also mit niedriger Drehzahl betrieben werden), dass er für mich unhörbar ist. Andererseits fehlt dem Lüfter die »Intelligenz«, unter Last höher zu drehen.

Nun bietet der Framework Desktop einen Anschluss für einen zweiten, internen Gehäuselüfter. phoronix hat damit experimentiert, aber der Nutzen ist überschaubar.

Meine Idee war nun, diesen Anschluss für einen externen Lüfter zu verwenden. Die einzige Hürde besteht darin, ein Kabel nach außen zu führen. Dazu muss ein Loch in das Belüftungsgitter gebohrt werden. Am besten wäre es, den Framework Desktop dazu zu zerlegen, bis die Rückwand komplett entfernt werden kann. Das war mir zu mühsam. Ich habe nur den CPU-Lüfter ausgebaut, den Innenraum abgedeckt (damit keine Eisenspäne herumfliegen) und dann mit einem Metallbohrer ein Loch in das Lüftungsgitter gebohrt und mit einem Staubsauger alle Späne sofort weggesaugt. Wirklich elegant ist das Ergebnis nicht, aber es erfüllt seinen Zweck.

Anschluss des externen Lüfters (rechts im Bild, »Sys Fan 2«)

Anschließend habe ich ein 10-cm-Verlängerskabel für den Lüfter nach außen geleitet und den eigentlichen Lüfter dort angeschlossen. Die Lüftermontage habe ich mit einer festen Plastikfolie (ausgeschnitten aus der Rückseite eines Schnellhefters) und viel Klebeband so bewerkstelligt, dass zwischen Gehäuse und Lüfter ein Luftkanal von ca. 1 cm entsteht. Wichtig: Der Lüfter muss so montiert werden, dass er die Luft aus dem Netzteil nach außen saugt/bläst.

Zweiter Versuch mit 12-V-Lüfter, der als »System Fan 2« über das BIOS gesteuert wird
Aus der Rückseite eines Schnellhefters habe ich einen Kanal für den externen Lüfter gebastelt

Zuletzt habe ich das gesamte Gehäuse mit ein paar Filzgleitern höher gestellt, so dass ein Wärmetransport von der Unterseite des Gehäuses möglich ist. Ich vermute, dass diese Maßnahme nur im CPU-intensiven Dauerbetrieb relevant ist. Solange der Framework Desktop nur gelegentlich unter Last läuft, wird die Unterseite nicht besonders warm.

Filzgleiter erhöhen den Bodenabstand

Bleibt noch die Lüftersteuerung: Beim CPU-Lüfter habe ich CPU Fan min duty % auf 25 Prozent eingestellt. Der Lüfter dreht dann so langsam, dass ich ihn nicht höre, sorgt aber dennoch für einen steten Luftzug durch das Gehäuse. Erst unter Last dreht der CPU-Lüfter stärker auf und wird hörbar.

Der externe Lüfter wird im BIOS über Chassis Fan 2 gesteuert. Ich habe Chassis 2 Fan min duty % auf 30 Prozent gestellt. Wiederum war das Ziel, einen Wert zu wählen, der für mich unterhalb der Hör/Störschwelle ist, aber gleichzeitig für eine dauerhafte Durchlüftung des engen Netzteilkanals zu sorgen. Als Fan Sensor habe ich Mainboard Power eingestellt, aber vermutlich würde jeder andere Temperatursensor ebenso gut funktionieren. Das Netzteil hat keinen eigenen Sensor. Auf jeden Fall ist es sinnvoll, das Netzteil intensiver zu kühlen, wenn die CPU unter Last heiß wird. Naturgemäß sind meine Einstellungen persönliche Erfahrungswerte, abhängig vom eingesetzten Lüfter (ich habe den Noctua NF-A6x25 PWM verwendet, amazon-Link), vom Nutzungsverhalten und vom Aufstellungsort.

BIOS/EFI-Einstellungen für den »System Fan 2«

Ergebnis

Ich bin zufrieden. Im normalen Desktopbetrieb ist der Rechner jetzt (für meine Ohren) lautlos. Wenn ich den Kernel kompiliere oder Sprachmodelle ausführe, die CPU also unter Volllast arbeitet, drehen die beiden Lüfter (CPU-Lüfter intern, mein Netzteil-Lüfter extern) langsam hoch und sind deutlich hörbar, aber auf jeden Fall in einer viel angenehmeren Tonlage als bisher. Den internen PSU-Kühler mit seiner extrem unangenehmen Geräuschkulisse habe ich seit der Inbetriebnahme des externen Lüfters nie mehr gehört.

Der außen befestigte Lüfter ist zugegebenermaßen ein hässlicher Hack für ein 2000-€-Gerät. Bei normalen Aufstellung des Rechners am oder unter dem Schreibtisch stört die Konstruktion aber nicht. Mir ist auf jeden Fall die Akustik wichtiger als die Optik.

Für einen vollständig lautlosen Betrieb müsste das Framework-Mainboard in ein größeres Gehäuse gebaut und mit einem effizienteren, größeren Netzteil versorgt werden. Dazu habe ich keine Zeit/Lust/Geld. Die hier präsentierte Lösung verursacht weniger als 20 € Kosten und lässt sich in einer Stunde bewerkstelligen.

Bleibt zuletzt die Frage, ob man bei einem 2000-€-Computer nicht von Haus aus ein besser durchdachtes Kühlungs-Design hätte erwarten sollen. Ist wirklich nur Apple in der Lage oder willig, sich diese Mühe zu machen?

Quellen/Links

  •  

Meine Spenden für 2025 sind alle raus

Zum Jahresende finalisiere ich immer meine Spenden. Auch dieses Jahr habe ich Geld an verschiedene Organisationen und Aktionen gespendet. Im Hinblick auf FOSS hatte ich beispielhaft folgende Entwickler/Projekte unterstützt: Mozilla, Firefox, KeepassXC, Joplin und Debian. Ich finde es wichtig verschiedene Projekte zu unterstützen. Die Liste schwankt immer etwas. Für gewöhnlich nehme ich die Projekte, deren […]

Der Beitrag Meine Spenden für 2025 sind alle raus erschien zuerst auf fosstopia.

  •  

Toolbx

Beim Experimentieren mit KI-Sprachmodellen bin ich über das Projekt »Toolbx« gestolpert. Damit können Sie unkompliziert gekapselte Software-Umgebungen erzeugen und ausführen.

Toolbx hat große Ähnlichkeiten mit Container-Tools und nutzt deren Infrastruktur, unter Fedora die von Podman. Es gibt aber einen grundlegenden Unterschied zwischen Docker/Podman auf der einen und Toolbx auf der anderen Seite: Docker, Podman & Co. versuchen die ausgeführten Container sicherheitstechnisch möglichst gut vom Host-System zu isolieren. Genau das macht Toolbx nicht! Im Gegenteil, per Toolbx ausgeführte Programme können auf das Heimatverzeichnis des aktiven Benutzers sowie auf das /dev-Verzeichnis zugreifen, Wayland nutzen, Netzwerkschnittstellen bedienen, im Journal protokollieren, die GPU nutzen usw.

Toolbx wurde ursprünglich als Werkzeug zur Software-Installation in Distributionen auf der Basis von OSTree konzipiert (Fedora CoreOS, Siverblue etc.). Dieser Artikel soll als eine Art Crash-Kurs dienen, wobei ich mit explizit auf Fedora als Host-Betriebssystem beziehe. Grundwissen zu Podman/Docker setze ich voraus.

Mehr Details gibt die Projektdokumentation. Beachten Sie, dass die offizielle Bezeichnung des Projekts »Toolbx« ohne »o« in »box« lautet, auch wenn das zentrale Kommando toolbox heißt und wenn die damit erzeugten Umgebungen üblicherweise Toolboxes genannt werden.

Hello, Toolbx!

Das Kommando toolbox aus dem gleichnamigen Paket wird ohne sudo ausgeführt. In der Minimalvariante erzeugen Sie mit toolbox <name> eine neue Toolbox, die als Basis ein Image Ihrer Host-Distribution verwendet. Wenn Sie also wie ich in diesen Beispielen unter Fedora arbeiten, fragt toolbox beim ersten Aufruf, ob es die Fedora-Toolbox herunterladen soll:

toolbox create test1

  Image required to create Toolbx container.
  Download registry.fedoraproject.org/fedora-toolbox:43 (356.7MB)? [y/N]: y
  Created container: test1

Wenn Sie als Basis eine andere Distribution verwenden möchten, geben Sie den Distributionsnamen und die Versionsnummer in zwei Optionen an:

toolbox create --distro rhel --release 9.7 rhel97

Das Kommando toolbox list gibt einen Überblick, welche Images Sie heruntergeladen haben und welche Toolboxes (in der Podman/Docker-Nomenklatur: welche Container) Sie erzeugt haben:

toolbox list

  IMAGE ID      IMAGE NAME                                    CREATED
  f06fdd638830  registry.access.redhat.com/ubi9/toolbox:9.7   3 days ago
  b1cc6a02cef9  registry.fedoraproject.org/fedora-toolbox:43  About an hour ago

  CONTAINER ID  CONTAINER NAME     CREATED         STATUS   IMAGE NAME
  695e17331b4a  llama-vulkan-radv  2 days ago      exited   docker.io/kyuz0/amd-strix-halo-toolboxes:vulkan-radv
  dc8fd94977a0  rhel97             22 seconds ago  created  registry.access.redhat.com/ubi9/toolbox:9.7
  dd7d51c65852  test1              18 minutes ago  created  registry.fedoraproject.org/fedora-toolbox:43

Um eine Toolbox aktiv zu nutzen, aktivieren Sie diese mit toolbox enter. Damit starten Sie im Terminal eine neue Session. Sie erkennen nur am veränderten Prompt, dass Sie sich nun in einer anderen Umgebung befinden. Sie haben weiterhin vollen Zugriff auf Ihr Heimatverzeichnis; die restlichen Verzeichnisse stammen aber überwiegend von Toolbox-Container. Hinter den Kulissen setzt sich der in der Toolbox sichtbare Verzeichnisbaum aus einer vollkommen unübersichtlichen Ansammlung von Dateisystem-Mounts zusammen. findmnt liefert eine über 350 Zeilen lange Auflistung!

toolbox enter test1

[kofler@toolbx ~]$ cat /etc/os-release 

  NAME="Fedora Linux"
  VERSION="43 (Toolbx Container Image)"
  RELEASE_TYPE=stable
  ID=fedora
  VERSION_ID=43
  ...

[kofler@toolbx ~]$ findmnt | wc -l

  359

Innerhalb einer Fedora-Toolbox können Sie wie üblich mit rpm und dnf Pakete verwalten. Standardmäßig ist nur ein relativ kleines Subset an Paketen installiert.

[kofler@toolbx ~]$ rpm -qa | wc -l

  340

Innerhalb der Toolbox können Sie mit sudo administrative Aufgaben erledigen, z.B. sudo dnf install <pname>. Dabei ist kein Passwort erforderlich.

ps ax listet alle Prozesse auf, sowohl die der Toolbox als auch alle anderen des Hostsystems!

Mit exit oder Strg+D verlassen Sie die Toolbox. Sie können Sie später mit toolbox enter <name> wieder reaktivieren. Alle zuvor durchgeführten Änderungen gelten weiterhin. (Hinter den Kulissen verwendet das Toolbx-Projekt einen Podman-Container und speichert Toolbox-lokalen Änderungen in einem Overlay-Dateisystem.)

Bei ersten Experimenten mit Toolbx ist mitunter schwer nachzuvollziehen, welche Dateien/Einstellungen Toolbox-lokal sind und welche vom Host übernommen werden. Beispielsweise ist /etc/passwd eine Toolbox-lokale Datei. Allerdings wurden beim Erzeugen dieser Datei die Einstellungen Ihres lokalen Accounts von der Host-weiten Datei /etc/passwd übernommen. Wenn Sie also auf Host-Ebene Fish als Shell verwenden, ist /bin/fish auch in der Toolbox-lokalen passwd-Datei enthalten. Das ist insofern problematisch, als im Standard-Image für Fedora und RHEL zwar die Bash enthalten ist, nicht aber die Fish. In diesem Fall erscheint beim Start der Toolbox eine Fehlermeldung, die Bash wird als Fallback verwendet:

toolbox enter test1

  bash: Zeile 1: /bin/fish: Datei oder Verzeichnis nicht gefunden
  Error: command /bin/fish not found in container test1
  Using /bin/bash instead.

Es spricht aber natürlich nichts dagegen, die Fish zu installieren:

[kofler@toolbx ~]$ sudo dnf install fish

Auf Host-Ebene liefern die Kommandos podman ps -a und podman images sowohl herkömmliche Podman-Container und -Images als auch Toolboxes. Aus Podman-Sicht gibt es keinen Unterschied. Der Unterschied zwischen einem Podman-Container und einer Toolbox ergibt sich erst durch die Ausführung (bei Podman mit sehr strenger Isolierung zwischen Container und Host, bei Toolbox hingegen ohne diese Isolierung).

Eigene Toolboxes erzeugen

Eigene Toolboxes richten Sie ein wie eigene Podman-Images. Die Ausgangsbasis ist ein Containerfile, das die gleiche Syntax wie ein Dockerfile hat:

# Datei my-directory/Containerfile
FROM registry.fedoraproject.org/fedora-toolbox:43

# Add metadata labels
ARG NAME=my-toolbox
ARG VERSION=43
LABEL com.github.containers.toolbox="true" \
      name="$NAME" \
      version="$VERSION" \
      usage="This image is meant to be used with the toolbox(1) command" \
      summary="Custom Fedora Toolbx with joe and fish"

# Install your software
RUN dnf --assumeyes install \
    fish \
    joe

# Clean up
RUN dnf clean all

Mit podman build erzeugen Sie das entsprechende lokale Image:

cd my-directory

podman build --squash --tag localhost/my-dev-toolbox:43 .

Jetzt können Sie auf dieser Basis eine eigene Toolbox einrichten:

toolbox create --image localhost/my-toolbox:43 test2

toolbox enter test2

KI-Sprachmodelle mit Toolbx ausführen

Das Toolbx-Projekt bietet eine großartige Basis, um GPU-Bibliotheken und KI-Programme auszuprobieren, ohne die erforderlichen Bibliotheken auf Systemebene zu installieren. Eine ganze Sammlung von KI-Toolboxes zum Test diverser Software-Umgebungen für llama.cpp finden Sie auf GitHub, beispielsweise hier:

https://github.com/kyuz0/amd-strix-halo-toolboxes

toolbox create erzeugt eine Toolbox mit dem Namen llama-vulkan-radv auf Basis des Images vulkan-radv, das der Entwickler kyuz0 im Docker Hub hinterlegt hat. Das alleinstehende Kürzel -- trennt die toolbox-Optionen von denen für Podman/Docker. Die folgenden drei Optionen sind erforderlich, um der Toolbox direkten Zugriff auf das Device der GPU zu geben.

toolbox create llama-vulkan-radv \
  --image docker.io/kyuz0/amd-strix-halo-toolboxes:vulkan-radv \
  -- --device /dev/dri \
     --group-add video \
     --security-opt seccomp=unconfined

Mit toolbox enter starten Sie die Toolbox. Innerhalb der Toolbox steht das Kommando llama-cli zur Verfügung. In einem ersten Schritt können Sie testen, ob diese Bibliothek zur Ausführung von Sprachmodellen eine GPU findet.

toolbox enter llama-vulkan-radv

llama-cli --list-devices

  ggml_vulkan: Found 1 Vulkan devices:
  ggml_vulkan: 0 = Radeon 8060S Graphics (RADV GFX1151) (radv) | 
    uma: 1 | fp16: 1 | bf16: 0 | warp size: 64 | 
    shared memory: 65536 | int dot: 1 | matrix cores: KHR_coopmat
  Available devices:
    Vulkan0: Radeon 8060S Graphics (RADV GFX1151) 
    (107008 MiB, 99195 MiB free)

Wenn Sie auf Ihrem Rechner noch keine Sprachmodelle heruntergeladen haben, finden Sie geeignete Modelle unter https://huggingface.co. Ich habe stattdessen im folgenden Kommando ein Sprachmodell ausgeführt, das ich zuvor in LM Studio heruntergeladen haben. Wie gesagt: In der Toolbox haben Sie vollen Zugriff auf alle Dateien in Ihrem Home-Verzeichnis!

llama-server \
  -m  /home/kofler/.lmstudio/models/lmstudio-community/gpt-oss-20b-GGUF/gpt-oss-20b-MXFP4.gguf \
  -c 32000 -ngl 999 -fa 1 --no-mmap

Dabei gibt -c die maximale Kontextgröße an. -ngl bestimmt die Anzahl der Layer, die von der GPU verarbeitet werden sollen (alle). -fa 1 aktiviert Flash Attention. Das ist eine Grundvoraussetzung für eine effiziente Ausführung moderner Modelle. --no-mmap bewirkt, dass das ganze Modell zuerst in den Arbeitsspeicher geladen wird. (Die Alternative wären ein Memory-Mapping der Datei.) Der Server kann auf der Adresse localhost:8080 über eine Weboberfläche bedient werden.

Weboberfläche zu llama.cpp. Dieses Programm wird in einer Toolbox ausgeführt.

Anstatt erste Experimente in der Weboberfläche durchzuführen, können Sie mit dem folgenden Kommando einen einfachen Benchmarktest ausführen. Die pp-Ergebnisse beziehen sich auf das Prompt Processing, also die Verarbeitung des Prompts zu Input Token. tg bezeichnet die Token Generation, also die Produktion der Antwort.

llama-bench \
  -m /home/kofler/.lmstudio/.../gpt-oss-20b-MXFP4.gguf \
  -ngl 999 -fa 1

  model                       size  params ...  test   t/s
  gpt-oss 20B MXFP4 MoE  11.27 GiB   20.91     pp512  1219
  gpt-oss 20B MXFP4 MoE  11.27 GiB   20.91     tg128    78

Quellen/Links

  •  

Debusine eröffnet neue Wege für experimentelle Debian Pakete

Debian erhält mit Debusine eine wichtige CI-Plattform (Continous Integration) für Entwickler. Das Projekt bietet nun eine öffentliche Betaphase für eigene Paketquellen. Diese Quellen lassen sich direkt online anlegen und verwalten. Der Dienst ermöglicht erstmals offizielle Testrepositorys für Debian Pakete. Entwickler können damit Änderungen schneller prüfen und Nutzer leichter einbeziehen. Die Bedienung erinnert an bekannte Lösungen aus […]

Der Beitrag Debusine eröffnet neue Wege für experimentelle Debian Pakete erschien zuerst auf fosstopia.

  •  
❌