Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Extravagantes ITX-Gehäuse mit Griff

COUGAR Dust 2 Mini-ITX Gehäuse vorgestellt

COUGAR hat heute sein neues Dust 2 PC-Gehäuse vorgestellt. Dabei handelt es sich um ein kompaktes Tower-Gehäuse für Mini-ITX-Gaming...
High-End Kühler mit LCD und Lüfter auf der Pumpe

MSI MPG CoreLiquid K360 im Test

MSI gehört vermutlich zu den bekanntesten und erfolgreichsten Computermarken überhaupt. Jeder, der schon mal selbst den Schraubendr...
Preiswertes B550 Board

Biostar B550M-SILVER im Test

Seit über 36 Jahren behauptet sich Biostar auf dem globalen Markt. Solange schon vertreibt Biostar ihre Produkte an Unternehmen und...
Geschwindigkeitssteigerung auf bis zu 8.533 Mbps

LPDDR5X Standard von JEDEC veröffentlicht

Die JEDEC Solid State Technology Association, der für die Entwicklung von Standards für die Mikroelektronikindustrie verantwortlich...
RGB-Beleuchtung und bis 100 W Leistung

Sapphire NITRO LTC CPU-Kühler gesichtet

Sapphire hat auf seiner chinesischen Seite den Nitro LTC 100 W CPU-Kühler veröffentlicht, der sehr interessant aussieht. Der kompak...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →