Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Cooler Masters schicke 360er mit ARGB-Beleuchtung

COOLER MASTER MASTERLIQUID PL360 FLUX im Test

Wie man dem Namen schon entnehmen kann, ist Cooler Master auf Kühllösungen spezialisiert. Auif diesem Gebiet haben sie langjährige ...
Intel B660 Board mit reichlich Features

MSI MAG B660M MORTAR DDR4 im Test

MSI gehört zu den führenden Herstellern von Computer Hardware. Dabei verfügen sie über jahrelange Erfahrung und haben ihr Portfolio...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →