Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

9 CPUs für den Notebooks

Alder Lake-P: Ganzes Lineup geleakt

Intel Alder Lake-P wird das kommende High-End-CPU-Lineup von Intel darstellen. Hier wird es CPUs mit bis zu 14 Kernen und 20 Thread...
80-Plus-Gold-Netzteile mit markanten Design

DeepCool PQ-M Netzteilserie verfügbar

DeepCool führt eine neue Generation von Netzteilen ein, die hohen Qualitätsstandards erbringen soll. Die neue Serie läuft unter dem...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →