Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Fermi entwickelt sich nach und nach zu dem, was es von Anfang an hätte sein sollen: Eine effiziente und skalierbare Architektur, di...
Wer kennt nicht den berühmten Spruch, „Es gibt für alles eine App“? Diesen scheint sich Apple immer mehr zu Herzen zu nehmen und üb...
Das bereits im März auf der CeBit 2011 vorgestellte MSI Windpad 110W wird bereits bei einigen ausländischen Händlern gelistet. MSIs...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →