Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Solid State Modul mit guter Leistung

Sabrent Rocket 4.0 NVMe 2 TB im Test

Bei der Suche nach einer schnellen M2. NVMe SSM stößt man recht schnell auf den Hersteller Sabrent, dessen SSMs allesamt sehr schne...
Preiswerter 6-Kerner für 220€

Ryzen 5 5600 kommt Anfang 2021

Nachdem AMD die ersten vier Modelle der Ryzen 5000 Serie vorgestellt hat, deckt der Hersteller den High-End-Markt vollständig ab. D...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →