Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

MSI MEG Z690 ACE DDR5 eines der aktuell besten Mainboards

MSI MEG Z690 ACE im Test

MSI hat mit dem MSI Z690 ACE ein geniales High-End-Mainboard entworfen, dass eleganter nicht hätte sein können. Das schwarze Design...
MSI MPG Z690 CARBON EK X Wassergekühlte CPU, Spannungswandler und M.2 SSD

MSI MPG Z690 CARBON EK X im Test

Das MSI MPG Z690 CARBON EK X ist ein Highend-Mainboard aus dem Hause MSI, verfügt über den Sockel 1700 und kommt mit einem Kühlbloc...
31,5”-QHD-CURVED Mintor mit 165 Hz und USB-C-Anschluss

NZXT CANVAS 32Q CURVED Gaming Monitor im Test

Heute steigt NZXT mit dem CANVAS 32Q CURVED und dem CANVAS 27F Modell ins Gaming-Monitor-Geschäft ein. Wir schauen uns den CANVAS 3...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →