Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Capture Kate mit tollem Preis-Leistungsverhältnis

NZXT Signal HD60 Capture Karte im Test

NZXT bringt Capture Karten auf den Markt, diese haben den Namen 4k30 und HD60. Wir schauen uns das HD60 in unserem Test genauer an....
Schicke Einsteigerkarte

KFA2 GeForce RTX 3050 EX im Test

Mit der GeForce RTX 3050 EX [1-Click OC] bringt KFA2 Grafikkarte auf den Markt, die Nvidia bisher preiswerteste Raytracing-fähige G...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →