Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Das erste AMD-Board von EVGA kommt

EVGA X570S Dark Motherboard geleakt

Nach fast fünf Jahren seit Einführung des Sockels AM4, hat sich EVGA endlich dazu entschlossen, auf die AMD Plattform zu setzen. De...
Angestrebter Preis von 399€

Radeon RX 6600 XT Ankündigung im August

AMD bereitet sich scheinbar auf die Ankündigung seiner Radeon RX 6600 XT Grafikkarte im August 2021. Diese Info stammt von dem Tech...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →