Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

DDR5, neuer Chipstz und LGA-Format

Sockel AM5 bringt viele Neuerungen

Bisherigen Informationen zu Folge, soll bei AMD nach vielen Jahren der Sockel wieder ein Update bekommen. Der Nachfolger des Soccke...
Mechanische Tastatur für 70€

Nedis Mechanische Gaming-Tastatur im Test

In unserer Redaktion eingetroffen ist heute die Nedis Gaming Tastatur mit mechanischen Tasten. Die Tastatur mit dem etwas ungewöhnl...
VIVE Pro 2 ab Juni für 799€

VIVE Pro 2 und VIVE Focus 3 vorgestellt

HTC hat die Nachfolger der Vive Pro und der Focus angekündigt. Die neuen Versionen sind dabei besser als die HP Reverb G2 als auch ...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →