Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Premium-Maus für die eigene Hand anpassbar

Mad Catz R.A.T. PRO X3 Supreme im Test

Die Mad Catz R.A.T. X3 Surpreme Maus tummelt sich im Premium Segment, zu einem Premium-Preis, mit Premium Features. In diesem Test ...
RX 6800 XT mit großem Kühler und roter Beleuchtung

PowerColor Red Devil RX 6800 XT zeigt sich

Nachdem gestern das Embargo für Unboxing und Fotopublikation gefallen ist, fangen auch die Boardpartner an, ihre Modelle zu zeigen....


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →