Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Schicker Miditower für ca. 99€ mit drei Lüftern und ARGB

Deepcool CK560 im Test

Frisch bei uns in der Redaktion eingetroffen ist das DeepCool CK560. Ein Gehäuse, das versucht mit einer klassischen Aufteilung und...
Schlichter Midi Tower mit eleganter Optik

DeepCool CH510 im Test

Bei DeepCools CH510 Gehäuse handelt es sich um einen Midi-Tower, der durch ein elegantes Design und hochwertiger Verarbeitung überz...
Solides Mikrofon für ca. 70€

Mackie EM-91CU+ im Test

Am Anfang des Jahres testeten wir das kleine Schwestermodell des EM-91CU+. Welches uns, bis auf ein paar kleine Schwächen in der Au...
Preiswerte RTX 3070 TI mit gutem Kühler

KFA2 GeForce RTX 3070 Ti EX im Test

Die GeForce RTX 3070 Ti gehört zur oberen Mitteklasse bei Nvidia und siedelt sich unter der RTX 3080 an, die besonders gefragt ist....
Alder Lake-S geht an die Spitze

Intel Core i9-12900K im Test

Intel läutet die 12. Generation seiner Core-Prozessoren ein und dieser Launch ist kein Lückenfüller. Mit den neuen Alder Lake-S Pro...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →