Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Geräumiges Gehäuse im "Kleinformat"

Lian Li O11 Air Mini veröffentlicht

"O11 Air Mini", so heißt das neue Gehäuse von Lian Li. Es ist auf Luftstrom und Kompatibilität fokussiert und bietet ganz viel Plat...
Kompaktes Gehäuse mit guter Belüftung

NZXT H510 FLOW im Test

Mit ihren aufwendigen Designs setzt NZXT gerne ein Zeichen. Das H510 FLOW ist da noch ein recht schlichter Kandidat. Macht dafür al...
Neuer Ersatzteileshop kommt!

Apple iPhone und Macs selber reparieren

Apple kündigte überraschend das Self Service Repair Programm an, bei dem Kunden, die Reparaturen selbst durchführen möchten, Zugang...
Alder Lake-P Laptop-CPU schlägt Ryzen 9 5900HX

Intel Core i7-12700H im Cinebench getestet

Heute sind Cinebench R20- und R23 Benchmarkergebnisse mit der unveröffentlichten Core i7-12700H Alder Lake-P CPU durchgesickert. Di...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →