Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Leistung auf Level des Ryzen 5 5600X

Intel Core i5-12400 Benchmarks aufgetaucht

Intels kommender Core i5-12400 "Alder Lake-S" Prozessor könnte interessant werden. Es hat den Anschein, dass alle Core i5-Desktop-C...
Schicker und gut durchdachter ITX-Tower

NZXT H1 im Test

Das H1 von NZXT sticht aus dem Sortiment des Herstellers besonders hervor, denn das Tower-Gehäuse sieht nicht nur von außen sehr in...
Mikrofon mit tollem Preis-/Leistungsverhältnis

Mackie EM-91CU im Test

Heute ist bei uns das USB-Mikrofon Mackie EM-91CU im Set mit dem Pop Schutz PF-100 und dem Microfonarm DB-100 eingetroffen und wir ...
Leise 360er mit RGB-Beleuchtung

NZXT Kraken X73 RGB White im Test

Gar nicht so lange ist es her, da hat NZXT die Kraken X73 All-In-One-Wasserkühlung auf den Markt gebracht. Jetzt gibt es die Kraken...
High-End Maus mit 26.000 dpi

CORSAIR SABRE RGB PRO WIRELESS im Test

Heute auf dem Prüfstand ist die CORSAIR SABRE RGB PRO WIRELESS eingetroffen. Corsair stellt uns hier eine Maus vor, die mit einem s...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →