Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Sparsamer 12-Kerner für Multi-Thread-Anwendungen und Games

Intel Core i7-12700K im Test

Nachdem wir das Flaggschiff Core i9-12900k getestet haben, nehmen wir uns auch den Core i7-12700K zur Brust, der weiter unten anges...
NZXT N5 Z690 kleine Bruder des N7

NZXT N5 Z690 im Test

Das aktuelle Alder Lake Portfolio von NZXT umfasst zwei DDR4 Z690 Mainboards. Einmal das N7 Z690 und den kleinen Bruder das N5 7690...
WLAN & WPA3 Sicherheit (Teil 1)

WPA3: Einführung in elliptische Kurven

Wie aus den WPA2-Artikeln der WLAN-Artikelserie deutlich hervorgeht, hängt die Sicherheit des Protokolls stark von der Implementier...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →