Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Ästhetischer Midi Tower mit großen Sichtfenster

HYTE Y60 im Test

Das Hyte Y60 ist ein Midi-Tower mit einer außergewöhnlichen Bauform. Durch diese Vorderseite ist die gesamte Front des Mainboard-Tr...
Leise Karte packt auch Raytracing

Sapphire Radeon RX 6750 XT Nitro+ im Test

Die Radeon RX 6750 XT zählt zu den stärkeren Modellen von AMD. In unserem Test schauen wir uns die Umsetzung des Boardpartners Sapp...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →