Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Heute im Test die Mackie Stealthbar, welche gute Soundeigenschaften bei geringen Platzverhältnissen und einem moderaten Preis von 9...
Das Datensammeln im Internet nimmt ungeahnte Ausmaße an. Immer mehr Unternehmen greifen die Daten beim Surfen ab und nutzen sie für...
Neues iCUE LC100 RGB-Kit für Gehäuse

CORSAIR 5000T RGB Mid-Tower vorgestellt

CORSAIR hat diese Woche sein neue CORSAIR iCUE 5000T RGB PC-Gehäuse vorgestellt. Mit seinem schicken Design in Schwarz oder Weiß un...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →