Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

In Deutschland für 1.889€ und 1.600 USD in USA

GeForce RTX 3090 TI fällt im Preis

Die GeForce RTX 3090 TI, die im März mit einem empfohlenen Verkaufspreis von 2.249€ auf den Markt kam, ist in den letzten Tagen im ...
Markteinführung auf Anfang 2023 verschoben

Apple Mini-LED-Display mit ProMotion kommt

Es gibt neue Gerüchte über Apples nächsten, externen Monitor mit einem 27-Zoll-Mini-LED-Panel. Dieses wird dem Leak zu Folge mit de...
Mit 4k@144 Hz ab 819€

AOC AGON U28G2XU2 Monitor vorgestellt

AGON hat einen neuen 28" Gaming-Monitor unter dem Namen U28G2XU2 angekündigt, der als Nachfolger des U28G2XU gilt. Dieser bietet ei...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →