Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

High-End Kopfhörer mit super Klang

Fostex TH610 im Test

Fostex ist vor allem in Asien für sein Audio-Equipment bekannt, doch auch in Deutschland findet der Hersteller Anklang und bietet n...
Solide Gaming-Tastatur für knapp 90€

Cooler Master CK530 V2 im Test

Wie der Name es schon sagt, ist Cooler Master besonders für Ihre Produkte im Bereich der PC-Kühlung bekannt. Über die Zeit habt der...
HyperX ist heute ein führender Hersteller in Bezug auf Gaming Peripherie. 2002 hat HyperX noch unter den Namen Kingston ihren erste...
Bei Viper Gaming handelt es sich um die Gaming-Marke von Patriot, Inc. Diese sind ein führender Anbieter von hoch performanten Spei...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →