Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Seit 2001 engagiert sich Intel auf der Evoke und unterstützt damit die Demoszene, die sich aus kreativen Designern, Programmierern ...
Das Alphateststadium ist endlich überschritten und es wurde endlich die erste Betaversion von Firefox 2.0 veröffenlicht. Neben zahl...
In Zeiten wo nicht nur Intel auf DDR2 setzt, sondern nun auch nach vielen Jahren AMD wechselt, kommen immer mehr High-End Memory Ki...
Am 17. November 2006 wird die PlayStation 3 von Sony vorgestellt. Die Elektronikmärkte Media Markt und Saturn nehmen nun in Zusamme...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →