Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Nach der GTX 560 Ti kommt nun in wenigen Tagen eine weitere Mainstreamkarte unter dem "Ti" Label in den Handel. So listen mehrere S...
Für die neueste und aktuelle Microsoft Windows 7 Version und auch den Windows Server 2008 R2 steht ab sofort das erste Service Pack...
AVG File Server Edition 2011 ist ein weiteres Sicherheitsprodukt von AVG, welches entwickelt wurde, um für die Sicherheit auf Windo...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →