Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Intel hat den Launch von USB 3.0 aufgeschoben, jedoch gab es bereits erste Ankündigungen von USB 3.0 kompatiblen Mainboards von ASU...
Vor einem Jahr liefen bei TSMC (Taiwan Semiconder Manufacturing Company) die ersten 40nm Strukturen vom Band, und auch heute, nach ...
Mit der Vorstellung der DirectX 11 Grafikkarten von AMD vor etwa 6 Wochen brachte man einen (Meilen)Stein ins Rollen: Die HD 5870 u...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →