Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Preis und Verfügbarkeit des neuen Headsets

CORSAIR HS65 SURROUND vorgestellt

CORSAIR stellt heute sein HS65 SURROUND Headset, das elegant aussieht und über eine leichte, aluminiumverstärkte Konstruktion und e...
Kompaktes Gehäuse besonderer Optik

NZXT H510i All Might im Test

Besondere Hingucker sind NZXTs Spezialgebiet. Das beweisen sie mit dem H510i ALL Might erneut. Das Gehäuse ist optisch sehr ansprec...
Dual-Chipsatz für X670-Boards

AMD Sockel AM5 setzt nur auf DDR5

AMD arbeitet mit Hochdruck am Release der neuen Plattform mit AM5-Sockel für die nächste Generation von Motherboards. Die Kollegen ...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →