Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

MSI zeigt ein neues „Wind“ NetBook mit DDR3 Speicher, welches auf Intels Pinetrail Plattform setzt. Das NetBook räumte schon den iF...
Am heutigen Tag veröffentlichte TechPowerUp eine neue Version des Programms GPU-Z. Das Programm, welches dazu dient Hardwaredaten ü...
Nun springt sogar der DSL Anbieter 1&1 auf den Tablet-Hype auf. Ab dem 1. Juli ist das 1&1 SmartPad in Verbindung mit einem DSL-Ver...
Kürzlich ist der Yasya des japanischen Unternehmens Scythe in einer neuen Version aufgetaucht. Erste Bilder zeigen einen komplett g...
Bereits das Nachfolgemodell Samsung Armani B7620 war bei uns im Test und hinterließ einen bleibenden Eindruck. Da sich nicht jeder ...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →