Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Schicker Nager mit guter Verarbeitung und RGB

NZXT Lift Maus im Test

NXZT brachte vor Kurzem die Lift Maus auf den Markt und stößt damit in die Tür zu neuen Gefilden auf, denn die Lift-Maus ist die Pr...
Kleines B660 Board von Biostar

Biostar Racing B660 GTN im Test

Geht es um Computerhardware, ist Biostar ganz oben mit dabei. Seit über 36 Jahren behaupten sie sich auf dem Markt und vertreiben i...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →