Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Adobes Flash ist aus dem Web nicht mehr wegzudenken. Neben den bekanntesten Flashbeispielen der Videoplayer und Onlinespiele gibt e...
Die Nutzer von Windows-Betriebssystemen müssen nicht zwangsweise den Microsoft Internetexplorer nutzen, sondern können dank Firefox...
Bislang galt der Microsoft Internet Explorer nicht unbedingt als schneller, stabiler und sicherer Webbrowser. So konnte man beobach...
Oft schenkt man einem Gehäuse wenig Beachtung und erst recht will man an dieser Stelle Geld sparen. Doch all die Plastikmonster, di...
Mozilla Firefox ist ein Webbrowser. Dieser stellt eine gute Alternative zu dem Internet Explorer dar, da dieser etliche Sicherheits...
Der Internet Explorer aus dem Hause Microsoft ist ein leistungsfähiger Browser, dessen aller erste Version schon 1995 erschien. Die...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →