Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

10-Gbit Karte zum Nachrüsten

ASUSTOR AS-T10G2 vorgestellt

ASUSTOR hat seine neue AS-T10G2 gezeigt, die mehr Effizienz und Geschwindigkeit als die erste Version bringen soll. Die AS-T10G2 Ne...
Minen während das Auto aufgeladen wird

Ist Mining jetzt auch mit dem Auto möglich?

Daymak ist ein kleines Unternehmen für elektrische Mobilitätslösungen, das alles herstellt, von Rollern über E-Bikes bis hin zu wil...
Schicker Midi-Tower mit ARGB-Beleuchtung

Cougar MG140 Air RGB Gehäuse vorgestellt

Cougar hat heute sein neues MG140 Air RGB PC-Gehäuse vorgestellt. Dabei handelt es sich um einen auffälligen Mini-Tower, der sich d...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →