Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Zu Beginn des Jahres 2010 veröffentlichte Intel einen Prozessor gespickt mit Neuheiten. Erstmals wurden Prozessoren in 32-Nanometer...
Intel Atom, kaum ein anderer Microchip ist so in aller Munde wie Intels kleinster Vertreter in NetBooks und sparsamen kleinst Rechn...
Fujitsu hat heute die Lifebook Familie um ein weiteres Mitglied vergrößert. Das AMD basierende Modell LH530 basiert auf neuster Tec...
Heute zeigt Asus ein erstes Eee Tablet, welches jedoch nicht lange allein bleiben soll, ein kleiner Bruder ist schon in Planung. Da...
Mit dem Modell Aspire One 533 möchte Acer auf dem Netbook Markt mit mehr Design und höherer Leistung punkten. Mit einer Formschönen...
Google, früher nur ein Suchmaschinen-Anbieter, weitet seine Geschäftsbereiche immer weiter aus: Der Browser Chrome greift Internet ...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →