Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

AIO-Wasserkühlung neu aufgelegt

NZXT Kraken X63 Test

Anfang 2020 bringt der kalifornische Hersteller NZXT die Kraken X63 auf den Markt. Der Vorgänger die Kraken X62 stach bereits durch...
RX 5600 XT im Kompaktformat mit ordentlich Leistung

PowerColor Radeon RX 5600 XT ITX im Test

Für Nutzer, die ein ITX-System bauen möchte, das auch mit einer spieletauglichen Grafikkarte bestückt werden soll, gibt es mit der ...
Umwandeln, Brennen und Screencasten

UniConverter im Test

Mit der Massentauglichkeit des Brandbandinternets und Smartphones, ist auch die Bearbeitung und Aufbereitung von Videos ein Ding fü...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →