Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Heute im Test ist der Mackie MC-40BT Kopfhörer. Mackie hat hier sein Erstlingswerk im Bereich der Bluetooth-Kopfhörer ins Rennen ge...
AMD AM5 High-End-Board auf Bildern zu sehen

MSI MEG X670E Godlike enthüllt

Erst kürzlich sind weitere Details zum MSI MEG X670E Godlike durchgesickert. Nun hat MSI einige weitere Details und Bilder des Boar...
Magnetische RGB-Dreiecke zum Nachrüsten

Corsair iCUE LC100 im Test

Corsair vereint mit seiner iCue Serie diverse RGB-Komponenten, die für ein tolles RGB-Erlebnis sorgen sollen. Mit dem iCue LC100 ha...
Deepcooles neue 360er mit ARGB-Beleuchtung

DeepCool LS720 im Test

DeepCool wird nicht müde, ihre Hardware zu überarbeiten und zu verbessern. Mit der DeepCool LS720 haben Sie wieder eine neue AIO-Wa...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →