Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Aus DualShock wird DualSense

Was kann der DualSense Controller?

Als Sony den Coontroller der PlayStation 5 vorgestellt hat, der überraschenderweise nicht “DualShock 5” sondern schlicht DualSense ...
Coole Features trotz günstigem Preis?

Sharkoon TG6 RGB Test

Gehäuse mit Seitenteilen aus Glas und allerlei RGB-Features sind in der jüngeren Vergangenheit zum Standard in den Bereichen Gaming...
PDF-Dateien Bearbeiten und gestalten

PDFelement PDF-Editor im Test

PDF ist das gängigste Format, um Dokumente zu teilen, da diese ohne gefährliche Makros kommen und überall einheitlich angezeigt wer...
Für wenige Stunden oder mehr als einen Monat

Cloud-Server Vergleich März 2020

Der Bedarf an Servern hat nicht abgenommen, auch wenn der Trend in Richtung Outsourcing geht. Dank der Flexibilität moderner Cloud-...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →