Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Es gibt eine ganze Reihe von Informationen über AMDs ersten LGA-Sockel für Ryzen 7000 CPUs. Die ersten Daten wurden teilweise vor m...
AMDs AM5 Plattform kommt noch 2022

Ryzen 7000 Preview: 5 GHz auf allen Kernen

Während der Produktpremiere 2022 hat AMD seinen Next-Gen-Prozessor mit einem kurzen Gameplay-Video angeteasert. Damit bestätigte AM...
Spezifikationen und erste Infos

MSI Radeon RX 6500 XT MECH 2X vorgestellt

MSI hat mit der Radeon RX 6500 XT MECH 2X Grafikkarten direkt eine Custom-Karte der neuen AMD Mittelklasse-Serie vorgestellt. Die n...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →