Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Ampere-Grafikkarte für Mainstream-Segment

GeForce RTX 3060 Ti Spezifikationen geleakt

Ohne große Vorankündigungen seitens Nvidia sind die GeForce RTX 3060 Ti im chinesischen Handel in den Vorverkauf gegangen und damit...
Big Navi gegen RTX 3080

Radeon RX 6000 Benchmarks geleakt

Am 28. Oktober sollen die neuen RX 6000 Grafikkarten erscheinen. Ähnlich wie bei der in der gleichen Woche erscheinenden RTX 3070, ...
Auf dem level einer RTX 2080 Ti

NVIDIA RTX 3070 Benchmarks enthüllt

Der Launch der GeForce RTX 3070 rückt immer näher und so kommen auch Benchmarks der Karte ans Tageslicht. Vermutlich kamen die heut...
Preiswerte AIO-Wasserkühlung mit 360er Radiator

SilentiumPC NAVIS EVO ARGB 360 im Test

Schon vor längerer Zeit hat SilentiumPC die zweite Version Ihrer NAVIS EVO All-In-One-Wasserkühlung auf den Markt gebracht. Die NAV...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →