Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Vergleich zum Core i9-10900K

Ryzen 7 5800X Test geleakt

Die neuen Zen 3 Prozessoren stehen in den Startlöchern und werden von so einigen Nutzern sehnsüchtig erwartet. Die Ryzen 5000 mit C...
Hochwertige AIO von Lian Li

Lian Li Galahad 360 im Test

Mit Galahad 360 schickt Lian Li ihre erste AIO-Wasserkühlung ins Rennen. In diesem Test schaeun wir uns die Variante mit 360er Radi...
Top-Modell für absolute Enthusiasten

Palit GeForce RTX 3090 GamingPro im Test

Nach der offiziellen Freigabe der RTX 3080 legt Nvidia die GeForce RTX 3090 nach, die als derzeitiger Klassenprimus gilt und damit ...
Möglichkeiten um Windows 10 Tracking zu deaktivieren

Wie kann man Tracking bei Windows 10 umgehen?

Viele User sind sich gar nicht darüber im Klaren, welche Menge an Daten Windows 10 über seine Nutzer sammelt, oder sie machen sich ...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →