Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Für viele Geräte ist das Update schon bestätigt!

Android 11: Bekommt dein Smartphone das Update?

Schon bald wird Google mit Android 11 ein großes Update für das beliebte mobile Betriebssystem veröffentlichen. Öffentliche Betates...
Mit bis zu 16 GB DDR4x RAM und 1 TB NVMe SSD

ASUS ZenBook 14 mit Ryzen 4700U und 4500U

Die ultra-kompakte ZenBook 14 Notebook-Serie von ASUS bekommt ein neues Mitglied. Das Modell UM425IA wird von einem neuen Ryzen 400...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →