Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Gut umgesetzte Grafikkarte für Gamer mit OC-Potenzial

PowerColor Radeon RX 6700 XT Red Devil im Test

PowerColor schickt mit der Red Devil Radeon RX 6700 XT seine Umsetzung der Radeon RX 6700 XT auf Navi22 XT Basis, die als Nachfolge...
Kompaktes Gehäuse mit RGB zum fairen Preis

Antec NX410 Midi-Tower veröffentlicht

Antec hat das Midi-Tower Gehäuse NX410 auf den Markt gebracht. Zu den Features zählen eine Seitenwand aus gehärtetem Glas und eine ...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →