Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Großer Midi Tower mit getönter Scheibe

NZXT H7 im Test

Das neue H7 Black von NZXT ist ein Midi-Tower für jedermann. Es ist preislich im unteren Mittelfeld angesiedelt. Die Optik ist ansp...
Großer Midi-Tower mit getönter Scheibe

NZXT H7 Elite im Test

Mit dem H7 Elite Black hat NZXT ein sehr edles Gehäuse auf den Markt gebracht, das wir nun für euch testen. Dieses bietet diverse F...
Heute im Test ist eine andere Art Mikrofon und zwar ein Bluetooth Mikrofon, welches das Mikrofon im Handybereich signifikant verbes...
Schicke Tastatur mit vielen Extras

NXZT Function im Test

Heute im Test ist die NXZT „Function“ Tastatur in der großformatigen Ausgabe dieser Tastatur mit Handballenauflage und Ziffernblock...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →