Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

NZXT N7 Z690 weißes Desing mit reichlich Features

NZXT N7 Z690 im Test

NZXT ist für ihre einzigartigen und zugleich auffälligen Designs bekannt. Das N7 Z690 Mainboard von NZXT gliedert sich extrem gut i...
Guter Klang und reichliches Zubehör

SPC Gear VIRO Plus im Test

Heute im Test ist das SPC GEAR Viro Plus Headset, welches in der 60€ Klasse sein Zuhause findet. In diesem recht stark umkämpften M...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →