Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Kickstarter-Tastatur mit besonderen Features

Wooting One Analog Gaming Keyboard im Test

In diesem Test geht es um eine recht besondere Gaming Tastatur: die mit Hilfe von Crowdfunding realisierte Wooting One vom niederlä...
Sub-200€-Preissegment wird aufgemischt

AMD Radeon RX 5500 und 5500M vorgestellt

AMD hat wie bereits letzte Woche vermutet, heute seine Radeon RX 5500 Serie vorgestellt, die die RDNA-Gaming-Architektur ins preisw...
Peripherie fürs Weihnachtsgeschäft

Neue Produkte von PDP vorgestellt

PDP gab vor wenigen Tagen bekannt, dass seine bisher größte Auswahl an neuen Produkten ab Oktober 2019 in ganz Europa ausgeliefert ...
Echtzeitstrategie für Teams

A Year Of Rain erscheint am 6. November

Wie die bekannte Spieleschmiede Deadalic Entertainment bekanntgegeben hat, erscheint A Year Of Rain, das ambitionierte neue Team-RT...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →