Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Kostenlos auf Ubisoft Connect bis 11. September

Far Cry 3 kostenlos auf Ubisoft Connect

Die Far Cry-Reihe von Ubisoft gibt es schon lange und sie hatte schon viele Fortsetzungen erlebt. Diese gelten oft als sehr gute un...
Schönes ITX-Gehäuse mit vielen Extras

NZXT H210i im Test

NZXT ist für ihre markant aussehenden Gehäuse und den schicken Farbmix bei PC-Gehäusen bekannt. Das Portfolio des Herstellers deckt...
TKL-Gaming-Tastatur mit RGB-Beleuchtung für 55€

SilentiumPC Gear GK630K Tournament im Test

Heute gibt es einen Test der frisch in der Redaktion eingetroffenen GK630K Tournament Kailh Red RGB von SilentiumPC Gear. Was die k...
Gutes Headset mit Dolby Atmos und RGB-Beleuchtung

Corsair HS80 RGB Wireless im Test

Am heutigen Tage wird Corsairs neustes, in der gehobenen Mittelklasse beheimatetes Headset vorgestellt, das HS80 RGB Wireless mit D...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →