Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Erdgeschichte mal anders

Gamescom 2019: Humankind vorgestellt

Mit Humankind hatten die Amplitude Studios und Sega eine waschechte Weltpremiere für die Gamescom im Gepäck. Wir haben uns die Präs...
Auf Monsterjagd mit idSoftware

Gamescom 2019: Doom Eternal angespielt

Auf der Gamescom konnten wir Doom Eternal testen und uns mit der Fortsetzung vertraut machen. Der 2016 erschienene Vorgänger, den i...
Action RPG mit Wargaming-Unterstützung

Gamescom 2019: Pagan Online angespielt

Das neueste Spiel aus dem Hause Mad Head Games wurde in Zusammenarbeit mit Wargaming im Dezember in den ersten Test geschickt. Da i...
Das neueste Werk von Codemasters

Gamescom 2019: Grid angespielt

Auch Codemasters ist auf der Gamescom 2019 vertreten und präsentiert mit Grid ein kommendes Spiel. Wie man am Titel des Spiels und ...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →