Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Support von 16 weiteren Spielen

NVIDIA DLSS 2.3 vorgestellt

Die Akzeptanz und Adoptionsrate von NVIDIA DLSS wächst stetig und so langsam nimmt die Technologie Fahrt auf. Dazu haben u.a. Unrea...
Teil 1: WLAN & WPA2 Einführung

WPA2: Einführung und Hintergrundwissen

Fast alle modernen Geräte, die man heutzutage mit sich führt, setzen eine oder mehrere Funkstandards zur Kommunikation zwischen Ger...
16 GB LPDDR4 und RDNA2 GPU an Bord

Steam Deck Spezifikationen bekanntgegeben

Steam hat zu ihrer Handheld-Konsole, dem "Steam Deck", neue Informationen zu der Hardware bekanntgegeben. In der Handheld-Konsole w...
3DMark erweitert seine Benchmark-Suite um einen Speicherbenchmark. Dabei kann man nun SSDs, Hybridlaufwerken und anderen Speicherge...
Spielekonsole kommt später

Steam Deck mit 2 Monaten Lieferverzug

Der Start des Steam Decks wird sich um zwei Monate verzögern. Steam hat dies in einer Mail an die Vorbesteller nun bekannt gegeben....


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →