Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Flaggschiff mit aRGB von DeepCool

DeepCool Castle 360 RGB V2 im Test

Seit über 25 Jahren stellt Deepcool Kühlsysteme für Desktop-Rechner her. Mit dieser langjährigen Erfahrung erweiterten sie ihr Sort...
Preiswerter Schwarz-Weiß-Tower

DeepCool Macube 310 WH im Test

Mit der Game Storm Serie hat bereits diverse Produkte mit Fokus auf Gamer auf den Markt gebracht. Uns ist aus der Serie der schwarz...
Yottamaster Thunderbolt 3 Gehäuse für M.2 NVMe-SSDs

Thunderbolt 3 Gehäuse im Test

Auf der Suche nach einem externen Gehäuse für schnelle M.2 NVMe-SSDs mit Thunderbolt 3 Schnittstelle findet man auf dem Markt nicht...
Hochwertige 360er AIO mit aRGB-Beleuchtung

Fractal Design Celsius+ S36 Prisma Test

Als Global Player ist Fractal Design einer der bekannteren Hersteller auf dem Markt. Seit Mitte 2019 ist ihr aktuelles AIO-Flaggsch...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →