Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Einsteiger-Karte mit 4 GB GDDR6

RX 6500XT von Lenovo gezeigt

Lenovo hat offenbar eine noch nicht veröffentlichte Radeon RX 6500 XT-Grafikkarte in den technischen Daten für seine vorkonfigurier...
Teil 2: Angriffe auf WPA2

KRACK Angriff auf WPA2

Nachdem wir im ersten Teil der Serie die Grundlagen und die Abläufe bei WPA2 genauer angeschaut haben, kann es nun an einen der woh...
16" Notebook mit Ryzen 5 5600H oder Ryzen 7 5800H

HUAWEI MateBook 16 bereits erhältlich

Der chinesische Hersteller Huawei expandiert in der Notebookbranche und bietet ab sofort auch das MateBook 16 im 16“-Format an. Das...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →