Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

MAG und PRO in mehreren Varianten mit DDR4 und DDR5

MSI B660 und H610 Motherboards gehen an Start

Auch MSI hat die neuesten Mainstream-Motherboards mit H670-, B660- und H610 Chipsatz für den Marktstart bereit gemacht. Diese sind ...
Großes Gehäuse mit viel Platz und hervorragender Belüftung

Fractal Design Torrent im Test

Das Torrent von Fractal Design ist auf den bestmöglichen Airflow ausgelegt. Dabei geht der Hersteller keine Kompromisse ein. Die Fr...
Für viele unterschiedliche Szenarien kann man als Nutzer von einem VPN-Server Gebrauch machen. Wir haben uns die Lösung vom VPN-Anb...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →