Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Game Jackal Pro stellt praktisch eine Kopie einer Computerspiel-CD auf der Festplatte her. Mit dieser Kopie ist es dem Nutzer mögli...
Foobar2000 ist ein leistungsstarker Freeware-Audio-Player, der in enger Zusammenarbeit mit der User-Community entwickelt wird. Er u...
Es handelt sich bei Vuze um eine aktuelle Software als P2P Downloadplattform. Man sucht über die Suchfunktion nach einem Torent und...
Der Piriform Defraggler ist ein erweitertes Defragmentierungsprogramm. Es kann Partitionen im NTFS- und im FAT32-Format defragmenti...
Jeder PC Nutzer, der als Betriebssystem Microsoft Windows nutzt, sollte mittlerweile erfahren haben, dass besonders dieses System a...
Der Download Accelerator Plus ist ein Download Manager, der für die Beschleunigung und Verwaltung von Dateien aus dem Internet nütz...
Der Kampf der Tablets ist vor wenigen Tagen in seine zweite Runde gestartet. Apple legte mit dem iPad 2 vor, Samsung legte gestern ...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →