Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Die Anwendung Ophcrack ermöglicht das Lösen von Passwörtern der herkömmlichen Betriebsprogramme mit 99% Wahrscheinlichkeit. Es kann...
Mit dem kleinen und cleveren Programm Sreen Cap lassen sich einfach und schnell hochauflösende Screenshots vom Bildschirm erstellen...
Das Programm FreeDOS lässt sich hier kostenfrei herunterladen. Es werden einzelne Programme und Programmpakete angeboten. Das Ziel ...
In vielen unterschiedlichen Unternehmen hat die Sicherheit des lokalen Netzwerks oberste Priorität. Da hier ein Virusbefall im schl...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →