Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

O&O Defrag Professional Edition ist ein sehr nützliches Shareware Porgramm zum Defragmentieren der Daten auf den Festplatten. O&O D...
Lange wurde darüber spekuliert, ob Apple die nächste Generation von AMDs Mikroprozessoren einsetzten wird, nachdem es ein Treffen m...
Die Anwendung TriXX der Firma Sapphire erlaubt es dem User, seine AMD RADEON Grafikkarte optimal zu nutzen und ihre Leistungsreserv...
Das Java Runtime Environment beziehungsweise die Laufzeitumgebung für Java Plattformen benötigt jeder PC Nutzer, der auf seinem Sys...
Damit ein Rechner optimal genutzt werden kann, ist es nicht nur wichtig, dass möglichst neuwertige Komponenten verbaut werden, sond...
Einige Nutzer haben bestimmt schon folgende Situation erlebt: Man beschließt, seine Festplatte aufzuräumen, löscht einige Dateien u...
Nicht selten kommt es vor, dass Nutzer über eine nachlassende Systemperformance ihres Rechners klagen. Nicht immer sind Schädlinge ...
ATP Electronic hat die ohnehin schon kleinen SSDs einer weiteren Schrumpfkur unterzogen, welche für eingebettete Systeme gedacht is...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →