Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Subvendoren sind dafür bekannt, dass sie die Grafikkarten mit teilweise angehobenen Taktraten verkaufen. So sollte diese Karte von ...
Hardwarespezialist Akasa veröffentlichte vor einigen Tagen einige Bilder zu einem neuen Gehäuse. Es hört auf den Namen Raptor und s...
Kaum hat sich Windows 7 knapp 240 Millionen Mal verkauft, so werden schon Spekulationen über den Nachfolger laut. Zwar tauchte scho...
Die kostenlosen Web-Anwendungen von Mozilla haben sich längst auf dem Markt etabliert. Firefox und Thunderbird sind umfangreiche An...
Das Programm Off-the-Recording Messaging (kurz OTR) ermöglicht es Ihnen, private Konversationen über das Internet zu führen. Die Be...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →