Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Nachdem Nvidia mit der GTX 470 und GTX480 endlich den Markt erreicht hat, rücken bald auch günstigere Modelle nach. Heiß diskutiert...
Der Marktstart von Microsofts neuer Suchmaschine, oder besser „Entscheidungsmaschine“ hatte sehr gut funktioniert, nun gibt es ein ...
Mit dem CR630 stellte MSI heute ein weiteres Notebook der "Classic Series" vor. Basierend auf der AMD Danube Plattform soll das Not...
Netbooks, diese kleinen ultra mobilen Computer, die noch kleiner und leichter sind als Subnotebooks und sich in erster Linie durch ...
Mit dem Eee PC 1018P stellte man heute ein einfach ausgestattetes Business NetBook vor. Trotz der namentlichen Verwandtschaft hat d...
AMD hat heute die neuste Version des Catalyst mit zahlreichen Features und Performanceverbesserungen vorgestellt. Der Treiber arbei...
Seit gestern ist das iPhone 4 vorbestellbar. Schon nach der Präsentation auf der Apple Keynote war die Begeisterung vielerorts spür...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →