Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

SAP ist eine der führenden Lösungen für Businesssoftware. Das Erfolgsgeheimnis ist der modulare Aufbau. Das SAP-Basis-System erlaub...
Abgespeckte RTX 3090 mit 12 GB GDDR6X Speicher

MSI GeForce RTX 3080 Ti SUPRIM X geleakt

Der baldige Launch der GeForce RTX 3080 Ti Grafikkarten rückt offensichtlich immer näher. Wie es aussieht, hat MSI bereits einige M...
Mit der GI-CX360 ARGB vertreibt PCCOOLER Ihre günstige AIO-Wasserkühlung in Deutschland. Diese verfügt über drei RGB beleuchtete Lü...
Spezifikationen und weitere Details zur kommenden GPU-Serie

GeForce RTX 3050 und RTX 3050 Ti für Notebooks

Lenovo hat wohl unabsichtlich bestätigt, dass sein Legion 5 Pro Lineup mit neuen und bisher unangekündigten GeForce RTX 3050 und RT...
1TB SSD mit TOP-Leistung und einigen Extras

Sabrent Rocket 4 PLUS im Test

Sabrent schickt mit der Rocket 4 PLUS ein absolutes High-End Modell ins Rennen, dass sich gegen die geringe Konkurrenz in dem Segme...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →