Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

14.10.2009, 14:21 • Andreas Bunen

AMD Bulldozer im 3. Quartal 2011

Lange hielt man bei AMD an alt bewährtem fest, nämlich einer Architektur die noch vom K7 herrührte und verbesserte lediglich einige Details und drehte die Taktschraube konstant nach oben. In der gleichen Zeit...
13.10.2009, 23:13 • Philipp Trulson

Scythe Samurai ZZ - Neuer Allround-Kühler

Scythe - bereits seit längerem für starke High-End Kühler bekannt - mischt den Markt nun wieder einmal mit dem Samurai ZZ etwas auf. Neben den sog. Tower Kühlern wie Mugen 2 oder Ninja gehört die Samurai Serie z...
07.10.2009, 21:57 • Philipp Trulson

Zotac MAG: Mini PC für überall

Der eigentlich für Grafikkarten bekannte Hersteller produziert seit einiger Zeit auch Mainboards auf Basis von Nvidias Ion Plattform, welche den Intel Atom Prozessor mit einem stärkeren Chipsatz aus dem eigenen ...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

30.01.2026, 15:00 • Andreas Bunen

Moltbot (Clawdbot): Selbst gehosteter KI-Agent mit starken Risiken/Bedenken

Moltbot (ehemals Clawdbot) ist zum Paradebeispiel dafür geworden, was nach dem „KI-Chat” kommen soll: ein lokaler, immer aktiver Agent, der tatsächlich Dinge auf deinem Rechner und in deiner Node erledigen kann....
Alle anzeigen →