Notebooks & MIni-PCs Tech-Guide & Tipps Hardware

LLAMA.cpp auf MacBook Air & MacBook Pro mit M4/M5 mit GPU-Support kompilieren und lokale KI nutzen

13.03.2026, 16:31 • Von Andreas Bunen

Bei dem Homebrew-Ansatz auf dem MacBook Air und MacBook Pro mit M4- und M5-Chip kann es Porbleme geben, da die Token-Generierung extrem langsam (0,1 Token/s) wird. Um volle Fähigkeiten (über 25 t/s) von llama.cpp zu nutzen, muss es mit passenden Flags kompiliert werden. Wir erklären, wie man das mit wenigen Schritten macht.

Neueste Artikel

Heute stellt Corsair seine aufgemöbelte Variante der K70 RGB Mk.2 vor, diese hört nun auf den Namen K70 RGB PRO. Unter den Neuerung...
Nach den Übernahmen von Activision Blizzard und Bungie

Microsoft und Sony im Übernahme-Krieg?

Die Hersteller von Xbox Series X/S und PlayStation 5 haben mit nur wenigen Tagen Abstand zwei äußerst beeindruckende Deals verkünde...
Edle 2 TB NVMe SSD mit super Leistung

Sabrent Rocket Q4 im Test

Der SSD-Hersteller Sabrent pflegt sein NVMe-Portfolio stetig und hat diverse Modelle im Angebot. Wir schauen uns heute eines der Ma...
Flotter DDR4-3200 Speicher mit OC-Potenzial

Predator Talos 32GB Kit im Test

Die Predator Marke zielt seine Produkte speziell auf Spieler ab. Das Portfolio beinhaltet neben Notebooks und PCs auch Arbeitsspeic...
1080p-Gaming-Karte mit Raytracer-Beschleunigern

PowerColor Radeon RX 6600 Hellhound im Test

AMD baut mit seiner Radeon RX 6600 (non-TX) seine Flotte im mittleren Preissegment weiter aus. Wir schauen uns die „Hellbound” Cust...
Mackie bringt den tragbaren Live-Streaming-Mixer M-Caster Live auf den Markt. Der M-Caster Live ist nicht nur ein weiterer Live-Sou...


Vergleichstests und Ratgeber

Tech-Guide & Tipps

Alle anzeigen →