UGREEN AI NAS iDX6011 Pro: Performance ohne Ende!

Mit ** gekennzeichnete Links auf dieser Seite sind Affiliate-Links.

Suchergebnisse

UGREEN AI NAS iDX6011 Pro: Performance ohne Ende!
UGREEN AI NAS iDX6011 Pro: Performance ohne Ende!
  • 03.04.2026
  • Level 4
  • Hardware
  • Produkt-Review

Nach dem DH4300 Plus und DXP4800 Plus legt UGREEN nochmal nach. Das UGREEN AI NAS iDX6011 Pro bietet jede Menge Ressourcen. Mit 64 GB Arbeitsspeicher und einem aktuellen Intel Ultra 7 Prozessor könnte das eine sehr solide Basis sein, um größere LLMs zu nutzen. Denn genau dafür stehen meine Inhalte ja eigentlich seit Jahren: Lokal und ohne Cloud. Aber für wen sind diese Geräte eigentlich gedacht? Kann man diese überhaupt auslasten? Und welche KI-Features stehen zur Verfügung? Das alles schauen wir uns in diesem Beitrag an.

Dieser Beitrag basiert auf der Systemversion 1.13.1.0125.

Video

Hausbau-Kurs

Technische Daten

Die Specs der neuen Geräte sind wirklich beeindruckend! Selbst die sehr leistungsstarke DXP4800 Plus sieht dagegen wirklich klein aus:

  iDX6011 Pro DXP 4800 Plus DH4300 Plus
Preis ??? ca. 595 Euro (im Angebot) ca. 365 Euro (im Angebot)
Bays 6x (3,5” oder 2,5”) 4x (3,5” oder 2,5”) 4x (3,5” oder 2,5”)
CPU Intel Core Ultra 7 255H Intel Pentium Gold 8505 (x86-64) Rockchip RK3588C A76+A55 (ARM)
Interner Speicher 128 GB (SSD) 128 GB (SSD) 32 GB (eMMC)
HDD-Speicher max. 196 TB max. 4x 30 TB max. 4x 30 TB
M.2 2x M.2 NVMe SSD (2280) 2x M.2 NVMe SSD (2280) -
Arbeitsspeicher 64 GB (LPDDR5/x) 8 GB (DDR5), erweiterbar auf 64 GB 8 GB (LPDDR4X)
HDMI-Ausgang 8K 4K 60 Hz 4K 60 Hz
Ethernet-Ports 2x RJ45 10 Gb/s RJ45 2,5 Gb/s und RJ45 10 Gb/s RJ45 2,5 Gb/s

Neben dem hier genutzten Top-Modell gibt es noch zwei kleinere Varianten, welche weniger RAM und CPU-Leistung bieten.

NPU (Neural Processing Unit)

Im Intel Core Ultra 7 255H steckt eine 13 TOPS NPU, welche wir natürlich auch für eigene Aufgaben nutzen können. Während eine CPU oder GPU für dieselbe Erkennungsleistung heiß läuft und viel Strom zieht, macht die NPU das quasi nebenbei, ohne den Rest des Systems zu belasten. Obwohl die NPU fest im Prozessor verbaut ist, wird sie vom System als internes PCIe-Gerät erkannt. Das macht die Einrichtung einfach, da wir sie wie eine Grafikkarte behandeln können.

Das Gerät /dev/accel/accel0 kann dann in einen Docker-Container als Ressource eingebunden werden!

Beispielsweise könnte Frigate als Docker-Container die NPU nutzen. So spart man sich eine Coral Edge TPU und hat sogar deutlich mehr Bandbreite! In Frigate geht das super einfach:

detectors:
  ov:
    type: openvino
    device: NPU

Dazu aber in einem weiteren Beitrag gerne mehr.

KI-Tools und Modelle

Mit der integrierten iGPU (Intel Arc) und NPU (Intel AI Boost) des Intel Core Ultra 7 255H kann man zusammen mit den 64 GB RAM Shared Memory schon einiges bewegen. 8B Modelle sollten ohne größere Probleme genutzt werden können.

Aktuell wird nur Qwen3 (von Alibaba) als LLM unterstützt (weitere sollen folgen). Bei der Einrichtung der AI-Konsole wird dies automatisch heruntergeladen und zur Verfügung gestellt. Ich habe volume3 (meine M.2 NVMe SSD) als Ziel gewählt. Dann landen die Modelle in /volume3/\@aiconsole/models/. Hier erfährt man auch mehr über das genaue Modell: qwen3:4b-instruct-2507-fp16.

UGREEN nutzt eine spezialisierte Version von Ollama, die für Intel-GPUs (Intel IPEX, Intel Extension for PyTorch) optimiert ist. Das System versucht, das komplette Modell in die GPU (iGPU) zu schieben, um die CPU zu entlasten. Obwohl Qwen3 bis zu 256k Token beherrscht, hat UGREEN den Kontext aktuell auf 32k Token limitiert.

Der Vorteil dieses Modells ist, dass es schnell antwortet und lange Texte verstehen kann bzw. im Kontext behält. Optimal, um lange Dokumente zusammenzufassen oder längeren Code zu verarbeiten. Es ist für den NAS-Einsatz optimiert, um viele Daten zu analysieren.

  • Ollama (IPEX): Der “Denker” (schreibt Texte, programmiert) und bedient die MCP-Tools des NAS
  • RAG SDK: Das “Gedächtnis” (erstellt eine durchsuchbare Vektordatenbank aus Dateien)
  • OpenVino: Die “Sinne” (erkennt Gesichter, versteht Sprache, analysiert Bilder)

RAG (Retrieval-Augmented Generation)

Statt das KI-Modell mühsam mit deinen privaten Daten neu zu trainieren (was Wochen dauern würde), nutzt UGREEN eine Vektordatenbank auf Basis von PostgreSQL 15, welche mithilfe von OpenVINO gefüttert wird. Über den MCP-Server kann Ollama auf Funktionen zugreifen, welche die Datenbank dann wiederum lesen können. Wie es aussieht, wird dieses Feature aber aktuell nur für manuell angelegte “Wissensdatenbanken” (Knowledge Bases) verwendet. Es werden nicht automatisch alle Dateien auf der Festplatte analysiert!

Die Datenbank liegt dann unter /volume3/@aiconsole/db/ und kann direkt über den Port 5543 erreicht werden:

sudo -u postgres psql -p 5543 -d uliya

Dort gibt es folgende Tabellen:

\dt
 Schema |        Name        | Type  |  Owner   
--------+--------------------+-------+----------
 public | knowledge_feat     | table | postgres
 public | nas_knowledge_feat | table | postgres

MCP

Auf Port 11540 läuft ein ai_mcp_serv (was schonmal gut ist). Die Binary des Servers findest Du in /ugreen/@appstore/com.ugreen.aiconsole/sbin. Weiterhin läuft ein RAG unter /volume3/@aiconsole/ugreenRAG/rag_ai_sdk_tool/sbin und der Download-Manager aria2c (Port 6800, nur localhost erlaubt).

Als Transport wird SSE (Server-Sent Events) über HTTP verwendet. Der Endpunkt lautet http://10.10.9.193:11540/mcp. Das Webinterface von UGOS Pro bedient aber http://10.10.9.193:9999/ugreen/v1/assistant/chat/completions (abgesichert mit Authentication).

Folgende MCP-Tools stehen aktuell zur Verfügung:

System / NAS

  • get_system_info
  • adjust_led_brightness - heller, dunkler oder prozentualer Wert
  • configure_device_buzzer_alerts
  • configure_memory_compression
  • configure_nas_power_settings
  • control_cooling_fan_speed
  • set_power_efficiency_mode

Docker

  • docker_search_container
  • docker_search_image

Backup / Sync

  • start_file_backup_sync_ui

Fotos

  • search_photos
  • create_album
  • get_album_list

Musik

  • music_search_control
  • music_play_control
  • music_settings_control

Videos

  • video_search_control
  • video_play_control

Weitere Modelle

Info: Eigene Modelle zu nutzen ist momentan nicht ganz einfach. Verfügbare Modelle werden von einem Webservice abgefragt. Über signierte Downloads-URLs werden dann Pakete geladen und im System registriert. Da kommt man leider nicht so einfach zwischen.

Aktuell gibt es über die Oberfläche nur das LLM Qwen3 (siehe oben). Welche Modelle es gibt, wird über eine API abgefragt (gefunden in /var/ugreen/log/aiconsole_serv.log):

  • https://api-eur.ugnas.com/api/system/v1/sa/ai/programs
  • https://api-eur.ugnas.com/api/system/v2/sa/ai/model

Wenn man einen Download anstößt, sieht man eine temporär gültige URL im oben genannten Log.

Die Binary für Ollama liegt unter /volume3/\@aiconsole/ollamaIpex/Ollama-Ipex.

Eine SQLite-Datenbank, welche Modelle verfügbar sind, gibt es unter /etc/nas_aiconsole/aiconsole.db. In den Tabellen model_config und ... könnte man theoretisch eigene Einträge ergänzen. Hier das Schema:

CREATE TABLE model_config (
    id integer,
    release_id integer,
    code text,
    name text,
    status integer,
    version_num integer,
    model_type text,
    param_value text,
    response_speed text,
    memory_usage text,
    is_default numeric,
    version_description text,
    version_size integer,
    ext text,
    ext_i18n text,
    ext_arch_tools text,
    created_at datetime,
    updated_at datetime,
    PRIMARY KEY (id)
);

Am einfachsten ist es, Ollama direkt über die API anzusprechen:

# installieren
curl http://localhost:11434/api/pull -d '{
  "name": "mistral"
}'

# und wieder löschen
curl -X DELETE http://localhost:11434/api/delete -d '{
  "name": "mistral"
}'

Workaround für externe Nutzung

Ich habe Chatbox als Client getestet, um das LLM von außen anzusprechen. Die Ollama-Ports sind aber nicht von außen zugänglich. Über lokales Port-Forwarding per SSH kann man das Problem umgehen. Somit kann ich localhost:11434 in Chatbox nutzen (wenn die Verbindung offen ist).

ssh -L 11434:127.0.0.1:11434 mkleine@10.10.9.193
lsof -nP -iTCP:11434 -sTCP:LISTEN

Die API ist also “OpenAI-compatible” und kann somit von verschiedenen Clients (wie Chatbox oder OpenWebUI) direkt genutzt werden. Ich hoffe, dass UGREEN in Zukunft eine Möglichkeit bieten wird, diese ganz offiziell per generiertem API-Key freizugeben. Das wäre wirklich ein starker Schritt.

eGPU = mehr KI-Performance

Um eine externe Grafikkarte (eGPU) zu nutzen, gibt es einige Schnittstellen:

  • OCuLink (PCIe 4.0 x4)
  • Thunderbolt 4 (bis 40 Gb/s)
  • PCIe 4.0 x8 Slot
  • M.2 NVMe (PCIe 4.0 x4)

Das iDX6011 Pro verfügt über alle diese Schnittstellen. Der integrierte PCIe 4.0 x8 Slot ist zwar super, aber große Grafikkarten werden dort keinen Platz finden. Zumal das Netzteil des NAS dann auch an die Grenzen kommen könnte. Dieser Port ist eher für zusätzliche Netzwerkkarten o.ä. gedacht.

Am einfachsten wäre es, über Thunderbolt 4 eine eGPU wie die Razer Core X V2 zu nutzen (nicht getestet). Darüber hätte man aber ein Limit von 32 Gb/s für PCIe-Daten. Mit Thunderbolt 5 sieht das anders aus, aber das wird vom NAS nicht unterstützt!

Der beste Weg wäre aber OCuLink, da man sich so den Overhead von Thunderbolt spart. Mit einem OCuLink-Dock kann man viele Grafikkarten nutzen. Beispielsweise mit einem MINISFORUM DEG1 oder DEG2.

Speed-Test

Thunderbolt 4

An der Front finden wir 2 Thunderbolt 4-Ports, welche man beispielsweise direkt mit einem Mac verwenden kann. Mit einem entsprechend zertifizierten Kabel sind wirklich beeindruckende Datenraten möglich. Beide Geräte (Mac und NAS) bekommen dabei eine APIPA (Automatic Private IP Addressing) Adresse aus dem Adressbereich 169.254.0.0/16. Statische Adressen wären natürlich auch möglich. Am Ende ist es also ebenfalls eine IP-Kommunikation.

UGOS Pro basiert auf Debian. iperf3 ist sogar schon vorinstalliert. Ich habe SSH manuell aktiviert und die beiden Geräte per Thunderbolt 4 verbunden. Auf dem NAS starte ich denn den Prozess und warte auf eigehende Verbindungen:

iperf3 -s

Und auf dem Mac:

iperf3-darwin -c 10.10.9.193

Komischerweise erreiche ich nur ziemlich genau 10 Gbit/s, obwohl Thunderbolt 4 (selbst mit einem IP-Stack) deutlich mehr können müsste.

Für einen weiteren Test kann OpenSpeedTest verwendet werden. Dieses habe ich einfach als Docker-Container direkt auf dem NAS installiert. Im Network-Mode host erreiche ich damit Geschwindigkeiten von über 20.000 Mbit/s down und 10.000 Mbit/s up! So habe ich mir das vorgestellt.

Das offizielle Thunderbolt-Kabel von Apple ist dabei unnötig teuer. Beim Kauf würde ich dennoch auf ein zertifiziertes Kabel setzen. Gerade, wenn damit in Zukunft noch Monitore (wie die neuen Apple Studio-Displays) oder ähnliches angeschlossen werden soll.

Fazit

UGREEN nutzt modernste Standards (Postgres, Ollama, OpenVINO, MCP-Server). Das System ist extrem professionell aufgebaut, aber momentan durch signierte Cloud-Downloads der LLMs und abgesicherte APIs noch ein Walled Garden. Natürlich könnte man als Superuser vieles manuell anpassen und ändern. Ich hoffe aber, dass UGREEN sich in Zukunft weiter öffnet und die Verwendung von eigenen Modellen oder sogar eigenen MCP-Funktionen erlaubt.

Positiv

  • Netzteil im Gerät integriert
  • Ordentlich Leistung und Ressourcen für lokale KI-Modelle
  • MCP-Tools um auf Systemressourcen zuzugreifen
  • Sehr gute Unterstützung für viele Sprachen (auch Deutsch!)
  • Vergleichsweise leise im Betrieb

Negativ

  • Aktuell nur Qwen3 als LLM verfügbar
  • Keine API-Endpoint für externe Nutzung (ist aber intern OpenAPI kompatibel)
  • Dokumentation der Einstellungen ist nicht vorhanden
  • Nur wenig MCP-Tools (beispielsweise können keine Docker-Container erstellt werden)
  • UGOS kann z. B. die NPU nicht per SR-IOV aufteilen, um diese beispielsweise einer VM mit Frigate zur Verfügung zu stellen
  • Leider kein 19” Rack-Gehäuse verfügbar
  • Betriebssystem basiert noch auf Debian 12 (bookworm)
  • RAM ist fest verlötet und nicht austauschbar
  • IPEX ist von Intel mittlerweile abgekündigt/archiviert

Transparenz-Hinweis (Level 4: Bezahltes Video)

Bei diesem Beitrag handelt es sich um ein bezahltes Videos. Zusätzlich wurden mir eventuell Produkte kostenfrei zur Verfügung gestellt (beispielsweise als Leihgabe). In den meisten Fällen wurden die Inhalte nicht mit dem Auftraggeber abgestimmt. Es handelt sich in jedem Fall um meine persönliche Meinung! In extrem seltenen Fällen findet eine Abnahme der Inhalte durch den Auftraggeber statt, welcher damit falsche oder irreführende Aussagen vor Veröffentlichung verhindern möchte.

» Mehr erfahren

Du willst mehr?

Smart-Home-Trainings von A-Z

Steig' noch tiefer in die Themen ein und meistere Deine Projekte! Über 17.000 Teilnehmer konnten sich schon von der Qualität der Online-Kurse überzeugen.

Abonniere jetzt den Newsletter für
spannende Neuigkeiten! interessante Angebote! neue Kurs-Inhalte!
* Durch Angabe meiner E-Mail-Adresse erkläre ich mich damit einverstanden, dass mir unregelmäßig Informationen und Produktempfehlungen aus dem Themengebiet »Smart Home« zugesendet werden. Mit dem Eintrag akzeptiere ich die Datenschutzbestimmungen. Meine Einwilligung kann ich jederzeit widerrufen.