Bildegalleri
2× AMD MI50 16GB HBM2 datacenter-GPU — Qwen / Whisper / LLM
Til salgs
Frakt fra 38 kr + Trygg betaling 194 kr
Trygg handel med Fiks ferdig
Varen sendes til deg, og du har 24 timer til å inspisere den før pengene overføres til selgeren.
Beskrivelse av varen
Tilstand: Pent brukt - I god stand
Type: Skjermkort
Selger AMD Radeon Instinct MI50 16GB HBM2 – GPU bygget for AI-inferens og HPC.
Følger med strømkabler.
Pris per stk: 3943
────────────────────────────────────
• 16 GB HBM2 (1 024 GB/s båndbredde)
• 13,4 TFLOPS FP32 / 26,5 TFLOPS FP16 / 6,6 TFLOPS FP64
• Vega 20 (GCN 5.1) – PCIe 4.0 x16
• 300 W TDP, 2× 8-pin EPS-kontakt
• Passivkjølt – krever serverairflow eller DIY-blower
────────────────────────────────────
LLM-token-generering er minnebåndbredde-bundet, ikke FLOPS-bundet.
Mer båndbredde = flere tok/s.
Denne brikken har 1 TB/s. De fleste consumer-GPUer på finn har 1/3 av det
Sammenligning av minnebåndbredde (det som faktisk avgjør LLM-hastighet):
Kort VRAM Båndbredde Typisk finn-pris
──────────────────────────────────────────────────────────
AMD MI50 16GB → 16 GB 1024 GB/s (denne)
RTX 3090 24GB 24 GB 936 GB/s 5500–7000
RTX 3080 Ti 12GB 12 GB 912 GB/s 5000
RTX 3080 10GB 10 GB 760 GB/s 4500
RTX 2080 Ti 11GB 11 GB 616 GB/s 2200
Tesla P40 24GB 24 GB 346 GB/s ~2500 (eBay)
RTX 4070 12GB 12 GB 504 GB/s 4800
RTX 3060 12GB 12 GB 360 GB/s 2300
Quadro P5000 16GB 16 GB 288 GB/s 5000
Per krone båndbredde slår denne alt unntatt 2080 Ti.
Per GB VRAM slår den alt unntatt P40 (som har 1/3 av båndbredden).
────────────────────────────────────
HVA DU KAN KJØRE
────────────────────────────────────
1 stk MI50 16GB:
• Qwen 14B Q4 (~8,5 GB) ≈ 85–100 tok/s
• Qwen 7B Q4 → 150+ tok/s
• Whisper large-v3 → ~13× sanntid
• Stable Diffusion 1.5 / SDXL (FP16) → fungerer
• Mistral, LLaMA 3 8B, Phi-3 → alle fint
2 stk MI50 16GB (32 GB combined, tensor parallel):
• Qwen 32B Q4 (~18 GB) → ~50 tok/s
• LLaMA 3 70B Q3 → mulig
• Mixtral 8x7B → fungerer
────────────────────────────────────
PROGRAMVARE
────────────────────────────────────
✓ PyTorch (offisielle ROCm-builds)
✓ llama.cpp / Ollama / LM Studio
✓ vLLM (ROCm-fork eller offisiell ROCm-støtte)
✓ Hugging Face Transformers
✓ Stable Diffusion WebUI (Automatic1111 / Forge)
VIKTIG: Dette er ikke CUDA. Programvare som hard-krever CUDA
(TensorRT-LLM, NVIDIA NIM, noen ML-paper-implementasjoner)
fungerer IKKE. Det meste av moderne LLM-stack støtter ROCm.
────────────────────────────────────
KRAV
────────────────────────────────────
• 2U+ rack-kabinett med airflow:
Dell R730xd / R740xd
HP DL380 Gen9 / Gen10
Supermicro 2U med GPU-SKU
– eller DIY 3D-printet blower-deksel
• PSU 750 W+ for ett kort, 1100 W+ for to
• 2× 8-pin EPS per kort (CPU-power, ikke vanlig PCIe!)
• Linux med ROCm 5.7+ (Ubuntu 22.04 / 24.04, Debian 12)
Brukerprofil
Du må være logget inn for å se brukerprofiler og sende meldinger.
Logg innAnnonsens metadata
Sist endret: 10.5.2026 kl. 11:08 ・ FINN-kode: 463069605
Utforsk våre nye sider for klær og mote
Ta en titt