Afordable hårdvara för att köra din lokala AI

Jag har funderat på att skaffa en PC, eller bygga en för att köra dina egna LLMs lokalt utan att behöva prenumerera och dela dina data med externa leverantörer. Jag undrade vad som skulle vara prisvärt för en liten hemma-labbserver/PC för att göra den "tillräckligt bra", vad det nu kan vara. Jag har provat kvantiserade modeller och de fungerar ganska bra, men vanligtvis ganska långsamma på CPU, men GPU:er har galna priser och lite RAM... Kanske kan delar av modellerna överföras till GPU vara ett alternativ, men det, liksom många andra faktorer, behöver justeras i den slutgiltiga PC-byggnaden. Tack!
Jag har funderat på att skaffa en PC, eller bygga en för att köra dina egna LLMs lokalt utan att behöva prenumerera och dela dina data med externa leverantörer. Jag undrade vad som skulle vara prisvärt för en liten hemma-labbserver/PC för att göra den "tillräckligt bra", vad det nu kan vara. Jag har provat kvantiserade modeller och de fungerar ganska bra, men vanligtvis ganska långsamma på CPU, men GPU:er har galna priser och lite RAM... Kanske kan delar av modellerna överföras till GPU vara ett alternativ, men det, liksom många andra faktorer, behöver justeras i den slutgiltiga PC-byggnaden. Tack!
Show original content

4 users upvote it!

1 answer