Hardware acessível para executar sua IA local
Eu tenho considerado adquirir um PC, ou construir um para executar localmente seus próprios LLMs sem precisar se inscrever e compartilhar seus dados com fornecedores externos.
Estava me perguntando o que seria acessível para um pequeno servidor/PC caseiro para torná-lo "suficientemente bom", seja lá o que isso signifique.
Eu experimentei modelos quantizados e eles funcionam muito bem, mas geralmente são bastante lentos na CPU, no entanto, as GPUs têm preços absurdos e pouca RAM... Talvez transferir parte dos modelos para a GPU possa ser uma opção, mas assim como muitos outros fatores precisam ser ajustados na construção final do PC. Obrigado!
Eu tenho considerado adquirir um PC, ou construir um para executar localmente seus próprios LLMs sem precisar se inscrever e compartilhar seus dados com fornecedores externos.
Estava me perguntando o que seria acessível para um pequeno servidor/PC caseiro para torná-lo "suficientemente bom", seja lá o que isso signifique.
Eu experimentei modelos quantizados e eles funcionam muito bem, mas geralmente são bastante lentos na CPU, no entanto, as GPUs têm preços absurdos e pouca RAM... Talvez transferir parte dos modelos para a GPU possa ser uma opção, mas assim como muitos outros fatores precisam ser ajustados na construção final do PC. Obrigado!
4 users upvote it!
1 answer