Não sei o motivo, mas aqui no meu não aparece para escolher o modelo… fica gpt-4o-mini, mas roda a automação. Só que eu preciso ir no LM Studio e escolher uma outra IA
Eu tenho um RTX 3070ti e não consigo fazer o lm studio utilizar o processamento da minha placa de vídeo, só utiliza a CPU, alguém sabe como resolver isso?
O modelo que voce usou são de 8bilhoes de parâmetros que roda em placas de ate 8gb, ai tem modelos com mais paramentros mais precisa de mais memoria na placa de video
o lite chat, é bem mais robusto que o R1 a base de dados é maior, mas precisa de uma placa boa , to rodando o R1 com um AMD Ryzen 5 5600G com 16gb de ram ele tem rodado bem, mas só roda os modelos de 8b, acima disso ele não suporta
Rode 32b de parâmetros numa gtx 1650 super, ryzen 5 3600, 32gb de ram, rtx e meu ovo. Testei usando o Ollama, ele carregou quase tudo na ram e usou so 3gb de placa.
NÃO SACRIFIQUEM QUALIDADE POR CAUSA DE PREÇO. erro que tive hoje no R1 num prompt simples de plano de postagens de uma semana. erro que nunca tive desde o primeiro gpt. deepseek é lixo chinês!!! Aqui está: Comparação de preços: "R25aquivs. R25aquivs.R 40 em restaurante à la carte". kkkkkkk liiiixooooooo.
Porque usa placa de vídeo para IA. Não seria mas conteudo de memória e GPUs?
Não sei o motivo, mas aqui no meu não aparece para escolher o modelo… fica gpt-4o-mini, mas roda a automação. Só que eu preciso ir no LM Studio e escolher uma outra IA
Eu tenho um RTX 3070ti e não consigo fazer o lm studio utilizar o processamento da minha placa de vídeo, só utiliza a CPU, alguém sabe como resolver isso?
O modelo que voce usou são de 8bilhoes de parâmetros que roda em placas de ate 8gb, ai tem modelos com mais paramentros mais precisa de mais memoria na placa de video
Mt bom esse modelo que vc usou, dps vou testar
o lite chat, é bem mais robusto que o R1 a base de dados é maior, mas precisa de uma placa boa , to rodando o R1 com um AMD Ryzen 5 5600G
com 16gb de ram ele tem rodado bem, mas só roda os modelos de 8b, acima disso ele não suporta
Eu tenho um Ryzen 5 8600g e ele tem NPU embutida, alguém sabe se isso ajuda no processo do modelo?
Rode 32b de parâmetros numa gtx 1650 super, ryzen 5 3600, 32gb de ram, rtx e meu ovo. Testei usando o Ollama, ele carregou quase tudo na ram e usou so 3gb de placa.
Esse deepseek v2 ele é rapido até usando com processador, um dos mais rapidos com quantidade de parametros, eu uso o deepseekcoder v2
o modelo baixado ja vem com o filtro do Alexandre de Moraes Chines?
Vc deveria tentar um Modelo 32B quanto mais B melhor , mas quanto mais mais vc precisa de hardware . Eles falam que o do site oficial tem 665B+
@promovaweb É possível fazer com que o DeepSeek local acesse e pesquise conteúdos na internet?
NÃO SACRIFIQUEM QUALIDADE POR CAUSA DE PREÇO. erro que tive hoje no R1 num prompt simples de plano de postagens de uma semana. erro que nunca tive desde o primeiro gpt. deepseek é lixo chinês!!! Aqui está: Comparação de preços: "R25aquivs. R25aquivs.R 40 em restaurante à la carte". kkkkkkk liiiixooooooo.
Querido, qual seria uma maquina ideia pra eu rodar isso em produção ?
Usar no Cursor, coisa linda
E pra instalar em VPS, como seria?
Ansioso por um video seu sobre isso, aqui ou na Comunidade 🎉
Uau…eu não entendi muito bem mas parece legal