Pensei se com um modelo menor agente poderia melhorar as respostas deles, porque ainda é inviável rodar isso localmente,mas com uma logica dessa pode melhorar significativamente.
Faaaalaaaaa Luiz .. bão? seu conteúdo é top.. me permita uma sugestão, tire ou abaixe o volume do áudio da transição.. ele normalmente sobrepõe a sua fala … Sucesso !!!!
Não muda nada, não tem nada haver com o modelo novo da OpenAI, responder mais rápido ou não não muda a qualidade da resposta, não se pode esquecer que a base ainda continua sendo o Ollama, portanto não tem comparação com a base do O1 Preview.
É possível alterar ele pra rodar usando o gemini ou a API de outra IA?
Nossa essa transição nesse volume realmente na da não ⛔
Muito bom Luiz
otimo conteudo, só uma sugestão, abaixe o volume da transição, pq é bem irritante e alto.
Obrigado pelo conteúdo.
Será que é possivel incluir no LM STUDIO? Treinar localmente.
esse modelo roda em pc comum com gpu ou tem que ser um super computador?
ótimo video, alterei colocando o gpt-4o ficou excelente com testes de cálculos em relação ao llama.
Langchain agents só observando
o cara foi mostro … Ultimo passo da sabedoria é a simplicidade
Conteúdo TOP, bom trabalho!
Transição over.
Cada vez mais verdade, tudo é prompt desde a época do Aladim
Eu testei no dia que lançou, e logo no outro dia já teve um fork deles rodando outros provedores de LLM até com locais.
Estou até como contribuidor nesse repositório pois quero testar com o LLama 405b e nos modelos da Anthropic pra ver como fica.
Pensei se com um modelo menor agente poderia melhorar as respostas deles, porque ainda é inviável rodar isso localmente,mas com uma logica dessa pode melhorar significativamente.
Bem massa.. Chegou a testar ele rodando o Ollama com Lamma3.1 no seu próprio server, Luiz?
Irado Luiz!
Mas a vinheta está MUITO longa e com volume muito alto. E olha que assisto no 2x.
eita morangooo 🍓🍓🍓🍓
Faaaalaaaaa Luiz .. bão? seu conteúdo é top.. me permita uma sugestão, tire ou abaixe o volume do áudio da transição.. ele normalmente sobrepõe a sua fala … Sucesso !!!!
Excelente vídeo. Tecnologia para mim é como voltar à ser criança em uma loja de brinquedos.
Muito top
Muito top
Não muda nada, não tem nada haver com o modelo novo da OpenAI, responder mais rápido ou não não muda a qualidade da resposta, não se pode esquecer que a base ainda continua sendo o Ollama, portanto não tem comparação com a base do O1 Preview.
Seu token ta aberto
Não consegui entender porque usa o grok. É necessário mesmo? Só com o ollama não seria suficiente? (Obs: to aprendendo ainda sobre cada ferramenta rs)
Ótimo conteúdo como sempre! Parabéns @luis!
Dica, não gostei das transições entre cenas, elas acabam incomodando. Abs
cara isso está evoluindo rápido,
Que leal😮
Não dá pra rodar esse pyton num nó n8n ? Só com a lógica, sem a interface?
Opa legal muito interessante e vamos dormir kkkk