Pular para o conteúdo

Como Executar Qualquer LLM Open Source Localmente com o LM Studio: Guia Passo a Passo

Claro! Para ajudá-lo a criar um artigo otimizado para SEO com 1000 palavras, por favor, forneça a descrição ou o tema que você gostaria de abordar. Assim, poderei criar um conteúdo que atenda às suas necessidades.

Título: LM Studio: A Nova Era dos Modelos de Linguagem de Código Aberto para o Serviço Público

Com mais de 16 anos de experiência no serviço público, tenho acompanhado a evolução das tecnologias que podem aprimorar a eficiência e a transparência nas instituições. Um dos avanços que me chama a atenção é o LM Studio, uma ferramenta que permite executar modelos de linguagem de código aberto (LLMs) localmente de forma simplificada.

O LM Studio democratiza o acesso a essas tecnologias, permitindo que servidores públicos, independente de nível técnico, possam utilizar modelos de linguagem avançados. Isso pode ter um impacto significativo na comunicação, no atendimento ao cidadão e na análise de dados. Imagine a possibilidade de criar respostas automáticas para perguntas frequentes, gerar relatórios com mais agilidade ou até mesmo realizar análises preditivas sobre demandas sociais.

No entanto, ao implementarmos essas inovações, é essencial refletir sobre a ética e a responsabilidade no uso dessas ferramentas. Como podemos garantir que os dados dos cidadãos sejam tratados com segurança? Quais medidas devem ser adotadas para evitar viés nas respostas geradas por esses modelos? Essas questões são fundamentais e devem ser debatidas por todos nós no ambiente público.

Portanto, convido meus colegas servidores a explorar as possibilidades que o LM Studio oferece. Pensemos em como essa tecnologia pode ser um aliado na busca por um serviço público mais eficiente e acessível. Juntos, podemos transformar informações em ações que realmente atendam às necessidades da sociedade.

Créditos para Fonte

Aprenda tudo sobre automações do n8n, typebot, google workspace, IA, chatGPT entre outras ferramentas indispensáeis no momento atual para aumentar a sua produtividade e eficiência.

Vamos juntos dominar o espaço dos novos profissionais do futuro!!!

#Studio #Easiest #Run #Opensource #LLMs #Locally

35 Comment on this post

  1. Hi, I am new to LM studio. Hi, I just downloaded Lm Studio and have successful install it. I have also downloaded codellama 7b and i can chat with it. When i start the server and use a broswer to access http://localhost:1234 i get this eror {"error":"Unexpected endpoint or method. (GET /)"}. Any idea what i did wrong. This is my log file [2023-12-02 23:11:22.087] [INFO] [LM STUDIO SERVER] Success! HTTP server listening on port 1234.

    [2023-12-02 23:11:22.088] [INFO] [LM STUDIO SERVER] Supported endpoints:

    [2023-12-02 23:11:22.089] [INFO] [LM STUDIO SERVER] -> GET http://localhost:1234/v1/models

    [2023-12-02 23:11:22.090] [INFO] [LM STUDIO SERVER] -> POST http://localhost:1234/v1/chat/completions

    [2023-12-02 23:11:22.090] [INFO] [LM STUDIO SERVER] -> POST http://localhost:1234/v1/completions

    [2023-12-02 23:11:22.091] [INFO] [LM STUDIO SERVER] Logs are saved into C:tmplmstudio-server-log.txt

    [2023-12-02 23:11:49.997] [ERROR] Unexpected endpoint or method. (GET /). Returning 200 anyway.

    [2023-12-02 23:11:51.135] [ERROR] Unexpected endpoint or method. (GET /favicon.ico). Returning 200 anyway. I just want the chat app to appear at the localhost

  2. 00:02 Deepseek Coder is an application that replicates the extendable framework of ChatDev but on the web.

    01:48 DeepSE Coder is an AI tool that enables code to write itself.

    03:27 Deepseek Coder has enhanced base models through fine-tuning with 2 billion tokens of instructional data.

    05:04 Deepseek Coder's 33 billion model outperforms existing open-source code models.

    06:52 Deepseek Coder performs well in different programming languages and evaluation metrics.

    08:35 Install Deepseek Coder and select the desired model size.

    10:08 Deepseek Coder can generate Python code for a basic Snakes and Ladder game with four players.

    11:44 Deepseek Coder is an open-source tool for code completion.

  3. It's super nice, I enjoy using this but sometimes I want to use my Android phone or iOS phone to use the API this LM Studio app can run. Do you know any app that can link to the API?

  4. Any tips on how to connect LM Studio with SillyTavern?
    In the main API settings, it can't connect when using the "Chat Completion" -> "OpenAI" settings, and there is nowhere to add the provided URL with these settings (it doesn't work with any other that has a URL input).
    I can't make it work…

  5. Doesn't work by pointing to the models folder in Oobabooga. So I would need a seperate folder structure just for this program or it would break compatibility with Oobabooga. So this just won't work for me unless it works for something that Oobabooga can't do.

  6. 🎯 Key Takeaways for quick navigation:

    00:12 🖥️ LM Studio is a lightweight program to run local LLMs on your computer without requiring much hardware.
    00:26 🎨 It boasts a sleek UI with a chatbot interface, making it user-friendly and easier to navigate compared to installing text generation web.
    01:12 ⬇️ Discover, download, and run local LLMs within the application, with additional functionalities like starting inferences and servers.
    03:16 🔍 Search and find a variety of models to use or experiment with, sorted by compatibility, download frequency or other criteria.
    04:35 📏 Customize your model selection based on your hardware capacity or other preferences.
    05:29 🔄 Easily start your own inference server with a few clicks in LM Studio.
    06:25 📊 Provides a guideline for selecting models based on your computer's RAM capacity to ensure practical generation speeds.
    07:19 🔒 Ensures data privacy with encryption and a clear statement on HTTP requests utilization.
    08:44 🎚️ Offers a range of customizable options, settings, and the ability to run your own server, alongside interactive inferences within the application.
    09:13 🎉 Celebrates reaching 25k subscribers and expresses gratitude towards viewers for their support and engagement on the channel.

    Made with HARPA AIcre

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *