LM Studio

LM Studio

Desktop Computing Software Products

Discover, download, and run local LLMs.

About us

New in LM Studio v0.3.0: Chat with local documents! Download from https://lmstudio.ai

Website
https://lmstudio.ai
Industry
Desktop Computing Software Products
Company size
2-10 employees
Headquarters
Brooklyn
Type
Privately Held

Locations

Employees at LM Studio

Updates

  • LM Studio reposted this

    View profile for Yagil Burowski, graphic

    Building LM Studio (lmstudio.ai)

    LM Studio 0.3.4 just shipped with support for Apple MLX! 🚢 🍎 Run on-device LLMs on Apple Silicon Macs extremely fast, locally & offline. Includes: > run Llama 3.2 1B at ~250 tok/sec (!) on M3 > use via chat UI -or- local server (OpenAI-like endpoints) > ability to enforce structured JSON responses (Rémi Louf's outlines) > run Vision LLMs like LLaVA (thanks to Prince Canuma's mlx-vlm) > LM Studio's MLX engine is open source! Announcement: https://lmstudio.ai/mlx Github: https://lnkd.in/eXeMhF6g Download: https://lnkd.in/ekZMtGqe Special thanks to Awni Hannun 🦾🙏 Video at 1x speed.

  • LM Studio reposted this

    View profile for Daniel Alisch, graphic

    Managing Consultant und Teamleiter bei mindsquare GmbH

    Ein Erfahrungsbericht: Lokale LLM mit LM Studio einrichten und warum es für mich ein Game-Changer war 🖥️🧠 Einleitung Als technikbegeisterter KI-Enthusiast hatte ich schon immer den Wunsch, eine lokale Language Learning Model (LLM) bei mir zu Hause einzurichten. Einer der Hauptgründe war mein Sicherheitsbedenken, ob meine Daten, die ich über APIs mit großen Anbietern wie OpenAI teile, möglicherweise zum Trainieren ihrer Modelle verwendet werden. Zwar gibt OpenAI an, dass die Daten nicht fürs Anlernen genutzt, sondern lediglich zur Überprüfung auf unangemessene Anfragen gespeichert werden – dennoch wollte ich mehr Kontrolle über meine eigenen Daten haben. Das Problem Die Idee, eine lokale LLM zu betreiben, klang spannend, aber ist das nicht recht aufwändig? Die meisten verfügbaren Optionen erfordern umfangreiche Kenntnisse in der Serverkonfiguration und Modellbereitstellung. Zudem sind viele Lösungen für den produktiven Einsatz oder die Forschung konzipiert, aber weniger für den unkomplizierten Gebrauch durch technisch interessierte Privatpersonen. Die Lösung: LM Studio Hier kam LM Studio ins Spiel – eine One-Click-Lösung, die es unglaublich einfach macht, eine lokale LLM aufzusetzen. Mit nur wenigen Klicks wird ein Service direkt auf dem PC erstellt, der über REST APIs angesprochen werden kann. Wichtig ist, CORS muss aktiviert werden. LM Studio bot mir genau die einfache und unkomplizierte Lösung, die ich gesucht hatte. - Schnelle Einrichtung: Es dauert nur wenige Minuten, die LLM lokal bereitzustellen. Keine komplizierten Befehle, kein manuelles Setup. - Volle Kontrolle: Da die LLM lokal auf meinem PC läuft, weiß ich genau, was mit meinen Daten geschieht. Ich bin nicht auf die Angaben eines Dritten angewiesen. - Flexibilität: Die Möglichkeit, über REST APIs direkt auf das Modell zuzugreifen, gibt mir die Freiheit, verschiedene Anwendungen und Tools nahtlos zu integrieren. Die Vorteile für mich Der größte Vorteil, den ich in der Einrichtung einer lokalen LLM mit LM Studio gefunden habe, war die absolute Kontrolle über meine Daten. Ich musste mir keine Sorgen mehr machen, dass sensible Informationen möglicherweise irgendwohin gesendet oder gespeichert werden, wo ich keinen Einfluss darauf habe. Zudem war ich überrascht, wie benutzerfreundlich und effizient das Setup mit LM Studio ist. Mit minimalem Aufwand konnte ich eine eigene LLM betreiben, die zu meinen Anforderungen passt – ideal für persönliche Projekte oder Experimente mit KI-Technologien. Warum es für Sie interessant sein könnte Für alle, die sich mit KI beschäftigen, ihre Daten aber lieber in ihren eigenen vier Wänden behalten wollen, bietet eine lokale LLM eine großartige Alternative zu großen Cloud-Anbietern. LM Studio macht den Einstieg unglaublich einfach und gibt Ihnen die Kontrolle über Ihre eigenen Daten zurück – und das mit minimalem technischem Aufwand. Vielleicht lohnt es sich, einmal darüber nachzudenken, ob eine lokale LLM auch für Ihre Bedürfnisse passen könnte? 😊

    • No alternative text description for this image
    • No alternative text description for this image
    • No alternative text description for this image
  • LM Studio reposted this

    View profile for Ramine Roane, graphic

    Making AI ubiquitous | Corporate Vice President @ AMD

    Day 1 success! Llama-3.2 3B ran smoothly out of the box on an #AMD Ryzen AI #laptop processor with integrated #Radeon GPU. 👀 Watch as it’s solving a #physics problem real-time (in less than 7 seconds). #Endpoint #AI just leveled up! Thanks to our partner LM Studio for turning around this demo within 4h of the llama-3.2 launch!! 🚀

  • View organization page for LM Studio, graphic

    1,680 followers

    Introducing LM Studio 0.3.0 - discover, download and run local LLMs! LM Studio is the easiest way to run LLMs locally on your computer. Within minutes you can be chatting with the leading open-source models like Llama 3.1, Gemma 2, and Phi 3. And there’s never been a better time to get started. From an entirely refreshed interface, to chatting with documents using RAG, to support for new languages, this is a whole new LM Studio. What’s Included: - Built-in Chat with Documents (aka RAG) 📑 - Total UI overhaul (with all the same customization features you know & love) 🎨 - Automatic GPU detection + offload 🎛️ - UI now also available in Spanish, German, French, Norwegian, Turkish, & Russian 🗺️ - Conversation management (folders, notes, chat cloning + branching) 📁 - OpenAI-compatible Structured Output API 🛠️ - Load & serve multiple LLMs on the network 👯 .. and tons more! 👾

  • View organization page for LM Studio, graphic

    1,680 followers

    Every day is ARM day 🦾 (on Windows) 🎉 LM Studio 0.2.29 is now updated with Llama 3.1 support! We’ve been working with our friends at Qualcomm to ensure speedy tokens / second on Snapdragon X Elite CPUs. 🐉🔥 Llama 3.1 is Meta’s latest openly available LLM, supporting up to 128K token context length, multi-lingual support, and advanced reasoning. Get LM Studio for Windows (ARM64): https://lnkd.in/eb-vkv5K

Similar pages