हा मार्गदर्शक तुम्हाला Phi-3 मॉडेल Ollama वापरून स्थानिक वातावरणात सेटअप करण्यास मदत करेल. तुम्ही हे मॉडेल वेगवेगळ्या पद्धतींनी चालवू शकता, जसे की GitHub Codespaces, VS Code Dev Containers, किंवा तुमच्या स्थानिक वातावरणात.
तुम्ही GitHub Codespaces वापरून हे टेम्पलेट आभासी स्वरूपात चालवू शकता. हे बटण तुमच्या ब्राउझरमध्ये वेब-आधारित VS Code उदाहरण उघडेल:
एक संबंधित पर्याय म्हणजे VS Code Dev Containers, जो Dev Containers विस्तार वापरून प्रकल्प तुमच्या स्थानिक VS Code मध्ये उघडेल:
-
Docker Desktop सुरू करा (जर आधीपासून स्थापित नसेल तर ते स्थापित करा)
-
प्रकल्प उघडा:
-
जेव्हा VS Code विंडो उघडते आणि प्रकल्प फायली दिसायला लागतात (यास काही मिनिटे लागू शकतात), तेव्हा टर्मिनल विंडो उघडा.
-
डिप्लॉयमेंट पायऱ्या सुरू ठेवा.
-
खालील साधने स्थापित असल्याची खात्री करा:
-
Ollama ला phi3:mini मॉडेल डाउनलोड आणि चालविण्यास सांगा:
ollama run phi3:mini
मॉडेल डाउनलोड होण्यासाठी काही मिनिटे लागतील.
-
एकदा आउटपुटमध्ये "यशस्वी" दिसले की, तुम्ही त्या मॉडेलला प्रॉम्प्टमधून संदेश पाठवू शकता.
>>> Write a haiku about hungry hippos
-
काही सेकंदांनंतर, तुम्हाला मॉडेलकडून प्रतिसाद प्रवाहित होताना दिसेल.
-
भाषा मॉडेल्ससह वापरल्या जाणाऱ्या वेगवेगळ्या तंत्रांबद्दल शिकण्यासाठी, Python नोटबुक ollama.ipynb उघडा आणि प्रत्येक सेल चालवा. जर तुम्ही 'phi3:mini' वगळता इतर कोणतेही मॉडेल वापरले असेल, तर फाईलच्या वरच्या भागात
MODEL_NAME
in the first cell. -
To have a conversation with the phi3:mini model from Python, open the Python file chat.py and run it. You can change the
MODEL_NAME
आवश्यकतेनुसार बदला, आणि तुम्ही सिस्टम मेसेज बदलू शकता किंवा हवे असल्यास काही उदाहरणे देखील जोडू शकता.
अस्वीकरण:
हे दस्तऐवज मशीन-आधारित AI भाषांतर सेवांचा वापर करून भाषांतरित करण्यात आले आहे. आम्ही अचूकतेसाठी प्रयत्नशील असलो तरी, कृपया लक्षात घ्या की स्वयंचलित भाषांतरे चुका किंवा अचूकतेचा अभाव असू शकतात. मूळ भाषेतील मूळ दस्तऐवज हा प्राधिकृत स्रोत मानला पाहिजे. महत्त्वाच्या माहितीसाठी, व्यावसायिक मानव भाषांतराची शिफारस केली जाते. या भाषांतराचा वापर केल्यामुळे होणाऱ्या कोणत्याही गैरसमज किंवा चुकीच्या अर्थासाठी आम्ही जबाबदार राहणार नाही.