Phi to seria otwartoźródłowych modeli AI opracowanych przez Microsoft.
Phi to obecnie najpotężniejszy i najbardziej opłacalny mały model językowy (SLM), osiągający bardzo dobre wyniki w wielojęzyczności, rozumowaniu, generowaniu tekstu/rozmów, kodowaniu, obrazach, dźwiękach i innych scenariuszach.
Możesz wdrożyć Phi w chmurze lub na urządzeniach brzegowych, a także łatwo tworzyć aplikacje generatywnej sztucznej inteligencji przy ograniczonej mocy obliczeniowej.
Postępuj zgodnie z poniższymi krokami, aby zacząć korzystać z tych zasobów:
- Forkuj repozytorium: Kliknij
- Sklonuj repozytorium:
git clone https://github.com/microsoft/PhiCookBook.git
- Dołącz do społeczności Microsoft AI Discord i poznaj ekspertów oraz innych programistów
-
Wprowadzenie
-
Inference Phi w różnych środowiskach
-
Inference rodziny Phi
-
- Wnioskowanie Phi na komputerze AI PC
- Wnioskowanie Phi z wykorzystaniem Apple MLX Framework
- Wnioskowanie Phi na lokalnym serwerze
- Wnioskowanie Phi na zdalnym serwerze przy użyciu AI Toolkit
- Wnioskowanie Phi z wykorzystaniem Rust
- Wnioskowanie Phi--Vision lokalnie
- Wnioskowanie Phi z Kaito AKS, Azure Containers (oficjalne wsparcie)
-
Ocena Phi
-
RAG z Azure AI Search
-
Przykłady rozwoju aplikacji Phi
- Aplikacje tekstowe i czatowe
- Przykłady Phi-4 🆕
- Przykłady Phi-3 / 3.5
- Lokalny chatbot w przeglądarce z wykorzystaniem Phi3, ONNX Runtime Web i WebGPU
- Czat OpenVino
- Model wielomodelowy - interaktywny Phi-3-mini i OpenAI Whisper
- MLFlow - Tworzenie wrappera i używanie Phi-3 z MLFlow
- Optymalizacja modelu - Jak zoptymalizować model Phi-3-mini dla ONNX Runtime Web przy użyciu Olive
- Aplikacja WinUI3 z modelem Phi-3 mini-4k-instruct-onnx
- Przykładowa aplikacja notatek AI z wieloma modelami w WinUI3
- Dostosowanie i integracja niestandardowych modeli Phi-3 z Prompt flow
- Dostosowanie i integracja niestandardowych modeli Phi-3 z Prompt flow w Azure AI Foundry
- Ocena dostosowanego modelu Phi-3 / Phi-3.5 w Azure AI Foundry z uwzględnieniem zasad Odpowiedzialnej AI Microsoftu
- Aplikacje tekstowe i czatowe
-
[📓] Phi-3.5-mini-instruct przykład przewidywania języka (chiński/angielski) - Phi-3.5-Instruct WebGPU RAG Chatbot - Korzystanie z GPU w systemie Windows do tworzenia rozwiązania Prompt Flow z Phi-3.5-Instruct ONNX - Tworzenie aplikacji na Androida za pomocą Microsoft Phi-3.5 tflite - Przykład Q&A .NET z lokalnym modelem ONNX Phi-3 przy użyciu Microsoft.ML.OnnxRuntime - Konsolowa aplikacja czatu .NET z Semantic Kernel i Phi-3
-
Próbki kodu SDK Azure AI Inference
-
Zaawansowane przykłady rozumowania
- Próbki Phi-4 🆕
-
Dema
-
Przykłady wizji komputerowej
- Próbki Phi-4 🆕
- Próbki Phi-3 / 3.5
- [📓]Phi-3-vision-Image tekst na tekst
- Phi-3-vision-ONNX
- [📓]Phi-3-vision osadzanie CLIP
- DEMO: Phi-3 Recycling
- Phi-3-vision - Wizualny asystent językowy - z Phi3-Vision i OpenVINO
- Phi-3 Vision Nvidia NIM
- Phi-3 Vision OpenVino
- [📓]Phi-3.5 Vision przykład wieloklatkowy lub wieloobrazowy
- Phi-3 Vision lokalny model ONNX przy użyciu Microsoft.ML.OnnxRuntime .NET
- Model ONNX Phi-3 Vision lokalny z menu przy użyciu Microsoft.ML.OnnxRuntime .NET
-
Przykłady audio
-
Przykłady MOE
-
Przykłady wywoływania funkcji
- Próbki Phi-4 🆕
-
Przykłady mieszania multimodalnego
- Próbki Phi-4 🆕
-
-
[📓] Korzystanie z Phi-4-multimodal jako dziennikarz technologiczny
-
Dostosowywanie próbek Phi
- Scenariusze dostosowywania
- Dostosowywanie a RAG
- Dostosowywanie: Pozwól Phi-3 stać się ekspertem branżowym
- Dostosowywanie Phi-3 z AI Toolkit dla VS Code
- Dostosowywanie Phi-3 z Azure Machine Learning Service
- Dostosowywanie Phi-3 z Lora
- Dostosowywanie Phi-3 z QLora
- Dostosowywanie Phi-3 z Azure AI Foundry
- Dostosowywanie Phi-3 z Azure ML CLI/SDK
- Dostosowywanie z Microsoft Olive
- Dostosowywanie z Microsoft Olive Hands-On Lab
- Dostosowywanie Phi-3-vision z Weights and Bias
- Dostosowywanie Phi-3 z Apple MLX Framework
- Dostosowywanie Phi-3-vision (oficjalne wsparcie)
- Dostosowywanie Phi-3 z Kaito AKS, Azure Containers (oficjalne wsparcie)
- Dostosowywanie Phi-3 i 3.5 Vision
-
Laboratorium praktyczne
-
Artykuły badawcze i publikacje akademickie
- Textbooks Are All You Need II: raport techniczny phi-1.5
- Raport techniczny Phi-3: Wysokowydajny model językowy lokalnie na Twoim telefonie
- Raport techniczny Phi-4
- Optymalizacja małych modeli językowych do wywoływania funkcji w pojazdach
- (WhyPHI) Dostosowywanie PHI-3 do odpowiedzi na pytania wielokrotnego wyboru: Metodologia, wyniki i wyzwania
Możesz nauczyć się, jak korzystać z Microsoft Phi i jak budować kompleksowe rozwiązania na różnych urządzeniach sprzętowych. Aby samodzielnie wypróbować Phi, zacznij od testowania modeli i dostosowywania Phi do swoich scenariuszy za pomocą Azure AI Foundry Azure AI Model Catalog. Więcej informacji znajdziesz w sekcji Rozpoczęcie pracy z Azure AI Foundry.
Playground
Każdy model ma dedykowane środowisko testowe Azure AI Playground.
Możesz nauczyć się, jak korzystać z Microsoft Phi i jak budować kompleksowe rozwiązania na różnych urządzeniach sprzętowych. Aby samodzielnie wypróbować Phi, zacznij od testowania modelu i dostosowywania Phi do swoich scenariuszy za pomocą GitHub Model Catalog. Więcej informacji znajdziesz w sekcji Rozpoczęcie pracy z GitHub Model Catalog.
Playground
Każdy model ma dedykowane środowisko testowe do sprawdzania modelu.
Model można również znaleźć na Hugging Face
Środowisko testowe
Hugging Chat playground
Microsoft zobowiązuje się do wspierania swoich klientów w odpowiedzialnym korzystaniu z produktów AI, dzielenia się zdobytymi doświadczeniami oraz budowania partnerskich relacji opartych na zaufaniu za pomocą narzędzi takich jak Transparency Notes i Impact Assessments. Wiele z tych zasobów można znaleźć na stronie https://aka.ms/RAI.
Podejście Microsoftu do odpowiedzialnej AI opiera się na naszych zasadach dotyczących AI: sprawiedliwości, niezawodności i bezpieczeństwa, prywatności i ochrony, inkluzywności, przejrzystości oraz odpowiedzialności.
Modele przetwarzania języka naturalnego, obrazu i mowy na dużą skalę - takie jak te używane w tym przykładzie - mogą potencjalnie działać w sposób niesprawiedliwy, zawodny lub obraźliwy, co może powodować szkody. Prosimy o zapoznanie się z notą przejrzystości usługi Azure OpenAI, aby być świadomym ryzyk i ograniczeń.
Zalecanym podejściem do minimalizowania tych ryzyk jest uwzględnienie systemu bezpieczeństwa w swojej architekturze, który może wykrywać i zapobiegać szkodliwym zachowaniom. Azure AI Content Safety zapewnia niezależną warstwę ochrony, zdolną do wykrywania szkodliwych treści generowanych przez użytkowników lub AI w aplikacjach i usługach. Azure AI Content Safety obejmuje API tekstowe i obrazowe, które pozwalają na wykrywanie szkodliwych materiałów. W ramach Azure AI Foundry usługa Content Safety umożliwia przeglądanie, eksplorowanie i testowanie przykładowego kodu do wykrywania szkodliwych treści w różnych modalnościach. Następująca dokumentacja wprowadzająca prowadzi przez proces składania zapytań do tej usługi.
Innym aspektem, który należy wziąć pod uwagę, jest ogólna wydajność aplikacji. W przypadku aplikacji wielomodalnych i wielomodelowych wydajność oznacza, że system działa zgodnie z oczekiwaniami Twoimi i użytkowników, w tym nie generuje szkodliwych wyników. Ważne jest, aby ocenić wydajność swojej aplikacji przy użyciu ocen wydajności, jakości oraz ryzyka i bezpieczeństwa. Możesz również tworzyć i oceniać aplikacje za pomocą niestandardowych ocen.
Możesz oceniać swoją aplikację AI w środowisku deweloperskim, korzystając z Azure AI Evaluation SDK. Na podstawie zestawu testowego lub celu generacje Twojej aplikacji AI są ilościowo mierzone za pomocą wbudowanych lub niestandardowych ocen, które wybierzesz. Aby rozpocząć korzystanie z Azure AI Evaluation SDK do oceny swojego systemu, możesz postępować zgodnie z przewodnikiem wprowadzającym. Po wykonaniu oceny możesz wizualizować wyniki w Azure AI Foundry.
Ten projekt może zawierać znaki towarowe lub logotypy dotyczące projektów, produktów lub usług. Autoryzowane korzystanie ze znaków towarowych lub logotypów Microsoftu podlega i musi być zgodne z wytycznymi dotyczącymi znaków towarowych i marki Microsoftu.
Użycie znaków towarowych lub logotypów Microsoftu w zmodyfikowanych wersjach tego projektu nie może powodować nieporozumień ani sugerować sponsorowania przez Microsoft. Wszelkie użycie znaków towarowych lub logotypów stron trzecich podlega zasadom tych stron trzecich.
Zastrzeżenie:
Ten dokument został przetłumaczony za pomocą usług tłumaczeniowych opartych na sztucznej inteligencji. Chociaż staramy się zapewnić dokładność, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji krytycznych zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.