Skip to content

Latest commit

 

History

History
220 lines (176 loc) · 21.3 KB

README.md

File metadata and controls

220 lines (176 loc) · 21.3 KB

Phi Cookbook: Praktyczne przykłady z modelami Phi od Microsoftu

Open and use the samples in GitHub Codespaces
Open in Dev Containers

GitHub contributors
GitHub issues
GitHub pull-requests
PRs Welcome

GitHub watchers
GitHub forks
GitHub stars

Azure AI Community Discord

Phi to seria otwartoźródłowych modeli AI opracowanych przez Microsoft.

Phi to obecnie najpotężniejszy i najbardziej opłacalny mały model językowy (SLM), osiągający bardzo dobre wyniki w wielojęzyczności, rozumowaniu, generowaniu tekstu/rozmów, kodowaniu, obrazach, dźwiękach i innych scenariuszach.

Możesz wdrożyć Phi w chmurze lub na urządzeniach brzegowych, a także łatwo tworzyć aplikacje generatywnej sztucznej inteligencji przy ograniczonej mocy obliczeniowej.

Postępuj zgodnie z poniższymi krokami, aby zacząć korzystać z tych zasobów:

  1. Forkuj repozytorium: Kliknij GitHub forks
  2. Sklonuj repozytorium: git clone https://github.com/microsoft/PhiCookBook.git
  3. Dołącz do społeczności Microsoft AI Discord i poznaj ekspertów oraz innych programistów

cover

Spis treści

Korzystanie z modeli Phi

Phi na Azure AI Foundry

Możesz nauczyć się, jak korzystać z Microsoft Phi i jak budować kompleksowe rozwiązania na różnych urządzeniach sprzętowych. Aby samodzielnie wypróbować Phi, zacznij od testowania modeli i dostosowywania Phi do swoich scenariuszy za pomocą Azure AI Foundry Azure AI Model Catalog. Więcej informacji znajdziesz w sekcji Rozpoczęcie pracy z Azure AI Foundry.

Playground
Każdy model ma dedykowane środowisko testowe Azure AI Playground.

Phi na GitHub Models

Możesz nauczyć się, jak korzystać z Microsoft Phi i jak budować kompleksowe rozwiązania na różnych urządzeniach sprzętowych. Aby samodzielnie wypróbować Phi, zacznij od testowania modelu i dostosowywania Phi do swoich scenariuszy za pomocą GitHub Model Catalog. Więcej informacji znajdziesz w sekcji Rozpoczęcie pracy z GitHub Model Catalog.

Playground
Każdy model ma dedykowane środowisko testowe do sprawdzania modelu.

Phi na Hugging Face

Model można również znaleźć na Hugging Face

Środowisko testowe
Hugging Chat playground

Odpowiedzialna sztuczna inteligencja

Microsoft zobowiązuje się do wspierania swoich klientów w odpowiedzialnym korzystaniu z produktów AI, dzielenia się zdobytymi doświadczeniami oraz budowania partnerskich relacji opartych na zaufaniu za pomocą narzędzi takich jak Transparency Notes i Impact Assessments. Wiele z tych zasobów można znaleźć na stronie https://aka.ms/RAI.
Podejście Microsoftu do odpowiedzialnej AI opiera się na naszych zasadach dotyczących AI: sprawiedliwości, niezawodności i bezpieczeństwa, prywatności i ochrony, inkluzywności, przejrzystości oraz odpowiedzialności.

Modele przetwarzania języka naturalnego, obrazu i mowy na dużą skalę - takie jak te używane w tym przykładzie - mogą potencjalnie działać w sposób niesprawiedliwy, zawodny lub obraźliwy, co może powodować szkody. Prosimy o zapoznanie się z notą przejrzystości usługi Azure OpenAI, aby być świadomym ryzyk i ograniczeń.

Zalecanym podejściem do minimalizowania tych ryzyk jest uwzględnienie systemu bezpieczeństwa w swojej architekturze, który może wykrywać i zapobiegać szkodliwym zachowaniom. Azure AI Content Safety zapewnia niezależną warstwę ochrony, zdolną do wykrywania szkodliwych treści generowanych przez użytkowników lub AI w aplikacjach i usługach. Azure AI Content Safety obejmuje API tekstowe i obrazowe, które pozwalają na wykrywanie szkodliwych materiałów. W ramach Azure AI Foundry usługa Content Safety umożliwia przeglądanie, eksplorowanie i testowanie przykładowego kodu do wykrywania szkodliwych treści w różnych modalnościach. Następująca dokumentacja wprowadzająca prowadzi przez proces składania zapytań do tej usługi.

Innym aspektem, który należy wziąć pod uwagę, jest ogólna wydajność aplikacji. W przypadku aplikacji wielomodalnych i wielomodelowych wydajność oznacza, że system działa zgodnie z oczekiwaniami Twoimi i użytkowników, w tym nie generuje szkodliwych wyników. Ważne jest, aby ocenić wydajność swojej aplikacji przy użyciu ocen wydajności, jakości oraz ryzyka i bezpieczeństwa. Możesz również tworzyć i oceniać aplikacje za pomocą niestandardowych ocen.

Możesz oceniać swoją aplikację AI w środowisku deweloperskim, korzystając z Azure AI Evaluation SDK. Na podstawie zestawu testowego lub celu generacje Twojej aplikacji AI są ilościowo mierzone za pomocą wbudowanych lub niestandardowych ocen, które wybierzesz. Aby rozpocząć korzystanie z Azure AI Evaluation SDK do oceny swojego systemu, możesz postępować zgodnie z przewodnikiem wprowadzającym. Po wykonaniu oceny możesz wizualizować wyniki w Azure AI Foundry.

Znaki towarowe

Ten projekt może zawierać znaki towarowe lub logotypy dotyczące projektów, produktów lub usług. Autoryzowane korzystanie ze znaków towarowych lub logotypów Microsoftu podlega i musi być zgodne z wytycznymi dotyczącymi znaków towarowych i marki Microsoftu.
Użycie znaków towarowych lub logotypów Microsoftu w zmodyfikowanych wersjach tego projektu nie może powodować nieporozumień ani sugerować sponsorowania przez Microsoft. Wszelkie użycie znaków towarowych lub logotypów stron trzecich podlega zasadom tych stron trzecich.

Zastrzeżenie:
Ten dokument został przetłumaczony za pomocą usług tłumaczeniowych opartych na sztucznej inteligencji. Chociaż staramy się zapewnić dokładność, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji krytycznych zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.