Skip to content

Latest commit

 

History

History
220 lines (176 loc) · 28.8 KB

README.md

File metadata and controls

220 lines (176 loc) · 28.8 KB

Phi Cookbook: Практическое руководство по моделям Phi от Microsoft

Открыть и использовать примеры в GitHub Codespaces
Открыть в Dev Containers

GitHub contributors
GitHub issues
GitHub pull-requests
PRs Welcome

GitHub watchers
GitHub forks
GitHub stars

Azure AI Community Discord

Phi — это серия моделей искусственного интеллекта с открытым исходным кодом, разработанных Microsoft.

Phi на данный момент является самой мощной и экономически эффективной малой языковой моделью (SLM), показывающей отличные результаты в задачах, связанных с многоязычностью, рассуждением, генерацией текста/чата, программированием, изображениями, аудио и другими сценариями.

Вы можете развернуть Phi в облаке или на устройствах периферии, а также легко создавать приложения генеративного ИИ с ограниченными вычислительными ресурсами.

Следуйте этим шагам, чтобы начать использовать эти ресурсы:

  1. Сделайте форк репозитория: Нажмите GitHub forks
  2. Клонируйте репозиторий: git clone https://github.com/microsoft/PhiCookBook.git
  3. Присоединяйтесь к сообществу Microsoft AI в Discord и общайтесь с экспертами и разработчиками

cover

Содержание

Использование моделей Phi

Phi на Azure AI Foundry

Вы можете узнать, как использовать Microsoft Phi и как строить сквозные решения для различных аппаратных устройств. Чтобы попробовать Phi самостоятельно, начните с тестирования моделей и настройки Phi для ваших сценариев с помощью каталога моделей Azure AI Foundry. Подробнее читайте в разделе Начало работы с Azure AI Foundry.

Песочница Каждая модель имеет свою собственную песочницу для тестирования: Azure AI Playground.

Phi на GitHub Models

Вы можете узнать, как использовать Microsoft Phi и как строить сквозные решения для различных аппаратных устройств. Чтобы попробовать Phi самостоятельно, начните с тестирования модели и настройки Phi для ваших сценариев с помощью каталога моделей GitHub. Подробнее читайте в разделе Начало работы с каталогом моделей GitHub.

Песочница Каждая модель имеет отдельную песочницу для тестирования модели.

Phi на Hugging Face

Вы также можете найти модель на Hugging Face

Песочница
Hugging Chat playground

Ответственный подход к ИИ

Microsoft стремится помогать нашим клиентам использовать продукты ИИ ответственно, делиться нашими знаниями и выстраивать партнерские отношения, основанные на доверии, с помощью таких инструментов, как Прозрачные заметки и Оценка воздействия. Многие из этих ресурсов доступны по адресу https://aka.ms/RAI.
Подход Microsoft к ответственному ИИ основан на наших принципах ИИ: справедливость, надежность и безопасность, конфиденциальность и защита, инклюзивность, прозрачность и подотчетность.

Модели естественного языка, изображения и речи большого масштаба, подобные тем, что используются в этом примере, потенциально могут вести себя несправедливо, ненадежно или оскорбительно, что, в свою очередь, может причинить вред. Ознакомьтесь с Прозрачной заметкой об Azure OpenAI Service, чтобы узнать о рисках и ограничениях.

Рекомендуемый подход к снижению этих рисков — включить систему безопасности в вашу архитектуру, которая сможет обнаруживать и предотвращать вредоносное поведение. Azure AI Content Safety предоставляет независимый уровень защиты, способный обнаруживать вредоносный контент, созданный пользователями или ИИ, в приложениях и сервисах. Azure AI Content Safety включает текстовые и визуальные API, которые позволяют обнаруживать вредоносный материал. В рамках Azure AI Foundry служба Content Safety позволяет просматривать, изучать и тестировать примерный код для обнаружения вредоносного контента в различных модальностях. Следующая документация для быстрого старта проведет вас через процесс создания запросов к сервису.

Еще один аспект, который следует учитывать, — это общая производительность приложения. В многофункциональных и многомодельных приложениях производительность означает, что система работает так, как вы и ваши пользователи ожидаете, включая предотвращение генерации вредоносного контента. Важно оценивать производительность вашего приложения в целом с использованием оценщиков производительности и качества, а также рисков и безопасности. У вас также есть возможность создавать и использовать кастомные оценщики.

Вы можете оценить свое ИИ-приложение в вашей среде разработки с помощью Azure AI Evaluation SDK. Используя либо тестовый набор данных, либо целевой показатель, ваши генерации в приложении на основе генеративного ИИ количественно измеряются с помощью встроенных или кастомных оценщиков по вашему выбору. Чтобы начать работу с Azure AI Evaluation SDK для оценки вашей системы, вы можете следовать руководству по быстрому старту. После выполнения оценки вы можете визуализировать результаты в Azure AI Foundry.

Торговые марки

Этот проект может содержать торговые марки или логотипы для проектов, продуктов или услуг. Авторизованное использование торговых марок или логотипов Microsoft должно соответствовать и подчиняться Руководству по использованию торговых марок и брендов Microsoft.
Использование торговых марок или логотипов Microsoft в измененных версиях этого проекта не должно вызывать путаницу или подразумевать спонсорство со стороны Microsoft. Любое использование торговых марок или логотипов третьих сторон должно соответствовать политике этих третьих сторон.

Отказ от ответственности:
Этот документ был переведен с использованием автоматизированных AI-сервисов перевода. Хотя мы стремимся к точности, имейте в виду, что автоматические переводы могут содержать ошибки или неточности. Оригинальный документ на его родном языке следует считать авторитетным источником. Для получения критически важной информации рекомендуется обратиться к профессиональному переводу, выполненному человеком. Мы не несем ответственности за любые недоразумения или неверные интерпретации, возникшие в результате использования данного перевода.