Phi 是微软开发的一系列开源AI模型。
Phi 目前是最强大且性价比最高的小型语言模型(SLM),在多语言、推理、文本/聊天生成、代码、图像、音频等场景中表现优异。
您可以将 Phi 部署到云端或边缘设备,并能够在有限的计算资源下轻松构建生成式AI应用程序。
按照以下步骤开始使用这些资源:
- Fork 仓库:点击
- 克隆仓库:
git clone https://github.com/microsoft/PhiCookBook.git
- 加入微软AI Discord社区,与专家和开发者交流
-
介绍
-
在不同环境中推理 Phi
-
Phi 家族推理
-
评估 Phi
-
使用 Azure AI Search 的 RAG
-
Phi 应用开发示例
- 文本与聊天应用
- Phi-4 示例 🆕
- Phi-3 / 3.5 示例
- 使用 Phi3、ONNX Runtime Web 和 WebGPU 在浏览器中构建本地聊天机器人
- OpenVino 聊天
- 多模型 - 交互式 Phi-3-mini 和 OpenAI Whisper
- MLFlow - 构建包装器并使用 Phi-3 与 MLFlow 集成
- 模型优化 - 如何使用 Olive 为 ONNX Runtime Web 优化 Phi-3-mini 模型
- 使用 Phi-3 mini-4k-instruct-onnx 的 WinUI3 应用
- WinUI3 多模型 AI 驱动的笔记应用示例
- 微调并集成自定义 Phi-3 模型与 Promptflow
- 在 Azure AI Foundry 中微调并集成自定义 Phi-3 模型与 Promptflow
- 在 Azure AI Foundry 中评估微调的 Phi-3 / Phi-3.5 模型,聚焦微软的负责任 AI 原则
- 文本与聊天应用
-
[📓] Phi-3.5-mini-instruct 语言预测示例(中/英) - Phi-3.5-Instruct WebGPU RAG 聊天机器人 - 使用 Windows GPU 和 Phi-3.5-Instruct ONNX 创建 Prompt Flow 解决方案 - 使用 Microsoft Phi-3.5 tflite 创建安卓应用 - 使用 Microsoft.ML.OnnxRuntime 的本地 ONNX Phi-3 模型进行问答 .NET 示例 - 使用 Semantic Kernel 和 Phi-3 的控制台聊天 .NET 应用
-
Azure AI 推理 SDK 基于代码的示例
-
高级推理示例
- Phi-4 示例 🆕
- [📓] Phi-4-mini 推理示例
- Phi-4 示例 🆕
-
演示
-
视觉示例
- Phi-4 示例 🆕
- Phi-3 / 3.5 示例
- [📓]Phi-3-vision-图像文本到文本
- Phi-3-vision-ONNX
- [📓]Phi-3-vision CLIP 嵌入
- 演示:Phi-3 回收
- Phi-3-vision - 可视化语言助手 - 使用 Phi3-Vision 和 OpenVINO
- Phi-3 Vision Nvidia NIM
- Phi-3 Vision OpenVino
- [📓]Phi-3.5 Vision 多帧或多图像示例
- 使用 Microsoft.ML.OnnxRuntime .NET 的本地 ONNX 模型 Phi-3 Vision
- 基于菜单的 Microsoft.ML.OnnxRuntime .NET 本地 ONNX 模型 Phi-3 Vision
-
音频示例
-
MOE 示例
-
函数调用示例
- Phi-4 示例 🆕
-
多模态混合示例
- Phi-4 示例 🆕
-
-
微调 Phi 示例
- 微调场景
- 微调与 RAG 对比
- 微调让 Phi-3 成为行业专家
- 使用 VS Code 的 AI 工具包微调 Phi-3
- 使用 Azure 机器学习服务微调 Phi-3
- 使用 Lora 微调 Phi-3
- 使用 QLora 微调 Phi-3
- 使用 Azure AI Foundry 微调 Phi-3
- 使用 Azure ML CLI/SDK 微调 Phi-3
- 使用 Microsoft Olive 微调
- Microsoft Olive 微调实践实验
- 使用 Weights and Bias 微调 Phi-3-vision
- 使用 Apple MLX 框架微调 Phi-3
- 微调 Phi-3-vision(官方支持)
- 使用 Kaito AKS 和 Azure 容器微调 Phi-3(官方支持)
- 微调 Phi-3 和 3.5 Vision
-
实践实验
-
学术研究论文与出版物
你可以学习如何使用 Microsoft Phi 并在不同的硬件设备上构建端到端解决方案。要亲身体验 Phi,可以通过Azure AI Foundry Azure AI 模型目录探索模型并根据你的场景自定义 Phi。你可以在Azure AI Foundry 快速入门中了解更多。
体验平台 每个模型都有专属的体验平台用于测试:Azure AI Playground。
你可以学习如何使用 Microsoft Phi 并在不同的硬件设备上构建端到端解决方案。要亲身体验 Phi,可以通过GitHub 模型目录探索模型并根据你的场景自定义 Phi。你可以在GitHub 模型目录快速入门中了解更多。
体验平台 每个模型都有一个专属的模型测试平台。
你也可以在 Hugging Face 上找到该模型。
测试平台
Hugging Chat 测试平台
微软致力于帮助客户负责任地使用我们的 AI 产品,分享我们的经验,并通过透明度说明和影响评估等工具构建基于信任的合作伙伴关系。许多相关资源可以在 https://aka.ms/RAI 找到。
微软的负责任 AI 方法基于我们的 AI 原则:公平性、可靠性与安全性、隐私与安全性、包容性、透明性和问责制。
大规模的自然语言、图像和语音模型(如本示例中使用的模型)可能会以不公平、不可靠或冒犯的方式运行,从而造成伤害。请参考 Azure OpenAI 服务透明度说明,了解相关风险和限制。
减轻这些风险的推荐方法是在您的架构中包含一个安全系统,用于检测和防止有害行为。Azure AI 内容安全 提供了一个独立的保护层,可以检测应用程序和服务中用户生成和 AI 生成的有害内容。Azure AI 内容安全包括文本和图像 API,能够检测有害材料。在 Azure AI Foundry 中,内容安全服务允许您查看、探索并试用检测不同模态有害内容的示例代码。以下快速入门文档将指导您如何向该服务发送请求。
另一个需要考虑的方面是整体应用程序性能。对于多模态和多模型应用程序,性能意味着系统表现符合您和用户的期望,包括不生成有害输出。评估整体应用程序性能时,可以使用 性能和质量及风险与安全评估工具。此外,您还可以创建和评估自定义评估工具。
您可以在开发环境中使用 Azure AI Evaluation SDK 评估您的 AI 应用程序。通过测试数据集或目标,您的生成式 AI 应用程序的生成结果可以通过内置评估工具或您选择的自定义评估工具进行定量测量。要开始使用 Azure AI Evaluation SDK 评估您的系统,可以参考快速入门指南。完成评估运行后,您可以在 Azure AI Foundry 中可视化结果。
本项目可能包含项目、产品或服务的商标或标志。经授权使用微软商标或标志需遵守并符合微软商标和品牌指南。
在修改版本的项目中使用微软商标或标志不得引起混淆或暗示微软的赞助。任何第三方商标或标志的使用需遵守该第三方的相关政策。
免责声明:
本文件是使用基于机器的人工智能翻译服务翻译的。尽管我们努力确保翻译的准确性,但请注意,自动翻译可能包含错误或不准确之处。应以原文的母语版本作为权威来源。对于关键信息,建议寻求专业人工翻译。对于因使用本翻译而引起的任何误解或误读,我们概不负责。