Phi é uma série de modelos de IA de código aberto desenvolvidos pela Microsoft.
Atualmente, Phi é o modelo de linguagem pequeno (SLM) mais poderoso e econômico, com excelentes benchmarks em cenários como multilinguismo, raciocínio, geração de texto/chat, codificação, imagens, áudio e outros.
Você pode implementar Phi na nuvem ou em dispositivos de borda e criar facilmente aplicações de IA generativa com recursos computacionais limitados.
Siga estas etapas para começar a usar este recurso:
- Faça um Fork do Repositório: Clique
- Clone o Repositório:
git clone https://github.com/microsoft/PhiCookBook.git
- Junte-se à Comunidade Microsoft AI no Discord e conecte-se com especialistas e outros desenvolvedores
-
Introdução
-
Inferência de Phi em diferentes ambientes
-
Inferência da Família Phi
-
Avaliação Phi
-
RAG com Azure AI Search
-
Exemplos de desenvolvimento de aplicações Phi
- Aplicações de Texto & Chat
- Exemplos Phi-4 🆕
- Exemplos Phi-3 / 3.5
- Chatbot Local no navegador usando Phi3, ONNX Runtime Web e WebGPU
- Chat OpenVINO
- Multi Modelo - Phi-3-mini Interativo e OpenAI Whisper
- MLFlow - Criando um wrapper e usando Phi-3 com MLFlow
- Otimização de Modelo - Como otimizar o modelo Phi-3-min para ONNX Runtime Web com Olive
- Aplicativo WinUI3 com Phi-3 mini-4k-instruct-onnx
- Exemplo de Aplicativo de Notas com IA Multimodelo no WinUI3
- Aprimorar e Integrar modelos personalizados Phi-3 com Promptflow
- Aprimorar e Integrar modelos personalizados Phi-3 com Promptflow no Azure AI Foundry
- Avaliar o Modelo Aprimorado Phi-3 / Phi-3.5 no Azure AI Foundry com Foco nos Princípios de IA Responsável da Microsoft
- Aplicações de Texto & Chat
-
[📓] Exemplo de previsão de linguagem Phi-3.5-mini-instruct (Chinês/Inglês) - Chatbot RAG Phi-3.5-Instruct com WebGPU - Usando GPU do Windows para criar solução Prompt Flow com Phi-3.5-Instruct ONNX - Usando Microsoft Phi-3.5 tflite para criar aplicativo Android - Exemplo de perguntas e respostas em .NET usando o modelo local ONNX Phi-3 com Microsoft.ML.OnnxRuntime - Aplicativo de chat no console .NET com Semantic Kernel e Phi-3
-
Exemplos baseados em código do Azure AI Inference SDK
-
Exemplos de Raciocínio Avançado
- Exemplos Phi-4 🆕
-
Demos
-
Exemplos de Visão
- Exemplos Phi-4 🆕
- Exemplos Phi-3 / 3.5
- [📓]Phi-3-vision - Texto de imagem para texto
- Phi-3-vision-ONNX
- [📓]Phi-3-vision CLIP Embedding
- DEMO: Phi-3 Reciclagem
- Phi-3-vision - Assistente visual de linguagem - com Phi3-Vision e OpenVINO
- Phi-3 Vision Nvidia NIM
- Phi-3 Vision OpenVino
- [📓]Exemplo multi-frame ou multi-imagem do Phi-3.5 Vision
- Modelo Local ONNX do Phi-3 Vision usando Microsoft.ML.OnnxRuntime .NET
- Modelo Local ONNX do Phi-3 Vision baseado em menu usando Microsoft.ML.OnnxRuntime .NET
-
Exemplos de Áudio
-
Exemplos de MoE
-
Exemplos de Chamadas de Função
- Exemplos Phi-4 🆕
-
Exemplos de Mistura Multimodal
- Exemplos Phi-4 🆕
-
-
Ajuste fino de amostras Phi
- Cenários de ajuste fino
- Ajuste fino vs RAG
- Ajuste fino: Deixe o Phi-3 se tornar um especialista da indústria
- Ajuste fino do Phi-3 com AI Toolkit para VS Code
- Ajuste fino do Phi-3 com Azure Machine Learning Service
- Ajuste fino do Phi-3 com Lora
- Ajuste fino do Phi-3 com QLora
- Ajuste fino do Phi-3 com Azure AI Foundry
- Ajuste fino do Phi-3 com Azure ML CLI/SDK
- Ajuste fino com Microsoft Olive
- Laboratório prático de ajuste fino com Microsoft Olive
- Ajuste fino do Phi-3-vision com Weights and Bias
- Ajuste fino do Phi-3 com Apple MLX Framework
- Ajuste fino do Phi-3-vision (suporte oficial)
- Ajuste fino do Phi-3 com Kaito AKS, Azure Containers (suporte oficial)
- Ajuste fino do Phi-3 e 3.5 Vision
-
Laboratório prático
-
Artigos de pesquisa acadêmica e publicações
- Textbooks Are All You Need II: relatório técnico phi-1.5
- Relatório técnico do Phi-3: um modelo de linguagem altamente capaz localmente no seu telefone
- Relatório técnico do Phi-4
- Otimizando pequenos modelos de linguagem para chamadas de função em veículos
- (WhyPHI) Ajuste fino do PHI-3 para perguntas de múltipla escolha: metodologia, resultados e desafios
Você pode aprender a usar o Microsoft Phi e a construir soluções de ponta a ponta em diferentes dispositivos de hardware. Para experimentar o Phi por conta própria, comece explorando os modelos e personalizando o Phi para seus cenários usando o Catálogo de Modelos do Azure AI Foundry. Você pode saber mais no guia de introdução Azure AI Foundry.
Playground
Cada modelo possui um playground dedicado para testar o modelo Azure AI Playground.
Você pode aprender a usar o Microsoft Phi e a construir soluções de ponta a ponta em diferentes dispositivos de hardware. Para experimentar o Phi por conta própria, comece explorando o modelo e personalizando o Phi para seus cenários usando o Catálogo de Modelos do GitHub. Você pode saber mais no guia de introdução GitHub Model Catalog.
Playground
Cada modelo possui um playground dedicado para testar o modelo.
Você também pode encontrar o modelo no Hugging Face
Playground
Playground do Hugging Chat
A Microsoft está comprometida em ajudar seus clientes a usar nossos produtos de IA de forma responsável, compartilhando nossos aprendizados e construindo parcerias baseadas em confiança por meio de ferramentas como Notas de Transparência e Avaliações de Impacto. Muitos desses recursos estão disponíveis em https://aka.ms/RAI.
A abordagem da Microsoft para IA responsável está fundamentada em nossos princípios de IA: equidade, confiabilidade e segurança, privacidade e proteção, inclusão, transparência e responsabilidade.
Modelos em larga escala de linguagem natural, imagem e fala - como os usados neste exemplo - podem, potencialmente, se comportar de maneiras injustas, pouco confiáveis ou ofensivas, causando danos. Consulte a nota de transparência do serviço Azure OpenAI para se informar sobre riscos e limitações.
A abordagem recomendada para mitigar esses riscos é incluir um sistema de segurança em sua arquitetura que possa detectar e prevenir comportamentos prejudiciais. O Azure AI Content Safety fornece uma camada independente de proteção, capaz de detectar conteúdos prejudiciais gerados por usuários ou por IA em aplicativos e serviços. O Azure AI Content Safety inclui APIs de texto e imagem que permitem detectar materiais prejudiciais. Dentro do Azure AI Foundry, o serviço Content Safety permite visualizar, explorar e testar códigos de exemplo para detectar conteúdos prejudiciais em diferentes modalidades. A seguinte documentação de início rápido orienta você a fazer solicitações ao serviço.
Outro aspecto a ser considerado é o desempenho geral da aplicação. Em aplicativos multimodais e com múltiplos modelos, consideramos desempenho como a capacidade do sistema de atender às expectativas suas e dos usuários, incluindo a não geração de resultados prejudiciais. É importante avaliar o desempenho de sua aplicação como um todo utilizando avaliadores de Desempenho e Qualidade e de Risco e Segurança. Você também tem a possibilidade de criar e avaliar com avaliadores personalizados.
Você pode avaliar sua aplicação de IA em seu ambiente de desenvolvimento usando o SDK de Avaliação do Azure AI. Com base em um conjunto de dados de teste ou um alvo, as gerações de sua aplicação de IA generativa são medidas quantitativamente com avaliadores embutidos ou personalizados de sua escolha. Para começar a usar o SDK de avaliação do Azure AI e avaliar seu sistema, você pode seguir o guia de início rápido. Depois de executar uma avaliação, você pode visualizar os resultados no Azure AI Foundry.
Este projeto pode conter marcas registradas ou logotipos de projetos, produtos ou serviços. O uso autorizado de marcas ou logotipos da Microsoft está sujeito e deve seguir as Diretrizes de Marca e Logotipo da Microsoft.
O uso de marcas ou logotipos da Microsoft em versões modificadas deste projeto não deve causar confusão ou implicar patrocínio da Microsoft. Qualquer uso de marcas ou logotipos de terceiros está sujeito às políticas desses terceiros.
Aviso Legal:
Este documento foi traduzido usando serviços de tradução baseados em IA. Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original em seu idioma nativo deve ser considerado a fonte oficial. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações equivocadas decorrentes do uso desta tradução.