Skip to content

Latest commit

 

History

History
220 lines (176 loc) · 21.1 KB

README.md

File metadata and controls

220 lines (176 loc) · 21.1 KB

Phi Cookbook: Exemplos Práticos com os Modelos Phi da Microsoft

Abrir e usar os exemplos no GitHub Codespaces
Abrir em Dev Containers

Contribuidores do GitHub
Problemas no GitHub
Pull Requests no GitHub
PRs Bem-Vindos

Observadores no GitHub
Forks no GitHub
Estrelas no GitHub

Comunidade do Azure AI no Discord

Phi é uma série de modelos de IA de código aberto desenvolvidos pela Microsoft.

Atualmente, Phi é o modelo de linguagem pequeno (SLM) mais poderoso e econômico, com excelentes benchmarks em cenários como multilinguismo, raciocínio, geração de texto/chat, codificação, imagens, áudio e outros.

Você pode implementar Phi na nuvem ou em dispositivos de borda e criar facilmente aplicações de IA generativa com recursos computacionais limitados.

Siga estas etapas para começar a usar este recurso:

  1. Faça um Fork do Repositório: Clique Forks no GitHub
  2. Clone o Repositório: git clone https://github.com/microsoft/PhiCookBook.git
  3. Junte-se à Comunidade Microsoft AI no Discord e conecte-se com especialistas e outros desenvolvedores

capa

Índice

Usando Modelos Phi

Phi no Azure AI Foundry

Você pode aprender a usar o Microsoft Phi e a construir soluções de ponta a ponta em diferentes dispositivos de hardware. Para experimentar o Phi por conta própria, comece explorando os modelos e personalizando o Phi para seus cenários usando o Catálogo de Modelos do Azure AI Foundry. Você pode saber mais no guia de introdução Azure AI Foundry.

Playground
Cada modelo possui um playground dedicado para testar o modelo Azure AI Playground.

Phi no GitHub Models

Você pode aprender a usar o Microsoft Phi e a construir soluções de ponta a ponta em diferentes dispositivos de hardware. Para experimentar o Phi por conta própria, comece explorando o modelo e personalizando o Phi para seus cenários usando o Catálogo de Modelos do GitHub. Você pode saber mais no guia de introdução GitHub Model Catalog.

Playground
Cada modelo possui um playground dedicado para testar o modelo.

Phi no Hugging Face

Você também pode encontrar o modelo no Hugging Face

Playground
Playground do Hugging Chat

IA Responsável

A Microsoft está comprometida em ajudar seus clientes a usar nossos produtos de IA de forma responsável, compartilhando nossos aprendizados e construindo parcerias baseadas em confiança por meio de ferramentas como Notas de Transparência e Avaliações de Impacto. Muitos desses recursos estão disponíveis em https://aka.ms/RAI.
A abordagem da Microsoft para IA responsável está fundamentada em nossos princípios de IA: equidade, confiabilidade e segurança, privacidade e proteção, inclusão, transparência e responsabilidade.

Modelos em larga escala de linguagem natural, imagem e fala - como os usados neste exemplo - podem, potencialmente, se comportar de maneiras injustas, pouco confiáveis ou ofensivas, causando danos. Consulte a nota de transparência do serviço Azure OpenAI para se informar sobre riscos e limitações.

A abordagem recomendada para mitigar esses riscos é incluir um sistema de segurança em sua arquitetura que possa detectar e prevenir comportamentos prejudiciais. O Azure AI Content Safety fornece uma camada independente de proteção, capaz de detectar conteúdos prejudiciais gerados por usuários ou por IA em aplicativos e serviços. O Azure AI Content Safety inclui APIs de texto e imagem que permitem detectar materiais prejudiciais. Dentro do Azure AI Foundry, o serviço Content Safety permite visualizar, explorar e testar códigos de exemplo para detectar conteúdos prejudiciais em diferentes modalidades. A seguinte documentação de início rápido orienta você a fazer solicitações ao serviço.

Outro aspecto a ser considerado é o desempenho geral da aplicação. Em aplicativos multimodais e com múltiplos modelos, consideramos desempenho como a capacidade do sistema de atender às expectativas suas e dos usuários, incluindo a não geração de resultados prejudiciais. É importante avaliar o desempenho de sua aplicação como um todo utilizando avaliadores de Desempenho e Qualidade e de Risco e Segurança. Você também tem a possibilidade de criar e avaliar com avaliadores personalizados.

Você pode avaliar sua aplicação de IA em seu ambiente de desenvolvimento usando o SDK de Avaliação do Azure AI. Com base em um conjunto de dados de teste ou um alvo, as gerações de sua aplicação de IA generativa são medidas quantitativamente com avaliadores embutidos ou personalizados de sua escolha. Para começar a usar o SDK de avaliação do Azure AI e avaliar seu sistema, você pode seguir o guia de início rápido. Depois de executar uma avaliação, você pode visualizar os resultados no Azure AI Foundry.

Marcas Registradas

Este projeto pode conter marcas registradas ou logotipos de projetos, produtos ou serviços. O uso autorizado de marcas ou logotipos da Microsoft está sujeito e deve seguir as Diretrizes de Marca e Logotipo da Microsoft.
O uso de marcas ou logotipos da Microsoft em versões modificadas deste projeto não deve causar confusão ou implicar patrocínio da Microsoft. Qualquer uso de marcas ou logotipos de terceiros está sujeito às políticas desses terceiros.

Aviso Legal:
Este documento foi traduzido usando serviços de tradução baseados em IA. Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original em seu idioma nativo deve ser considerado a fonte oficial. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações equivocadas decorrentes do uso desta tradução.