Microsoft Ignite – Microsoft dévoile plus de 100 nouveautés autour de l’IA

Microsoft Ignite – Microsoft dévoile plus de 100 nouveautés autour de l’IA

Microsoft Ignite

A l’occasion du Microsoft Ignite, sa conférence annuelle dédiée à l’innovation, Microsoft dévoile plus de 100 nouveautés autour de l’IA, de l’infrastructure nécessaire à son fonctionnement jusqu’aux outils mis à disposition des développeurs pour son déploiement au quotidien.

Repenser l’infrastructure cloud

Microsoft a pris les devants avec des initiatives révolutionnaires telles que des partenariats avec OpenAI et l’intégration de capacités ChatGPT dans les outils utilisés pour la recherche en ligne, la collaboration, le travail et la formation. Afin d’accompagner le développement de ses solutions d’IA, Microsoft repense son infrastructure cloud afin d’en optimiser chacune des strates, matérielles et logicielles.

À l’occasion d’Ignite, Microsoft annonce de nouvelles innovations pour l’ensemble son parc de datacenters, notamment le tout dernier silicium optimisé pour l’IA fabriqués par ses partenaires industriels, ainsi que deux nouvelles puces conçues par Microsoft :

  • Microsoft Azure Maia, une puce d’accélération d’IA conçue pour exécuter des entraînements et des inférences basés sur le cloud pour des tâches d’IA telles que les modèles OpenAI, Bing, GitHub Copilot et ChatGPT.
  • Microsoft Azure Cobalt, une puce cloud-native basée sur l’architecture Arm optimisée pour la performance, l’efficacité énergétique et la réduction des coûts des tâches courantes.

En outre, Microsoft annonce la disponibilité générale d’Azure Boost, un système qui accélère le stockage et la mise en réseau en déplaçant ces processus depuis les serveurs hôtes vers du matériel et des solutions logicielles spécialement conçues à cet effet.

En complément de son silicium personnalisé, Microsoft développe des partenariats avec ses fournisseurs de silicium afin d’offrir des options d’infrastructure à ses clients.

  • Microsoft va ajouter des machines virtuelles accélérées (VM) AMD MI300X à Azure. Les VM ND MI300 sont conçues pour accélérer le traitement des tâches d’IA pour l’entraînement de modèles d’IA à grande échelle et l’inférence générative, et intégreront le dernier GPU d’AMD, l’AMD Instinct MI300X.
  • La preview de la nouvelle série de machines virtuelles NC H100 v5 conçue pour les GPU NVIDIA H100 Tensor Core, offrant plus de performances, de fiabilité et d’efficacité pour l’entraînement à l’IA de milieu de gamme et l’inférence générative de l’IA. Microsoft annonce également des plans pour la série de machines virtuelles ND H200 v5, une VM optimisée pour l’IA intégrant le prochain GPU Tensor Core NVIDIA H200.

Accroître la valeur ajoutée pour les développeurs grâce à Azure AI

Microsoft continue d’élargir le choix et la flexibilité en matière de modèles d’IA générative afin d’offrir aux développeurs la sélection la plus complète. Avec Model-as-a-Service, une nouvelle fonctionnalité du catalogue de modèles que Microsoft a annoncée lors de Build, les développeurs professionnels pourront facilement intégrer les derniers modèles d’IA tels que Llama 2 de Meta et les prochains modèles premium de Mistral et Jais, de G42 en tant que points de terminaison d’API jusqu’à leurs applications. Ils peuvent également personnaliser ces modèles avec leurs propres données sans avoir à se soucier de la configuration et de la gestion de l’infrastructure GPU, ce qui permet d’éliminer la complexité du provisionnement des ressources et de la gestion de l’hébergement.

Avec la preview d’Azure AI Studio, il existe désormais une plateforme unique, unifiée et fiable pour explorer, concevoir, tester et déployer plus facilement des applications d’IA. Avec Azure AI Studio, il est possible de créer ses propres copilotes, de les entraîner siens ou d’alimenter d’autres modèles fondamentaux et open-source avec des données que l’on fournit soi-même.

Et Vector Search, une fonctionnalité d’Azure AI Search, est désormais en disponibilité générale, de sorte que les organisations peuvent créer des expériences avec un haut niveau d’exactitude pour chacun de leurs utilisateurs au sein de leurs applications d’IA générative.

Le nouveau modèle GPT-3.5 Turbo avec une longueur de requête de 16K tokens sera en disponibilité générale et GPT-4 Turbo sera en public preview au sein d’Azure OpenAI Service à la fin du mois de novembre 2023. GPT-4 Turbo permettra aux clients d’étendre la longueur des requêtes et d’apporter encore plus de contrôle et d’efficacité à leurs applications d’IA générative.

GPT-4 Turbo with Vision sera bientôt disponible en preview tandis que DALLE-3 est désormais disponible en public preview au sein d’Azure OpenAI Service, contribuant ainsi à alimenter la prochaine génération de solutions d’entreprise aux côtés de GPT-4, de sorte que les organisations puissent disposer de fonctionnalités avancées en matière d’images. Et lorsqu’il est utilisé avec le service Azure AI Vision, GPT-4 Turbo with Vision est capable de comprendre le contenu vidéo pour générer du texte, favorisant ainsi la créativité humaine.

Annonce du service NVIDIA AI foundry

Afin d’aider les entreprises et les startups à accélérer le développement, la mise au point et le déploiement de leurs propres modèles d’IA personnalisés sur Microsoft Azure, NVIDIA va annoncer son service AI foundry fonctionnant sur Azure. Ce service rassemble trois éléments – une collection de modèles NVIDIA AI Foundation, le cadre et les outils NVIDIA NeMo, ainsi que le supercalculateur et les services NVIDIA DGX Cloud AI – qui offrent aux entreprises une solution de bout en bout pour créer des modèles d’IA générative personnalisés. Les entreprises peuvent ensuite déployer leurs modèles avec la solution NVIDIA AI Enterprise sur Azure pour alimenter les applications d’IA générative, y compris la recherche intelligente, la synthèse et la génération de contenu.

Permettre un déploiement responsable de l’IA

Pionnier dans la promotion d’une utilisation sûre et responsable de l’IA, Microsoft s’est engagé à défendre et indemniser ses clients en cas de litige pour contestation sur des motifs de droits d’auteur dans le cadre de leur utilisation de Copilot for Microsoft 265 avec le Copilot Copyright Commitment (CCC). En parallèle, Microsoft s’est engagé en juin 2023 pour accompagner ses clients dans leur développement d’une IA responsable, avec ses trois engagements forts – AI Customer Commitments (AICC) : partager ses connaissances sur le développement et le déploiement d’une IA responsable, créer un programme d’assurance de l’IA, et soutenir ses clients dans la mise en œuvre responsable de leurs propres systèmes d’IA.

Aujourd’hui, l’entreprise va encore plus loin en annonçant l’extension du Copilot Copyright Commitment (CCC) et donc des garanties en matière de droits d’auteurs aux clients utilisant Azure OpenAI Service, avec le « Customer Copyright Commitment ». Dans ce cadre, Microsoft a mis à la disposition de ses clients de nouvelles pour les aider dans la mise en œuvre de mesures techniques visant à réduire le risque de contenu illicite. De plus, la disponibilité générale d’Azure AI Content Safety va permettre aux utilisateurs de détecter et atténuer les contenus préjudiciables, pour une meilleure expérience en ligne.

SOURCE : COMMUNIQUE DE PRESSE – BABYLONE

 

Facebooktwitterredditpinterestlinkedinmail