Azure AI Content Safety – Microsoft annonce son outil d’IA responsable

Azure AI Content Safety – Microsoft annonce son outil d’IA responsable

Azure AI Content Safety

Microsoft annonce aujourd’hui la disponibilité générale de son outil d’IA responsable, Azure AI Content Safety, qui permet aux entreprises de détecter et de filtrer, en temps réel et plus facilement, les contenus nocifs potentiellement créés par des IA génératives en entrée (input) et en sortie (output). L’outil permet de gérer les contenus générés par l’IA, de s’assurer qu’ils respectent le cadre d’utilisation fixé par les clients, et de signaler rapidement les contenus problématiques aux modérateurs humains. Plusieurs clients de Microsoft utilisent déjà cet outil comme Shell ou des établissements scolaires en Australie – vous pouvez lire ce billet de blog pour plus d’informations.

Cet outil s’intègre à une palette plus large d’outils d’IA responsable disponibles dans Azure pour aider les organisations à développer des applications d’IA innovantes et éthiques, dont vous pouvez retrouver les détails ici.

SOURCE : COMMUNIQUE DE PRESSE – BABYLONE

 

Facebooktwitterredditpinterestlinkedinmail