Con Azure AI Content Safety, le aziende possono rilevare e filtrare in tempo reale i contenuti online dannosi – hate speech, contenuti violenti per esempio - in base alle proprie esigenze specifiche e policy.
Microsoft ha annunciato la disponibilità di Azure AI Content Safety, un nuovo strumento per l’AI responsabile, progettato per aiutare le aziende a sviluppare ambienti online sicuri, ampliando la portata dei propri sforzi in materia di AI e al contempo non mettere a rischio la fiducia dei propri clienti e utenti.
Con Azure AI Content Safety, le aziende possono rilevare e filtrare in tempo reale i contenuti online dannosi – hate speech, contenuti violenti per esempio - in base alle proprie esigenze specifiche e policy e indicare rapidamente ai team che si occupano della moderazione di contenuti quali di questi necessitino di attenzione immediata. Con la crescente diffusione dell'intelligenza artificiale generativa che consente alle persone di creare una maggiore quantità di contenuti, organizzazioni clienti di Microsoft nel mondo stanno già implementando queste funzionalità per la moderazione delle informazioni in ambiti quali i social media e l'istruzione. L’introduzione di questo tool è un esempio di come gli strumenti per l’AI responsabile di Microsoft stiano abilitando e supportando le organizzazioni nel costruire la prossima generazione di app di AI in modo responsabile.