Étude de cas : modération de contenu

Plus de 30 XNUMX documents supprimés et annotés pour la modération de contenu
Modération du contenu - bannière
Il existe une demande croissante de modération de contenu alimentée par l'IA qui s'efforce de sécuriser l'espace en ligne où nous nous connectons et communiquons.

Alors que l'utilisation des réseaux sociaux continue de croître, le problème du cyberharcèlement est devenu un obstacle majeur pour les plateformes qui s'efforcent de garantir un espace en ligne sécurisé. Un chiffre stupéfiant : 38 % des individus sont confrontés quotidiennement à ce comportement préjudiciable, ce qui souligne l'urgence de trouver des approches innovantes en matière de modération de contenu. Les organisations s'appuient aujourd'hui sur l'intelligence artificielle pour lutter proactivement contre ce problème persistant.

La cyber-sécurité:

Le rapport sur l'application des normes communautaires du quatrième trimestre de Facebook a été révélé - action sur 4 millions de contenus d'intimidation et de harcèlement, avec un taux de détection proactive de 6.3 %

L'Education:

2021 étude a révélé que 36.5%% des étudiants aux états-unis âgés de 12 & 17 ans ont été victimes de cyberintimidation à un moment ou à un autre de leur scolarité.

Selon un rapport de 2020, le marché mondial des solutions de modération de contenu était évalué à 4.07 milliards USD en 2019 et devrait atteindre 11.94 milliards USD d'ici 2027, avec un TCAC de 14.7 %.

Solution du monde réel

Des données qui modèrent les conversations mondiales

Le client développait un modèle d'apprentissage automatique de modération de contenu automatisé robuste pour son offre Cloud, pour lequel il recherchait un fournisseur spécifique au domaine qui pourrait l'aider avec des données de formation précises.

Tirant parti de nos connaissances approfondies en traitement du langage naturel (TAL), nous avons aidé le client à rassembler, catégoriser et annoter plus de 30,000 XNUMX documents en anglais et en espagnol pour créer un modèle d'apprentissage automatique de modération de contenu automatisé divisé en contenu toxique, mature ou sexuellement explicite. catégories.

Solution du monde réel

Problème

  • Web scraping 30,000 XNUMX documents en espagnol et en anglais à partir de domaines prioritaires
  • Catégoriser le contenu rassemblé en segments courts, moyens et longs
  • Étiqueter les données compilées comme étant du contenu toxique, mature ou sexuellement explicite
  • Garantir des annotations de haute qualité avec une précision minimale de 90 %.

Solution

  • Web Scrapped 30,000 XNUMX documents chacun pour l'espagnol et l'anglais de BFSI, Healthcare, Manufacturing, Retail. Le contenu a ensuite été divisé en documents courts, moyens et longs 
  • Réussir à étiqueter le contenu classé comme contenu toxique, mature ou sexuellement explicite
  • Pour atteindre 90% de qualité, Shaip a mis en place un processus de contrôle qualité à deux niveaux :
    » Niveau 1 : Contrôle Assurance Qualité : 100% des dossiers à valider.
    » Niveau 2 : Vérification critique de l'analyse de la qualité : l'équipe AQC de Shaips doit évaluer 15 % à 20 % des échantillons rétrospectifs.

Résultats

Les données de formation ont aidé à créer un modèle ML de modération de contenu automatisé qui peut produire plusieurs résultats bénéfiques pour maintenir un environnement en ligne plus sûr. Certains des principaux résultats comprennent :

  • Efficacité pour traiter une grande quantité de données
  • Cohérence pour assurer une application uniforme des politiques de modération
  • Évolutivité pour s'adapter à la croissance de la base d'utilisateurs et des volumes de contenu
  • La modération en temps réel peut identifier et
    supprimer le contenu potentiellement dangereux au fur et à mesure qu'il est généré
  • Rentabilité en réduisant la dépendance aux modérateurs humains

Accélérez le développement de votre application d'IA conversationnelle de 100 %

Dites-nous comment nous pouvons vous aider avec votre prochaine initiative d'IA.