Toxicity Classifier هو مودل ML مبني لـ TensorFlow يكتشف التهديد، الإهانة والكراهية في الجملة ويعطي Output يتضمن الكلمة ضمن النص ونوعها (إهانة، تهديد ..الخ)، هذا المودل مدرب على Data عبارة عن تعليقات الأشخاص في الصحف من 2015 الى 2017 ، حجمها ضخم قرابة ال 900 ميقا كنص…
يوجد مثال على طريقة الاستخدام أو ال implementation بال Nodejs في الصفحة الرئيسية
يتمرر له نص في متغير sentance ويعطي json output بالتصنيف ..
https://github.com/tensorflow/tfjs-models/blob/master/toxicity/README.md