Chitral Times

Feb 22, 2024

ﺗﻔﺼﻴﻼﺕ

فیس بک نے کمیونٹی اسٹینڈرڈز انفورسمنٹ رپورٹ نومبر 2019 جاری کردی

شیئر کریں:

کراچی(چترال ٹائمزرپورٹ ) فیس بک نے کمیونٹی اسٹینڈرذ انفورسمنٹ رپورٹ کا چوتھا ایڈیشن شائع کرنے کا اعلان کیا ہے۔ اس رپورٹ میں فیس بک سے متعلق دس پالیسیاں اور انسٹاگرام سے متعلق چار پالیسیاں ہیں۔ فیس بک نے آج ایک نیا پیج بھی شروع کیا ہے تاکہ لوگ مثالوں کے ذریعے کمیونٹی اسٹینڈرز کو مختلف اقسام کے مواد پر اطلاق کے ذریعے سمجھ سکیں اور نئے اسٹینڈرڈز سے آگاہ ہوسکیں۔

کراچی سے جاری ایک پریس ریلیز کے مطابق ان پالیسیوں کے موضوعات میں پھیلاؤ (کتنے زیادہ مواد سے ہماری پالیسیوں کی خلاف ورزی دیکھی گئی)، مواد پر لئے گئے ایکشن (کتنے زیادہ مواد پر ہم نے ایکشن لیا کیونکہ ہماری پالیسیوں کی خلاف ورزی ہوئی)، فعال انداز سے کارکردگی کی شرح (ایسے مواد پر ہم نے کارروائی کی، کسی نے ہمیں رپورٹ کرنے سے قبل اسے کس طرح سے پکڑا)، اپیل شدہ مواد (ہمارے ایکشن لینے کے بعد لوگوں نے کتنی زیادہ اس مواد کیلئے اپیل کی)، بحال شدہ مواد (ہمارے ابتدائی ایکشن کے بعد کتنا زیادہ مواد بحال ہوا) شامل ہیں۔

فیس بک پہلی بار یہ ڈیٹا فراہم کررہا ہے کہ وہ کس طرح سے انسٹاگرام پر اپنی پالیسیوں پر عمل پیرا ہے۔ انسٹاگرام کی اس پہلی رپورٹ میں فیس بک چار پالیسی شعبوں بشمول چائلڈ نیوڈٹی اور بچوں کا جنسی استحصال، ریگولیٹڈ اشیاء بالخصوص غیرقانونی آتشی اسلحہ اور منشیات کی غیرقانونی فروخت، خود کشی اور اپنے آپ کو نقصان پہنچانے،اور دہشت گردی کے پروپیگنڈے سے متعلق معلومات فراہم کر رہا ہے۔ اس رپورٹ میں انسٹاگرام کے لئے میٹرکس کی بحالی اور اپیلیں شامل نہیں ہیں کیونکہ یہ ایپلیں انسٹاگرام پر رواں سال صرف دوسری سہ ماہی میں متعارف ہوئیں لیکن یہ مستقبل کی رپورٹس میں شامل کی جائیں گی۔

فیس بک اور انسٹاگرام دونوں پر نقصان دہ مواد تلاش کرنے اور اسے ہٹانے کے لئے اسی طرح کا فعال انداز سے شناخت کرنے والا نظام استعمال کیا جاتا ہے۔ دونوں سروسز میں میٹرکس مختلف ہوسکتے ہیں۔ اس کی کئی وجوہات میں ایپلی کیشنز کے مختلف فنکشنز اور انکے استعمال میں فرق شامل ہیں۔ ان کے علاوہ ہماری کمیونٹیز کے مختلف سائز میں فرق ہے جہاں دنیا میں لوگ کئی ایپلی کیشنز کے مقابلے میں ایک ایپلی کیشن استعمال کرتے ہیں اور جہاں ہم اپنی اب تک کی فعال انداز سے شناخت کرنے والی جدید ترین ٹیکنالوجی استعمال کرنے کی بھرپور صلاحیت رکھتے ہیں۔ میٹرکس سے موازنہ کرنے کے لئے جب دیکھا جاتا ہے کہ کہاں پیش رفت ہوئی ہے اور کہاں مزید بہتری کی ضرورت ہے تو فیس بک لوگوں کی حوصلہ افزائی کرتا ہے کہ وہ خود دیکھیں کہ ایک ایپلی کیشن میں انفرادی پالیسی کے معاملات کے لئے گزشتہ سہ ماہی کے مقابلے میں میٹرکس کس طرح سے تبدیل ہوتے ہیں۔

چوتھے ایڈیشن کی اس رپورٹ میں خودکشی اور اپنے آپ کو نقصان پہنچانے کے موضوع کا ڈیٹا شامل ہے۔ فیس بک اب اس بات کا تفصیلی طور پر جائزہ لے رہا ہے کہ وہ خود کشی اور اپنے آپ کو نقصان پہنچانے والے مواد پر کس طرح سے ایکشن لے۔ یہ ایک حساس اور پیچیدہ مسئلہ ہے اور وہ اپنے ماہرین کے ساتھ ہر شخص کی حفاظت یقینی بنانے کے لئے کام کر رہا ہے۔ فیس بک ایسا مواد ہٹاتا ہے جس میں خود کشی اور اپنے آپ کو نقصان پہنچانے والا مواد ظاہر ہو یا اسکی حوصلہ افزائی ہوتی ہو اور جس میں مخصوص خونریز مناظر اور رئیل ٹائم منظرکشی بھی شامل ہو۔ ماہرین نے فیس بک کو آگاہ کیا ہے کہ اس طرح کے رویئے کو دوسرے لوگ بھی اختیار کرسکتے ہیں۔ فیس بک اس مواد پر ایک حساس اسکرین لگادیتا ہے تاکہ اسکی پالیسیوں کی خلاف ورزی نہ ہو لیکن یہ بعض لوگوں کو متاثر کرسکتا ہے جن میں بھرے ہوئے زخموں کے نشانات یا دیگر عدم خونریزی پر مبنی اپنے آپ کو نقصان پہنچانے والے مناظر شامل ہیں۔ فیس بک نے اپنے آپ کو نقصان پہنچانے سے متعلق اپنی پالیسیوں کو مزید مستحکم بنایا ہے اور مزید خلاف ورزی پر مبنی مواد کو تلاش کرنے اور اسے ہٹانے والی اپنی ٹیکنالوجی میں بہتری لایا ہے۔

فیس بک نے سال 2019 کی دوسری سہ ماہی میں 2 ملین مواد پر ایکشن لیا جس میں 96.1 فیصد مواد کی شناخت فعال انداز سے کی گئی اور تیسری سہ ماہی میں اس وقت مزید بہتری نظر آئی جب فیس بک نے 2.5 ملین مواد کو ہٹایا اور اس میں 97.1 فیصد کی شناخت فعال انداز سے کی گئی۔

اسی طرح فیس بک انسٹاگرام پر بھی اہم پیش رفت لایا ہے، سال 2019 کی دوسری سہ ماہی میں 8لاکھ 35 ہزار مواد کو ہٹایا جس میں 77.8 فیصد مواد کی فعال انداز سے شناخت کی گئی جبکہ سال 2019 کی تیسری سہ ماہی میں 8 لاکھ 45 ہزار مواد کو ہٹایا گیا جس میں 79.1 فیصد مواد کو فعال انداز سے ہٹایا گیا۔

فیس بک دہشت گری سے متعلق پروپیگنڈے کے ڈیٹا میں وسعت لے آیا۔ اسکی ڈینجرس انڈیویڑولز اور آرگنائزیشنز پالیسی (Dangerous Individuals and Organizations policy)اپنی سروسز میں تمام دہشت گرد تنظیموں پر پابندی رکھتی ہے۔ اب تک فیس بک مختلف اقسام کے گروپس کی انکے رویوں کی بنیاد پر دہشت گرد تنظیموں کے طور پر انکی نشاندہی کرچکا ہے۔ پچھلی رپورٹس میں فیس بک کی کاوشوں کا خصوصی طور پر محور القاعدہ، داعش اور انکے اتحادیوں کے خلاف تھا کیونکہ عالمی سطح پر نظر آنے والے نشریاتی خطرے سے متعلق گروپس کے خلاف فیس بک نے اپنی کاوشوں کا جائزہ لینے پر توجہ رکھی۔ اب فیس بک اپنی رپورٹ میں وسعت لیکر آیا ہے جس میں اسکی جانب سے تمام دہشت گرد تنظیموں کے خلاف کئے گئے ایکشن شامل ہیں۔ فیس بک جس شرح سے القاعدہ، داعش اور ان سے منسلک اتحادیوں کا مواد شناخت کرکے انہیں ہٹاتا ہے وہ بدستور 99 فیصد ہے۔ جس شرح پر فیس بک فعال انداز سے کسی بھی دہشت گرد تنظیم سے منسلک مواد کی فعال انداز سے شناخت کرتا ہے وہ 98.5 فیصد ہے اور انسٹاگرام پر 92.2 فیصد ہے۔ فیس بک دہشت گردانہ مواد سے نمٹنے کے لئے اپنے خودکار انداز سے کام کرنے والے طریقوں میں سرمایہ کاری جاری رکھے گا اور اپنے طریقوں میں بہتری لائے گا کیونکہ وہ جانتا ہے کہ سماج دشمن کردار بھی اپنے طریقے تبدیل کرلیں گے۔

فیس بک خودکشی، اپنے آپ کو نقصان پہنچانے اور ریگولیٹڈ اشیاء کے پھیلاؤ کا تخمینہ لگا رہا ہے۔ اس رپورٹ میں فیس بک پہلی بار خود کشی اور اپنے آپ کو نقصان پہنچانے اور ریگولیٹڈ اشیاء(آتشی ہتھیاروں اور منشیات کی غیرقانونی فروخت) سے متعلق اپنی پالیسیوں میں ایسے مواد کے لئے پھیلے ہوئے میٹرکس میں اضافہ لارہا ہے۔ اسکی وجہ یہ ہے کہ فیس بک سب سے زیادہ اس بات کی فکر کرتا ہے کہ کتنا زیادہ لوگ ایسے مواد کو دیکھتے ہیں جس سے اسکی پالیسیوں کی خلاف ورزی ہوتی ہے۔ اس ضمن میں فیس بک پھیلاؤ کا جائزہ لیتا ہے کہ لوگ اسکی سروسز پر اس مواد کو کتنی بار دیکھتے ہیں۔ فیس بک کی سیفٹی پالیسی میں سب سے شدید تشویش چائلڈ نیوڈٹی اور بچوں کے جنسی استحصال، ریگولیٹڈ اشیاء، خود کشی اور اپنے آپ کو نقصان پہنچانے اور دہشت گردانہ پروپیگنڈے پر مبنی ہے۔ اس بات کا امکان کم ہوتا ہے کہ لوگ ایسا مواد دیکھیں جن سے اسکی پالیسیوں کی خلاف ورزی ہوتی ہو اور فیس بک لوگوں کے دیکھنے سے قبل ہی وہ مواد ہٹا دیتا ہے۔

اسکے نتیجے میں جب فیس بک اپنی ان اہم پالیسی والے موضوعات پر مبنی مواد کے ویوز کے پھیلاؤ کا جائزہ لینے کے لئے سیمپل کا جائزہ لیتا ہے تو بعض اوقات اس سیمپل یا بعض اوقات پائیدار انداز سے میٹرک کے تخمینے سے کسی سیمپل کی خلاف ورزی کو کافی نہیں سمجھتا۔ اس کے بجائے فیس بک بالائی حدود پر تخمینہ لگاسکتا ہے کہ ایسا مواد کسی کی جانب سے کتنی بار دیکھا گیا جس سے اسکی پالیسیوں کی خلاف ورزی ہوتی ہے۔ سال 2019 کی تیسری سہ ماہی میں بالائی حدود 0.04 فیصد رہی۔ اس کا مطلب ہے کہ سال 2019 کی تیسری سہ ماہی میں فیس بک یا انسٹاگرام پر ہر 10 ہزار ویوز میں ایسی ہر پالیسی کے ساتھ فیس بک تخمینہ نکالتا ہے کہ اس مواد کے چار سے زیادہ ویوز نہ ہوں جن سے اسکی پالیسی کی خلاف ورزی ہوتی ہے۔

اس بات کو سمجھنا ضروری ہے کہ پھیلاؤ اس قدر کم رکھا جائے تاکہ فیس بک بالائی حدود فراہم کرسکے۔ یہ حدود رپورٹنگ کی مدت کے درمیان چند پوائنٹس کی شرح سے تبدیل ہوسکتی ہے لیکن ایسی چھوٹی تبدیلی کا مطلب یہ نہیں کہ اس پلیٹ فارم پر اس مواد کے پھیلاؤ میں واقعی کوئی فرق ہے۔

فیس بک نے سب سے خطرناک اقسام کے مواد سے نمٹنے کے لئے اپنی کاوشوں میں مستحکم انداز سے زیادہ شفافیت لانے اور اپنی پالیسیوں پر عمل پیرا ہونے کا سلسلہ جاری رکھا ہے۔ فیس بک کی جانب سے خود کشی اور اپنے آپ کو نقصان پہنچانے جیسے مواد اور دہشت گردانہ پروپیگنڈے کے علاوہ چائلڈ نیوڈٹی اور بچوں جنسی استحصال کے ساتھ ریگولیٹڈ اشیاء کی میٹرکس میں پیش رفت کا اظہار کیا جارہا ہوتا ہے۔ مصنوعی ذہانت کے شعبے میں فیس بک نے پچھلے پانچ سالوں میں سرمایہ کاری کرکے اس طرح کے ٹولز تیار کئے ہیں جو بڑھتی ہوئی پیچیدگی کے ساتھ زبان اور تصور کو سمجھ سکیں اور ان مسائل سے مسلسل نمٹنے کی یہ ایک اہم وجہ ہے۔ درحقیقت، اس ٹیکنالوجی میں حالیہ پیش رفت سے فیس بک کو خلاف ورزی پر مبنی مواد کی شناخت اور اسے ہٹانے کی شرح میں مدد ملی ہے۔

چائلڈ نیوڈٹی اور بچوں کے جنسی استحصال سے نمٹنے کے لئے فیس بک اپنے انٹرنل ڈیٹا بیس سے خلاف ورزیوں میں اضافہ لانے کے لئے اپنے طریقوں میں بہتری لیکر آیا ہے جس کی بدولت فیس بک اور انسٹاگرام بیک وقت ایسے مواد کی شناخت کرکے اسے ہٹانے کے قابل ہوئے ہیں۔

فیس بک پر سال 2019 کی تیسری سہ ماہی کے دوران 11.6 ملین مواد کو ہٹایا گیا جو سال 2019 کی پہلی سہ ماہی میں 5.8 ملین مواد ہٹانے کے مقابلے میں زیادہ ہے۔ گزشتہ چار سہ ماہیوں میں فیس بک نے خود فعال انداز سے 99 فیصد مواد کی شناخت کی اور پالیسی کی خلاف ورزی پر یہ مواد ہٹایا۔

فیس بک پہلی بار انسٹاگرام سے متعلق ڈیٹا بھی شامل کررہا ہے۔ فیس بک نے گزشتہ دو سہ مایوں میں مواد پر لئے گئے ایکشن اور اس میں فعال رفتار سے پیش رفت کی ہے۔

سال 2019 کی دوسری سہ ماہی میں فیس بک نے 5 لاکھ 12 ہزار مواد ہٹایا جسکے 92.5 فیصد مواد کی خود فعال انداز سے شناخت کی گئی تھی۔

تیسری سہ ماہی میں فیس بک نے نمایاں پیش رفت کرکے 7 لاکھ 54 ہزار مواد ہٹایا جسکے 94.6 فیصد مواد کی خود فعال انداز سے شناخت کی گئی تھی۔

اپنی ریگولیٹڈ پالیسی میں غیرقانونی آتشی اسلحہ اور منشیات کی فروخت پر پابندی جاری رکھنے کے لئے فیس بک نے فعال شناخت کرنے والے اپنے نظام اور اس میں جدت انگیز طریقے اختیار کرنے کے لئے سرمایہ کاری جاری رکھی ہے جس سے فیس بک کو گزشتہ رپورٹ کے مقابلے میں پیش رفت آگے بڑھانے میں مدد ملی۔

فیس بک نے سال 2019 کی تیسری سہ ماہی میں منشیات کی فروخت سے متعلق 4.4 ملین مواد ہٹایا جس میں 97.6 فیصد مواد کی فعال انداز سے شناخت کی گئی۔ یہ سال 2019 کی پہلی سہ ماہی میں منشیات کی فروخت سے متعلق 8 لاکھ 41 ہزار مواد کے مقابلے میں زیادہ ہے جس میں فعال انداز سے 84.4 فیصد مواد کی خود شناخت کی گئی۔

سال 2019 کی تیسری سہ ماہی میں فیس بک نے آتشی اسلحہ کی فروخت سے متعلق 2.3 ملین مواد ہٹایا جس کے 97.3 فیصد مواد کی فعال انداز سے خود شناخت کی گئی۔ یہ سال 2019 کی پہلی سہ ماہی کے مقابلے میں زیادہ ہے جب فیس بک نے آتشی اسلحہ کی فروخت سے متعلق 6 لاکھ 9 ہزار مواد کو ہٹایا اور اسکے 69.9 فیصد مواد کی فعال انداز سے خود شناخت کی گئی۔

انسٹاگرام پر فیس بک نے سال 2019 کی تیسری سہ ماہی میں منشیات کی فروخت سے متعلق 1.5 ملین مواد ہٹایا جسکے 95.6 فیصد مواد کی خود فعال انداز سے شناخت کی گئی۔
سال 2019 کی تیسری سہ ماہی میں فیس بک نے آتشی اسلحہ کی فروخت سے متعلق 58 ہزار 600 مواد کو ہٹایا جسکے 91.3 فیصد مواد کی خود فعال انداز سے شناخت کی گئی۔

فیس بک نے گزشتہ دو سالوں میں نفرت انگیز اظہار کی فعال انداز سے خود شناخت کے لئے سرمایہ کاری کی تاکہ وہ لوگوں کے رپورٹ کرنے سے قبل اور بعض اوقات کسی کے دیکھنے سے قبل نقصان دہ مواد کو خود شناخت کرکے ہٹا دے۔ فیس بک کی جانب سے شناخت کے طریقوں میں مواد اور تصویر کا موازنہ شامل ہے جس کا مطلب ہے کہ فیس بک ان تصاویر اور اس سے مشابہ مواد کو شناخت کررہا ہے جسے پہلے سے ہی نفرت انگیز اظہار کے طور پر ہٹایا جاچکا ہے۔ اس ضمن میں مشین لرننگ سے ایک پوسٹ میں زبان، ری ایکشنز اور کمنٹس کی درجہ بندی کی جاتی ہے کہ یہ پوسٹ کس حد تک عام اظہار، طریقوں اور حملوں سے مطابقت رکھتی ہے۔ اس حوالے سے فیس بک نفرت انگیز اظہار کے خلاف اپنی پالیسیوں کی خلاف ورزی کرنے والے مواد کا جائزہ لے چکا ہے۔

فیس بک ان سسٹمز کو فعال انداز سے کارآمد بنا کر نفرت انگیز اظہار کی خلاف ورزی کی شناخت کرتا ہے اور اسے اپنے مواد کے جائزے والی ٹیم کو بھیجتا ہے کیونکہ مصنوعی ذہانت کی ٹیکنالوجی کے مقابلے میں انسان بہتر انداز سے تناظر کا جائزہ لے سکتے ہیں۔ سال 2019 کی دوسری سہ ماہی کے آغاز میں فیس بک نے اپنے سسٹمز میں پالیسیوں کی خلاف ورزی کے حوالے سے درست انداز سے شناخت کرنے کی صلاحیت میں مسلسل پیش رفت کی ہے۔ فیس بک نے بعض پوسٹس کو خودکار طور پر بھی ہٹانا شروع کیا ہے لیکن یہ اس وقت مخصوص حالات میں ہوتا ہے جب ہماری ریویو ٹیم کی جانب سے پالیسی کی خلاف ورزی پر ہٹائے گئے مواد سے تقریبا ملتا جلتا مواد ہو۔ دیگر تمام حالات میں جب فیس بک کے سسٹمز فعال انداز سے ممکنہ نفرت انگیز اظہار کی شناخت کرتے ہیں تو وہ مواد بدستور ہماری ریویو ٹیم کو جاتا ہے تاکہ وہ حتمی فیصلہ کریں۔ شناخت کرنے کے اپنے سسٹمز میں تبدیلیوں کے ساتھ فیس بک کی فعال انداز سے کارکردگی کی شرح بڑھ کر 80 فیصد تک ہوگئی جو اسکی پچھلی رپورٹ میں 65 فیصد تھی۔ اس ضمن میں فیس بک نے نفرت انگیز اظہار کی پالیسی کی خلاف ورزی پر مبنی مواد تلاش کرکے اسے ہٹانے کی شرح میں اضافہ بھی کیا ہے۔

فیس بک ان سسٹمز میں سرمایہ کاری جاری رکھے گا جس کی بدولت وہ فعال انداز کے ساتھ نفرت انگیز مواد سے نمٹنے کے قابل ہوسکے گا۔ اس کے ساتھ فیس بک ایسا مواد ہٹانے میں درستگی کو یقینی بناتا ہے جس سے اسکی پالیسیوں کی خلاف ورزی ہوتی ہو جبکہ اس کے ساتھ نفرت انگیز مواد کی مذمت یا اس پر اظہار پر گفتگو کرتے ہیں۔ اسی طرح فیس بک کی جانب سے مواد کا جائزہ لینے والی اسکی ٹیم فیصلے کرتی ہے جس میں درستگی کی نگرانی کی جاتی ہے۔ فیس بک کی ٹیمیں اپنے خود کار سسٹمز سے باقاعدگی سے ریویو ہٹا دیتی ہیں تاکہ اپنی پالیسیوں پر درست انداز سے عمل پیرا رہیں۔ جب لوگ اپیل کرتے ہیں تو فیس بک دوبارہ مواد کے جائزے کا عمل جاری رکھتا ہے اور آگاہ کرتا ہے کہ پوسٹ ہٹانے میں غلطی کی گئی۔

اپنی آخری رپورٹ کے ساتھ فیس بک نے جائزہ لینے کے اپنے طریقوں کو بہتر بنایا کہ رواں موسم گرما میں کسی مسئلہ کی نشاندہی کرنے کے بعد کتنے مواد پر ایکشن لیا جاتا ہے۔ اس رپورٹ میں فیس بک اپنے میٹرکس کو اپ ڈیٹ کررہا ہے۔ اس ضمن میں فیس بک سال 2018 کی تیسری سہ ماہی سے لیکر 2019 کی پہلی سہ ماہی کے دوران مواد پر لئے گئے ایکشن، فعال انداز سے کارکردگی کی شرح، اپیل شدہ مواد اور بحال شدہ مواد سے متعلق تفصیلات سامنے لایا ہے۔

ان سہ ماہیوں کے دوران ہمارے اکاؤنٹنگ کے مراحل سے متعلق مسائل پر اثر نہیں پڑا،جیسے اسکی پالیسیوں پر کس طرح سے عمل درآمد ہو یا کیسے لوگوں کو ان ایکشنز سے متعلق آگاہ کیا گیا۔ اس سے صرف اثر یہ ہوا کہ فیس بک اپنے ایکشنز کو کس طرح سے شمار کرتا ہے۔ مثال کے طور پر اگر فیس بک کو ایسی پوسٹ ملے جس میں ایک تصویر اسکی پالیسیوں کے خلاف ہو تو پھر اپنے میٹرک سسٹم کو فعال بنا کر اس ایک تصویر پر ہی ایکشن لیا جائے جبکہ الگ سے پوسٹ اور باقی تصویر کو ہٹانے کے لئے دو ایکشنز نہیں لئے گئے۔ تاہم جولائی 2019 میں فیس بک کے سامنے یہ بات آئی کہ سسٹمز کی لاگنگ اور کاؤنٹنگ سے صحیح طرح لاگ پر ایکشنز نہیں لئے گئے۔ اس کی بڑی وجہ مختلف ایکشنز کی گنتی کی ضرورت ہے جو محض چند ملی سیکنڈز میں وقوع پذیر ہوتے ہیں اور کسی انفرادی ایکشنز میں گم یا مبالغہ آمیز نہیں ہوتے۔

فیس بک اپنے ان طریقوں میں بہتری لانے کے لئے کام جاری رکھے گا تاکہ اپنے ایکشنز کا جائزہ لینے کے لئے انہیں استعمال کیا جائے اور وہ ایک مستحکم سسٹم تعمیر کرے تاکہ فراہم کردہ میٹرکس کی کارکردگی کو بالکل درستگی کے ساتھ یقینی بنایا جاسکے۔


شیئر کریں: