গত তিন মাসে ফেইসবুকের মুছে ফেলা নগ্ন ছবির সংখ্যা ৮৭ লাখ!

প্রকাশিত: ১:৫২ অপরাহ্ণ, অক্টোবর ২৫, ২০১৮

আইটি ডেস্ক: সামাজিক যোগাযোগমাধ্যম ফেইসবুককে নগ্নতামুক্ত রাখতে সোচ্চার হচ্ছে সংশ্লিস্ট কতৃপক্ষ। বিশেষ করে প্রাপ্ত বয়স্ক নয় এমন শিশুদের যেন নগ্নতা প্রকাশ না পায় সেজন্য কড়া নজর রাখছে তাদের একটি টিম। সেজন্য গত তিন মাসে শিশুদের নগ্নতা প্রকাশ পায় এমন ৮৭ লাখ ছবিও সরিয়েছে ফেইসবুক।

শিশুদের সম্ভাব্য যৌনতাসূচক ছবি স্বয়ংক্রিয়ভাবে শনাক্ত করতে নতুন সফটওয়্যার বানানোর কথাও জানিয়েছে বিশ্বের সবচেয়ে বড় সামাজিক এ মাধ্যমটি।

বিবিসি’র এক প্রতিবেদন বলছে প্ল্যাটফর্মটিতে ২০১৭ সালেই এই সফটওয়্যার আনা হলেও সে সময় তা উন্মুক্ত ছিল না, এখন এটি উন্মুক্ত করা হয়েছেে।

এ প্রসঙ্গে ফেইসবুক কতৃপক্ষ জানায়, শিশুদের যৌন নিপীড়নের দিকে নিয়ে যাওয়ার চেষ্টা করা হচ্ছে এমন সম্ভাব্য ঘটনাগুলো শনাক্ত করতেও আরেকটি প্রোগ্রাম বানানো হয়েছে। সরিয়ে দেওয়া  হয়েছে ৮৭ লাখ নগ্ন ছবি। যারমধ্যে ৯৯ শতাংশই কোনো ব্যবহারকারী অভিযোগ করার আগে সরিয়ে ফেলা হয়েছে।

পেডোফাইল বা শিশু যৌন নিপীড়করা বিভিন্ন ‘সিক্রেট’ গ্রুপের মাধ্যমে শিশুদের অশ্লীল ছবি ছড়াচ্ছে- ২০১৬ সালে এমন খবর প্রকাশ করে একটি ব্রিটিশ সংবাদমাধ্যম। এরপর ২০১৭ সালে প্ল্যাটফর্মটিতে শিশু যৌন নিপীড়নমূলক কনটেন্ট বেড়ে যাওয়া নিয়ে কমন্স মিডিয়া কমিটি-এর চেয়ারম্যান ডেমিয়ান কলিন্স-এর সমালোচনার মুখোমুখি হয় ফেইসবুক।

ফেইসবুকের বৈশ্বিক নিরাপত্তা প্রধান অ্যান্টিগোন ডেভিস বলেন, শিশু নগ্নতা বা নিপীড়নমূলক কনটেন্ট শনাক্তে ব্যবস্থা আনার কথা ভাবছে ফেইসবুক। এসব ব্যবস্থা ফেইসবুক অধীনস্থ ছবি শেয়ারিং অ্যাপ ইনস্টাগ্রামেও আনার পরিকল্পনা রয়েছে বলেও জানান তিনি।

এ ছাড়াও ফেইসবুক কর্তৃপক্ষ অভিযোগ পেয়েছে এমন শিশু যৌন নিপীড়নমূলক কনটেন্ট সরাতে আলাদা একটি সিস্টেম ব্যবহার করা হয়েছে। এ ধরনের কনটেন্ট নিয়ে ফেইসবুককে অভিযোগ করেছে মার্কিন অলাভজনক সংস্থা ন্যাশনাল সেন্টার ফর মিসিং অ্যান্ড এক্সপ্লয়েটেড চিলড্রেন (এনসিইএমইসি)।

বিআইজে/

Comments