क्या Apple का चाइल्ड सेफ्टी फीचर बैकफायर कर सकता है? नया शोध ‘जोखिम भरा’ प्रभाव दिखाता है

बाल यौन शोषण सामग्री के प्रसार को सीमित करने के लिए ऐप्पल की योजना ने कुछ गोपनीयता और सुरक्षा विशेषज्ञों के साथ-साथ बाल संरक्षण वकालत समूहों द्वारा प्रशंसा प्राप्त की है। निजता के हनन को लेकर भी हंगामा हुआ। इन चिंताओं ने एक और अधिक परेशानी वाली समस्या को अस्पष्ट कर दिया है जिस पर बहुत कम ध्यान दिया गया है: ऐप्पल की नई सुविधा अनुसंधान द्वारा दिखाए गए डिज़ाइन तत्वों का उपयोग बैकफायर के लिए करती है।

इन नई सुविधाओं में से एक संदेश में माता-पिता का नियंत्रण विकल्प जोड़ता है जो स्पष्ट यौन चित्रों को देखने से रोकता है। उम्मीद यह है कि बच्चे के व्यवहार की माता-पिता की निगरानी से स्पष्ट यौन तस्वीरें देखने या भेजने में कमी आएगी, लेकिन यह अत्यधिक बहस का विषय है। हम दो मनोवैज्ञानिक और एक कंप्यूटर वैज्ञानिक हैं। हमने इस पर व्यापक शोध किया है कि लोग जोखिम भरी तस्वीरें ऑनलाइन क्यों साझा करते हैं। हमारे हालिया शोध से पता चलता है कि सोशल मीडिया पर गोपनीयता के बारे में चेतावनी फोटो-शेयरिंग को कम नहीं करती है और न ही गोपनीयता के बारे में चिंता बढ़ाती है। वास्तव में, ये चेतावनियाँ, जिनमें शामिल हैं सेबनई बाल सुरक्षा सुविधाएँ, फ़ोटो के जोखिम भरे साझाकरण को कम करने के बजाय बढ़ा सकती हैं।

Apple के चाइल्ड सेफ्टी फीचर्स: Apple ने 5 अगस्त, 2021 को घोषणा की कि वह तीन क्षेत्रों में नई बाल सुरक्षा सुविधाएँ पेश करने की योजना बना रहा है। पहली, अपेक्षाकृत गैर-विवादास्पद विशेषता यह है कि ऐप्पल का खोज ऐप और आभासी सहायक सिरी माता-पिता और बच्चों को संसाधन प्रदान करेगा और संभावित रूप से हानिकारक सामग्री का सामना करने में मदद करेगा।

दूसरा फीचर नेशनल सेंटर फॉर मिसिंग एंड एक्सप्लॉइटेड चिल्ड्रेन और अन्य बाल सुरक्षा संगठनों द्वारा प्रदान किए गए बाल यौन शोषण छवियों के डेटाबेस में मिलान देखने के लिए लोगों के उपकरणों पर छवियों को स्कैन करेगा जो आईक्लाउड फोटोज में भी संग्रहीत हैं। इन मैचों के लिए एक सीमा तक पहुंचने के बाद, ऐप्पल फोटो की सामग्री की पुष्टि करने के लिए प्रत्येक मशीन मैच की मैन्युअल रूप से समीक्षा करता है, और फिर उपयोगकर्ता के खाते को निष्क्रिय कर देता है और केंद्र को एक रिपोर्ट भेजता है। इस फीचर ने काफी विवाद पैदा किया है।

आखिरी फीचर मेसेज में पैरेंटल कंट्रोल ऑप्शन जोड़ता है, एप्पल का टेक्स्टिंग ऐप, जो बच्चों द्वारा देखने की कोशिश करने पर अश्लील तस्वीरों को धुंधला कर देता है। यह बच्चों को सामग्री के बारे में चेतावनी भी देता है, सहायक संसाधन प्रस्तुत करता है और उन्हें आश्वस्त करता है कि अगर वे फोटो नहीं देखना चाहते हैं तो ठीक है। अगर बच्चा 12 साल या उससे कम उम्र का है, तो माता-पिता को एक संदेश मिलेगा यदि बच्चा जोखिम भरा फोटो देखता है या साझा करता है।

इस विशेषता के बारे में बहुत कम सार्वजनिक चर्चा हुई है, शायद इसलिए कि पारंपरिक ज्ञान यह है कि माता-पिता का नियंत्रण आवश्यक और प्रभावी है। हालाँकि, हमेशा ऐसा नहीं होता है, और ऐसी चेतावनियाँ उलटी पड़ सकती हैं।

जब चेतावनियां उलटा असर करती हैं: सामान्य तौर पर, लोगों के जोखिम भरे साझाकरण से बचने की संभावना अधिक होती है, लेकिन जो साझाकरण होता है उसे कम करना महत्वपूर्ण है। 39 अध्ययनों के विश्लेषण में पाया गया कि 12% युवाओं ने सहमति के बिना एक सेक्स्ट, या यौन रूप से स्पष्ट छवि या वीडियो को अग्रेषित किया, और 8.4 प्रतिशत ने बिना सहमति के स्वयं का एक सेक्स्ट अग्रेषित किया। ऐसा करने के लिए चेतावनियाँ एक उपयुक्त तरीके की तरह लग सकती हैं। अपेक्षा के विपरीत, हमने पाया है कि निजता के उल्लंघन के बारे में चेतावनियां अक्सर उल्टा असर करती हैं।

प्रयोगों की एक श्रृंखला में, हमने प्रतिभागियों को यह याद दिलाकर कि उन्हें दूसरों की गोपनीयता और सुरक्षा पर विचार करना चाहिए, सोशल मीडिया पर शर्मनाक या अपमानजनक तस्वीरें साझा करने की संभावना को कम करने का प्रयास किया। कई अध्ययनों में, हमने फ़ोटो साझा करने के परिणामों के बारे में अलग-अलग रिमाइंडर आज़माए हैं, जैसे कि Apple के नए बाल सुरक्षा टूल में दी जाने वाली चेतावनियाँ।

उल्लेखनीय रूप से, हमारे शोध अक्सर विरोधाभासी प्रभावों को प्रकट करते हैं। जिन प्रतिभागियों को चेतावनियां इतनी सरल रूप से मिलीं कि उन्हें दूसरों की गोपनीयता को ध्यान में रखना चाहिए, उन प्रतिभागियों की तुलना में फ़ोटो साझा करने की अधिक संभावना थी, जिन्हें यह चेतावनी नहीं मिली थी। जब हमने यह शोध शुरू किया, तो हमें यकीन था कि ये गोपनीयता कुहनी जोखिमपूर्ण फ़ोटो साझाकरण को कम कर देगी, लेकिन ऐसा नहीं हुआ। परिणाम सुसंगत रहे हैं क्योंकि हमारे पहले दो अध्ययनों से पता चला है कि चेतावनियां पीछे हट गईं। हमने अब इस प्रभाव को कई बार देखा है, और पाया है कि कई कारक, जैसे कि किसी व्यक्ति की हास्य शैली या सोशल मीडिया पर फोटो साझा करने का अनुभव, तस्वीरें साझा करने की उनकी इच्छा को प्रभावित करते हैं और वे चेतावनियों का जवाब कैसे दे सकते हैं।

हालांकि यह स्पष्ट नहीं है कि चेतावनी का उलटा असर क्यों होता है, एक संभावना यह है कि गोपनीयता के बारे में व्यक्तियों की चिंताओं को कम किया जाता है जब वे साझा करने के जोखिमों को कम आंकते हैं। एक और संभावना प्रतिक्रिया है, या प्रतीत होता है कि अनावश्यक नियमों की प्रवृत्ति या जो इरादा था उससे विपरीत प्रभाव प्राप्त करने के लिए प्रेरित करता है। जिस तरह निषिद्ध फल मीठा हो जाता है, उसी तरह गोपनीयता की चिंताओं के बारे में लगातार अनुस्मारक जोखिम भरे फोटो साझाकरण को और अधिक आकर्षक बना सकते हैं।

क्या Apple की चेतावनियाँ काम करेंगी: यह संभव है कि कुछ बच्चे Apple से चेतावनी मिलने के बाद अश्लील तस्वीरें भेजने या प्राप्त करने के लिए अधिक इच्छुक होंगे। इस व्यवहार के होने के कई कारण हो सकते हैं, जिज्ञासा से लेकर किशोर अक्सर साथियों से लेकर चुनौतीपूर्ण माता-पिता के अधिकार और प्रतिष्ठित चिंताओं तक सेक्स के बारे में सीखते हैं, जैसे कि स्पष्ट रूप से जोखिम भरी तस्वीरें साझा करके शांत दिखना। जीवन के एक ऐसे चरण के दौरान जब जोखिम उठाना चरम पर होता है, यह देखना कठिन नहीं है कि किशोरों को चिंता का वास्तविक कारण होने के बजाय ऐप्पल से सम्मान का बैज होने की चेतावनी कैसे मिल सकती है।

Apple ने 3 सितंबर, 2021 को घोषणा की कि यह है रोलआउट में देरी गोपनीयता और सुरक्षा समुदाय द्वारा व्यक्त की गई चिंताओं के कारण इन नए CSAM टूल का। कंपनी की योजना आने वाले महीनों में इन बाल सुरक्षा सुविधाओं को जारी करने से पहले इनपुट एकत्र करने और सुधार करने के लिए अतिरिक्त समय लेने की है। हालाँकि, यह योजना पर्याप्त नहीं है, यह भी जाने बिना कि क्या Apple की नई सुविधाओं का बच्चों के व्यवहार पर वांछित प्रभाव पड़ेगा। हम ऐप्पल को शोधकर्ताओं के साथ जुड़ने के लिए प्रोत्साहित करते हैं ताकि यह सुनिश्चित हो सके कि समस्याग्रस्त फोटो साझाकरण को प्रोत्साहित करने के बजाय उनके नए टूल कम हो जाएंगे।

(बेनेट बर्टेन्थल, अपू कपाड़िया और कर्ट ह्यूजेनबर्ग, इंडियाना यूनिवर्सिटी, ब्लूमिंगटन का यह लेख पहली बार द कन्वर्सेशन पर छपा।)

सभी पढ़ें ताज़ा खबर, ताज़ा खबर तथा कोरोनावाइरस खबरें यहां

.