Apple’s iCloud Photo Scanning Tool Is Alarming. Is There Hope For It? » sarkariaresult – sarkariaresult.com

अगस्त में इस 12 महीनों में, सेब छोटे यौन शोषण सामग्री (सीएसएएम) की तस्वीरों की खोज करने के लिए आईक्लाउड लाइब्रेरी को स्कैन करने और तदनुसार अधिकारियों को रिपोर्ट करने के लिए एक नया शिशु सुरक्षा फ़ंक्शन पेश किया। फ़ंक्शन संभवतः iOS और iPadOS में बेक किया जाएगा। इसे ऐप्पल की क्लाउड सेवा पर संग्रहीत करने से पहले तस्वीरों के लिए स्कैन करना चाहिए। इस घोषणा को गोपनीयता के पैरोकारों और विश्लेषण समूह के काफी विरोध का सामना करना पड़ा, जिसके पास इस तरह की तकनीक से निपटने में विशेषज्ञता है।

Apple ने पहल की प्रशंसा करते हुए शिशु सुरक्षा टीमों और साइबर सुरक्षा विशेषज्ञों से प्रतिक्रिया प्राप्त की। हालाँकि, जिस कंपनी ने विरोध किया है, वह iPhone एन्क्रिप्शन को दरकिनार करने का प्रयास करती है, यहां तक ​​​​कि विनियमन प्रवर्तन अधिकारियों के लिए भी, Apple के स्थानांतरण की तुलना एक संकीर्ण दायरे वाले पिछले दरवाजे से की गई है, जिसे इसके दबाव में या तनाव में बढ़ाया जा सकता है। लंबे समय तक Apple दस्तावेज़ों ने सिस्टम की प्रभावशीलता और गोपनीयता को प्रभावित नहीं करने के बारे में बात की है, लेकिन अभी भी बहुत सारी समस्याएं हैं। पहला सवाल यह है कि क्या आपत्तिजनक सामग्री का दायरा CSAM इमेजरी तक ही सीमित रहेगा या फिर Apple राजनीतिक दबाव में हिल जाएगा।

संबद्ध: क्या Apple के Airtags व्यक्तियों को देख सकते हैं और क्या वे गोपनीयता की रक्षा करते हैं?

Apple की ‘अभिव्यक्ति की स्वतंत्रता’ जैसे विचारों के प्रति निष्ठा चीन में एक अलग धारा में प्रसारित होती है, जो कि कंपनी अमेरिका या दुनिया के बाकी हिस्सों में विज्ञापन करती है। Apple का कहना है कि उसने कोई समझौता नहीं किया, लेकिन एक ऐसे देश में जो अपने उत्पादन कार्यों की रीढ़ बनाता है और आय का एक बड़ा हिस्सा खाता है, सरकार की इच्छा का पालन न करने के लिए दांव बहुत अधिक है। रूस और कई अफ्रीकी देशों ने हाल ही में आपत्तिजनक मानी जाने वाली सामग्री के आसपास के प्लेटफार्मों पर प्रतिबंधों को कड़ा कर दिया है और कंपनियों को अतिरिक्त ज्ञान के लिए दबाव डाल रहे हैं। शोधकर्ताओं का कहना है कि Apple का CSAM स्कैनिंग सिस्टम एक हानिकारक तकनीक है और एक गोपनीयता बचाव का रास्ता है जिसका फायदा उठाया जा सकता है। वहीं कुछ ने इसे बच्चों की सुरक्षा की आड़ में ऑरवेलियन मास सर्विलांस सिस्टम की शुरुआत भी बताया है।

Apple प्रोएक्टिव बनना चाहता है, धूमधाम से नहीं

बाल दुर्व्यवहार इमेजरी के लिए iPhones पर Apple CSAM स्कैन

ऐप्पल ने सिस्टम की सटीकता के बारे में विस्तार से बात की है, हालांकि हैकर्स पहले से ही इसके शुरुआती मॉडल को एक गैर-सीएसएएम तस्वीर के सामने आने पर एक गलत आशावादी अलार्म बनाने में कामयाब रहे हैं। उपाध्यक्ष. कंपनी का कहना है कि उसे अनुचित सामग्री सामग्री के लिए अमेरिकी कानूनी दिशानिर्देशों का पालन करना होगा और एनसीएमईसी (नेशनवाइड हार्ट फॉर लैकिंग एंड एक्सप्लॉइटेड यंगस्टर्स) से सीएसएएम डेटाबेस की सोर्सिंग कर रही है। फिर भी, अन्य देश ऐप्पल को स्थानीय शिशु सुरक्षा संगठनों से सीएसएएम तस्वीर हैश पर निर्भर रहने के लिए कह सकते हैं, जो शायद उतना कुशल नहीं है और पहले से ही विलंबित सिस्टम की घटना तकनीक को और अधिक जटिल करेगा। Apple ने भी CSAM पैरेंटल अलर्ट फंक्शन में कोई भरोसेमंद ढांचा नहीं बनाया है जो कि अपमानजनक घरों में बच्चों के लिए मुश्किल साबित हो सकता है।

इसमें कोई संदेह नहीं है कि यह पहल नेक है, लेकिन एक निगम के लिए जो अपने पारिस्थितिकी तंत्र की गोपनीयता और सुरक्षा पर गर्व करता है, उसे अक्सर पूछे जाने वाले प्रश्न पत्रों को लॉन्च करने और साक्षात्कार में खतरों को कम करने के अलावा और कुछ करना चाहिए। Apple को उद्यम बंद नहीं करना चाहिए। इसे जो करना चाहिए वह कथित खामियों से निपटना है और केवल एक मौखिक आश्वासन से अधिक आपूर्ति करना है। Apple को गोपनीयता के संबंध में हितधारकों के रूप में अपनी संभावनाओं से निपटना चाहिए, और यदि प्राप्य हो, तो कानूनी रूप से बाध्यकारी आश्वासन प्रस्तुत करें कि प्राप्त CSAM प्रणाली का शोषण नहीं किया जाएगा। उस दृष्टिकोण से, सैकड़ों हजारों iPhone ग्राहकों को विश्वास हो सकता है कि वे Apple को जवाबदेह बनाए रखेंगे और उनकी गोपनीयता का उल्लंघन होने पर नुकसान की भरपाई करेंगे।

होकर द वाशिंगटन पुट अप, संबंधित कार्यों पर पहले काम कर चुके साइबर सुरक्षा विशेषज्ञों का कहना है कि पूरी सोच हानिकारक है, जबकि गोपनीयता के पैरोकार इसे एक हानिकारक मिसाल बताते हैं। Apple साइबर सुरक्षा समूह के साथ एक स्पष्ट और खुला संवाद करना चाहता है और उन्हें समझदार प्रदर्शनों के साथ गारंटी देता है कि इसकी CSAM फोटो-स्कैनिंग प्रणाली को बरगलाया या शोषण नहीं किया जा सकता है। ऐसा करने में कुछ समय लगेगा और काफी चेतावनी भी होगी, हालांकि यह कानूनी मुद्दों को हल करने की दिशा में काफी दूर तक जा सकता है।

विशेषज्ञों के साथ सकारात्मक बातचीत में बातचीत करना और केंद्र तल पर पहुंचना ऐप्पल की जिम्मेदारी है जहां सीएसएएम स्कैनिंग तकनीक आक्रामक हुए बिना सुधार कर सकती है। कंपनी के पास निश्चित रूप से ऐसा करने के लिए पहुंच और स्रोत हैं। ऐसा न करना एक स्मॉग रुख हो सकता है – जो अंत में विश्वासघात कर सकता है सेब गोपनीयता के बहुत ही व्यक्तिगत नियम। इससे भी महत्वपूर्ण बात यह है कि इसे अतिरिक्त आक्रामक तरीकों के लिए बाढ़ के द्वार खोलना चाहिए जो अरबों स्मार्टफोन ग्राहकों की गोपनीयता को खतरे में डालते हैं, उन्हें अश्लील रूप से समृद्ध कंपनियों और सत्तावादी सरकारों की दया पर छोड़ देते हैं।

बाद में: Apple के टिम ने रात का खाना क्यों तैयार किया, कहते हैं कि टेक प्राइवेसी रेगुलेशन वांटेड है

स्रोत: arXiv, VICE, द वाशिंगटन पुट अप

ट्रुबकिना गिब्स इंस्टाग्राम 90 दिनों के मंगेतर में

90 दिन की मंगेतर: जूलिया ने पिलो डिस्कशन पर देखे अपने बीमार फॉलोअर्स को संबोधित किया

लेखक के बारे में

यह पोस्ट स्वतः उत्पन्न होती है। सभी सामग्री और ट्रेडमार्क उनके सही मालिकों के हैं, सभी सामग्री उनके लेखकों के हैं। यदि आप सामग्री के स्वामी हैं और नहीं चाहते कि हम आपके लेख प्रकाशित करें, तो कृपया हमें ईमेल द्वारा संपर्क करें – [email protected] . सामग्री 48-72 घंटों के भीतर हटा दी जाएगी। (शायद मिनटों के भीतर)

Leave a Comment