गोपनीयता की वकालत करने वालों और उद्योग के साथियों की आलोचना के बाद, Apple ने अपने सॉफ़्टवेयर के लॉन्च में देरी की है जो iPhones पर बाल शोषण को दर्शाने वाली तस्वीरों का पता लगाएगा। कार्यक्रम की घोषणा पिछले महीने की गई थी और इसे इस साल के अंत में अमेरिका में लॉन्च किया जाना था।

सॉफ्टवेयर क्या है और यह कैसे काम करता होगा?

Apple ने पिछले महीने कहा था कि वह एक दो-तरफा तंत्र शुरू करेगा जो उसके उपकरणों पर तस्वीरों को स्कैन करके ऐसी सामग्री की जांच करेगा जिसे बाल यौन शोषण सामग्री (CSAM) के रूप में वर्गीकृत किया जा सकता है। तंत्र के हिस्से के रूप में, Apple का टूल न्यूरलमैच iCloud पर अपलोड होने से पहले तस्वीरों की जांच करेगा – इसकी क्लाउड स्टोरेज सेवा – और इसके एंड-टू-एंड एन्क्रिप्टेड iMessage ऐप पर भेजे गए संदेशों की सामग्री की जांच करें। कंपनी ने कहा था, ‘मैसेज ऐप डिवाइस पर मशीन लर्निंग का इस्तेमाल संवेदनशील सामग्री के बारे में चेतावनी देने के लिए करेगा जबकि निजी संचार को एपल द्वारा पढ़ा नहीं जा सकेगा।

न्यूरलमैच तस्वीरों की तुलना चाइल्ड एब्यूज इमेजरी के डेटाबेस से करता है, और जब कोई फ़्लैग होता है, तो ऐप्पल के कर्मचारी मैन्युअल रूप से छवियों की समीक्षा करेंगे। बाल शोषण की पुष्टि होने के बाद, यूएस में नेशनल सेंटर फॉर मिसिंग एंड एक्सप्लॉइटेड चिल्ड्रेन (NCMEC) को सूचित किया जाएगा।

चिंताएं क्या थीं?

जबकि इस कदम का बाल संरक्षण एजेंसियों द्वारा स्वागत किया जा रहा है, डिजिटल गोपनीयता के पैरोकार, और उद्योग के साथी, लाल झंडे उठा रहे हैं, यह सुझाव देते हुए कि प्रौद्योगिकी का उपयोगकर्ता की गोपनीयता पर व्यापक-आधारित प्रभाव हो सकता है। ऐसा माना जाता है कि क्लाइंट-साइड स्कैनिंग सिस्टम का निर्माण करना लगभग असंभव है, जिसका उपयोग केवल बच्चों द्वारा भेजी या प्राप्त की गई यौन स्पष्ट छवियों के लिए किया जाता है, इस तरह के सॉफ़्टवेयर को अन्य उपयोगों के लिए ट्वीक किए बिना। घोषणा ने एक बार फिर सरकारों और कानून प्रवर्तन अधिकारियों को एन्क्रिप्टेड सेवाओं में पिछले दरवाजे की मांग पर सुर्खियों में डाल दिया था। एंड-टू-एंड एन्क्रिप्टेड मैसेजिंग सर्विस व्हाट्सएप के प्रमुख विल कैथकार्ट ने कहा था: “यह एक ऐप्पल-निर्मित और संचालित निगरानी प्रणाली है जिसका उपयोग निजी सामग्री को स्कैन करने के लिए बहुत आसानी से किया जा सकता है, जिसे वे या सरकार नियंत्रित करना चाहती है। . जिन देशों में iPhones बेचे जाते हैं, उनकी अलग-अलग परिभाषाएँ होंगी कि क्या स्वीकार्य है।

अभी शामिल हों : एक्सप्रेस समझाया टेलीग्राम चैनल

Apple क्यों पीछे हट गया है?

एक बयान में, Apple ने कहा कि कंपनी के अंदर और बाहर दोनों जगह गोपनीयता और अन्य आधारों पर सिस्टम की आलोचना के बाद प्रतिक्रिया एकत्र करने और प्रस्तावित बाल सुरक्षा सुविधाओं में सुधार करने में अधिक समय लगेगा। “ग्राहकों, वकालत समूहों, शोधकर्ताओं और अन्य लोगों की प्रतिक्रिया के आधार पर, हमने इन महत्वपूर्ण बाल सुरक्षा सुविधाओं को जारी करने से पहले इनपुट एकत्र करने और सुधार करने के लिए आने वाले महीनों में अतिरिक्त समय लेने का फैसला किया है,” यह कहा। रॉयटर्स के अनुसार, ऐप्पल हफ्तों से योजना पर बचाव कर रहा था और पहले ही यह दिखाने के लिए स्पष्टीकरण और दस्तावेजों की एक श्रृंखला की पेशकश की थी कि झूठी पहचान के जोखिम कम थे।

समाचार पत्रिका | अपने इनबॉक्स में दिन के सर्वश्रेष्ठ व्याख्याकार प्राप्त करने के लिए क्लिक करें

.

Today News is Explained: Why Apple is delaying its software that scans for child abuse photos i Hop You Like Our Posts So Please Share This Post.


Post a Comment