شركة آبل تخطط لمسح الصور المخزنة في خطوة غير مسبوقة

شركة آبل لمسح الصور المخزنة

 

تُخطط شركة آبل لمسح الصور المخزنة ضمن أجهزة آيفون وآيكلاود بحثاً عن صور إساءة معاملة الأطفال، فستطرح

الشركة في وقت لاحق من هذا العام، تقنية ستسمح لها باكتشاف حوادث الاعتداء الجنسي على الأطفال المعروفة

والإبلاغ عنها لتطبيق القانون بطريقة تقول إنها ستحافظ على خصوصية المستخدم.

 

تقول آبل أن الكشف عن حوادث الاعتداء الجنسي على الأطفال هي واحدة من العديد من الميزات الجديدة التي

 

تهدف إلى حماية أفضل للأطفال الذين يستخدمون خدماتها من وقوع أذى عليهم من خلال الإنترنت، بما في ذلك

المرشحات لحظر الصور الجنسية الصريحة التي يُحتمل إرسالها واستلامها من خلال حساب للطفل.

 

تقنية NeuralHash

تُضيف آبل أن التقنية الجديدة NeuralHash تعمل على جهاز المستخدم، ويمكنها تحديد ما إذا كان المستخدم قد قام

بتحميل صور معروفة لإساءة معاملة الأطفال إلى iCloud دون فك تشفير الصور حتى يتم استيفاء الحد الأدنى

وتسلسل عمليات التحقق للتحقق من المحتوى .

 

 

سينطلق NeuralHash في iOS 15 و macOS Monterey ، المقرر إصداره خلال الشهر أو الشهرين المقبلين، ويعمل

 

عن طريق تحويل الصور الموجودة على الهواتف الذكية مثلiPhone أو Mac للمستخدم إلى سلسلة فريدة من

 

 

 

صورة من التجزئات المعروفة لصور إساءة معاملة الأطفال، والتي تقدمها منظمات حماية الطفل مثل المركز

الوطني للأطفال المفقودين والمستغلين وغيرها.

 

 

الصورة أو تنبيه المستخدم.

شركة آبل تخطط  لمسح الصور المخزنة

يتم تحميل النتائج على Apple ولكن لا يمكن قراءتها بمفردها.

السرية التي تسمح لها فقط بفك تشفير المحتويات إذا تجاوز المستخدم حداً من صور إساءة معاملة الأطفال

المعروفة في صور iCloud الخاصة به. فيتم منح كل صورة يتم تحميلها عبر آيكلاود في الولايات المتحدة قسيمة

أمان توضح ما إذا كانت مشبوهة أم لا.

 

وبمجرد وضع علامة على عدد معين من الصور على أنها مشبوهة، تعمل آبل على تمكين فك تشفير جميع الصور

المشبوهة. وإذا كانت تبدو غير قانونية، فإنه يتم نقلها إلى السلطات المختصة، ففي هذه المرحلة، يمكن لشركة

Apple فك تشفير الصور المطابقة، والتحقق يدوياً من المحتويات، وتعطيل حساب المستخدم، والإبلاغ عن الصور

إلى الجهات المُحتصة لتطبيق القانون.

 

تقول Apple إن هذه العملية أكثر مراعاة للخصوصية من فحص الملفات في السحابة لأن NeuralHash يبحث فقط

عن صور إساءة معاملة الأطفال المعروفة وليست الجديدة.

 

 

 

 

 

 

قد يعجبك ايضا