ما تحتاج لمعرفته حول إجراءات حماية الأطفال من Apple

إليك تفاصيل الميزات الثلاث الجديدة لسلامة الأطفال التي أعلنت عنها Apple مؤخرًا وكيفية عملها.

أعلنت شركة Apple مؤخرًا عن إجراءات حماية جديدة لسلامة الأطفال تأتي هذا الخريف مع تقديم iOS 15 و iPadOS 15 و macOS Monterey

سنلقي نظرة فاحصة على ميزات سلامة الأطفال الموسعة هذه والتكنولوجيا التي تقف وراءها أدناه.

مسح مواد الاعتداء الجنسي على الأطفال

التغيير الأبرز هو أن Apple ستبدأ في استخدام تقنية جديدة لاكتشاف الصور التي تصور صور إساءة معاملة الأطفال المحزنة في iCloud Photos

تُعرف هذه الصور بمواد الاعتداء الجنسي على الأطفال ، أو CSAM ،وستقوم Apple بالإبلاغ عن حالات منها إلى المركز الوطني للأطفال المفقودين والمستغَلين NCMEC هو مركز الإبلاغ عن CSAM ويعمل مع وكالات إنفاذ القانون.

سيقتصر فحص CSAM من Apple على الولايات المتحدة عند الإطلاق.

تقول Apple إن النظام يستخدم التشفير وقد تم تصميمه مع مراعاة الخصوصية يتم فحص الصور على الجهاز قبل تحميلها على iCloud Photos

وفقًا لشركة Apple ،لا داعي للقلق بشأن رؤية موظفي Apple لصورك الفعلية. بدلاً من ذلك  يوفر NCMEC لشركة Apple تجزئة صور لصور CSAM تأخذ التجزئة صورة وتعيد سلسلة طويلة وفريدة من الأحرف والأرقام.

تأخذ Apple هذه التجزئة وتحول البيانات إلى مجموعة غير قابلة للقراءة من التجزئات المخزنة بأمان على الجهاز.

قبل أن تتم مزامنة الصورة مع صور iCloud يتم فحصها مقابل صور CSAM. باستخدام تقنية تشفير خاصة – تقاطع مجموعة خاصة – يحدد النظام ما إذا كان هناك تطابق دون الكشف عن نتيجة.

في حالة وجود تطابق ، يقوم الجهاز بإنشاء قسيمة أمان مشفرة تقوم بترميز المطابقة إلى جانب المزيد من البيانات المشفرة حول الصورة. يتم تحميل هذا الإيصال إلى صور iCloud بالصورة.

ما لم يتجاوز حساب iCloud Photos حدًا معينًا لمحتوى CSAM ،يضمن النظام عدم تمكن Apple من قراءة قسائم الأمان هذا بفضل تقنية تشفير تسمى المشاركة السرية.

وفقًا لشركة Apple ،توفر العتبة غير المعروفة قدرًا كبيرًا من الدقة وتضمن أقل من واحد من كل تريليون فرصة للإبلاغ عن حساب بشكل غير صحيح.

إجراءات حماية الأطفال من Apple

عندما يتم تجاوز العتبة ، ستسمح التقنية لشركة Apple بتفسير القسائم ومطابقة صور CSAM. ستقوم Apple بعد ذلك بمراجعة كل تقرير يدويًا لتأكيد التطابق. في حالة التأكيد  ستقوم Apple بتعطيل حساب المستخدم ثم إرسال تقرير إلى NCMEC

ستكون هناك عملية استئناف للإعادة إذا شعر المستخدم أنه تم الإبلاغ عن حسابه عن طريق التكنولوجيا عن طريق الخطأ.

إذا كانت لديك مخاوف تتعلق بالخصوصية مع النظام الجديد ، فقد أكدت Apple أنه لن يتم فحص أي صور باستخدام تقنية التشفير إذا قمت بتعطيل iCloud Photos يمكنك القيام بذلك من خلال التوجه إلى الإعدادات>[اسمك]> iCloud>الصور .

هناك بعض الجوانب السلبية عند إيقاف تشغيل iCloud Photos سيتم تخزين جميع الصور ومقاطع الفيديو على جهازك. قد يتسبب ذلك في حدوث مشكلات إذا كان لديك الكثير من الصور ومقاطع الفيديو وجهاز iPhone قديم بسعة تخزين محدودة.

أيضًا ، لن يمكن الوصول إلى الصور ومقاطع الفيديو الملتقطة على الجهاز على أجهزة Apple الأخرى باستخدام حساب iCloud

تشرح Apple المزيد حول التقنية المستخدمة في اكتشاف CSAM في مستند تقني PDF . يمكنك أيضًا قراءة الأسئلة الشائعة عن Apple مع معلومات إضافية حول النظام.

في الأسئلة الشائعة ، لاحظت Apple أنه لا يمكن استخدام نظام اكتشاف CSAM لاكتشاف أي شيء آخر غير CSAM تقول الشركة أيضًا أنه في الولايات المتحدة والعديد من البلدان الأخرى ، تعد حيازة صور CSAM جريمة وأن Apple ملزمة بإبلاغ السلطات.

تقول الشركة أيضًا إنها سترفض أي مطالب حكومية لإضافة صورة غير CSAM إلى قائمة التجزئة كما يشرح سبب عدم إمكانية إضافة صور غير CSAM إلى النظام بواسطة طرف ثالث.

بسبب المراجعة البشرية وحقيقة أن التجزئات المستخدمة مأخوذة من صور CSAM معروفة وحالية ، تقول Apple إن النظام مصمم ليكون دقيقًا ويتجنب المشكلات مع الصور الأخرى أو المستخدمين الأبرياء الذين يتم إبلاغ المركز الوطني للأطفال المفقودين والمستخدمين الأبرياء.

بروتوكول أمان الاتصالات الإضافي في الرسائل

ستتم إضافة ميزة جديدة أخرى إلى بروتوكولات الأمان في تطبيق الرسائل. يوفر هذا أدوات من شأنها تحذير الأطفال وأولياء أمورهم عند إرسال أو تلقي رسائل تحتوي على صور جنسية صريحة.

عند تلقي إحدى هذه الرسائل ، سيتم تعتيم الصورة وسيتم تحذير الطفل أيضًا. يمكنهم رؤية موارد مفيدة ويتم إخبارهم أنه لا بأس إذا لم يشاهدوا الصورة.

ستكون الميزة مخصصة فقط للحسابات التي تم إعدادها كعائلات في iCloud. سيحتاج الآباء أو الأوصياء إلى الاشتراك لتمكين ميزة أمان الاتصال يمكنهم أيضًا اختيار أن يتم إخطارهم عندما يرسل طفل يبلغ من العمر 12 عامًا أو أقل صورة جنسية صريحة أو يتلقاه.

بالنسبة للأطفال الذين تتراوح أعمارهم بين 13 و 17 عامًا ، لا يتم إخطار الوالدين. ولكن سيتم تحذير الطفل وسؤاله عما إذا كان يريد عرض أو مشاركة صورة جنسية صريحة.

تستخدم الرسائل التعلم الآلي على الجهاز لتحديد ما إذا كان المرفق أو الصورة جنسية صريحة لن تتلقى Apple أي وصول إلى الرسائل أو محتوى الصورة.

ستعمل الميزة لكل من رسائل SMS العادية ورسائل iMessage وليست مرتبطة بميزة فحص CSAM التي ذكرناها بالتفصيل أعلاه.

إرشادات أمان موسعة في Siri والبحث

أخيرًا ، ستوسع Apple الإرشادات لكل من ميزات Siri والبحث لمساعدة الأطفال والآباء على البقاء آمنين عبر الإنترنت وتلقي المساعدة في المواقف غير الآمنة أشارت Apple إلى مثال حيث سيتم تزويد المستخدمين الذين يسألون Siri عن كيفية الإبلاغ عن CSAM أو استغلال الأطفال بموارد حول كيفية تقديم تقرير إلى السلطات.

ستصل التحديثات إلى Siri و Search for عندما يقوم أي شخص بإجراء استعلامات بحث متعلقة بـ CSAM سيشرح التدخل للمستخدمين أن الاهتمام بالموضوع ضار ومشكل سيعرضون أيضًا الموارد والشركاء للمساعدة في الحصول على المساعدة في هذه المشكلة.

المزيد من التغييرات تأتي مع أحدث برامج Apple

تم تصميم الميزات الثلاث الجديدة من Apple ،التي تم تطويرها بالتعاون مع خبراء السلامة  للمساعدة في الحفاظ على أمان الأطفال عبر الإنترنت على الرغم من أن الميزات قد تسبب القلق في بعض الدوائر التي تركز على الخصوصية ، إلا أن شركة Apple كانت صريحة بشأن التكنولوجيا وكيف ستوازن بين مخاوف الخصوصية وحماية الطفل.

إجراءات حماية الأطفال من Apple

قد يعجبك ايضا