"لحماية الأطفال" في خدمات "آي كلاود" (iCloud) و"آي مسج" (iMessage). وإذا كنتم/ن قرأتم/ن أيّ شيء حول "حروب التشفير" (Crypto Wars)، ستعرفون ما يعنيه ذلك: تخطّط "آبل" لفتح باب خلفي على نظامها لتخزين البيانات ونظامها للتراسل.
لا شكّ في أنّ المحتوى المسيء للأطفال يُعتبر مشكلة كبيرة، وشركة "آبل" ليست أوّل شركة تقنية تغيّر موقفها تجاه حماية الخصوصية من أجل مكافحة هذه الآفة، غير أنّ هذا الخيار دونه ثمن كبير يدفعه المستخدمون/ات من خصوصيتهم/ن بشكل عام. يمكن لشركة "آبل" أن تسترسل في شرح كيفية حماية الخصوصية والأمان وتطبيق هذه الحماية تقنياً في البوابة الخلفية المقترحة، ولكنّ البوابة الخلفية تبقى بوابة خلفية في نهاية المطاف، مهما كانت موثّقة ومدروسة وضيّقة النطاق.
TELL APPLE: DON'T SCAN OUR PHONES
أقلّ ما يمكن وصف الخطط التي تعمل عليها "آبل" هو أنّها مخيّبة للآمال، خصوصاً وأنّ هذه الشركة طالما كانت من أشدّ مناصري التشفير التام بين الطرفين (end-to-end encryption)، للأسباب نفسها التي عبّرت عنها "مؤسسة التخوم الرقمية" (EFF) مراراً وتكراراً في مناسبات مختلفة. قد يُرضي تنازل "آبل" عن التشفير بين الطرفين الأجهزة الحكومية في الولايات المتحدة وغيرها من البلدان، ولكنّه يشكّل صدمة كبيرة للمستخدمين/ات الذين يعتمدون على ريادة الشركة في ما يتعلّق بالخصوصية والأمان.
تضمّ هذه الخطّة خاصيتين رئيسيتين تعمل "آبل" على تثبيتهما في جميع أجهزتها: الأولى، خاصية فحص الصور بمجرّد تحميلها على خدمة "صور آي كلاود" (iCloud Images)، من أجل معرفة ما إذا كانت تتطابق مع أيّ صورة في "قاعدة البيانات الخاصة بمواد الاعتداء الجنسي على الأطفال" (CSAM) وفقاً لبيانات "المركز الوطني للأطفال المفقودين والمستغَلين" (NCMEC). والخاصية الثانية، تعمل على فحص جميع الرسائل المرسلة والواردة عبر حسابات الأطفال على تطبيق "آي مسج"، وهي حسابات تُنشأ على أنّها للأطفال، وذلك من أجل الكشف عن أيّ محتوى جنسي فاضح وتحديد ما إذا كان الطفل صغيراً كفاية، ومن ثمّ تبليغ الأهل باستقبال طفلهم وإرساله لمثل هذه الصور؛ وهي خاصية يمكن تفعيلها أو إيقافها من قبل الأهل.
يشير إطلاق "آبل" لخصائص "فحص المحتوى على مستوى العميل" (client-side scanning) إلى أنّه سيتعيّن على مستخدمي/ات خدمة "صور آي كلاود"، ومستخدمي/ات تطبيق "آي مسج" من الأطفال، وأيّ شخص يتحدّث إلى قاصر باستخدام "آي مسج"، أن يضعوا في الاعتبار خصوصية هؤلاء وأمانهم/ن في ضوء هذه التغييرات. وقد يعني كذلك أنّه لم يعد بإمكانهم/ن استخدام هذه الخدمات بأمان، بعدما كانت تُعتبر
شركة "آبل" تشرّع الباب أمام انتهاكات أوسع
نعيد ونكرّر ما قلناه سابقاً: من المستحيل بناء نظام لفحص المحتوى على مستوى العميل يقتصر استخدامه على اكتشاف الصور الفاضحة جنسياً التي يرسلها ويستقبلها الأطفال فقط. وهذا يعني في النتيجة أنّ أيّ جهد يُبذل بنيّةٍ حسنة لبناء مثل هذا النظام سيقضي على الوعود الرئيسية في تشفير تطبيق التراسل ويفتح الباب أمام تجاوزات أكبر.
هذا ليس منعطفاً خطيراً، بل نظام قائم بحدّ ذاته قد يخضع في أيّ لحظة إلى ضغوط خارجية تؤدّي إلى بداية حرفه عن مساره.
كلّ ما يتطلّبه الأمر لتشريع الباب الضيق الذي تصنعه "آبل" هو توسيع إحداثيات التعلّم الآلي للبحث في أنواع إضافية من المحتوى، أو تعديل التصنيف في الإعدادات من أجل فحص جميع الحسابات وليس حسابات الأطفال فحسب. هذا ليس منعطفاً خطيراً، بل نظام قائم بحدّ ذاته قد يخضع في أيّ لحظة إلى ضغوط خارجية تؤدّي إلى بداية حرفه عن مساره. لنأخذ ما حصل في الهند على سبيل المثال، فالتشريعات التي أُقرَّت مؤخراً تتضمّن متطلّبات خطيرة تَفرِض على المنصّات تحديد مَنشأ الرسائل وفحص المحتوى مسبقاً. والقوانين الجديدة في أثيوبيا التي تفرض إزالة المحتوى الذي يتضمّن "معلومات مضللة" خلال 24 ساعة يمكن أن تُطبّق على تطبيقات التراسل. بالإضافة إلى ذلك، فإنّ الكثير من البلدان الأخرى، والتي بأغلبها تضمّ حكومات قمعية، أقرّت قوانين مشابهة. وبالعودة إلى التغييرات التي تجريها "آبل"، فهي يمكن أن تسمح بعمليات مشابهة لفحص المحتوى وإزالته والإبلاغ عنه في تطبيقاتها للتراسل التي تُعتبر - حتّى الآن - مشفّرة بين الطرفين. ومن السهل تصوّر الانتهاكات في مثل هذه الحالة: يمكن للحكومات التي لا تسمح بالمثلية الجنسية أن تقيّد المحتوى الخاص بمجتمع الميم، أو يمكن لأي نظام قمعي أن يطلب تحديد الصور الساخرة أو الشعارات المعارضة.
لقد شهدنا حالة مشابهة من قبل مع إحدى التقنيات التي أنشئت في الأصل لفحص صور الاستغلال الجنسي للأطفال وحذفها. استُخدمت هذه التقنية لإنشاء قاعدة بيانات للمحتوى "الإرهابي"، وهي قاعدة بيانات يمكن للشركات أن تساهم فيها والوصول إلى محتواها في سبيل حجب هذا النوع من المحتوى. لا تخضع قاعدة البيانات هذه التي يديرها "منتدى الإنترنت العالمي لمكافحة الإرهاب" (GIFCT) إلى أيّ رقابة خارجية على الرغم من مناشدات المجتمع المدني المتكرّرة. وفي حين لا يمكن معرفة التجاوزات المرتكَبة في قاعدة البيانات هذه، نؤكّد علمنا بأنّ بعض المنصّات تعمل بانتظام على تصنيف بعض أنواع المحتوى النقديّ على أنّه "إرهابي"، مثل المحتوى الذي يوثّق حالات العنف والقمع وكذلك الذي يتضمّن خطاباً معارضاً ومواد فنّيّة وساخرة.
فحص الصور على خدمة "صور آي كلاود": تقويض للخصوصية
تشبه خطط "آبل" لفحص الصور التي تُحمّل على خدمة "صور آي كلاود"، بطريقة أو بأخرى، تقنية "مايكروسوفت" المعروفة باسم "فوتو دي إن إيه" (PhotoDNA)، أما الفارق الأساسي فهو أنّ الفحص الذي تجريه "آبل" يجري على جهاز المستخدم/ة مباشرة. وقاعدة البيانات (غير المُدقّق فيها) لصور "قاعدة البيانات الخاصة بمواد الاعتداء الجنسي على الأطفال" (CSAM) ستُوزّع داخل نظام التشغيل، بحيث يجري تحويل الصور المُعالَجة بطريقةٍ لا يمكن فيها للمستخدم/ة أن يعرف ما هي هذه الصورة. وبعد ذلك، تجري مطابقة الصور المحوّلة باستخدام مجموعة مطابقة خاصّة بحيث لا يعرف الجهاز إذا تمّت المطابقة أم لا. وهذا يعني أنّه عند بدء العمل بهذه الخاصية، ستُنزّل نسخة من "قاعدة البيانات الخاصة بمواد الاعتداء الجنسي على الأطفال" (CSAM) وفقاً لبيانات "المركز الوطني للأطفال المفقودين والمستغَلين" (NCMEC) على كلّ جهاز "آيفون"، ومن ثمّ تُرسَل نتيجة عملية المطابقة إلى شركة "آبل" التي تعرف فقط بتطابق الصور بمجرّد مطابقة ما يكفي من الصور مع عددٍ محدّد في قاعدة البيانات.
بعد اكتشاف عدد معيّن من الصور، تُرسَل الصور قيد الدرس إلى مراجعين بشر داخل شركة "آبل" ليقرّروا ما إذا كانت الصور جزءاً من "قاعدة البيانات الخاصة بمواد الاعتداء الجنسي على الأطفال" (CSAM). فإذا أكّد المراجعون على الأمر، تُرسَل الصور إلى "المركز الوطني للأطفال المفقودين والمستغَلين" (NCMEC) قبل أن يُعطَّل حساب المستخدم/ة المعنيّ. في النتيجة، بغضّ النظر عن جوانب الخصوصية والأمان في التفاصيل التقنية، فإنّ جميع الصور على "آي كلاود" سيجري فحصها.
لا مجال للشكّ: هذا تقويض لخصوصية مستخدمي/ات "صور آي كلاود" وليس تقدّماً أحرزته الشركة.
في الوقت الحالي، لا تفحص شركة "آبل" الصور على الرغم من احتفاظها بمفاتيح عرض الصور المخزّنة على تطبيق "صور آي كلاود"، ومع ذلك طالبتها منظّمات مدنية بالتخلّي عن هذه الإمكانية. ولكنّها بخطوتها الجديدة تتّبع نهجاً مختلفاً يسمح لها بمعرفة المزيد من محتوى المستخدمين/ات.
التعلّم الآلي وتبليغ الأهل على تطبيق "آي مسج": تخلٍّ عن التشفير القويّ
الخاصية الثانية الٍاسية التي تطرحها "آبل" في هذا النظام تقوم على نوعين من الإشعارات بناءً على نتيجة فحص الصور المرسَلة والواردة عبر تطبيق "آي مسج". لتشغيل هذه الإشعارات، ستطلق "آبل" نظام تصنيفٍ يعمل بتقنية التعلّم الآلي مباشرة على أجهزة المستخدمين/ات، لكي يكتشف "الصور الفاضحة جنسياً". تقول الشركة إنّ هذه الخاصية محصورة (لدى إطلاقها) بالمستخدمين/ات الذين تقلّ أعمالهم/ن عن 18 عاماً في الولايات المتحدة فقط، والذين تُنشأ حساباتهم ضمن "الحسابات العائلية" (Family Accounts). وفقاً لهذه الإجراءات الجديدة، إذا أراد حساب يمتلكه طفل دون 13 عاماً أن يرسل صورة يعتبرها نظام التصنيف فاضحة جنسياً، ستظهر رسالة تحذيرية للطفل تخبره بأنّ ذويه سيتلقّون إشعاراً بهذا المحتوى. فإذا أًصرّ الطفل دون 13 عاماً على إرسال المحتوى ينبغي عليه الموافقة على تبليغ "الأهل"، في حين تُحفَظ الصورة في قسم "الإشراف العائلي" لكي يروها لاحقاً. وبالنسبة إلى المستخدمين/ات بين 13 و17 عاماً، ستظهر لهم رسالة تحذيرية مماثلة لا تتضمّن إشعاراً بإبلاغ الأهل.
وبالمثل، إذا تلقّى الطفل دون 13 عاماً صورة يعتبرها تطبيق "آي مسج" صورة "فاضحة جنسياً"، ستظهر له رسالة تحذيرية قبل مشاهدة الصورة تخبره بأنّ ذويه سيتلقّون إشعاراً بأنّه يستقبل صوراً فاضحة جنيساً، فإذا قبل الطفل دون 13 عاماً استقبال الصورة سيعرف والداه بذلك وتُحفَظ الصورة على الهاتف. أمّا المستخدمون/ات بين 13 و17 عاماً ستظهر لهم/ن رسالة تحذيرية مشابهة من دون إرسال إشعار إلى الأهل بهذه الصورة.
يعني ذلك، على سبيل المثال، أنّه في حال استخدام أحد المستخدمين/ات القصّر لهاتف "أيفون" من دون تشغيل هذه الخاصية، لن تظهر له/ا رسالة تحذيرية بأنّ تطبيق "آي مسج" يعتبر الصورة "فاضحة" أو بأنّه سيرسل إشعاراً بها إلى الأهل. في المقابل، يرسل التطبيق إشعاراً إلى ذوي الطفل الذي يتلقّى هذه الصورة من دون أخذ موافقة الطفل المرسِل. بالإضافة إلى ذلك، لا يمكن حذف "الصور الفاضحة جنسياً" من جهاز المستخدم/ة دون 13 عاماً بمجرّد إرسالها أو استلامها.
تتيح "آبل" للطفل دون 13 عاماً خيار رفض إرسال أو استقبال هذا النوع من المحتوى، من دون إرسال إشعار إلى الأهل. ولكنّ هذه الإشعارات تُشعِر المستخدم/ة بأنّ "آبل" تراقبه باستمرار، وهذا بالضبط ما توفّره الشركة لذوي الأطفال دون 13 عاماً.
هذه الإشعارات تُشعِر المستخدم/ة بأنّ "آبل" تراقبه باستمرار، وهذا بالضبط ما توفّره الشركة لذوي الأطفال دون 13 عاماً.
يجدر بالذكر كذلك أنّ "آبل"، من أجل تحديد عناصر الصور الفاضحة جنسياً، لجأت إلى استخدام تكنولوجيا (يصعب تدقيقها) لنظام التصنيف الذي يعمل بتقنية التعلّم الآلي. وتقنيات التعلّم الآلي المستخدمة من دون إشراف بشري تجنح إلى ارتكاب الأخطاء عند تصنيف المحتوى، مثل اعتباره "فاضحاً جنسياً"، حسبما علّمتنا سنوات من البحث والتوثيق. على سبيل المثال، عندما أطلقت منصّة "تمبلر" (Tumblr) فلتر للمحتوى الجنسي في عام 2018، اشتهر بتحديده لأنواع مختلفة من المحتوى على الشبكة على أنّها محتوى جنسي، مثل صور كلاب بوميرانيان وصور سيلفي لأشخاص يرتدون كامل ملابسهم، وغيرها. ومحاولات "فيسبوك" للإشراف على العريّ على منصّتها أدّت إلى إزالة صور تماثيل شهيرة مثل تمثال "الحورية الصغيرة" (Little Mermaid) في كوبنهاغن. يدلّ ذلك على أنّ هذه الفلاتر تمتلك تاريخاً من المغالطات، وثمّة الكثير من الأسباب التي تدفع للاعتقاد بأنّ "آبل" ستعيد هذا التاريخ.
بما أنّ اكتشاف "الصور الفاضحة جنسياً" سيستخدم تقنية التعلّم الآلي على جهاز المستخدم/ة مباشرة لفحص محتوى الرسائل، لن يعود بمقدور "آبل" أن تدّعي بأنّ تطبيق "آي مسج" مشفّر بين الطرفين بشكل تام. قد تقول الشركة ومؤيّدوها إنّ فحص الرسالة قبل أو بعد تشفيرها أو فكّ هذا التشفير لن يمسّ بوعدها بـ"التشفير بين الطرفين"، ولكنّ هذا لا يتعدّى كونه مناورة كلامية للتغطية على التحوّل الجذري الذي تنتهجه الشركة في موقفها تجاه التشفير القوي.
المراسلات لم تعد آمنة، مهما قالت "آبل"
للتذكير، نظام التراسل الآمن هو النظام الذي لا يمكّن سوى المستخدم/ة ومستقبِل/ة الرسالة المقصود من قراءة الرسائل أو تحليل محتواها لمعرفة ما الذي يتحدّثون عنه. فالرسائل المشفّرة بين الطرفين، وعلى الرغم من مرورها عبر السيرفرات (الخوادم)، لن تسمح للسيرفر بمعرفة محتواها. وبالتالي، عندما يمتلك السيرفر نافذة للكشف عن معلومات حول جزء كبير من الرسائل، لا يُعتبر الأمر حينئذٍ تشفيراً تاماً بين الطرفين. وفي هذه الحالة، في حين لن تستطيع "آبل" رؤية الصور المرسَلة من قبل المستخدم/ة أو الواردة إليه/ا، غير أنّها أنشأت بالفعل تصنيفاً يفحص الصور ويمكنه أن يرسل إشعارات إلى الأهل. وعليه، قد يصبح من الممكن لشركة "آبل" أن تضيف بيانات تدريبية إلى نظام التصنيف على أجهزة المستخدمين/ات، أو أن ترسل إشعارات إلى جمهور أوسع، مما يسهّل عملية قمع الخطاب وارتكاب الأخطاء بحقّه.
وحتّى لو لم يحدث شيء ممّا سبق، فإنّ هذا النظام يوفّر للأهل الذين لا يدركون مصلحة أولادهم الفضلى طريقةً إضافيةً لمراقبتهم والتحكّم بهم، ممّا يحدّ من قدرة الإنترنت على توسيع آفاق هؤلاء الأطفال الذين قد تكون حياتهم محصورة لولاه. وليس من المستبعد أن تُستغلّ ميزة "المشاركة العائلية" من قبل الشركاء الذين يسيؤون المعاملة كشكلٍ من أشكال التعقّب.
يمتلك الناس الحقّ في التواصل بكلّ خصوصية ومن دون أيّ رقابة أو أبواب خلفية مشرّعة على محادثاتهم/ن، حتّى عندما يكونون من القصّر، وينبغي لشركة "آبل" أن تتّخذ القرار المناسب: إغلاق هذه الأبواب الخلفية وإبعادها عن أجهزة المستخدمين/ات.
TELL APPLE: DON'T SCAN OUR PHONES
Read further on this topic: