جدول المحتويات:
- "التنبيه الكبير" - مصمم بشكل سيء لحل المشكلات
- تقرير المصير الرقمي عن طريق "الحق في نسخة"
- المجتمع الرقمي الديمقراطي
- التقنيات الديمقراطية والابتكار المسؤول
- محو الأمية بشأن المخاطر الرقمية
- الأخلاق: البيانات الضخمة للصالح العام وللإنسانية
- القياس والتحليل والتحسين: عندما تتولى الآلات الذكية السيطرة المجتمعية

فيديو: هل تنجو الديمقراطية من البيانات الضخمة والذكاء الاصطناعي؟

نحن في وسط ثورة تكنولوجية من شأنها أن تغير الطريقة التي يتم بها تنظيم المجتمع. يجب أن نتخذ القرارات الصحيحة الآن.

ملاحظة المحرر: ظهر هذا المقال لأول مرة في Spektrum der Wissenschaft ، المنشور الشقيق لـ Scientific American ، باسم "D igitale Demokratie statt Datendiktatur.".
"التنوير هو خروج الإنسان من عدم النضج الذي فرضه على نفسه. عدم النضج هو عدم القدرة على استخدام فهم المرء دون توجيه من الآخر ".
-إيمانويل كانط ، "ما هو التنوير؟" (1784).
الثورة الرقمية على قدم وساق. كيف ستغير عالمنا؟ كمية البيانات التي ننتجها تتضاعف كل عام. بعبارة أخرى: في عام 2016 ، أنتجنا قدرًا كبيرًا من البيانات كما هو الحال في تاريخ البشرية بأكمله حتى عام 2015. كل دقيقة ننتج مئات الآلاف من عمليات البحث على Google ومنشورات Facebook. تحتوي على معلومات تكشف كيف نفكر ونشعر. وسرعان ما سيتم توصيل الأشياء من حولنا ، وربما حتى ملابسنا ، بالإنترنت أيضًا. تشير التقديرات إلى أنه في غضون 10 سنوات سيكون هناك 150 مليار مستشعر قياس متصل بالشبكة ، أي 20 مرة أكثر من الأشخاص على الأرض. بعد ذلك ، ستتضاعف كمية البيانات كل 12 ساعة. تحاول العديد من الشركات بالفعل تحويل هذه البيانات الضخمة إلى أموال ضخمة.
كل شيء سيصبح ذكيا. قريبًا لن يكون لدينا هواتف ذكية فحسب ، بل سيكون لدينا أيضًا منازل ذكية ومصانع ذكية ومدن ذكية. هل نتوقع أيضًا أن تؤدي هذه التطورات إلى دول ذكية وكوكب أكثر ذكاءً ؟.
إن مجال الذكاء الاصطناعي ، في الواقع ، يحقق تقدمًا مذهلاً. على وجه الخصوص ، يساهم في أتمتة تحليل البيانات. لم يعد الذكاء الاصطناعي مبرمجًا سطريًا ، ولكنه الآن قادر على التعلم ، وبالتالي تطوير نفسه باستمرار. في الآونة الأخيرة ، قامت خوارزمية DeepMind من Google بتعليم نفسها كيفية الفوز بـ 49 لعبة Atari. يمكن للخوارزميات الآن التعرف على اللغة والأنماط المكتوبة بخط اليد مثل البشر تقريبًا وحتى إكمال بعض المهام بشكل أفضل منهم. يمكنهم وصف محتويات الصور ومقاطع الفيديو. اليوم يتم تنفيذ 70٪ من جميع المعاملات المالية بواسطة الخوارزميات. يتم إنشاء محتوى الأخبار تلقائيًا جزئيًا. كل هذا له عواقب اقتصادية جذرية: في السنوات العشر إلى العشرين القادمة ، سيتعرض نصف وظائف اليوم للتهديد من قبل الخوارزميات. 40٪ من أكبر 500 شركة اليوم ستختفي خلال عقد من الزمان.
من المتوقع أن تتجاوز الحواسيب العملاقة قريبًا القدرات البشرية في جميع المجالات تقريبًا - في مكان ما بين عامي 2020 و 2060. وقد بدأ الخبراء في قرع أجراس الإنذار. حذر أصحاب الرؤى التكنولوجية ، مثل إيلون ماسك من شركة تيسلا موتورز ، وبيل جيتس من شركة مايكروسوفت ، وستيف وزنياك المؤسس المشارك لشركة أبل ، من أن الذكاء الفائق يمثل خطرًا خطيرًا على البشرية ، وربما حتى أكثر خطورة من الأسلحة النووية.
هل هذا قلق؟
هناك شيء واحد واضح: الطريقة التي ننظم بها الاقتصاد والمجتمع ستتغير بشكل جذري. إننا نشهد أكبر تحول منذ نهاية الحرب العالمية الثانية. بعد أتمتة الإنتاج وإنشاء سيارات ذاتية القيادة ، يأتي دور أتمتة المجتمع. وبهذا ، يقف المجتمع عند مفترق طرق ، والذي يعد بفرص عظيمة ، ولكنه أيضًا بمخاطر كبيرة. إذا اتخذنا قرارات خاطئة فقد يهدد ذلك أعظم إنجازاتنا التاريخية.
في الأربعينيات من القرن الماضي ، اخترع عالم الرياضيات الأمريكي نوربرت وينر (1894–1964) علم التحكم الآلي. ووفقًا له ، يمكن التحكم في سلوك الأنظمة من خلال ردود الفعل المناسبة. وسرعان ما تخيل بعض الباحثين السيطرة على الاقتصاد والمجتمع وفق هذا المبدأ الأساسي ، لكن التكنولوجيا اللازمة لم تكن متوفرة في ذلك الوقت.
اليوم ، يُنظر إلى سنغافورة على أنها مثال ممتاز لبرنامج أصبح عامًا ، يُظهر الفحص الشامل لاستخدام الجميع للإنترنت. هل أصبح الأخ الأكبر حقيقة واقعة الآن ؟.
مجتمع مبرمج ، مواطنون مبرمجون
بدأ كل شيء بدون ضرر. بدأت محركات البحث ومنصات التوصية في تقديم اقتراحات مخصصة للمنتجات والخدمات. تستند هذه المعلومات إلى البيانات الشخصية والبيانات الوصفية التي تم جمعها من عمليات البحث السابقة والمشتريات وسلوك التنقل ، فضلاً عن التفاعلات الاجتماعية. على الرغم من أن هوية المستخدم محمية رسميًا ، إلا أنه يمكن ، عمليًا ، استنتاجها بسهولة تامة. اليوم ، تعرف الخوارزميات جيدًا ما نفعله وما نفكر فيه وكيف نشعر به - وربما أفضل من أصدقائنا وعائلتنا أو حتى أنفسنا. غالبًا ما تكون التوصيات التي نقدمها مناسبة جدًا لدرجة أن القرارات الناتجة تبدو كما لو كانت قراراتنا ، على الرغم من أنها في الواقع ليست قراراتنا. في الواقع ، يتم التحكم فينا عن بعد بنجاح أكبر بهذه الطريقة. كلما زادت معرفتنا بنا ، قل احتمال أن تكون خياراتنا حرة وغير محددة سلفًا من قبل الآخرين.
لكنها لن تتوقف عند هذا الحد. تتجه بعض منصات البرامج نحو "الحوسبة المقنعة". في المستقبل ، باستخدام تقنيات معالجة متطورة ، ستتمكن هذه المنصات من توجيهنا خلال مسارات عمل كاملة ، سواء كان ذلك لتنفيذ عمليات عمل معقدة أو لإنشاء محتوى مجاني لمنصات الإنترنت ، والتي تكسب الشركات منها المليارات. يذهب الاتجاه من برمجة أجهزة الكمبيوتر إلى برمجة الناس.
تزداد شعبية هذه التقنيات أيضًا في عالم السياسة. تحت عنوان "التنبيه" ، وعلى نطاق واسع ، تحاول الحكومات توجيه المواطنين نحو سلوك أكثر صحة أو أكثر صداقة للبيئة عن طريق "التنبيه" - وهو شكل حديث من الأبوة. لا تهتم الحكومة الجديدة المهتمة بما نقوم به فحسب ، بل تريد أيضًا التأكد من قيامنا بالأشياء التي تعتبرها صحيحة. العبارة السحرية هي "التنبيه الكبير" ، وهو مزيج من البيانات الضخمة مع التنبيه. بالنسبة للكثيرين ، يبدو أن هذا نوع من الصولجان الرقمي الذي يسمح للفرد بحكم الجماهير بكفاءة ، دون الحاجة إلى إشراك المواطنين في العمليات الديمقراطية. هل يمكن لهذا أن يتغلب على المصالح الخاصة ويحسن مسار العالم؟ إذا كان الأمر كذلك ، فيمكن أن يحكم المواطنون من قبل ، محكوم عليهم بالفشل بسبب تعقيد المشكلة. ديناميات تشكيل الآراء مليئة بالمفاجآت. لا أحد يعرف أفضل طريقة لاستخدام العصا السحرية الرقمية ، أي تقنية الدفع المتلاعبة. غالبًا ما يكون الإجراء الصحيح أو الخاطئ واضحًا فقط بعد ذلك. خلال وباء إنفلونزا الخنازير الألماني في عام 2009 ، على سبيل المثال ، تم تشجيع الجميع على الذهاب للتطعيم. ومع ذلك ، نحن نعلم الآن أن نسبة معينة من أولئك الذين تلقوا التحصين أصيبوا بمرض غير عادي ، وهو الخدار. لحسن الحظ ، لم يكن هناك المزيد من الناس الذين اختاروا التطعيم!.
مثال آخر هو المحاولة الأخيرة لمقدمي التأمين الصحي لتشجيع زيادة التمارين من خلال توزيع أساور اللياقة الذكية ، بهدف تقليل كمية أمراض القلب والأوعية الدموية لدى السكان ؛ ولكن في النهاية ، قد يؤدي هذا إلى المزيد من عمليات الورك. في نظام معقد ، مثل المجتمع ، يؤدي التحسن في منطقة ما بشكل شبه حتمي إلى تدهور في منطقة أخرى. وبالتالي ، يمكن أن تكون التدخلات واسعة النطاق في بعض الأحيان أخطاء جسيمة.
بغض النظر عن ذلك ، سيحاول المجرمون والإرهابيون والمتطرفون السيطرة على العصا السحرية الرقمية عاجلاً أم آجلاً - وربما حتى بدون أن نلاحظ ذلك. تم اختراق جميع الشركات والمؤسسات تقريبًا ، حتى البنتاغون والبيت الأبيض ووكالة الأمن القومي.
تظهر مشكلة أخرى عندما تنقص الشفافية والرقابة الديمقراطية: تآكل النظام من الداخل. يمكن أن تتأثر خوارزميات البحث وأنظمة التوصية. يمكن للشركات المزايدة على مجموعات معينة من الكلمات للحصول على نتائج أفضل. من المحتمل أن تكون الحكومات قادرة على التأثير على النتائج أيضًا. خلال الانتخابات ، قد يدفعون الناخبين المترددين نحو دعمهم - وهو تلاعب يصعب اكتشافه. لذلك ، من يسيطر على هذه التكنولوجيا يمكنه الفوز بالانتخابات بدفع نفسه إلى السلطة.
تتفاقم هذه المشكلة بسبب حقيقة أنه في العديد من البلدان ، يمتلك محرك بحث واحد أو منصة وسائط اجتماعية واحدة حصة سوقية مهيمنة. يمكن أن تؤثر بشكل حاسم على الجمهور وتتدخل في هذه البلدان عن بعد. على الرغم من أن حكم محكمة العدل الأوروبية الصادر في 6 أكتوبر 2015 يحد من التصدير غير المقيد للبيانات الأوروبية ، إلا أن المشكلة الأساسية لم يتم حلها داخل أوروبا ، وحتى في أماكن أخرى.
ما الآثار الجانبية غير المرغوب فيها التي يمكن أن نتوقعها؟ من أجل أن يظل التلاعب دون أن يلاحظه أحد ، يتطلب الأمر ما يسمى بتأثير الرنين - اقتراحات التي يتم تخصيصها بشكل كافٍ لكل فرد. بهذه الطريقة ، يتم تعزيز الاتجاهات المحلية تدريجياً عن طريق التكرار ، مما يؤدي إلى "فقاعة التصفية" أو "تأثير غرفة الصدى": في النهاية ، كل ما قد تحصل عليه هو انعكاس آرائك عليك. يؤدي هذا إلى الاستقطاب الاجتماعي ، مما يؤدي إلى تكوين مجموعات منفصلة لم تعد تفهم بعضها البعض وتجد نفسها في صراع متزايد مع بعضها البعض. بهذه الطريقة ، يمكن للمعلومات الشخصية أن تدمر التماسك الاجتماعي عن غير قصد. يمكن ملاحظة ذلك حاليًا في السياسة الأمريكية ، حيث يتباعد الديموقراطيون والجمهوريون بشكل متزايد ، بحيث تصبح التسويات السياسية شبه مستحيلة. والنتيجة هي تفكك المجتمع ، بل وربما تفككه.
بسبب تأثير الرنين ، لا يمكن إحداث تغيير واسع النطاق في الرأي في المجتمع إلا ببطء وبشكل تدريجي. تحدث التأثيرات مع تأخير زمني ، ولكن أيضًا لا يمكن التراجع عنها بسهولة. من الممكن ، على سبيل المثال ، أن يخرج الاستياء من الأقليات أو المهاجرين عن السيطرة ؛ الكثير من المشاعر القومية يمكن أن يسبب التمييز والتطرف والصراع.
ربما يكون الأمر الأكثر أهمية هو حقيقة أن الأساليب المتلاعبة تغير الطريقة التي نتخذ بها قراراتنا. إنها تتجاوز الإشارات الثقافية والاجتماعية ذات الصلة ، على الأقل مؤقتًا. باختصار ، يمكن أن يتسبب الاستخدام الواسع النطاق لأساليب التلاعب في أضرار اجتماعية خطيرة ، بما في ذلك إضفاء الطابع الوحشي على السلوك في العالم الرقمي. ومن يتحمل المسؤولية عن ذلك؟.
قضايا قانونية
وهذا يثير قضايا قانونية لا ينبغي تجاهلها ، نظرًا للغرامات الضخمة ضد شركات التبغ والبنوك وتكنولوجيا المعلومات وشركات السيارات على مدى السنوات القليلة الماضية. لكن ما هي القوانين ، إن وجدت ، التي يمكن انتهاكها؟ بادئ ذي بدء ، من الواضح أن التقنيات المتلاعبة تقيد حرية الاختيار. إذا كان التحكم عن بعد في سلوكنا يعمل بشكل مثالي ، فسنكون أساسًا عبيدًا رقميًا ، لأننا سننفذ فقط القرارات التي اتخذها الآخرون بالفعل من قبل. بالطبع ، التقنيات المتلاعبة فعالة جزئيًا فقط. ومع ذلك ، فإن حريتنا تختفي ببطء ، ولكن بالتأكيد - في الواقع ، ببطء بدرجة كافية بحيث لم يكن هناك مقاومة تذكر من السكان ، حتى الآن.
يبدو أن رؤى المنور العظيم إيمانويل كانط وثيقة الصلة بالموضوع هنا. من بين أمور أخرى ، أشار إلى أن الدولة التي تحاول تحديد سعادة مواطنيها هي طاغية. ومع ذلك ، لا يمكن ممارسة حق الفرد في التنمية الذاتية إلا من قبل أولئك الذين يتحكمون في حياتهم ، مما يفترض مسبقًا تقرير المصير بالمعلومات. هذا ليس أقل من حقوقنا الدستورية الأكثر أهمية. لا يمكن للديمقراطية أن تعمل بشكل جيد ما لم يتم احترام تلك الحقوق. إذا تم تقييدهم ، فهذا يقوض دستورنا ومجتمعنا والدولة.
نظرًا لأن التقنيات المتلاعبة مثل وظيفة التنبيه الكبيرة بطريقة مماثلة للإعلان المخصص ، تتأثر القوانين الأخرى أيضًا. يجب وضع علامة على s على هذا النحو ويجب ألا تكون مضللة. كما لا يُسمح لهم باستخدام بعض الحيل النفسية مثل المنبهات اللاشعورية. هذا هو السبب في أنه يُحظر عرض مشروب غازي في فيلم لجزء من الثانية ، لأن الإعلان حينئذٍ لا يكون محسوسًا بشكل واعٍ بينما قد يظل له تأثير اللاوعي. علاوة على ذلك ، فإن عملية جمع البيانات الشخصية ومعالجتها على نطاق واسع لا تتوافق بالتأكيد مع قوانين حماية البيانات المعمول بها في البلدان الأوروبية وأماكن أخرى.
أخيرًا ، تعتبر شرعية التسعير المخصص أمرًا مشكوكًا فيه ، لأنه قد يكون إساءة استخدام للمعلومات الداخلية. ومن الجوانب الأخرى ذات الصلة الانتهاكات المحتملة لمبادئ المساواة وعدم التمييز - وقوانين المنافسة ، حيث لم يعد الوصول الحر إلى الأسواق وشفافية الأسعار مضمونين. الوضع مشابه للشركات التي تبيع منتجاتها بسعر أرخص في بلدان أخرى ، لكن حاول منع عمليات الشراء عبر هذه البلدان. أدت مثل هذه الحالات إلى غرامات عقابية عالية في الماضي.
لا يمكن مقارنة الإعلانات والتسعير المخصصين بالإعلان الكلاسيكي أو كوبونات الخصم ، لأن الأخيرة غير محددة ولا تنتهك خصوصيتنا أيضًا بهدف الاستفادة من نقاط ضعفنا النفسية والقضاء على تفكيرنا النقدي.
علاوة على ذلك ، دعونا لا ننسى أنه في العالم الأكاديمي ، حتى تجارب القرار غير المؤذية تعتبر تجارب على البشر ، والتي يجب أن توافق عليها لجنة الأخلاقيات المسؤولة علنًا. في كل حالة ، يُطلب من الأشخاص المعنيين إعطاء موافقتهم المستنيرة. على النقيض من ذلك ، نقرة واحدة لتأكيد أننا نتفق مع محتويات اتفاقية "شروط الاستخدام" المكونة من مائة صفحة (وهذا هو الحال هذه الأيام للعديد من منصات المعلومات) غير كافية على الإطلاق.
ومع ذلك ، فإن التجارب على التقنيات المتلاعبة ، مثل التنبيه ، يتم إجراؤها مع ملايين الأشخاص ، دون إبلاغهم ، وبدون شفافية وبدون قيود أخلاقية. حتى الشبكات الاجتماعية الكبيرة مثل Facebook أو منصات المواعدة عبر الإنترنت مثل OkCupid اعترفت علنًا بإجراء هذه الأنواع من التجارب الاجتماعية. إذا أردنا تجنب البحث غير المسؤول عن الإنسان والمجتمع (فكر فقط في مشاركة علماء النفس في فضائح التعذيب في الماضي القريب) ، فنحن بحاجة ماسة إلى فرض معايير عالية ، خاصة معايير الجودة العلمية وقواعد السلوك المشابهة لـ قسم أبقراط ، هل تم اختراق تفكيرنا وحريتنا وديمقراطيتنا؟
لنفترض أنه كان هناك آلة فائقة الذكاء تتمتع بمعرفة إلهية وقدرات خارقة: هل سنتبع تعليماتها؟ يبدو هذا ممكنا. لكن إذا فعلنا ذلك ، فإن التحذيرات التي عبر عنها إيلون ماسك وبيل جيتس وستيف وزنياك وستيفن هوكينج وآخرين ستصبح صحيحة: كانت أجهزة الكمبيوتر ستسيطر على العالم. يجب أن نكون واضحين أن الذكاء الخارق قد يرتكب أخطاءً أو يكذب أو يسعى وراء مصالح أنانية أو يتم التلاعب به. وفوق كل شيء ، لا يمكن مقارنتها بالذكاء الجماعي الموزع لجميع السكان.
إن فكرة استبدال تفكير جميع المواطنين بمجموعة حاسوبية ستكون فكرة سخيفة ، لأن ذلك من شأنه أن يقلل بشكل كبير من تنوع ونوعية الحلول التي يمكن تحقيقها. من الواضح بالفعل أن مشاكل العالم لم تنخفض على الرغم من التدفق الأخير للبيانات واستخدام المعلومات الشخصية - بل على العكس! السلام العالمي هش. يمكن أن يؤدي التغيير طويل الأمد في المناخ إلى أكبر خسارة في الأنواع منذ انقراض الديناصورات. كما أننا بعيدون عن التغلب على الأزمة المالية وتأثيرها على الاقتصاد. تشير التقديرات إلى أن الجريمة السيبرانية تتسبب في خسارة سنوية قدرها 3 تريليونات دولار. تستعد الدول والإرهابيون للحرب السيبرانية.
في عالم سريع التغير لا يمكن للذكاء الخارق أبدًا اتخاذ قرارات مثالية (انظر الشكل 1): التعقيد النظامي يتزايد بشكل أسرع من أحجام البيانات ، التي تنمو بشكل أسرع من القدرة على معالجتها ، ومعدلات نقل البيانات محدودة. وينتج عن ذلك تجاهل المعرفة والحقائق المحلية المهمة للوصول إلى حلول جيدة. غالبًا ما تكون طرق التحكم المحلية الموزعة متفوقة على الأساليب المركزية ، خاصة في الأنظمة المعقدة التي تكون سلوكياتها شديدة التغير ، وبالكاد يمكن التنبؤ بها وغير قادرة على التحسين في الوقت الفعلي. هذا صحيح بالفعل للتحكم في حركة المرور في المدن ، ولكنه ينطبق بشكل أكبر على الأنظمة الاجتماعية والاقتصادية لعالمنا المعولم والمتشابك للغاية.
علاوة على ذلك ، هناك خطر يتمثل في أن التلاعب بالقرارات بواسطة خوارزميات قوية يقوض أساس "الذكاء الجماعي" ، والذي يمكن أن يتكيف بمرونة مع تحديات عالمنا المعقد. لكي يعمل الذكاء الجماعي ، يجب أن تتم عمليات البحث عن المعلومات واتخاذ القرارات من قبل الأفراد بشكل مستقل. إذا كانت أحكامنا وقراراتنا محددة مسبقًا بواسطة الخوارزميات ، فإن هذا يؤدي حقًا إلى غسل دماغ الناس. يتم تخفيض رتبة الكائنات الذكية إلى مجرد متلقين للأوامر ، الذين يستجيبون تلقائيًا للمنبهات.
بعبارة أخرى: المعلومات الشخصية تبني "فقاعة ترشيح" من حولنا ، نوع من السجن الرقمي لتفكيرنا. كيف يمكن أن يكون الإبداع والتفكير "خارج الصندوق" ممكنًا في ظل هذه الظروف؟ في نهاية المطاف ، سيؤدي نظام مركزي للتحكم السلوكي والاجتماعي التكنوقراطي باستخدام نظام معلومات فائق الذكاء إلى شكل جديد من الديكتاتورية. لذلك ، فإن المجتمع الخاضع للسيطرة من أعلى إلى أسفل ، والذي يأتي تحت شعار "الأبوية الليبرالية" ، ليس من حيث المبدأ سوى نظام شمولي بغطاء وردي.
في الواقع ، يهدف التنبيه الكبير إلى مواءمة تصرفات العديد من الأشخاص ، والتلاعب بوجهات نظرهم وقراراتهم. وهذا يضعها في ساحة الدعاية والعجز المستهدف للمواطن بالرقابة السلوكية. نتوقع أن تكون العواقب وخيمة على المدى الطويل ، خاصة عند النظر في التأثير المذكور أعلاه لتقويض الثقافة.
مجتمع رقمي أفضل ممكن
على الرغم من المنافسة العالمية الشرسة ، سيكون من الحكمة على الديمقراطيات ألا تلقي بإنجازات قرون عديدة في البحر. على عكس الأنظمة السياسية الأخرى ، تتمتع الديمقراطيات الغربية بميزة تعلمتها بالفعل للتعامل مع التعددية والتنوع. الآن عليهم فقط تعلم كيفية الاستفادة منها أكثر.
في المستقبل ، ستقود تلك الدول التي ستصل إلى توازن صحي بين الأعمال والحكومة والمواطنين. وهذا يتطلب تفكيرًا شبكيًا وإنشاء نظام إيكولوجي للمعلومات والابتكار والمنتج والخدمة. من أجل العمل بشكل جيد ، ليس من المهم فقط خلق فرص للمشاركة ، ولكن أيضًا لدعم التنوع. لأنه لا توجد طريقة لتحديد أفضل وظيفة للهدف: هل يجب علينا تحسين الناتج القومي الإجمالي للفرد أو الاستدامة؟ قوة أم سلام؟ السعادة أم العمر المتوقع؟ في كثير من الأحيان ، ما كان يمكن أن يكون أفضل لا يُعرف إلا بعد الحقيقة. من خلال السماح بالسعي لتحقيق أهداف مختلفة ، يصبح المجتمع التعددي أكثر قدرة على التعامل مع مجموعة التحديات غير المتوقعة القادمة.
التحكم المركزي من أعلى إلى أسفل هو حل من الماضي ، وهو مناسب فقط للأنظمة منخفضة التعقيد.لذلك فالأنظمة الفيدرالية وقرارات الأغلبية هي حلول الحاضر. مع التطور الاقتصادي والثقافي ، سيستمر التعقيد الاجتماعي في الارتفاع. لذلك ، الحل للمستقبل هو الذكاء الجماعي. وهذا يعني أن علوم المواطن والتعهيد الجماعي ومنصات المناقشة عبر الإنترنت هي مناهج جديدة مهمة للغاية لتوفير المزيد من المعرفة والأفكار والموارد.
يتطلب الذكاء الجماعي درجة عالية من التنوع. ومع ذلك ، يتم تقليل هذا من خلال أنظمة المعلومات الشخصية الحالية ، والتي تعزز الاتجاهات.
التنوع الاجتماعي لا يقل أهمية عن التنوع البيولوجي. إنه لا يغذي الذكاء الجماعي والابتكار فحسب ، بل يغذي أيضًا المرونة - قدرة مجتمعنا على التعامل مع الصدمات غير المتوقعة. الحد من التنوع الاجتماعي غالبًا ما يقلل أيضًا من وظائف وأداء الاقتصاد والمجتمع. هذا هو السبب في أن الأنظمة الشمولية غالبًا ما ينتهي بها المطاف في صراع مع جيرانها. تتمثل العواقب النموذجية طويلة المدى في عدم الاستقرار السياسي والحرب ، كما حدث مرارًا وتكرارًا عبر التاريخ. لذلك لا ينبغي النظر إلى التعددية والمشاركة في المقام الأول على أنها تنازلات للمواطنين ، ولكن باعتبارهما شرطين أساسيين وظيفيين لمجتمعات مزدهرة ومعقدة وحديثة.
باختصار ، يمكن القول إننا الآن على مفترق طرق (انظر الشكل 2). تعمل البيانات الضخمة والذكاء الاصطناعي وعلم التحكم الآلي والاقتصاد السلوكي على تشكيل مجتمعنا - للأفضل أو للأسوأ. إذا كانت هذه التقنيات المنتشرة غير متوافقة مع القيم الأساسية لمجتمعنا ، فسوف تتسبب عاجلاً أم آجلاً في أضرار جسيمة. يمكن أن تؤدي إلى مجتمع آلي بسمات شمولية. في أسوأ الحالات ، يتحكم الذكاء الاصطناعي المركزي في ما نعرفه وما نفكر فيه وكيف نتصرف. نحن في اللحظة التاريخية ، حيث يتعين علينا اتخاذ قرار بشأن الطريق الصحيح - وهو المسار الذي يتيح لنا جميعًا الاستفادة من الثورة الرقمية. لذلك فإننا نحث على الالتزام بالمبادئ الأساسية التالية:.
1. زيادة اللامركزية في وظيفة نظم المعلومات ؛
2. لدعم تقرير المصير المعلوماتي والمشاركة ؛.
3.تحسين الشفافية لتحقيق ثقة أكبر.
4. للحد من تشويه وتلوث المعلومات ؛.
5. لتمكين عوامل تصفية المعلومات التي يتحكم فيها المستخدم ؛.
6. لدعم التنوع الاجتماعي والاقتصادي.
7. لتحسين قابلية التشغيل البيني والفرص التعاونية ؛.
8.إنشاء مساعدين رقميين وأدوات تنسيق ؛.
9. لدعم الذكاء الجماعي ، و.
10. لتعزيز السلوك المسؤول للمواطنين في العالم الرقمي من خلال محو الأمية الرقمية والتنوير.
باتباع هذه الأجندة الرقمية ، سنستفيد جميعًا من ثمار الثورة الرقمية: الاقتصاد والحكومة والمواطنون على حد سواء. ما الذي ننتظره؟.
إستراتيجية العصر الرقمي
البيانات الضخمة والذكاء الاصطناعي هي بلا شك ابتكارات مهمة. لديهم إمكانات هائلة لتحفيز القيمة الاقتصادية والتقدم الاجتماعي ، من الرعاية الصحية الشخصية إلى المدن المستدامة. ومع ذلك ، فمن غير المقبول تمامًا استخدام هذه التقنيات لإعاقة المواطن. التنبيه الكبير وإساءة استخدام المواطنين للبيانات الشخصية التي تم جمعها مركزيًا للتحكم في السلوك بطرق شمولية بطبيعتها. هذا لا يتعارض فقط مع حقوق الإنسان والمبادئ الديمقراطية ، ولكنه أيضًا غير مناسب لإدارة المجتمعات الحديثة والمبتكرة. من أجل حل المشاكل الحقيقية للعالم ، هناك حاجة إلى مناهج أفضل بكثير في مجالات المعلومات وإدارة المخاطر. يوفر مجال البحث الخاص بالابتكار المسؤول ومبادرة "البيانات من أجل الإنسانية" (انظر "البيانات الضخمة لصالح المجتمع والإنسانية") إرشادات حول كيفية استخدام البيانات الضخمة والذكاء الاصطناعي لصالح المجتمع.
ماذا نستطيع ان نفعل الآن؟ أولاً ، حتى في أوقات الثورة الرقمية هذه ، يجب حماية الحقوق الأساسية للمواطنين ، لأنها شرط أساسي مسبق لمجتمع ديمقراطي وظيفي حديث. وهذا يتطلب إنشاء عقد اجتماعي جديد ، يقوم على الثقة والتعاون ، يرى المواطنين والعملاء ليس كعقبات أو موارد يتم استغلالها ، ولكن كشركاء. لهذا ، سيتعين على الدولة توفير إطار تنظيمي مناسب ، يضمن تصميم التقنيات واستخدامها بطرق متوافقة مع الديمقراطية. هذا يجب أن يضمن تقرير المصير المعلوماتي ، ليس فقط من الناحية النظرية ، ولكن أيضًا من الناحية العملية ، لأنه شرط مسبق لنا أن نعيش حياتنا بطريقة تقرير المصير ومسؤولة.
يجب أن يكون هناك أيضًا حق في الحصول على نسخة من البيانات الشخصية التي يتم جمعها عنا. يجب أن ينظم القانون أنه يجب إرسال هذه المعلومات تلقائيًا ، بتنسيق موحد ، إلى مخزن بيانات شخصي ، يمكن للأفراد من خلاله إدارة استخدام بياناتهم (يحتمل أن يكون مدعومًا من قبل مساعدين رقميين معينين يعتمدون على الذكاء الاصطناعي). لضمان قدر أكبر من الخصوصية ومنع التمييز ، يجب أن يعاقب القانون على الاستخدام غير المصرح به للبيانات. سيتمكن الأفراد بعد ذلك من تحديد من يمكنه استخدام معلوماتهم ولأي غرض وإلى متى. علاوة على ذلك ، ينبغي اتخاذ التدابير المناسبة لضمان تخزين البيانات وتبادلها بشكل آمن.
يمكن أن تساعد أنظمة السمعة المتطورة التي تراعي معايير متعددة في زيادة جودة المعلومات التي تستند إليها قراراتنا. إذا كانت مرشحات البيانات والتوصيات وخوارزميات البحث قابلة للاختيار والتهيئة من قبل المستخدم ، فيمكننا النظر في المشكلات من وجهات نظر متعددة ، وسنكون أقل عرضة للتلاعب بالمعلومات المشوهة.
بالإضافة إلى ذلك ، نحن بحاجة إلى إجراءات شكاوى فعالة للمواطنين ، وكذلك عقوبات فعالة لانتهاك القواعد. أخيرًا ، من أجل خلق شفافية وثقة كافيين ، يجب أن تعمل المؤسسات العلمية الرائدة كأمناء للبيانات والخوارزميات التي تتهرب حاليًا من السيطرة الديمقراطية. سيتطلب هذا أيضًا مدونة سلوك مناسبة ، والتي ، على الأقل ، يجب أن يتبعها أي شخص لديه إمكانية الوصول إلى البيانات والخوارزميات الحساسة - وهو نوع من قسم أبقراط لمتخصصي تكنولوجيا المعلومات.
علاوة على ذلك ، سنحتاج إلى أجندة رقمية لوضع الأساس لوظائف جديدة ومستقبل المجتمع الرقمي. نستثمر كل عام المليارات في قطاع الزراعة والبنية التحتية العامة والمدارس والجامعات - لصالح الصناعة وقطاع الخدمات.
ما هي الأنظمة العامة التي نحتاجها لضمان نجاح المجتمع الرقمي؟ أولاً ، هناك حاجة إلى مفاهيم تعليمية جديدة تمامًا. يجب أن يركز هذا على التفكير النقدي والإبداع والابتكار وريادة الأعمال أكثر من التركيز على إنشاء عمال معياريين (سيتم تنفيذ مهامهم في المستقبل بواسطة الروبوتات وخوارزميات الكمبيوتر). يجب أن يوفر التعليم أيضًا فهمًا للاستخدام المسؤول والحاسم للتقنيات الرقمية ، لأن المواطنين يجب أن يكونوا على دراية بكيفية تشابك العالم الرقمي مع العالم المادي. من أجل ممارسة حقوقهم بشكل فعال ومسؤول ، يجب أن يكون لدى المواطنين فهم لهذه التقنيات ، ولكن أيضًا لماهية الاستخدامات غير المشروعة. لهذا السبب هناك حاجة متزايدة للعلوم والصناعة والسياسة والمؤسسات التعليمية لجعل هذه المعرفة متاحة على نطاق واسع.
ثانيًا ، هناك حاجة إلى منصة تشاركية تسهل على الأشخاص العمل لحسابهم الخاص ، وإنشاء مشاريعهم الخاصة ، والعثور على شركاء التعاون ، ومنتجات السوق والخدمات في جميع أنحاء العالم ، وإدارة الموارد ودفع الضرائب ومساهمات الضمان الاجتماعي (نوع من الاقتصاد التشاركي للجميع). لاستكمال ذلك ، يمكن للبلدات وحتى القرى إنشاء مراكز للمجتمعات الرقمية الناشئة (مثل مختبرات فاب) ، حيث يمكن تطوير الأفكار بشكل مشترك واختبارها مجانًا. بفضل النهج المفتوح والمبتكر الموجود في هذه المراكز ، يمكن تعزيز الابتكار التعاوني الهائل.
يمكن أن توفر أنواع معينة من المسابقات حوافز إضافية للابتكار ، وتساعد على زيادة ظهور الجمهور وتوليد الزخم لمجتمع رقمي تشاركي. يمكن أن تكون مفيدة بشكل خاص في تعبئة المجتمع المدني لضمان المساهمات المحلية في حل المشكلات العالمية (على سبيل المثال ، عن طريق "أولمبياد المناخ"). على سبيل المثال ، يمكن للمنصات التي تهدف إلى تنسيق الموارد النادرة أن تساعد في إطلاق العنان للإمكانيات الهائلة للاقتصاد الدائري والتشاركي ، والذي لا يزال غير مستغل إلى حد كبير.
مع الالتزام باستراتيجية البيانات المفتوحة ، ستعمل الحكومات والصناعة بشكل متزايد على إتاحة البيانات للعلم والاستخدام العام ، لتهيئة الظروف المناسبة لنظام بيئي فعال للمعلومات والابتكار يواكب تحديات عالمنا. ويمكن تشجيع ذلك من خلال التخفيضات الضريبية ، بنفس الطريقة التي مُنحت بها في بعض البلدان لاستخدام تقنيات صديقة للبيئة.
ثالثًا ، بناء "نظام عصبي رقمي" يديره المواطنون ، يمكن أن يفتح فرصًا جديدة لإنترنت الأشياء للجميع ويوفر قياسات بيانات في الوقت الفعلي متاحة للجميع. إذا أردنا استخدام الموارد بطريقة أكثر استدامة وإبطاء تغير المناخ ، فنحن بحاجة إلى قياس الآثار الجانبية الإيجابية والسلبية لتفاعلاتنا مع الآخرين وبيئتنا. باستخدام حلقات التغذية الراجعة المناسبة ، يمكن أن تتأثر الأنظمة بطريقة تحقق النتائج المرجوة عن طريق التنظيم الذاتي.
لكي ينجح هذا الأمر ، سنحتاج إلى أنظمة تحفيز وتبادل مختلفة ، متاحة لجميع المبتكرين الاقتصاديين والسياسيين والاجتماعيين. هذا يمكن أن يخلق أسواقًا جديدة تمامًا ، وبالتالي ، أيضًا ، أساس ازدهار جديد. إن إطلاق العنان للإمكانات غير المحدودة فعليًا للاقتصاد الرقمي يمكن تعزيزه بشكل كبير من خلال نظام مالي تعددي (على سبيل المثال ، العملات المتمايزة وظيفيًا) واللوائح الجديدة للتعويض عن الاختراعات.
للتعامل بشكل أفضل مع تعقيد وتنوع عالمنا المستقبلي ولتحويله إلى ميزة ، سنحتاج إلى مساعدين رقميين شخصيين. سيستفيد هؤلاء المساعدون الرقميون أيضًا من التطورات في مجال الذكاء الاصطناعي. في المستقبل ، يمكن توقع أن يتم بناء وإعادة تشكيل العديد من الشبكات التي تجمع بين الذكاء البشري والذكاء الاصطناعي ، حسب الحاجة. ومع ذلك ، لكي نحتفظ بالسيطرة على حياتنا ، يجب التحكم في هذه الشبكات بطريقة موزعة. على وجه الخصوص ، يجب على المرء أيضًا أن يكون قادرًا على تسجيل الدخول وتسجيل الخروج كما هو مطلوب.
المنصات الديمقراطية
يمكن أن تساعد "ويكيبيديا الثقافات" في النهاية على تنسيق الأنشطة المختلفة في عالم شديد التنوع وجعلها متوافقة مع بعضها البعض. من شأنه أن يجعل مبادئ النجاح الضمنية في الغالب لثقافات العالم صريحة ، بحيث يمكن دمجها بطرق جديدة. إن "مشروع الجينوم الثقافي" مثل هذا سيكون أيضًا نوعًا من مشروع السلام ، لأنه سيزيد من الوعي العام بقيمة التنوع الاجتماعي والثقافي. لقد عرفت الشركات العالمية منذ فترة طويلة أن الفرق المتنوعة ثقافيًا ومتعددة التخصصات هي أكثر نجاحًا من الفرق المتجانسة. ومع ذلك ، فإن الإطار المطلوب لجمع المعرفة والأفكار بكفاءة من الكثير من الناس من أجل إنشاء ذكاء جماعي لا يزال مفقودًا في العديد من الأماكن. لتغيير ذلك ، سيكون توفير منصات التداول عبر الإنترنت مفيدًا للغاية. يمكنهم أيضًا إنشاء الإطار اللازم لتحقيق ديمقراطية رقمية مطورة ، مع فرص مشاركة أكبر للمواطنين. هذا مهم ، لأن العديد من المشاكل التي تواجه العالم اليوم لا يمكن إدارتها إلا بمساهمات من المجتمع المدني.
قراءة متعمقة:
ACLU: نتيجة Orwellian Citizen ، نظام درجة الائتمان في الصين ، هو تحذير للأمريكيين ، http://www.computerworld.com/article/2990203/security/aclu-orwellian-citizen-score-chinas-credit-score-system-is -A-warning for-americans.html
البيانات الضخمة ، قابل الأخ الأكبر: الصين تبتكر الدولة الشمولية الرقمية. الآثار المقلقة لمشروعها الائتماني الاجتماعي. الإيكونوميست (17 ديسمبر 2016)..
هاريس ، س.المختبر الاجتماعي ، فورين بوليسي (29 يوليو 2014) ،
تونغ ، في. توقع كيف يفكر الناس ويتصرفون ، الابتكار الدولي ،
فولوديمير ، م ، كافوك أوغلو ، ك ، سيلفر ، دي ، وآخرون: التحكم على مستوى الإنسان من خلال التعلم المعزز العميق. في: Nature، 518، S. 529-533، 2015..
Frey، B. S. und Gallus، J: التنبيهات المفيدة والاستغلالية. في: التحليل الاقتصادي للقانون في المنحة القانونية الأوروبية. سبرينغر ، 2015..
جيجرينزر ، جي: حول الأدلة المفترضة للأبوية التحررية. في: مراجعة الفلسفة وعلم النفس 6 (3) ، س 361-383 ، 2015.
Grassegger، H. and Krogerus، M. Ich habe nur gezeigt، dass es die Bombe gibt [لقد أظهرت فقط وجود القنبلة]. مجلة داس (3. ديسمبر 2016)
هافن ، إي ، كوسمان ، دي أند براند ، إيه: تعاونيات البيانات الصحية - تمكين المواطنين. في: طرق المعلومات في الطب 53 (2) ، س 82-86 ، 2014.
هيلبينج ، د: أتمتة المجتمع هو التالي: كيف تنجو من الثورة الرقمية. CreateSpace ، 2015.
هيلبينج ، د: التفكير المستقبلي - مقالات حول البيانات الضخمة والثورة الرقمية ومجتمع السوق التشاركي. سبرينغر ، 2015.
Helbing، D. und Pournaras، E.: بناء الديمقراطية الرقمية. في: Nature 527، S. 33-34، 2015.
فان دن هوفن ، جيه ، فيرماس ، بي. und van den Poel، I: كتيب الأخلاق والقيم والتصميم التكنولوجي. سبرينغر ، 2015.
Zicari، R. und Zwitter، A: بيانات للإنسانية: رسالة مفتوحة. معمل البيانات الضخمة في فرانكفورت ، 13.07.2015. أ.زويتر: أخلاقيات البيانات الضخمة. في: البيانات الضخمة والمجتمع 1 (2) ، 2014.

بفضل البيانات الضخمة ، يمكننا الآن اتخاذ قرارات أفضل قائمة على الأدلة. ومع ذلك ، فإن مبدأ التحكم من أعلى إلى أسفل يفشل بشكل متزايد ، نظرًا لأن تعقيد المجتمع ينمو بطريقة متفجرة بينما نواصل ربط عالمنا بشبكات. ستصبح أساليب التحكم الموزعة أكثر أهمية من أي وقت مضى. فقط عن طريق الذكاء الجماعي سيكون من الممكن إيجاد الحلول المناسبة للتحديات المعقدة لعالمنا.

مجتمعنا على مفترق طرق: إذا تم التحكم في الخوارزميات الأكثر قوة من قبل عدد قليل من صانعي القرار وقللت من تقرير المصير ، فسنرجع إلى الإقطاعية 2.0 ، حيث ستضيع الإنجازات التاريخية المهمة. الآن ، ومع ذلك ، لدينا فرصة لاختيار الطريق إلى الديمقراطية الرقمية أو الديمقراطية 2.0 ، والتي ستفيدنا جميعًا (انظر أيضًا
أضواء على الصين: هل هذا ما يبدو عليه مستقبل المجتمع؟
كيف ستؤثر الرقابة السلوكية والاجتماعية على حياتنا؟ يعطي مفهوم درجة المواطن ، الذي يتم تنفيذه الآن في الصين ، فكرة. هناك ، يتم تصنيف جميع المواطنين على مقياس ترتيب أحادي البعد. كل ما يفعلونه يعطي نقاط زائد أو ناقص. هذا لا يهدف فقط إلى المراقبة الجماعية. تعتمد النتيجة على نقرات الفرد على الإنترنت وسلوكه السياسي الصحيح أم لا ، وتحدد شروط الائتمان الخاصة به ، ووصوله إلى وظائف معينة ، وتأشيرات السفر. لذلك ، فإن درجة المواطن تتعلق بالرقابة السلوكية والاجتماعية. حتى سلوك الأصدقاء والمعارف يؤثر على هذه النتيجة ، أي أن مبدأ مسؤولية العشيرة مطبق أيضًا: يصبح كل شخص وصيًا على الفضيلة ونوعًا من المخبرين المتطفلين في نفس الوقت ؛ المفكرين غير التقليديين معزولون. إذا تم نشر مبادئ مماثلة في البلدان الديمقراطية ، فلن يكون الأمر في نهاية المطاف مهمًا سواء كانت الدولة أو الشركات المؤثرة هي التي تضع القواعد. في كلتا الحالتين ، ستكون أركان الديمقراطية مهددة بشكل مباشر:.
إن تتبع وقياس جميع الأنشطة التي تترك آثارًا رقمية من شأنه أن يخلق مواطنًا "عارياً" تتدهور كرامته الإنسانية وخصوصيته تدريجياً.
- لن تكون القرارات حرة بعد الآن ، لأن الاختيار الخاطئ من منظور الحكومة أو الشركة لتحديد معايير نظام النقاط سيكون له عواقب سلبية. سيتم إلغاء استقلالية الفرد ، من حيث المبدأ.
- سيتم معاقبة كل خطأ صغير ولن يكون أحد غير مريب. سيصبح مبدأ افتراض البراءة بالية. حتى أن عمل الشرطة التنبؤية قد يؤدي إلى معاقبة الانتهاكات التي لم تحدث ، ولكن من المتوقع حدوثها فقط.
- نظرًا لأن الخوارزميات الأساسية لا يمكن أن تعمل خالية تمامًا من الخطأ ، فسيتم استبدال مبدأ الإنصاف والعدالة بنوع جديد من التعسف ، والذي بالكاد يكون الناس قادرين على الدفاع عن أنفسهم ضده.
- إذا تم تحديد الأهداف الفردية خارجيًا ، فسوف يتم القضاء على إمكانية التطور الذاتي الفردي ، وبالتالي ، التعددية الديمقراطية أيضًا.
- لن تكون الثقافة المحلية والأعراف الاجتماعية أساسًا للسلوك المناسب المعتمد على الموقف.
- إن السيطرة على المجتمع بوظيفة هدف ذات بعد واحد من شأنه أن يؤدي إلى مزيد من الصراعات ، وبالتالي إلى فقدان الأمن. قد يتوقع المرء عدم استقرار خطير ، كما رأينا في نظامنا المالي.
مثل هذه السيطرة على المجتمع ستبتعد عن المواطنين المسؤولين عن الذات إلى الأفراد بوصفهم تابعين ، مما يؤدي إلى الإقطاعية 2.0. هذا يتعارض تماما مع القيم الديمقراطية. لذلك فقد حان الوقت لتنوير 2.0 ، والذي من شأنه أن يغذي الديمقراطية 2.0 ، على أساس تقرير المصير الرقمي. وهذا يتطلب تقنيات ديمقراطية: أنظمة معلومات تتوافق مع المبادئ الديمقراطية - وإلا فإنها ستدمر مجتمعنا.
"التنبيه الكبير" - مصمم بشكل سيء لحل المشكلات
يمكن لمن لديه كميات كبيرة من البيانات أن يتلاعب بالناس بطرق خفية. لكن حتى صانعي القرار الخيرين قد يرتكبون أخطاء أكثر من الصواب ، كما يقول ديرك هيلبينج..
يجادل مؤيدو التنبيه بأن الناس لا يتخذون القرارات المثلى ، وبالتالي فمن الضروري مساعدتهم. تُعرف مدرسة التفكير هذه بالأبوية. ومع ذلك ، فإن التنبيه لا يختار طريقة إعلام الناس وإقناعهم. بل إنه يستغل الضعف النفسي ليقودنا إلى سلوكيات معينة ، أي أننا مخدوعون. يُطلق على النهج العلمي الذي يقوم عليه هذا النهج اسم "السلوكية" ، وهو في الواقع قديم منذ زمن طويل.
قبل عقود ، قام بورهوس فريدريك سكينر بتكييف الفئران والحمام والكلاب بالمكافآت والعقوبات (على سبيل المثال ، عن طريق إطعامهم أو استخدام الصدمات الكهربائية المؤلمة). يحاول المرء اليوم تكييف الناس بطرق مماثلة. بدلاً من صندوق سكينر ، نحن نعيش في "فقاعة ترشيح": مع المعلومات الشخصية يتم توجيه تفكيرنا. مع الأسعار المخصصة ، قد يتم معاقبتنا أو مكافأتنا ، على سبيل المثال ، مقابل النقرات (غير المرغوبة) على الإنترنت. أدى الجمع بين التنبيه بالبيانات الضخمة إلى شكل جديد من التنبيه قد نطلق عليه "التنبيه الكبير". تكشف الكمية المتزايدة من المعلومات الشخصية الخاصة بنا ، والتي يتم جمعها غالبًا دون موافقتنا ، عما نفكر فيه وكيف نشعر وكيف يمكن التلاعب بنا. يتم استغلال هذه المعلومات الداخلية للتلاعب بنا لاتخاذ خيارات لن نتخذها لولا ذلك ، أو لشراء بعض المنتجات باهظة الثمن أو تلك التي لا نحتاج إليها ، أو ربما لمنح تصويتنا لحزب سياسي معين.
ومع ذلك ، فإن التنبيه الكبير ليس مناسبًا لحل العديد من مشكلاتنا. هذا صحيح بشكل خاص للتحديات المرتبطة بالتعقيد في عالمنا. على الرغم من أن 90 دولة تستخدم التنبيه بالفعل ، إلا أنها لم تقلل من مشاكلنا المجتمعية - على العكس من ذلك. الاحتباس الحراري يتقدم. السلام العالمي هش والإرهاب آخذ في الازدياد. تنفجر الجريمة الإلكترونية ، كما أن الأزمة الاقتصادية وأزمة الديون لم يتم حلها في العديد من البلدان.
لا يوجد أيضًا حل لعدم كفاءة الأسواق المالية ، كما اعترف ريتشارد ثيلر ، خبير Nudging مؤخرًا. في رأيه ، إذا كانت الدولة ستسيطر على الأسواق المالية ، فإن هذا سيؤدي إلى تفاقم المشكلة. ولكن لماذا يجب على المرء بعد ذلك التحكم في مجتمعنا بطريقة من أعلى إلى أسفل ، وهي أكثر تعقيدًا من السوق المالية؟ المجتمع ليس آلة ، والأنظمة المعقدة لا يمكن توجيهها مثل السيارة. يمكن فهم ذلك من خلال مناقشة نظام معقد آخر: أجسامنا. لعلاج الأمراض ، يحتاج المرء إلى تناول الدواء المناسب في الوقت المناسب بالجرعة المناسبة. العديد من العلاجات لها أيضًا آثار جانبية وتفاعلية خطيرة. الشيء نفسه ، بالطبع ، من المتوقع أن ينطبق على التدخلات الاجتماعية من خلال Big Nudging. غالبًا ما لا يكون واضحًا مقدمًا ما الذي قد يكون جيدًا أو سيئًا للمجتمع. 60٪ من النتائج العلمية في علم النفس غير قابلة للتكرار. لذلك ، من المحتمل أن تسبب ضررًا أكثر من نفعها بواسطة Big Nudging.
علاوة على ذلك ، لا يوجد مقياس ، وهو أمر جيد لجميع الناس. على سبيل المثال ، في العقود الأخيرة ، شهدنا تحذيرات غذائية تتغير طوال الوقت. يعاني الكثير من الناس أيضًا من عدم تحمل الطعام ، والذي يمكن أن يكون قاتلًا. يُنظر الآن إلى الفحوصات الجماعية لأنواع معينة من السرطان وأمراض أخرى بشكل حاسم للغاية ، لأن الآثار الجانبية للتشخيص الخاطئ غالبًا ما تفوق الفوائد. لذلك ، إذا قرر المرء استخدام التنبيه الكبير ، فسيكون الأساس العلمي المتين والشفافية والتقييم الأخلاقي والرقابة الديمقراطية أمرًا بالغ الأهمية حقًا. يجب أن تضمن التدابير المتخذة تحسينات ذات دلالة إحصائية ، ويجب أن تكون الآثار الجانبية مقبولة. يجب أن يكون المستخدمون على دراية بها (على غرار النشرة الطبية) ، ويجب أن يكون لدى الأشخاص المعالجين الكلمة الأخيرة.
بالإضافة إلى ذلك ، فإن تطبيق نفس الإجراء على جميع السكان لن يكون جيدًا. ولكن لا يُعرف سوى القليل جدًا عن اتخاذ التدابير الفردية المناسبة. ليس من المهم فقط للمجتمع أن يطبق علاجات مختلفة من أجل الحفاظ على التنوع ، ولكن الارتباطات (فيما يتعلق بالتدبير الذي يجب اتخاذه في أي سياق معين) مهمة أيضًا. من أجل عمل المجتمع ، من الضروري أن يطبق الناس أدوارًا مختلفة ، والتي تتناسب مع الوضع الذي يعيشون فيه. إن التنبيه الكبير بعيد كل البعد عن القدرة على تحقيق ذلك.
إن التخصيص الحالي المستند إلى البيانات الضخمة يخلق مشاكل جديدة مثل التمييز. على سبيل المثال ، إذا جعلنا معدلات التأمين الصحي تعتمد على أنظمة غذائية معينة ، فسيتعين على اليهود والمسلمين والمسيحيين والنساء والرجال دفع معدلات مختلفة. وهكذا ، تظهر مجموعة من المشاكل الجديدة.
لذلك ، لا يتعب ريتشارد ثالر للتأكيد على أن التنبيه يجب أن يستخدم فقط بطرق مفيدة. وكمثال رئيسي على كيفية استخدام التنبيه ، يذكر نظام توجيه المسار القائم على نظام تحديد المواقع العالمي (GPS). هذا ، ومع ذلك ، يتم تشغيله وإيقاف تشغيله بواسطة المستخدم. يحدد المستخدم أيضًا الهدف المعني. ثم يقدم المساعد الرقمي عدة بدائل ، يمكن للمستخدم الاختيار من بينها بحرية. بعد ذلك ، يدعم المساعد الرقمي المستخدم بقدر ما يستطيع في الوصول إلى الهدف واتخاذ قرارات أفضل. سيكون هذا بالتأكيد هو النهج الصحيح لتحسين سلوك الناس ، لكن روح التنبيه الكبير اليوم مختلفة تمامًا عن هذا.
تقرير المصير الرقمي عن طريق "الحق في نسخة"
بواسطة ارنست هافن.
يجب على أوروبا أن تضمن للمواطنين حق الحصول على نسخة رقمية من جميع البيانات المتعلقة بهم (الحق في نسخة) ، كما تقول إرنست هافن. تتمثل الخطوة الأولى نحو ديمقراطية البيانات في إنشاء بنوك تعاونية للبيانات الشخصية التي يمتلكها المواطنون وليس المساهمون من الشركات.
يمكن للطب الاستفادة من البيانات الصحية. ومع ذلك ، يجب التحكم في الوصول إلى البيانات الشخصية على الأشخاص (موضوع البيانات) أنفسهم. يشكل "الحق في نسخة" الأساس لمثل هذا التحكم.
في أوروبا ، نود أن نشير إلى أننا نعيش في مجتمعات حرة وديمقراطية. لقد أصبحنا تقريبًا دون وعي نعتمد على شركات البيانات متعددة الجنسيات ، ومع ذلك ، ندفع مقابل خدماتها المجانية ببياناتنا الخاصة. يتم البحث عن البيانات الشخصية - التي يشار إليها أحيانًا باسم "فئة الأصول الجديدة" أو نفط القرن الحادي والعشرين - بشكل كبير. ومع ذلك ، لم يتمكن أحد حتى الآن من استخراج أقصى استخدام من البيانات الشخصية لأنها تكمن في العديد من مجموعات البيانات المختلفة. قد يعرف كل من Google و Facebook المزيد عن صحتنا أكثر مما يعرفه طبيبنا ، ولكن حتى هذه الشركات لا يمكنها جمع جميع بياناتنا ، لأنها بحق لا تملك حق الوصول إلى ملفات المرضى أو إيصالات التسوق أو المعلومات حول تركيبتنا الجينية. على عكس الأصول الأخرى ، يمكن نسخ البيانات دون أي تكلفة مرتبطة بها تقريبًا. يجب أن يكون لكل شخص الحق في الحصول على نسخة من جميع بياناته الشخصية. وبهذه الطريقة ، يمكنهم التحكم في استخدام وتجميع بياناتهم ويقررون بأنفسهم ما إذا كانوا سيعطون الوصول إلى الأصدقاء أو طبيب آخر أو المجتمع العلمي.
يعني ظهور أجهزة الاستشعار والتطبيقات الصحية المحمولة أن المرضى يمكنهم المساهمة برؤى طبية مهمة. من خلال تسجيل صحتهم الجسدية على هواتفهم الذكية ، مثل المؤشرات الطبية والآثار الجانبية للأدوية ، فإنهم يقدمون بيانات مهمة تجعل من الممكن مراقبة كيفية تطبيق العلاجات وتقييم التقنيات الصحية وإجراء الطب القائم على الأدلة بشكل عام. كما أنه التزام أخلاقي لمنح المواطنين إمكانية الوصول إلى نسخ من بياناتهم والسماح لهم بالمشاركة في البحوث الطبية ، لأنها ستنقذ الأرواح وتجعل الرعاية الصحية ميسورة التكلفة.
يتعين على الدول الأوروبية تثبيت حق تقرير المصير الرقمي لمواطنيها من خلال تكريس "الحق في نسخة" في دساتيرها ، كما تم اقتراحه في سويسرا. بهذه الطريقة ، يمكن للمواطنين استخدام بياناتهم للعب دور نشط في اقتصاد البيانات العالمي. إذا تمكنوا من تخزين نسخ من بياناتهم في مؤسسات تعاونية غير ربحية يسيطر عليها المواطنون ، فيمكن إعادة جزء كبير من القيمة الاقتصادية للبيانات الشخصية إلى المجتمع. تعمل المؤسسات التعاونية كأمناء في إدارة بيانات أعضائها. سيؤدي هذا إلى إضفاء الطابع الديمقراطي على سوق البيانات الشخصية ونهاية الاعتماد الرقمي.
المجتمع الرقمي الديمقراطي
يجب السماح للمواطنين بالمشاركة بنشاط
من أجل التعامل مع التكنولوجيا المستقبلية بطريقة مسؤولة ، من الضروري أن يتمكن كل واحد منا من المشاركة في عملية صنع القرار ، كما يقول برونو س. فراي من جامعة بازل.
كيف يمكن تعزيز الابتكار المسؤول بشكل فعال؟ إن النداءات الموجهة إلى الجمهور لها تأثير ضئيل ، إن وجد ، إذا كانت المؤسسات أو القواعد التي تشكل التفاعلات البشرية غير مصممة لتحفيز الناس وتمكينهم من تلبية هذه الطلبات.
ينبغي النظر في عدة أنواع من المؤسسات. الأهم من ذلك ، يجب أن يكون المجتمع لامركزيًا ، وفقًا لمبدأ التبعية. ثلاثة أبعاد مهمة.
تتكون اللامركزية المكانية من فدرالية نابضة بالحياة. يجب أن تُمنح المقاطعات والأقاليم والبلديات استقلالية كافية. إلى حد كبير ، يجب أن يكونوا قادرين على تحديد معدلات الضرائب الخاصة بهم والتحكم في نفقاتهم العامة.
- من المستحسن أيضًا اللامركزية الوظيفية وفقًا لمجال الإنفاق العام (على سبيل المثال التعليم والصحة والبيئة وتوفير المياه والمرور والثقافة وما إلى ذلك). تم تطوير هذا المفهوم من خلال اقتراح FOCJ ، أو "السلطات الوظيفية والمتداخلة والمتنافسة".
- اللامركزية السياسية المتعلقة بتقسيم السلطة بين السلطة التنفيذية (الحكومية) والتشريعية (البرلمان) والمحاكم. يجب أن تكون وسائل الإعلام العامة والأوساط الأكاديمية ركائز إضافية.
ستظل هذه الأنواع من اللامركزية ذات أهمية كبيرة في المجتمع الرقمي في المستقبل.
بالإضافة إلى ذلك ، يجب أن تتاح للمواطنين فرصة المشاركة المباشرة في صنع القرار بشأن قضايا معينة عن طريق الاستفتاءات الشعبية. في الخطاب السابق لمثل هذا الاستفتاء ، يجب تقديم جميع الحجج ذات الصلة وتوضيحها بطريقة منظمة. يجب مقارنة المقترحات المختلفة حول كيفية حل مشكلة معينة وتضييقها إلى تلك التي تبدو واعدة للغاية ، ومتكاملة قدر الإمكان أثناء عملية الوساطة. أخيرًا ، يجب إجراء استفتاء ، والذي يعمل على تحديد الحل الأكثر قابلية للتطبيق للظروف المحلية (قابل للتطبيق بمعنى أنه يتمتع بمجموعة متنوعة من الدعم في جمهور الناخبين).
في الوقت الحاضر ، يمكن لأدوات التداول عبر الإنترنت أن تدعم هذه العمليات بكفاءة. وهذا يجعل من الممكن النظر في مجموعة أكبر وأكثر تنوعًا من الأفكار والمعرفة ، وتسخير "الذكاء الجماعي" لإنتاج مقترحات سياسية أفضل.
هناك طريقة أخرى لتنفيذ المقترحات العشرة وهي إنشاء مؤسسات جديدة غير تقليدية. على سبيل المثال ، يمكن أن يُجبر كل هيئة رسمية على اتخاذ "المناصر ديابولي". سيتم تكليف هذا المفكر الجانبي بتطوير الحجج المضادة والبدائل لكل اقتراح. هذا من شأنه أن يقلل من الميل إلى التفكير على غرار "الصواب السياسي" كما سيتم النظر في الأساليب غير التقليدية للمشكلة.
قد يكون التدبير الآخر غير التقليدي هو الاختيار من بين البدائل التي تعتبر معقولة أثناء عملية الخطاب باستخدام آليات صنع القرار العشوائية. يزيد هذا النهج من فرصة دمج المقترحات والأفكار غير التقليدية والتي يتم تجاهلها بشكل عام في المجتمع الرقمي في المستقبل.
برونو إس فراي.
برونو فراي (* 1941) هو اقتصادي أكاديمي وأستاذ زائر دائم في جامعة بازل حيث يدير مركز البحث في الاقتصاد والرفاهية (CREW). وهو أيضًا مدير الأبحاث في مركز الأبحاث في الاقتصاد والإدارة والفنون (CREMA) في زيورخ.
التقنيات الديمقراطية والابتكار المسؤول
عندما تحدد التكنولوجيا كيف نرى العالم ، هناك تهديد بإساءة الاستخدام والخداع. وبالتالي ، يجب أن يعكس الابتكار قيمنا ، كما يجادل جيروين فان دن هوفن..
تعرضت ألمانيا مؤخرًا لفضيحة صناعية ذات أبعاد عالمية. أدت هذه الاكتشافات إلى استقالة الرئيس التنفيذي لواحدة من أكبر مصنعي السيارات ، وفقدان كبير لثقة المستهلك ، وهبوط كبير في أسعار الأسهم ، وأضرار اقتصادية لقطاع صناعة السيارات بأكمله. حتى أنه كان هناك حديث عن أضرار جسيمة للعلامة التجارية "صنع في ألمانيا". ستكون مدفوعات التعويض في حدود مليارات اليورو.
كانت خلفية الفضيحة هي الموقف الذي استخدمت فيه شركة فولكس فاجن وشركات تصنيع السيارات الأخرى برامج تلاعب يمكن أن تكتشف الظروف التي تم في ظلها اختبار الامتثال البيئي للسيارة. غيرت خوارزمية البرنامج سلوك المحرك بحيث ينبعث منه أبخرة عادم ملوثة أقل في ظروف الاختبار مقارنة بالظروف العادية. بهذه الطريقة ، غش في إجراء الاختبار. حدث التخفيض الكامل للانبعاثات فقط أثناء الاختبارات ، ولكن ليس في الاستخدام العادي.
في القرن الحادي والعشرين ، نحن بحاجة ماسة إلى معالجة مسألة كيف يمكننا تنفيذ المعايير الأخلاقية تقنيًا.
وبالمثل ، فإن الخوارزميات ورموز الكمبيوتر والبرامج والنماذج والبيانات ستحدد بشكل متزايد ما نراه في المجتمع الرقمي ، وما هي الخيارات فيما يتعلق بالتأمين الصحي والتمويل والسياسة. هذا يجلب مخاطر جديدة على الاقتصاد والمجتمع. على وجه الخصوص ، هناك خطر الخداع.
وبالتالي ، من المهم أن نفهم أن قيمنا تتجسد في الأشياء التي نخلقها. وإلا فإن التصميم التكنولوجي للمستقبل سيحدد شكل مجتمعنا ("الكود هو القانون"). إذا كانت هذه القيم تخدم الذات أو تمييزية أو تتعارض مع مُثُل الحرية والخصوصية الشخصية ، فإن هذا سيضر بمجتمعنا. وبالتالي ، في القرن الحادي والعشرين ، يجب أن نعالج بشكل عاجل مسألة كيف يمكننا تنفيذ المعايير الأخلاقية من الناحية التكنولوجية. يدعونا التحدي إلى "التصميم من أجل القيمة".
إذا كنا نفتقر إلى الحافز لتطوير الأدوات التكنولوجية والعلوم والمؤسسات اللازمة لمواءمة العالم الرقمي مع قيمنا المشتركة ، فإن المستقبل يبدو قاتمًا للغاية. لحسن الحظ ، استثمر الاتحاد الأوروبي في برنامج بحث وتطوير واسع النطاق للابتكار المسؤول. علاوة على ذلك ، أكدت دول الاتحاد الأوروبي التي أقرت إعلاني لوند وروما أن الابتكار يجب أن يتم تنفيذه بمسؤولية. وهذا يعني ، من بين أمور أخرى ، أنه يجب توجيه الابتكار نحو تطوير حلول ذكية للمشاكل المجتمعية ، والتي يمكن أن تنسق القيم مثل الكفاءة والأمن والاستدامة. لا يتضمن الابتكار الحقيقي خداع الناس للاعتقاد بأن سياراتهم مستدامة وفعالة. الابتكار الحقيقي يعني إنشاء تقنيات يمكنها بالفعل تلبية هذه المتطلبات.
محو الأمية بشأن المخاطر الرقمية
تحتاج التكنولوجيا إلى مستخدمين يمكنهم التحكم فيها
بدلاً من ترك التكنولوجيا الذكية تقلل من قدرة عقولنا ، يجب أن نتعلم كيفية التحكم فيها بشكل أفضل ، كما يقول جيرد جيجرينزر- البداية في الطفولة.
توفر الثورة الرقمية مجموعة رائعة من الاحتمالات: آلاف التطبيقات ، وإنترنت الأشياء ، والاتصال الدائم تقريبًا بالعالم. ولكن في حالة الإثارة ، يتم نسيان أمر واحد بسهولة: تحتاج التكنولوجيا المبتكرة إلى مستخدمين أكفاء يمكنهم التحكم فيها بدلاً من التحكم بها.
ثلاثة أمثلة:.
يجلس أحد طلاب الدكتوراه لدي على جهاز الكمبيوتر الخاص به ويبدو أنه منهمك في كتابة أطروحته. في نفس الوقت ، يكون صندوق بريده الإلكتروني مفتوحًا طوال اليوم. إنه في الواقع ينتظر المقاطعة. من السهل التعرف على عدد المقاطعات التي تعرض لها خلال اليوم من خلال النظر في تدفق كتاباته.
طالب أمريكي يكتب رسائل نصية أثناء القيادة:.
"عندما يرد نص ، لا بد لي من النظر ، بغض النظر عن أي شيء. لحسن الحظ ، يظهر هاتفي النص كنافذة في البداية … لذلك لا يتعين عليّ أن أبالغ في البحث أثناء القيادة." إذا كانت ، بسرعة 50 ميلاً في الساعة ، تستغرق ثانيتين فقط لإلقاء نظرة على هاتفها الخلوي ، فإنها ستقود 48 ياردة "عمياء". تلك الشابة تخاطر بحادث سيارة. يتحكم هاتفها الذكي في سلوكها - كما هو الحال بالنسبة لـ 20 إلى 30 في المائة من الألمان الذين يرسلون رسائل نصية أثناء القيادة أيضًا.
خلال الانتخابات البرلمانية في الهند في عام 2014 ، وهي أكبر انتخابات ديمقراطية في العالم مع أكثر من 800 مليون ناخب محتمل ، كان هناك ثلاثة مرشحين رئيسيين: ن. مودي ، وأ. كيجريوال ، و ر. غاندي. في إحدى الدراسات ، يمكن للناخبين المترددين معرفة المزيد من المعلومات حول هؤلاء المرشحين باستخدام محرك بحث على الإنترنت. ومع ذلك ، لم يعرف المشاركون أن صفحات الويب قد تم التلاعب بها: فبالنسبة لمجموعة واحدة ، ظهرت عناصر أكثر إيجابية حول مودي في الصفحة الأولى وأخرى سلبية في وقت لاحق. واجهت المجموعات الأخرى نفس الشيء بالنسبة للمرشحين الآخرين. هذه الإجراءات المتلاعبة المشابهة هي ممارسة شائعة على الإنترنت. وتشير التقديرات إلى أنه بالنسبة إلى المرشحين الذين يظهرون في الصفحة الأولى بفضل هذا التلاعب ، فإن عدد الأصوات التي يحصلون عليها من الناخبين المترددين يزيد بمقدار 20 نقطة مئوية.
في كل حالة من هذه الحالات ، يتم التحكم في السلوك البشري بواسطة التكنولوجيا الرقمية. إن فقدان السيطرة ليس بالأمر الجديد ، لكن الثورة الرقمية زادت من احتمالية حدوث ذلك.
ماذا نستطيع ان نفعل؟ هناك ثلاث رؤى متنافسة. أحدهما هو الأبوة التقنية ، والتي تستبدل الحكم البشري (المعيب) بالخوارزميات. يمكن لطالب الدكتوراه المشتت أن يواصل قراءة رسائل البريد الإلكتروني الخاصة به واستخدام برمجيات كتابة الأطروحة ؛ كل ما سيحتاجه هو إدخال معلومات أساسية حول الموضوع. مثل هذه الخوارزميات ستحل المشكلة المزعجة لفضائح السرقة الأدبية بجعلها تحدث يوميًا.
على الرغم من أنه لا يزال في مجال الخيال العلمي ، فقد تم بالفعل استبدال الحكم البشري ببرامج الكمبيوتر في العديد من المجالات. تطبيق BabyConnect ، على سبيل المثال ، يتتبع التطور اليومي للرضع من حيث الطول والوزن وعدد المرات التي تم فيها رعايته وعدد المرات التي تم فيها تغيير حفاضاته وأكثر من ذلك بكثير - بينما تقارن التطبيقات الأحدث الطفل بأطفال المستخدمين الآخرين بشكل حقيقي. - قاعدة بيانات الوقت. بالنسبة للآباء ، يصبح طفلهم ناقل بيانات ، وغالبًا ما تسبب التناقضات الطبيعية قلقًا لا داعي له.
تُعرف الرؤية الثانية باسم "التنبيه". بدلاً من ترك الخوارزمية تقوم بكل العمل ، يتم توجيه الناس إلى اتجاه معين ، غالبًا دون أن يكونوا على دراية به. تجربة الانتخابات في الهند مثال على ذلك. نحن نعلم أن الصفحة الأولى من نتائج بحث Google تتلقى حوالي 90٪ من جميع النقرات ، ونصف هذه هي أول نتيجتين. يتم الاستفادة من هذه المعرفة حول السلوك البشري من خلال التلاعب في ترتيب النتائج بحيث تظهر الإيجابية حول مرشح معين أو منتج تجاري معين في الصفحة الأولى. في بلدان مثل ألمانيا ، حيث يهيمن محرك بحث واحد (Google) على عمليات البحث على الويب ، يؤدي هذا إلى احتمالات لا حصر لها للتأثير على الناخبين. مثل الأبوة التقنية ، يتولى الدفع الدفة.
لكن هناك احتمال ثالث. رؤيتي هي محو الأمية بشأن المخاطر ، حيث يكون الناس مجهزين بالكفاءات للسيطرة على وسائل الإعلام بدلاً من أن تتحكم بها. بشكل عام ، يتعلق محو الأمية بالمخاطر بطرق مستنيرة للتعامل مع المجالات المتعلقة بالمخاطر مثل الصحة والمال والتقنيات الحديثة. محو الأمية بالمخاطر الرقمية يعني القدرة على الاستفادة من التقنيات الرقمية دون الاعتماد عليها أو التلاعب بها. هذا ليس بالصعوبة التي يبدو عليها. منذ ذلك الحين ، تعلم طالب الدكتوراه الخاص بي تشغيل حساب بريده الإلكتروني ثلاث مرات فقط في اليوم ، صباحًا وظهراً ومساءً ، حتى يتمكن من العمل على أطروحته دون انقطاع مستمر.
يجب أن يبدأ تعلم ضبط النفس الرقمي كطفل ، في المدرسة وأيضًا من المثال الذي وضعه الآباء. قد يسخر بعض الأبويين من الفكرة ، قائلين إن البشر يفتقرون إلى الذكاء والانضباط الذاتي ليصبحوا على دراية بالمخاطر. ولكن منذ قرون قيل الشيء نفسه عن تعلم القراءة والكتابة - وهو ما يمكن أن يفعله الآن غالبية الناس في البلدان الصناعية. وبنفس الطريقة ، يمكن للناس أن يتعلموا التعامل مع المخاطر بشكل أكثر عقلانية. لتحقيق ذلك ، نحتاج إلى إعادة التفكير جذريًا في الاستراتيجيات والاستثمار في الأشخاص بدلاً من استبدالهم أو التلاعب بهم بتقنيات ذكية. في القرن الحادي والعشرين ، نحتاج إلى قدر أقل من الأبوة والدعاية ، ومواطنين أكثر استنارة وانتقادًا وإدراكًا للمخاطر. حان الوقت لانتزاع جهاز التحكم عن بعد من التكنولوجيا وأخذ حياتنا بأيدينا.
الأخلاق: البيانات الضخمة للصالح العام وللإنسانية
يمكن استخدام قوة البيانات للأغراض الجيدة والسيئة. صاغ روبرتو زيكاري وأندريه تسويتر خمسة مبادئ لأخلاقيات البيانات الضخمة..
بواسطة Andrej Zwitter و Roberto Zicari.
في الآونة الأخيرة ، كان هناك عدد متزايد من الأصوات - من أصحاب الرؤى التقنية مثل Elon Musk (Tesla Motors) ، إلى Bill Gates (Microsoft) و Steve Wozniak (Apple) - تحذر من مخاطر الذكاء الاصطناعي (AI).تم التوقيع على عريضة ضد أنظمة الأسلحة الآلية من قبل 200000 شخص ورسالة مفتوحة نشرها معهد ماساتشوستس للتكنولوجيا مؤخرًا تدعو إلى نهج جديد وشامل للمجتمع الرقمي القادم.
يجب أن ندرك أن البيانات الضخمة ، مثل أي أداة أخرى ، يمكن استخدامها لأغراض جيدة وسيئة. وبهذا المعنى ، فإن قرار محكمة العدل الأوروبية ضد اتفاقية الملاذ الآمن لأسباب تتعلق بحقوق الإنسان أمر مفهوم.
تستخدم الدول والمنظمات الدولية والجهات الفاعلة الخاصة الآن البيانات الضخمة في مجموعة متنوعة من المجالات. من المهم أن يدرك كل من يستفيدون من البيانات الضخمة مسؤوليتهم الأخلاقية. لهذا السبب ، تم إنشاء مبادرة البيانات من أجل الإنسانية ، بهدف نشر مدونة سلوك أخلاقية لاستخدام البيانات الضخمة. تقدم هذه المبادرة خمسة مبادئ أخلاقية أساسية لمستخدمي البيانات الضخمة:
1. "لا ضرر ولا ضرار". إن البصمة الرقمية التي يتركها الجميع وراءه الآن تعرض الأفراد والفئات الاجتماعية والمجتمع ككل إلى درجة معينة من الشفافية والضعف. يجب ألا يؤذي أولئك الذين لديهم إمكانية الوصول إلى الأفكار التي توفرها البيانات الضخمة أطرافًا ثالثة.
2. ضمان استخدام البيانات بطريقة تجعل النتائج تعزز التعايش السلمي للبشرية. يؤثر اختيار المحتوى والوصول إلى البيانات على نظرة المجتمع إلى العالم. لا يمكن التعايش السلمي إلا إذا كان علماء البيانات على دراية بمسؤوليتهم عن توفير وصول متساو وغير متحيز إلى البيانات.
3. استخدام البيانات لمساعدة المحتاجين. بالإضافة إلى كونه مفيدًا اقتصاديًا ، يمكن أن يخلق الابتكار في مجال البيانات الضخمة أيضًا قيمة اجتماعية إضافية. في عصر الاتصال العالمي ، أصبح من الممكن الآن إنشاء أدوات مبتكرة للبيانات الضخمة يمكن أن تساعد في دعم الأشخاص المحتاجين.
4. استخدام البيانات لحماية الطبيعة وتقليل تلوث البيئة. يعد تطوير العمليات الفعالة وتأثيرات التآزر أحد أكبر إنجازات تحليل البيانات الضخمة. لا يمكن أن توفر البيانات الضخمة مستقبلًا اقتصاديًا واجتماعيًا مستدامًا إلا إذا تم استخدام هذه الأساليب أيضًا لإنشاء بيئة طبيعية صحية ومستقرة والحفاظ عليها.
5. استخدام البيانات للقضاء على التمييز وعدم التسامح وخلق نظام عادل للتعايش الاجتماعي. خلقت وسائل التواصل الاجتماعي شبكة اجتماعية قوية. ولا يمكن أن يؤدي ذلك إلى استقرار عالمي طويل الأمد إلا إذا تم بناؤه على مبادئ الإنصاف والمساواة والعدالة.
في الختام ، نود أيضًا أن نلفت الانتباه إلى كيف يمكن للإمكانيات الجديدة المثيرة للاهتمام التي توفرها البيانات الضخمة أن تؤدي إلى مستقبل أفضل: "نظرًا لأن المزيد من البيانات تصبح أقل تكلفة وتكسر التكنولوجيا الحواجز التي تحول دون الاكتساب والتحليل ، فإن الفرصة لتقديم معلومات قابلة للتنفيذ للمواطنين تنامي الأغراض. يمكن أن يطلق على هذا التحدي "الصالح العام" للبيانات الضخمة ". (جيك بورواي ، داتا كايند). في النهاية ، من المهم فهم التحول إلى البيانات الضخمة كفرصة لفعل الخير وكأمل لمستقبل أفضل.
القياس والتحليل والتحسين: عندما تتولى الآلات الذكية السيطرة المجتمعية
في العصر الرقمي ، توجه الآلات الحياة اليومية إلى حد كبير بالفعل. لذلك ، يجب أن نفكر مرتين قبل أن نشارك بياناتنا الشخصية ، كما يقول الخبراء إيفون هوفستيتر.
إذا كان نوربرت وينر (1894-1964) قد اختبر العصر الرقمي ، لكان ذلك بالنسبة له أرض الوفرة. "علم التحكم الآلي هو علم المعلومات والتحكم ، بغض النظر عما إذا كان هدف التحكم هو آلة أو كائن حي" ، كما أوضح مؤسس علم التحكم الآلي ذات مرة في هانوفر بألمانيا في عام 1960. في التاريخ ، لم ينتج العالم مطلقًا مثل هذا القدر من البيانات والمعلومات كما هو الحال اليوم.
علم التحكم الآلي علم التحكم الآلي ، وهو علم يؤكد أهمية في كل مكان ، يقدم ادعاءً قويًا: "يمكن التحكم في كل شيء". خلال القرن العشرين ، طبقت القوات المسلحة الأمريكية والاتحاد السوفيتي علم التحكم الآلي للسيطرة على سباق التسلح. نشر حلف الناتو ما يسمى بأنظمة C3I (القيادة والتحكم والاتصالات والمعلومات) ، وهو مصطلح يشير إلى البنية التحتية العسكرية التي تميل لغويًا إلى كتاب وينر عن علم التحكم الآلي: أو التحكم والاتصال في الحيوان والآلة ، الذي نُشر عام 1948. يشير مصطلح التحكم للسيطرة على الآلات وكذلك على الأفراد أو الأنظمة الاجتماعية بأكملها مثل التحالفات العسكرية والأسواق المالية أو ، في إشارة إلى القرن الحادي والعشرين ، حتى جمهور الناخبين. فرضيتها الرئيسية: إبقاء العالم تحت المراقبة لجمع البيانات. يعد توصيل الأشخاص والأشياء بإنترنت كل شيء طريقة مثالية للحصول على البيانات الجماعية المطلوبة كمدخلات لاستراتيجيات التحكم السيبراني.
مع علم التحكم الآلي ، اقترح وينر مفهومًا علميًا جديدًا: ملاحظات الحلقة المغلقة. ردود الفعل- على سبيل المثال. الإعجابات التي نقدمها ، التعليقات عبر الإنترنت هي مفهوم رئيسي للرقمنة أيضًا. هل هذا يعني أن الرقمنة هي التطبيق الأمثل لعلم التحكم الآلي؟ عندما نستخدم الأجهزة الذكية ، فإننا ننشئ تدفقًا مستمرًا للبيانات يكشف عن نوايانا أو موقعنا الجغرافي أو بيئتنا الاجتماعية. بينما نتواصل بلا تفكير أكثر من أي وقت مضى عبر الإنترنت ، في الخلفية ، يتطور نظام بيئي للذكاء الاصطناعي. اليوم ، الذكاء الاصطناعي هو التكنولوجيا الوحيدة القادرة على تعريفنا واستخلاص استنتاجات حول سلوكنا المستقبلي.
تقوم إستراتيجية التحكم الآلي ، عادة آلة تعلم ، بتحليل وضعنا الفعلي ومن ثم تحسب حافزًا من شأنه أن يقربنا من حالة "أفضل" مرغوبة أكثر. يتحكم هؤلاء المتحكمون بشكل متزايد في حياتنا اليومية. كمساعدين رقميين ، فإنهم يساعدوننا في اتخاذ القرارات في المحيط الشاسع من الاختيارية وترهيب عدم اليقين. حتى بحث Google هو استراتيجية تحكم. عند كتابة كلمة رئيسية ، يكشف المستخدم عن نواياه. محرك بحث Google ، بدوره ، لن يقدم فقط قائمة بأفضل النتائج ، ولكن قائمة الروابط التي تجسد أعلى قيمة (مالية) بدلاً من الشركة وليس للمستخدم. عند القيام بذلك بهذه الطريقة ، أي إدراج عروض الشركات في أعلى نتائج البحث ، تتحكم Google في نقرات المستخدم التالية. يجادل الاتحاد الأوروبي بأن هذا يعد إساءة استخدام.
لكن هل هناك أي مخرج؟ نعم ، إذا انفصلنا عن الحلقة الإلكترونية. فقط توقف عن الاستجابة لمحفز رقمي. سوف تفشل علم التحكم الآلي ، إذا خرج النظير الذي يمكن التحكم فيه من الحلقة. ومع ذلك ، فنحن أحرار في أن ندين بالرد على وحدة تحكم رقمية. ومع ذلك ، مع تصاعد الرقمنة ، قد لا يكون لدينا خيار آخر قريبًا. ومن ثم ، فإننا مدعوون للقتال من أجل حقوق حريتنا من جديد خلال العصر الرقمي وخاصة في ظهور الآلات الذكية.
بالنسبة لنوربرت وينر (1894-1964) ، سيكون العصر الرقمي جنة. قال مؤسس علم التحكم الآلي في هانوفر بألمانيا في عام 1960: "علم التحكم الآلي هو علم المعلومات والتحكم ، بغض النظر عما إذا كان يتم التحكم في آلة أو كائن حي".
علم التحكم الآلي ، وهو علم يدعي أهميته في كل مكان ، يقدم وعدًا قويًا: "كل شيء يمكن التحكم فيه." خلال القرن العشرين ، طبقت القوات المسلحة الأمريكية والاتحاد السوفيتي علم التحكم الآلي للسيطرة على سباق التسلح. نشر الناتو ما يسمى بأنظمة C3I (القيادة والتحكم والاتصالات والمعلومات) ، وهو مصطلح يشير إلى البنية التحتية العسكرية التي تعتمد لغويًا على كتاب وينر بعنوان علم التحكم الآلي: أو التحكم والاتصال في الحيوان والآلة الذي نُشر في عام 1948. يشير مصطلح التحكم إلى السيطرة على الآلات وكذلك الأفراد أو الأنظمة المجتمعية بأكملها مثل التحالفات العسكرية وحلف شمال الأطلسي وحلف وارسو. متطلباتها الأساسية هي: تكامل وجمع البيانات والتواصل. يعد توصيل الأشخاص والأشياء بإنترنت كل شيء طريقة مثالية للحصول على البيانات المطلوبة كمدخلات لاستراتيجيات التحكم السيبراني.
مع علم التحكم الآلي ، تم اقتراح مفهوم علمي جديد: ردود الفعل المغلقة. تعد التعليقات - مثل الإعجابات التي نقدمها أو التعليقات عبر الإنترنت - مفهومًا رئيسيًا آخر يتعلق بالرقمنة. هل هذا يعني أن الرقمنة هي أفضل تطبيق لعلم التحكم الآلي؟ عندما نستخدم الأجهزة الذكية ، فإننا ننشئ دفقًا لا نهائيًا من البيانات يكشف عن نوايانا أو تحديد الموقع الجغرافي أو البيئة الاجتماعية. بينما نتواصل بلا تفكير أكثر من أي وقت مضى عبر الإنترنت ، في الخلفية ، يتطور نظام بيئي للذكاء الاصطناعي. اليوم ، الذكاء الاصطناعي هو التكنولوجيا الوحيدة القادرة على تعريفنا واستخلاص النتائج حول سلوكنا المستقبلي.
تحلل إستراتيجية التحكم الآلي ، التي عادة ما تكون آلة تعلم ، حالتنا الحالية وتحسب حافزًا يجب أن يقربنا من حالة "مثالية" أكثر. يتحكم هؤلاء المتحكمون بشكل متزايد في حياتنا اليومية. يساعدنا هؤلاء المساعدون الرقميون على اتخاذ القرارات بين المحيط الشاسع من الخيارات وعدم اليقين المرعب. حتى بحث Google هو استراتيجية تحكم. عند كتابة كلمة رئيسية ، يكشف المستخدم عن نواياه. لا يقدم محرك بحث Google بدوره قائمة بأفضل النتائج فحسب ، بل يقدم أيضًا قائمة بالروابط مرتبة وفقًا لقيمتها (المالية) للشركة ، وليس للمستخدم. من خلال إدراج عروض الشركات في أعلى نتائج البحث ، تتحكم Google في نقرات المستخدم التالية. يجادل الاتحاد الأوروبي بأن هذا يعد إساءة استخدام لاحتكار Google.
لكن هل هناك أي مخرج؟ نعم ، إذا انفصلنا عن الحلقة الإلكترونية وتوقفنا ببساطة عن الاستجابة للحافز الرقمي. سوف تفشل علم التحكم الآلي ، إذا خرج النظير الذي يمكن التحكم فيه من الحلقة. يجب أن نظل متحفظين ومقتصدين في بياناتنا ، حتى لو كانت صعبة. ومع ذلك ، مع تصاعد الرقمنة ، قد لا يتبقى المزيد من الخيارات قريبًا. ومن ثم ، فإننا مدعوون للقتال مرة أخرى من أجل حريتنا في العصر الرقمي ، وخاصة ضد صعود الآلات الذكية.