جدول المحتويات:
- ما هي مخاوفك الرئيسية بشأن الذكاء الاصطناعي؟
- من الذي يجب أن يتحمل المسؤولية عن قرارات الذكاء الاصطناعي؟
- كيف يطور المرء نظام ذكاء اصطناعي شفاف يستطيع معظم الناس فهمه؟
- عندما يتم إعلام الناس بمخاطر الذكاء الاصطناعي ، هل يؤدي ذلك إلى نقل المسؤولية أو المسؤولية إلى الشخص الذي يستخدم الذكاء الاصطناعي؟
- كيف يمكن تطوير السياسة العامة للذكاء الاصطناعي في حين أن التكنولوجيا نفسها ما زالت تتطور ويتم تعريفها؟

فيديو: ذكي للخطأ: عندما يخطئ الذكاء الاصطناعي ، قد لا يزال عليك اللوم

تطرح التفاعلات بين الأشخاص وآلات الذكاء الاصطناعي أسئلة صعبة حول المسؤولية والمساءلة ، وفقًا لخبير قانوني.

يحرز الذكاء الاصطناعي بالفعل نجاحات كبيرة في تولي المهام الدنيوية التي تستغرق وقتًا طويلاً والتي يفضل العديد من البشر عدم القيام بها. تختلف مسؤوليات وعواقب تسليم العمل إلى الذكاء الاصطناعي اختلافًا كبيرًا ؛ توصي بعض الأنظمة المستقلة بالموسيقى أو الأفلام ؛ يوصي آخرون بأحكام في المحكمة. ستتحكم أنظمة الذكاء الاصطناعي الأكثر تقدمًا بشكل متزايد في المركبات في شوارع المدينة المزدحمة ، مما يثير تساؤلات حول السلامة - وحول المسؤولية ، عند وقوع الحوادث التي لا مفر منها.
لكن الحجج الفلسفية حول التهديدات الوجودية للذكاء الاصطناعي غالبًا ما تكون بعيدة كل البعد عن واقع البناء الفعلي واستخدام التكنولوجيا المعنية. التعلم العميق ، والرؤية الآلية ، ومعالجة اللغة الطبيعية - على الرغم من كل ما تم كتابته ومناقشته حول هذه الجوانب وغيرها من الذكاء الاصطناعي ، لا يزال الذكاء الاصطناعي في مرحلة مبكرة نسبيًا من تطوره. يجادل النقاد حول مخاطر تشغيل الروبوتات المستقلة التي تدرك نفسها بنفسها ، حتى عندما يحير علماء الكمبيوتر حول كيفية كتابة خوارزميات الرؤية الآلية التي يمكنها التمييز بين صورة سلحفاة وصورة بندقية.
ومع ذلك ، من الواضح أنه من المهم التفكير في كيفية إدارة المجتمع للذكاء الاصطناعي قبل أن يصبح قوة منتشرة حقًا في الحياة الحديثة. أطلق الباحثون والطلاب والخريجين في كلية كينيدي الحكومية بجامعة هارفارد ، جمعية المستقبل لهذا الغرض بالذات في عام 2014 ، بهدف تحفيز المحادثات الدولية حول كيفية التحكم في التقنيات الناشئة ، وخاصة الذكاء الاصطناعي. تحدثت Scientific American مع نيكولاس إيكونومو ، أحد كبار مستشاري مبادرة الذكاء الاصطناعي التابعة لجمعية المستقبل والرئيس التنفيذي لشركة H5 ، وهي شركة تصنع برامج لمساعدة شركات المحاماة في التحليل السابق للمحاكمة للوثائق الإلكترونية ورسائل البريد الإلكتروني وقواعد البيانات - المعروف أيضًا باسم الاكتشاف الإلكتروني. تحدثت إيكونومو عن كيف يمكن اعتبار البشر مسؤولين (حتى لو كانت الآلة تستدعي الأمر) ، وما يخبرنا به التاريخ فيما يتعلق بالتزام المجتمع بالاستفادة من التقنيات الجديدة بمجرد إثبات أنها تقدم فوائد مثل تحسين السلامة
[فيما يلي نسخة منقحة من المحادثة.].
ما هي مخاوفك الرئيسية بشأن الذكاء الاصطناعي؟
أنا عالم سياسي من خلال التدريب وكذلك رائد أعمال دافع عن التبني التدريجي للذكاء الاصطناعي في النظام القانوني. لذلك أنا من أشد المؤمنين بأن الذكاء الاصطناعي يمكن أن يكون قوة من أجل الخير. لكني أعتقد أنه يجب أن يُحكم ، لأنه ينطوي على مخاطر. يتحدث الناس عن المخاطر بطرق مختلفة ، لكنني مهتم أكثر بالمخاطر التي تنطوي على الاستسلام لقرارات الآلات التي تؤثر على حقوقنا أو حريتنا أو حرية الفرص. نحن نتخذ قرارات ليس فقط على أساس التفكير العقلاني ولكن أيضًا على القيم والأخلاق والأخلاق والتعاطف والشعور بالصواب والخطأ - كل الأشياء التي لا تمتلكها الآلات بطبيعتها. بالإضافة إلى ذلك ، يمكن تحميل الأشخاص المسؤولية عن قراراتهم بطرق لا تستطيع الآلة القيام بها.
من الذي يجب أن يتحمل المسؤولية عن قرارات الذكاء الاصطناعي؟
هذا يحصل في مسألة الاختصاص. في أنظمة الذكاء الاصطناعي المستقلة تمامًا ، يمكنك القول: الشركة المصنعة. لكن معظم الذكاء الاصطناعي اليوم ليس مستقلاً. يعتمد على عامل بشري. إذا لم يكن هذا الشخص على دراية كافية لاستخدام الذكاء الاصطناعي بشكل صحيح عند اتخاذ قرارات مهمة ، على سبيل المثال ، في الطب أو القانون أو الخدمات المالية ، فهل يجب أن يُحاسب الشخص على الأخطاء؟ لنأخذ في الاعتبار [2016] قضية State v. Loomis ، حيث اعتمد القاضي جزئيًا على صندوق أسود وخوارزمية سرية لتقييم ما إذا كان المدعى عليه معرضًا لخطر العودة إلى الإجرام. قيمت الخوارزمية [Loomis] على أنها عالية الخطورة ولكن المنهجية التي استخدمها الذكاء الاصطناعي لإنتاج التقييم لم يتم الكشف عنها للمحكمة أو المدعى عليه. وضع القاضي هذه التوصية في الاعتبار عند إصدار حكم بالسجن لمدة ست سنوات. رفضت المحكمة العليا الأمريكية سماع هذه القضية ، لذا فهي الآن قانون البلاد. يمكنك الآن أن تُحكم عليك بالسجن لمدة طويلة لأنه ، جزئيًا ، بسبب تقييم خوارزمية الذكاء الاصطناعي ، دون اللجوء إلى الكثير. هل كان القاضي مؤهلًا لفهم ما إذا كان التقييم الحسابي مناسبًا ومدعومًا بأدلة تجريبية سليمة؟ ربما يكون الجواب بالنفي ، لأن القضاة والمحامين ليسوا في العادة علماء مدربين.
كيف يطور المرء نظام ذكاء اصطناعي شفاف يستطيع معظم الناس فهمه؟
صحيح أنه يمكن للذكاء الاصطناعي أن يتمتع بكل الشفافية في العالم ، لكننا كمواطنين لا يمكننا أن نفكر بما يفعله الذكاء الاصطناعي. ربما يمكن للعلماء فهم ذلك ، ولكن لكي يتم تمكيننا كمواطنين ، نحتاج إلى معرفة ما إذا كان هناك شيء ما سينجح في العالم الحقيقي. أحد النماذج التي يجب مراعاتها هو السيارة. يمكن للشخص العادي أن يشاهد سيارة يتم بناؤها من البداية إلى النهاية ولا يزال لا يعرف ما إذا كانت السيارة آمنة للقيادة. بدلاً من ذلك ، أنت تثق في أن السيارة آمنة لأنك راجع التصنيفات التي يوفرها معهد التأمين للسلامة على الطرق السريعة ، والتي تصطدم بالسيارات كل يوم لتحديد مدى سلامتها. [لذلك] ، كمواطن لدي الآن معلومات يمكنني استخدامها لتقييم نظام اجتماعي تقني معقد للغاية يتضمن التكنولوجيا والذكاء البشري. لدي مقاييس بسيطة للغاية تخبرني ما إذا كانت السيارة آمنة. في حين أن الشفافية في الخوارزميات مفيدة ، فإن المفتاح هو معرفة ما إذا كانت فعالة في تطبيقات العالم الحقيقي التي تهدف إليها - غالبًا في أيدي المشغلين البشريين.
عندما يتم إعلام الناس بمخاطر الذكاء الاصطناعي ، هل يؤدي ذلك إلى نقل المسؤولية أو المسؤولية إلى الشخص الذي يستخدم الذكاء الاصطناعي؟
المسؤولية مسألة قانونية ضخمة. في المركبات ذاتية القيادة ، على سبيل المثال ، يمكنك النظر إلى مدى سيطرة السائق على السيارة. إذا لم يكن لدى السائق أي شيء ، فمن المتوقع أن تتحمل الشركة المصنعة أو الشركات الأخرى المشاركة في تجميع السيارة مزيدًا من المسؤولية والمسؤولية. يصبح الأمر أكثر تعقيدًا عندما يتمتع السائق بقدر أكبر من التحكم ، وقد تنظر إلى من اتخذ القرار الذي أدى إلى وقوع حادث. هناك نوعان من الأسئلة المثيرة للاهتمام المتعلقة بالمسؤولية. بالتمسك بالسيارات كمثال ، لنفترض [افتراضيًا] أنه إذا تم قيادة كل شخص في سيارة ذاتية القيادة ، فسنقلل الوفيات المرتبطة بحركة المرور بمقدار 20000 حالة سنويًا. إذا كان الأمر كذلك ، فسيكون هدف السياسة العامة هو تشجيع الناس على استخدام السيارات ذاتية القيادة. لكن في نفس الوقت يخاف الناس من التكنولوجيا. لذا يمكنك أن تتخيل طريقتين لدعم هدف سياستك من أجل إنقاذ حياة العشرين ألفًا. قد يكون أحدها تصميم مركبات ذاتية القيادة لإعطاء الأولوية لسلامة ركابها على المشاة والسائقين الآخرين. بعبارة أخرى ، أنت أكثر أمانًا داخل السيارة من خارجها. هذا من شأنه أن يشجع الناس على التغلب على خوفهم من السيارات ذاتية القيادة ، وبالتالي دعم هدف سياستك. لكن المجتمع عندها سيخصص قيمة أعلى لبعض الأرواح - تلك الموجودة داخل تلك المركبات - أكثر من غيرها.
هناك طريقة أخرى لتشجيع الناس على استخدام السيارات ذاتية القيادة وهي ، بشكل أساسي ، القول بأنه من غير المسؤول قيادة سيارة تقليدية إذا كنت تعلم أن السيارة التي يقودها الذكاء الاصطناعي أكثر أمانًا. هناك حالة من ثلاثينيات القرن العشرين تُعرف باسم قضية T. J. Hooper ، حيث فقد صندلان في عاصفة جزئياً لأن الشركة التي تملك القوارب لم تزودهما بأجهزة راديو. كان القرار ، إذا تم تطوير تقنية جديدة فعالة بشكل واضح ، فمن الضروري استخدامها كإجراء احترازي. في النهاية ، هل سيكون سائق السيارة أكثر مسؤولية إذا اختار ذلك الشخص القيادة بدلاً من الدخول في سيارات ذاتية القيادة أكثر أمانًا من الناحية الإحصائية ؟.
كيف يمكن تطوير السياسة العامة للذكاء الاصطناعي في حين أن التكنولوجيا نفسها ما زالت تتطور ويتم تعريفها؟
لست متأكدًا من أنه من المفيد جدًا تعريف الذكاء الاصطناعي. ما زلنا لا نملك تعريفًا مقبولًا عالميًا لماهية الذكاء ، لذلك سيكون من الصعب القيام بذلك للذكاء الاصطناعي. يجب أن تكون المعايير التي تحكم استخدام الذكاء الاصطناعي واسعة بما يكفي لقبول الابتكارات من أي مكان تأتي فيه. لكن يجب أن تكون ضيقة بما يكفي لتوفير قيود ذات مغزى في كيفية استخدامها وكيف تؤثر على الناس. تتكون العملية الفعالة من أربع طبقات: تبدأ بالقيم. ماذا نريد أن يفعل الذكاء الاصطناعي لنا؟ من هناك تذهب إلى المبادئ الأخلاقية. كيف ينبغي للذكاء الاصطناعي أن يقوم بعمله؟ ثم يمكنك تشكيل توصيات السياسة العامة ؛ وأخيراً النظر في الضوابط الفنية الفعلية اللازمة لتنفيذ تلك السياسة.