متنوع

Roboethics: الأخلاق البشرية المطبقة على الروبوتات

Roboethics: الأخلاق البشرية المطبقة على الروبوتات

في ال الأربعينيات، الكاتب الأمريكي إسحاق أسيموف طور القوانين الثلاثة للروبوتات بحجة أنه يجب برمجة الروبوتات الذكية بطريقة تجعلها عند مواجهة الصراع تحيل وتلتزم بالقوانين الثلاثة التالية:

  • لا يجوز للروبوت أن يؤذي إنسانًا ، أو يسمح للإنسان من خلال التقاعس بإيذائه

  • يجب أن يطيع الروبوت الأوامر الصادرة عن البشر إلا في الحالات التي تتعارض فيها هذه الأوامر مع القانون الأول

  • يجب أن يحمي الروبوت وجوده طالما أن هذه الحماية لا تتعارض مع القانون الأول أو الثاني

تم تقديم قوانين الروبوتات لإيزاك أسيموف لأول مرة في قصة الخيال العلمي القصيرة يركض حول، (PDF) نُشر في عدد مارس 1942 من كتاب خيال علمي مذهل.

تقدم سريعًا ما يقرب من 80 عامًا من الوقت الحاضر ، اليوم ، تمثل قوانين Asimov الثلاثة للروبوتات مشاكل وصراعًا لعلماء الروبوتات أكثر مما تحل.

يرى علماء الروبوتات والفلاسفة والمهندسون نقاشًا مستمرًا حول أخلاقيات الآلة. أخلاقيات الآلة ، أو أخلاقيات الروبوتات ، عبارة عن اقتراح عملي حول كيفية الهندسة في وقت واحد وتقديم العقوبات الأخلاقية للروبوتات.

من أو ما الذي سيتحمل المسؤولية عندما أو إذا كان النظام المستقل يعطل أو يؤذي البشر؟

حاليًا ، يتبع الباحثون اتجاهًا يهدف إلى تعزيز تصميم وتنفيذ أنظمة اصطناعية ذات سلوك مقبول أخلاقيًا مضمّنًا.

في الأخلاق وأخلاقيات الروبوت

الأخلاق هي فرع الفلسفة الذي يدرس السلوك البشري ، والتقييمات الأخلاقية ، ومفاهيم الخير والشر ، والصواب والخطأ ، والعدالة والظلم. يجلب مفهوم أخلاقيات الروبوتات انعكاسًا أخلاقيًا أساسيًا مرتبطًا بقضايا معينة ومعضلات أخلاقية ناتجة عن تطوير التطبيقات الروبوتية.

تتعامل أخلاقيات الروبوت - وتسمى أيضًا أخلاقيات الآلة - مع قواعد السلوك التي يجب على مهندسي المصممين الآليين تنفيذها في الذكاء الاصطناعي للروبوت. من خلال هذا النوع من الأخلاقيات الاصطناعية ، يجب أن يضمن علماء الروبوتات أن الأنظمة المستقلة ستكون قادرة على إظهار سلوك مقبول أخلاقيا في المواقف التي تتفاعل فيها الروبوتات أو أي أنظمة مستقلة أخرى مثل المركبات المستقلة مع البشر.

ستستمر القضايا الأخلاقية في الارتفاع طالما ظهرت الروبوتات الأكثر تقدمًا في الصورة. في المشهد الأخلاقي للروبوتات (PDF) بواسطة Pawel Lichocki et al. ، الذي نشرته مجلة IEEE Robotics and Automation Magazine ، قام الباحثون بإدراج العديد من القضايا الأخلاقية الناشئة في مجموعتين من التطبيقات الروبوتية: روبوتات الخدمة والروبوتات القاتلة.

يتم إنشاء روبوتات الخدمة للعيش بسلام والتفاعل مع البشر ، في حين يتم إنشاء الروبوتات القاتلة لإرسالها للقتال في ساحة المعركة كروبوتات عسكرية.

وفق المشهد الأخلاقي للروبوتاتيقول نويل شانكي أن "القدرات المعرفية للروبوتات لا تتطابق مع قدرات البشر ، وبالتالي ، فإن الروبوتات القاتلة غير أخلاقية لأنها قد ترتكب الأخطاء بسهولة أكبر من البشر." ويعتقد رونالد أركين أنه "على الرغم من أن النظام غير المأهول لن يكون قادرًا على التصرف بشكل مثالي في ساحة المعركة ، إلا أنه يمكن أن يؤدي بشكل أكثر أخلاقية من البشر.

جزئيًا ، يتضمن السؤال حول أخلاقيات استخدام الروبوتات في ساحة المعركة التزامات بشأن القدرة و نوع الذكاء الاصطناعي في السؤال.

الروبوتات في الجيش: مصممة للقتل والمساءلة الأخلاقية

من المؤكد أن الروبوتات العسكرية ليست مجرد شيء من الحاضر. يعود تاريخها إلى الحرب العالمية الثانية والحرب الباردة. قام جالوت الألماني بتتبع المناجم والبوابات السوفييتية. يمكن استخدام الروبوتات العسكرية لإطلاق النار ، ونزع سلاح القنابل ، وحمل الجنود الجرحى ، واكتشاف الألغام ، والصواريخ النارية ، والطيران ، وما إلى ذلك.

اليوم ، يتم تطوير العديد من الاستخدامات الأخرى للروبوتات العسكرية باستخدام تقنيات أخرى للروبوتات. سيعد الجيش الأمريكي بخمس وحداته القتالية مؤتمتة بالكاملبحلول عام 2020.

ما نوع أخلاقيات الروبوتات التي سيتم تضمينها في الروبوتات العسكرية ومن سيقررها؟ لا يمكن تطبيق قوانين أسيموف على الروبوتات المصممة لقتل البشر.

أيضا في عام 2020، فإن الجيش الأمريكي سيخضع لاختبار حي المركبات الآلية المدرعة. ونظمت مظاهرة في مايو في ولاية تكساس.

هل ستصبح الروبوتات وكلاء أخلاقيين في المستقبل؟

ستصبح أخلاقيات الروبوت ذات أهمية متزايدة مع دخولنا عصرًا حيث ستصبح الروبوتات الأكثر تقدمًا وتطورًا بالإضافة إلى الذكاء الاصطناعي العام (AGI) جزءًا لا يتجزأ من حياتنا اليومية.

لذلك ، يجب أن يصبح النقاش في القضايا الأخلاقية والاجتماعية في مجال الروبوتات المتقدمة ذا أهمية متزايدة. يتطلب النمو الحالي للروبوتات والتطورات السريعة في الذكاء الاصطناعي أن يتم إعداد علماء الروبوتات والبشر بشكل عام عاجلاً وليس آجلاً.

مع تقدم المناقشة في مجال أخلاقيات الروبوتات ، يجادل البعض بأن الروبوتات ستساهم في بناء عالم أفضل. يجادل البعض الآخر بأن الروبوتات غير قادرة على أن تكون وكلاء أخلاقيين ولا ينبغي تصميمها بقدرات صنع القرار الأخلاقي المضمنة.

أخيرًا ، ربما ليس بعد ولكن في المستقبل يمكن أن تصبح الروبوتات وكلاء أخلاقيين مع إسناد المسؤولية الأخلاقية. حتى ذلك الحين ، يجب أن يتحمل مهندسو ومصممي الروبوتات المسؤولية فيما يتعلق بالعواقب الأخلاقية لإبداعاتهم.

بعبارة أخرى ، يجب أن يكون مهندسو ومصممي الروبوتات مسؤولين أخلاقياً عما يصممونه ويخرجونه إلى العالم.


شاهد الفيديو: اضحك مع شيماء سيف وهي بتضرب ليلي زاهر بالقفا من برومو مسلسل في بيتنا روبوت (قد 2021).