براساس نتايج يک نظر سنجي، مردم آمريکا ربات‌ها را مسئول رفتار خود مي‌دانند ربات‌ها هم مسئول رفتارشان خوا

 

همچنان كه كشورهاي پيشرفته در حال توليد سربازان رباتيك براي جايگزين آنها با انسان در ميدان نبرد هستند يك سوال اخلاقي در اين ارتباط همواره ذهن‌ها را به خود مشغول كرده است. اگر يك ربات در ميدان جنگ به دليل خرابي سخت افزار يا اشكال در نرم‌افزارش افراد غيرنظامي را به قتل برساند يا آسيبي به آنها بزند، مي‌توان ربات يا شخص و اشخاصي كه او را خلق كرده‌اند مورد مواخذه و سرزنش قرار داد يا خير؟برخي استدلال مي‌كنند چون ربات‌ها آزادي اراده ندارند، بنابراين نمي‌توانند از لحاظ اخلاقي پاسخگوي اعمال خود باشند. اما روان‌شناسان در دانشگاه واشنگتن به اين نتيجه رسيده‌اند كه مردم عادي چنين ديدگاه صريح و روشني درباره ربات‌هاي انسان‌نما ندارند.نتايج آخرين بررسي محققان نشان مي‌دهد انسان‌ها خواهان به‌كارگيري مقدار متعادلي از اخلاقيات و ديگر خصوصيات انساني در مورد ربات‌هايي هستند كه مجهز به ابزاري براي به‌كارگيري در تعاملات اجتماعي بوده و قادر به صدمه زدن به انسان هستند. شايد هنوز تهديد ربات‌ها تنها مالي بوده و تهديدكننده زندگي ما نيستند، اما هنوز بدقت مشخص نشده در كل انسان‌ها چه واكنشي در برابر اشتباهات ربات‌ها از خود نشان مي‌دهند. يافته‌ها حاكي از آن است كه همچنان‌كه ربات‌ها پيچيده‌تر شده و بيشتر شبيه انسان مي‌شوند عموم جامعه آنها را در برابر رفتار و صدمات احتماليشان پاسخگو مي‌داند.پيتر كاهن، پروفسور روان‌شناس و استاد دانشگاه واشنگتن مي‌گويد: ما در حال حركت به سمت جهاني هستيم كه در آن ربات‌ها قادر خواهند بود به انسان‌ صدمه برسانند. طي اين مطالعه ما از افراد پرسيديم آيا آنها موجوديت ربات را تنها به‌عنوان يك ابزار به رسميت مي‌شناسند يا به‌عنوان موجودي كه مي‌تواند در برابر اعمال خود پاسخگو باشد.طي اين مطالعه كاهن و تيم تحقيقاتي شامل 40دانشجوي مقطع كارشناسي با رباتي شبيه انسان به نام روبو وي بازي شكار روبنده را انجام دادند. ربات به نظر عملكرد مستقلي داشت، اما در حقيقت به وسيله يك كارشناس از اتاق ديگري كنترل مي‌شد. در بازي شكار روبنده به شركت‌كنندگان فهرستي داده مي‌شود تا در زمان محدود نسبت به جمع‌آوري اقلام ليست اقدام كرده و براساس امتياز دريافتي جايزه بگيرند.هر شركت‌كننده پس از صحبت كوتاهي با ربات وقت داشت ظرف مدت 2 دقيقه شروع به جمع‌آوري اقلام فهرست كند. هر يك از شركت‌كنندگان حداقل 7 شيء را پيدا كردند تا جايزه 20 دلاري را ببرند. اما پس از اتمام زمانشان روبو وي ادعا مي‌كرد آنها تنها 5 شيء را پيدا كرده‌اند.پس از اين‌كار نوبت به بخش دشوار(بخش معمايي) آزمايش رسيد؛ عكس‌العمل شركت‌كنندگان به بد حساب كردن ربات(غلط شمردن تعداد اقلام جمع‌آوري شده).بيشتر افراد در وهله اول با روبو وي موافق بودند، اما تعدادي هم او را متهم به تقلب و دروغگويي كردند. اما هنگام مصاحبه 65 درصد شركت‌كنندگان گفتند روبو وي بايد به‌خاطر نمره دادن غلط و قضاوت ناعادلانه حداقل تا اندازه‌اي سرزنش شود. اين موضوع نشان مي‌دهد زماني كه يك ربات قادر به صحبت و شركت در تعاملات اجتماعي باشد احتمال اين‌كه افراد زيادي اين ربات انسان نما را تا حدي مسئول رفتار آسيب زننده‌اش بدانند زياد است.از اين‌رو عده‌اي استدلال مي‌كنند با توجه به اين‌كه به‌نظر مي‌رسد شاكله برخي ارتش‌ها از سربازان انساني به سمت سربازان رباتيك در حال تغيير است بايد زنجيره‌اي از دستورها و فرمان‌هاي كنترلي ربات در قوانين حقوقي و قانون جنگ(قوانين بشر دوستانه) گنجانده شود تا در صورت آسيب رساندن اين‌گونه ربات‌ها به انسان از آن استفاده شود.كاهن معتقد است: استفاده از جنگجويان رباتيك فاصله انسان را از پيامدهاي جنگ به نوعي بيشتر كرده و انسان را نسبت به دردها و رنج‌هاي ناشي از جنگ بي‌تفاوت‌تر مي‌كند و همين موضوع شايد آتش جنگ‌افروزي قدرت‌ها را شعله ورتر كند.




تاريخ : یک شنبه 11 تير 1391برچسب:, | | نویسنده : مقدم |