نوع مقاله : مقاله علمی- پژوهشی
نویسنده
استادیار پژوهشکده مطالعات بنیادین علم و فناوری دانشگاه شهید بهشتی، تهران، ایران.
چکیده
فناوریهای هوش مصنوعی، در مقایسه با مصنوعات پیشین دارای قابلیتهایی جدید هستند که مسائل اخلاقی متفاوتی را مطرح میکند. از جمله این مسائل، بحث درباره عاملیت اخلاقی هوش مصنوعی است. مسئله عاملیت اخلاقی مصنوعی، پرسشهای نظری و عملیاتی مختلفی را مطرح میسازد؛ مانند این که شروط لازم و کافی برای عاملیت اخلاقی چیست، چطور میتوان برقراری این شروط را در مصنوعات بررسی کرد، عاملیت اخلاقی دارای چه سطوح و درجاتی است و هر سطح از عاملیت اخلاقی برای واگذاری چه نوع وظایفی مناسب است. یکی از موضوعات پرتکرار در بحث حول عاملیت اخلاقی مصنوعی، عواطف است. فیلسوفان مختلفی به عواطف بهعنوان عاملی اشاره کردهاند که در وجود یا عدم و میزان ظرفیت اخلاقی مصنوعات مدخلیت دارد. در این مقاله به رابطه میان عواطف و ظرفیت اخلاقی هوش مصنوعی خواهیم پرداخت. پرسش اصلی این است که عواطف در ارتقاء ظرفیت اخلاقی فناوریهای هوش مصنوعی نقشی مثبت دارند یا منفی؟ چهار استدلال از جانب موافقین نقش مثبت عواطف در ظرفیت اخلاقی استخراج و صورتبندی میشود که شامل استدلال از طریق «حساسیت اخلاقی»، «عقلانیت محدود»، «برآورد خطر» و «مجازاتپذیری» میشود. همچنین چهار استدلال از جانب مخالفین نقش مثبت عواطف در ظرفیت اخلاقی هوش مصنوعی ارائه میشود که شامل استدلال از طریق «ربایش عاطفی»، «سراب عواطف»، «پارادوکس انسانانگاری و انسانیتزدایی همزمان» و «مهارتزدایی اخلاقی» است. در نهایت، با شفافسازی نقاط نزاع دو طرف بحث، دیدگاههای فوق مورد تحلیل قرار گرفته و چالشهای اخلاقی پیادهسازی عواطف در هوش مصنوعی شرح داده میشود.
کلیدواژهها
موضوعات
عنوان مقاله [English]
On the Relation of Emotion and Moral Capacity in Artificial Intelligence Technologies
نویسنده [English]
- Zahra Zargar
Assistant Professor in Institute for Science and Technology Studies, Shahid Beheshti University, Tehran, Iran
چکیده [English]
The unpreceded abilities of AI technologies have led to the emergence of new ethical issues; among them is the possibility of the moral agency of AI artifacts. There are many questions around this subject, including what are the necessary and sufficient conditions of being a moral agent? How can we examine those conditions in artifacts? What levels and degrees of agency are possible for artifacts? And what level of moral agency is proper for allocating a certain task to AI artifacts? There are wide discussions about factors that figure in the moral capacities of AI artifacts, and emotions are one of the frequently referred factors. Emotions are directly or indirectly relevant for examining AI’s moral status. In this paper, we focus on the relation between emotions and moral capacities in AI technologies. Our main question is whether emotions play a positive role in the improvement of moral capacities or a negative role. We extract and articulate four arguments in defense of the positive role of emotions in the enhancement of AI moral capacities, including arguments from moral sensitivity, bounded rationality, risk assessment, and culpability. Then, we present other four arguments in defense of the negative role of emotions in moral capacities including arguments from emotional hijacking, deceptive emotions, anthropomorphism and dehumanization paradox, and moral deskilling. Finally, we analyze the debate by clarifying the point of contest between the two mentioned camps and discuss serious challenges of designing emotional AI.
کلیدواژهها [English]
- emotions
- emotions and morality
- artificial moral agency
- artificial intelligence ethics
- philosophy of artificial intelligence
ارسال نظر در مورد این مقاله