نوع مقاله : مقاله علمی- پژوهشی
نویسنده
استادیار پژوهشکده مطالعات بنیادین علم و فناوری دانشگاه شهید بهشتی
چکیده
فناوریهای هوش مصنوعی، در مقایسه با مصنوعات پیشین دارای قابلیتهایی جدید هستند که مسائل اخلاقی متفاوتی را مطرح میکند. از جمله این مسائل، بحث درباره عاملیت اخلاقی هوش مصنوعی است. مسئله عاملیت اخلاقی مصنوعی، پرسشهای نظری و عملیاتی مختلفی را مطرح میسازد؛ مانند این که شروط لازم و کافی برای عاملیت اخلاقی چیست، چطور میتوان برقراری این شروط را در مصنوعات بررسی کرد، عاملیت اخلاقی دارای چه سطوح و درجاتی است، و هر سطح از عاملیت اخلاقی برای واگذاری چه نوع وظایفی مناسب است. یکی از موضوعات پرتکرار در بحث حول عاملیت اخلاقی مصنوعی، عواطف است. فیلسوفان مختلفی به عواطف بهعنوان عاملی اشاره کردهاند که در وجود یا عدم، و میزان ظرفیت اخلاقی مصنوعات مدخلیت دارد. در این مقاله به رابطه میان عواطف و ظرفیت اخلاقی هوش مصنوعی خواهیم پرداخت. پرسش اصلی این است که عواطف در ارتقاء ظرفیت اخلاقی فناوریهای هوش مصنوعی نقشی مثبت دارند یا منفی؟ چهار استدلال از جانب موافقین نقش مثبت عواطف در ظرفیت اخلاقی استخراج و صورتبندی میشود که شامل استدلال از طریق حساسیت اخلاقی، عقلانیت محدود، برآورد خطر، و مجازاتپذیری میشود. همچنین چهار استدلال از جانب مخالفین نقش مثبت عواطف در ظرفیت اخلاقی هوش مصنوعی ارائه میشود که شامل استدلال از طریق ربایش عاطفی، سراب عواطف، پارادوکس انسانانگاری و انسانیتزدایی همزمان، و مهارتزدایی اخلاقی است. در نهایت، با شفافسازی نقاط نزاع دو طرف بحث، دیدگاههای فوق مورد تحلیل قرار گرفته و چالشهای اخلاقی پیادهسازی عواطف در هوش مصنوعی شرح داده میشود.
کلیدواژهها
موضوعات
عنوان مقاله [English]
On Relation of Emotion and Moral Capacity in Artificial Intelligence Technologies
نویسنده [English]
- Zahra Zargar
Assistant Professor in Institute for Science and Technology Studies, Shahid Beheshti University
چکیده [English]
The unpreceded abilities of AI technologies have led to the emergence of new ethical issues; among them is the possibility of moral agency of AI artefacts. There are many questions around this subject, including what are the necessary and sufficient conditions of being a moral agent? How can we examine those conditions in artefacts? What levels and degrees of agency are possible for artefacts? And what level of moral agency is proper for allocating a certain task to AI artefacts? There are wide discussions about factors that figure in the moral capacities of AI artefacts, and emotions are one of the frequently referred factors that directly or indirectly are relevant for examining their moral status. In this paper, we focus on the relation of emotions and moral capacities in AI technologies. Our main question Is whether emotions play a positive role in the improvement of moral capacities or a negative role. We extract and articulate four arguments in defense of the positive role of emotions in the improvement of AI moral capacities including arguments from moral sensitivity, bounded rationality, risk assessment, and culpability. Then, we present other four arguments in defense of the negative role of emotions in moral capacities including arguments from emotional hijacking, deceptive emotions, anthropomorphism and dehumanization paradox, and moral deskilling. Finally, we analyze the debate by clarifying the point of contests between the two mentioned camps and discuss about serious challenges of designing emotional AI.
کلیدواژهها [English]
- Emotions
- Emotions and Morality
- Artificial Moral Agency
- Artificial Intelligence Ethics
- Philosophy of Artificial Intelligence
ارسال نظر در مورد این مقاله