Journal of Philosophical Investigations

نوع مقاله : مقاله علمی- پژوهشی

نویسنده

استادیار پژوهشکده مطالعات بنیادین علم و فناوری دانشگاه شهید بهشتی

10.22034/jpiut.2024.63626.3875

چکیده

فناوری‌های هوش مصنوعی، در مقایسه با مصنوعات پیشین دارای قابلیت‌هایی جدید هستند که مسائل اخلاقی متفاوتی را مطرح می‌کند. از جمله این مسائل، بحث درباره عاملیت اخلاقی هوش مصنوعی است. مسئله عاملیت اخلاقی مصنوعی، پرسش‌های نظری و عملیاتی مختلفی را مطرح می‌سازد؛ مانند این که شروط لازم و کافی برای عاملیت اخلاقی چیست، چطور می‌توان برقراری این شروط را در مصنوعات بررسی کرد، عاملیت اخلاقی دارای چه سطوح و درجاتی است، و هر سطح از عاملیت اخلاقی برای واگذاری چه نوع وظایفی مناسب است. یکی از موضوعات پرتکرار در بحث حول عاملیت اخلاقی مصنوعی، عواطف است. فیلسوفان مختلفی به عواطف به‌عنوان عاملی اشاره کرده‌‌اند که در وجود یا عدم، و میزان ظرفیت اخلاقی مصنوعات مدخلیت دارد. در این مقاله به رابطه میان عواطف و ظرفیت اخلاقی هوش مصنوعی خواهیم پرداخت. پرسش اصلی این است که عواطف در ارتقاء ظرفیت اخلاقی فناوری‌های هوش مصنوعی نقشی مثبت دارند یا منفی؟ چهار استدلال از جانب موافقین نقش مثبت عواطف در ظرفیت اخلاقی استخراج و صورت‌بندی می‌شود که شامل استدلال از طریق حساسیت اخلاقی، عقلانیت محدود، برآورد خطر، و مجازات‌پذیری می‌شود. همچنین چهار استدلال از جانب مخالفین نقش مثبت عواطف در ظرفیت اخلاقی هوش مصنوعی ارائه می‌شود که شامل استدلال از طریق ربایش عاطفی، سراب عواطف، پارادوکس انسان‌انگاری و انسانیت‌زدایی همزمان، و مهارت‌زدایی اخلاقی است. در نهایت، با شفاف‌سازی نقاط نزاع دو طرف بحث، دیدگاه‌های فوق مورد تحلیل قرار گرفته و چالش‌های اخلاقی پیاده‌سازی عواطف در هوش مصنوعی شرح داده‌ می‌شود.

کلیدواژه‌ها

موضوعات

عنوان مقاله [English]

On Relation of Emotion and Moral Capacity in Artificial Intelligence Technologies

نویسنده [English]

  • Zahra Zargar

Assistant Professor in Institute for Science and Technology Studies, Shahid Beheshti University

چکیده [English]

The unpreceded abilities of AI technologies have led to the emergence of new ethical issues; among them is the possibility of moral agency of AI artefacts. There are many questions around this subject, including what are the necessary and sufficient conditions of being a moral agent? How can we examine those conditions in artefacts? What levels and degrees of agency are possible for artefacts? And what level of moral agency is proper for allocating a certain task to AI artefacts? There are wide discussions about factors that figure in the moral capacities of AI artefacts, and emotions are one of the frequently referred factors that directly or indirectly are relevant for examining their moral status. In this paper, we focus on the relation of emotions and moral capacities in AI technologies. Our main question Is whether emotions play a positive role in the improvement of moral capacities or a negative role. We extract and articulate four arguments in defense of the positive role of emotions in the improvement of AI moral capacities including arguments from moral sensitivity, bounded rationality, risk assessment, and culpability. Then, we present other four arguments in defense of the negative role of emotions in moral capacities including arguments from emotional hijacking, deceptive emotions, anthropomorphism and dehumanization paradox, and moral deskilling. Finally, we analyze the debate by clarifying the point of contests between the two mentioned camps and discuss about serious challenges of designing emotional AI.

کلیدواژه‌ها [English]

  • Emotions
  • Emotions and Morality
  • Artificial Moral Agency
  • Artificial Intelligence Ethics
  • Philosophy of Artificial Intelligence
CAPTCHA Image