هوش مصنوعی و مشروعیت دموکراتیک: مسئله عمومیت (تبلیغات) در سازمان دولتی

نوع فایل : word

تعداد صفحات ترجمه تایپ شده با فرمت ورد با قابلیت ویرایش : 23

تعداد کلمات : 7500

مجله : AI & SOCIETY

انتشار : 2022

ترجمه متون داخل جداول : ترجمه شده است

درج جداول در فایل ترجمه : درج شده است

منابع داخل متن : به صورت فارسی درج شده است

کیفیت ترجمه : طلایی

فونت ترجمه : Bنازنین 12

تاریخ انتشار
4 دسامبر 2023
دسته بندی
تعداد بازدیدها
2333 بازدید
89,000 تومان

عنوان فارسی مقاله:هوش مصنوعی و مشروعیت دموکراتیک: مسئله عمومیت (تبلیغات) در سازمان دولتی

چکیده

 الگوریتم‌های یادگیری ماشین (ML) به طور فزاینده‌ای برای حمایت از تصمیم‌گیری در اعمال قدرت و اختیارات دولتی استفاده می‌شوند. در اینجا، ما استدلال می‌کنیم که یک ملاحظۀ مهم در بحث‌های قبلی نادیده گرفته شده است: آیا استفاده از ML مشروعیت دموکراتیک نهادهای عمومی را تضعیف می‌کند یا خیر. از منظر مشروعیت دموکراتیک، این کافی نیست که ML به کارایی و دقت در اعمال قدرت عمومی کمک کند، که تاکنون تمرکز مطالعات علمی مرتبط با این تحولات بوده است. بر اساس یک نظریه تأثیرگذار، اعمال قدرت اداری و قضایی از نظر دموکراتیک مشروع است اگر و تنها در صورتی که تصمیمات اداری و قضایی در خدمت اهداف قانون گذار دموکراتیک باشد و بر اساس دلایلی باشد که با این اهداف هماهنگ باشد و برای عموم قابل دسترسی باشد. این الزامات توسط تصمیمات تعیین شده از طریق ML برآورده نمی‌شوند زیرا چنین تصمیماتی توسط عملیات آماری تعیین می‌شوند که از چندین جنبه مبهم هستند. با این حال، همه سیستم‌های پشتیبانی تصمیم مبتنی بر ML خطر یکسانی ندارند، و ما استدلال می‌کنیم که یک قضاوت سنجیده در مورد مشروعیت دموکراتیک ML در اعمال قدرت عمومی باید پیچیدگی موضوع را در نظر بگیرد. این مقاله ملاحظاتی را تشریح می‌کند که به ارزیابی این موضوع کمک می‌کند که آیا ML مشروعیت دموکراتیک را هنگامی که برای حمایت از تصمیمات عمومی استفاده می‌شود تضعیف می‌کند یا خیر. ما استدلال می‌کنیم که دو ملاحظات اصلی برای چنین ارزیابی هنجاری مرتبط است. اولین مورد، میزانی است که ML طبق هدف انجام می‌شود و تا چه اندازه جایگزین تصمیماتی می‌شود که قبلاً در دسترس و مبتنی بر دلایل بودند. دوم این است که استفاده از ML در اعمال قدرت عمومی باید در یک زیرساخت نهادی تعبیه شود که ارائه دلیل و دسترسی را تضمین می‌کند.

 

 

 

 

ادامه مطلب

راهنمای خرید:
  • لینک دانلود فایل بلافاصله بعد از پرداخت وجه به نمایش در خواهد آمد.
  • همچنین لینک دانلود به ایمیل شما ارسال خواهد شد به همین دلیل ایمیل خود را به دقت وارد نمایید.
  • ممکن است ایمیل ارسالی به پوشه اسپم یا Bulk ایمیل شما ارسال شده باشد.
  • در صورتی که به هر دلیلی موفق به دانلود فایل مورد نظر نشدید با ما تماس بگیرید.

Title: Artificial intelligence and democratic legitimacy. The problem of publicity in public authority

Abstract

 Machine learning algorithms (ML) are increasingly used to support decision-making in the exercise of public authority. Here, we argue that an important consideration has been overlooked in previous discussions: whether the use of ML undermines the democratic legitimacy of public institutions. From the perspective of democratic legitimacy, it is not enough that ML contributes to efficiency and accuracy in the exercise of public authority, which has so far been the focus in the scholarly literature engaging with these developments. According to one influential theory, exercises of administrative and judicial authority are democratically legitimate if and only if administrative and judicial decisions serve the ends of the democratic law maker, are based on reasons that align with these ends and are accessible to the public. These requirements are not satisfied by decisions determined through ML since such decisions are determined by statistical operations that are opaque in several respects. However, not all ML-based decision support systems pose the same risk, and we argue that a considered judgment on the democratic legitimacy of ML in exercises of public authority need take the complexity of the issue into account. This paper outlines considerations that help guide the assessment of whether a ML undermines democratic legitimacy when used to support public decisions. We argue that two main considerations are pertinent to such normative assessment. The first is the extent to which ML is practiced as intended and the extent to which it replaces decisions that were previously accessible and based on reasons. The second is that uses of ML in exercises of public authority should be embedded in an institutional infrastructure that secures reason giving and accessibility.