خطرات هوش مصنوعی برای امنیت و آینده کار

نوع فایل : word

تعداد صفحات ترجمه تایپ شده با فرمت ورد با قابلیت ویرایش : 40

تعداد کلمات : 10000

مجله : RAND corporation

انتشار : 2023

ترجمه متون داخل جداول : ترجمه شده است

درج جداول در فایل ترجمه : درج شده است

منابع داخل متن : به صورت فارسی درج شده است

کیفیت ترجمه : طلایی

فونت ترجمه : Bنازنین 12

تاریخ انتشار
5 دسامبر 2023
دسته بندی
تعداد بازدیدها
2712 بازدید
89,000 تومان

عنوان فارسی مقاله:خطرات هوش مصنوعی برای امنیت و آینده کار

چکیده

 نسل‌های آینده ممکن است به زمان ما نگاه کنند و آن را به عنوان یکی از زمان‌های تغییرات شدید تشخیص دهند. در چند دهه‌ی کوتاه، ما از یک جامعه‌ی ماشین‌محور به جامعه‌ای مبتنی بر اطلاعات تبدیل شده‌ایم، و با ادامه‌ی بلوغ این عصر اطلاعات، جامعه مجبور شده است تا آشنایی جدید و نزدیک با سیستم‌های داده‌محور و الگوریتمی ایجاد کند. ما از واژه عوامل مصنوعی برای اشاره به دستگاه‌ها و وسایل کمکی تصمیم‌گیری استفاده می‌کنیم که بر رویه‌های یادگیری خودکار، مبتنی بر داده یا الگوریتمی (از جمله هوش مصنوعی (AI) در ابعاد متعدد آن) موتورهای توصیه به سیستم‌های شناختی پیشرفته‌تر مانند واتسون IBM متکی هستند. چنین عواملی در حال تبدیل شدن به بخشی ذاتی از فرآیندهای تصمیم گیری منظم ما هستند. ظهور و پذیرش آنها منجر به مجموعه‌ای از سؤالات مربوط به سیاست می‌شود. چگونه تفکر خود را در مورد سیاست مربوطه در این رژیم جدید تغییر جهت دهیم؟ نقاط کور ما در این فضا کجاست؟ چگونه کاربران و همچنین جمعیت‌های آسیب دیده، خطاهای منطق یا مفروضات را شناسایی و اصلاح می‌کنند؟ کدام بخش‌ها آماده‌ترین برای ایجاد اختلال توسط عوامل مصنوعی هستند، و چه رویکردهایی برای مقررات مؤثرتر خواهد بود؟

ما قبلاً یک گزارش نوشتیم (ازو و وسلر ۲۰۱۷) که در آن بر وجود نقاط کور و سوگیری با توجه به عوامل مصنوعی در سیستم عدالت کیفری تأکید داشت، اما بخش‌های دیگر احتمالاً تحت تأثیر قرار خواهند گرفت. این چشم انداز نتیجه یک تمرین ساختاریافته را مورد بحث قرار می‌دهد تا بفهمد چه مناطق دیگری ممکن است تحت تأثیر استقرار فزاینده عوامل مصنوعی قرار گیرند. ما برای ترسیم سناریوهایی که هوش مصنوعی می‌تواند تأثیر قابل‌توجهی داشته باشد، به گروه متنوعی از کارشناسان متکی بودیم. بخش روش تحقیق توضیح می‌دهد که چگونه این استخراج را انجام دادیم، که اساساً تمرینی در پیش بینی است. بنابراین، همه حوزه‌ها یا سناریوهای استخراج شده مهم نخواهند بود (از نظر احتمال وقوع یا بزرگی تأثیر). بنابراین، ما این بحث را بر روی دو حوزه با ارزش بالا از مجموعه کامل دامنه‌های برجسته متمرکز می‌کنیم: (۱) امنیت و (۲) آینده کاری. ما با بخشی در زمینه‌های سیاست و پیشنهادهایی برای نحوه برخورد با مسائل و نگرانی‌های مرتبط با هوش مصنوعی به پایان می‌رسانیم.

 

 

 

 

 

ادامه مطلب

راهنمای خرید:
  • لینک دانلود فایل بلافاصله بعد از پرداخت وجه به نمایش در خواهد آمد.
  • همچنین لینک دانلود به ایمیل شما ارسال خواهد شد به همین دلیل ایمیل خود را به دقت وارد نمایید.
  • ممکن است ایمیل ارسالی به پوشه اسپم یا Bulk ایمیل شما ارسال شده باشد.
  • در صورتی که به هر دلیلی موفق به دانلود فایل مورد نظر نشدید با ما تماس بگیرید.

Title: The Risks of Artificial Intelligence to Security and the Future of Work

Abstract

 Future generations may look back at our time and identify it as one of intense change. In a few short decades, we have morphed from a machine-based society to an information-based society, and as this Information Age continues to mature, society has been forced to develop a new and intimate familiarity with data-driven and algorithmic systems. We use the term artificial agents to refer to devices and decisionmaking aids that rely on automated, datadriven, or algorithmic learning procedures (including artificial intelligence (AI) in its many manifestations).1 These include devices as banal as Roomba robots and online recommendation engines to more advanced cognitive systems like IBM’s Watson. Such agents are becoming an intrinsic part of our regular decisionmaking processes. Their emergence and adoption lead to a bevy of related policy questions. How do we reorient our thinking on relevantpolicy in this new regime? Where are our blind spots in this space? How do users, as well as affected populations, identify and remedy errors in logic or assumptions? What sectors are the ripest for disruption by artificial agents, and what approaches to regulation will be most effective? We wrote a previous report (Osoba and Welser, 2017) emphasizing the existence of blind spots and bias with respect to artificial agents in the criminal justice system, but other sectors will likely be impacted. This Perspective discusses the outcome of a structured exercise to understand what other areas might be affected by increasing deployment of artificial agents. We relied on a diverse group of experts to paint scenarios in which AI could have a significant impact. The Research Methodology section describes how we did this elicitation, fundamentally an exercise in forecasting. all elicited domains or scenarios will be important (either in terms of likelihood of occurrence or magnitude of impact). Therefore, we focus this discussion on two high-value domains out of the full set of highlighted domains: (1) security and (2) future of work. We conclude with a section on policy themes and suggestions for how to approach AI-related issues and concerns.