هوش مصنوعی قابل توضیح (XAI) در زیست پزشکی: اتخاذ تصمیمات هوش مصنوعی قابل اعتماد برای پزشکان و بیماران

نوع فایل : word

تعداد صفحات ترجمه تایپ شده با فرمت ورد با قابلیت ویرایش : 30

تعداد کلمات : 10000

مجله : Biomedinformatics

انتشار : 2022

ترجمه متون داخل جداول : ترجمه شده است

درج جداول در فایل ترجمه : درج شده است

منابع داخل متن : به صورت فارسی درج شده است

کیفیت ترجمه : طلایی

فونت ترجمه : Bنازنین 12

تاریخ انتشار
19 دسامبر 2023
دسته بندی
تعداد بازدیدها
2555 بازدید
79,000 تومان

عنوان فارسی مقاله:هوش مصنوعی قابل توضیح (XAI) در زیست پزشکی: اتخاذ تصمیمات هوش مصنوعی قابل اعتماد برای پزشکان و بیماران

چکیده

 استفاده از سیستم‌های هوش مصنوعی (AI) در محیط‌های زیست‌پزشکی و بالینی می‌تواند رابطه سنتی پزشک و بیمار را که مبتنی بر اعتماد و شفافیت در توصیه‌های پزشکی و تصمیم‌های درمانی است، مختل کند. هنگامی که تشخیص یا انتخاب یک درمان دیگر تنها توسط پزشک انجام نمی‌شود، بلکه تا حد زیادی توسط یک ماشین با استفاده از الگوریتم‌ها انجام می‌شود، تصمیمات غیر شفاف می‌شوند. یادگیری مهارت رایج‌ترین کاربرد الگوریتم‌های یادگیری ماشین در تصمیم گیری بالینی است. این‌ها یک کلاس از الگوریتم‌های بسیار کلی (شبکه‌های عصبی مصنوعی، طبقه‌بندی‌کننده‌ها و غیره) هستند که بر اساس مثال‌هایی برای بهینه‌سازی طبقه‌بندی موارد جدید و دیده نشده تنظیم شده‌اند. درخواست توضیح برای یک تصمیم بی معنی است. درک دقیق جزئیات ریاضی یک الگوریتم هوش مصنوعی ممکن است برای متخصصان آمار یا علوم کامپیوتر امکان پذیر باشد. با این حال، وقتی صحبت از سرنوشت انسان‌ها می‌شود، این “توضیحات توسعه دهنده” کافی نیست. مفهوم هوش مصنوعی قابل توضیح (XAI) به عنوان راه حلی برای این مشکل، توجه علمی و نظارتی فزاینده‌ای را به خود جلب می‌کند. این بررسی بر این نیاز متمرکز است که XAI ها باید بتوانند به تفصیل تصمیمات اتخاذ شده توسط هوش مصنوعی را برای کارشناسان این حوزه توضیح دهند.

 

 

ادامه مطلب

راهنمای خرید:
  • لینک دانلود فایل بلافاصله بعد از پرداخت وجه به نمایش در خواهد آمد.
  • همچنین لینک دانلود به ایمیل شما ارسال خواهد شد به همین دلیل ایمیل خود را به دقت وارد نمایید.
  • ممکن است ایمیل ارسالی به پوشه اسپم یا Bulk ایمیل شما ارسال شده باشد.
  • در صورتی که به هر دلیلی موفق به دانلود فایل مورد نظر نشدید با ما تماس بگیرید.

Title: Explainable Artificial Intelligence (XAI) in Biomedicine: Making AI Decisions Trustworthy for Physicians and Patients

 

Abstract

 The use of artificial intelligence (AI) systems in biomedical and clinical settings can disrupt the traditional doctor–patient relationship, which is based on trust and transparency in medical advice and therapeutic decisions. When the diagnosis or selection of a therapy is no longer made solely by the physician, but to a significant extent by a machine using algorithms, decisions become nontransparent. Skill learning is the most common application of machine learning algorithms in clinical decision making. These are a class of very general algorithms (artificial neural networks, classifiers, etc.), which are tuned based on examples to optimize the classification of new, unseen cases. It is pointless to ask for an explanation for a decision. A detailed understanding of the mathematical details of an AI algorithm may be possible for experts in statistics or computer science. However, when it comes to the fate of human beings, this “developer’s explanation” is not sufficient. The concept of explainable AI (XAI) as a solution to this problem is attracting increasing scientific and regulatory interest. This review focuses on the requirement that XAIs must be able to explain in detail the decisions made by the AI to the experts in the field.